krasser Fehler in robots.txt?

Begonnen von startforum, 10 Februar 2007, 20:14:49

⏪ vorheriges - nächstes ⏩

0 Mitglieder und 1 Gast betrachten dieses Thema.

blockbuster

Hallo zusammen,

bin gerade auch auf diesen Artikel gestossen und fand ihn sehr interessant. Habe gleich mal die oben angehängte Datei bei mir ins Root kopiert.

Eine Sache ist mir noch aufgefallen die in der robtos.txt fehlt - folgendes nämlich:

Disallow: /DB_backup/

Denn mal im Ernst: was hat der Bot in diesem Verzeichnis verloren wenn er denn kommen sollte (und bei mir ist er oft zu Gast).

Was meint Ihr? Passt dies, oder sollte ich es lieber wieder entfernen?

MfG

Manuel

Ich hatte es bei mir auch reingetan.

Aber ich weiß nicht ob der Spider so ein Archiv überhaupt interessant findet.
Mein pragmaMx -> Berufswahl-Online.de

startforum

Solch ein Verzeichnis sollte man lieber per .htaccess schützen:
<Files *>
   Order Deny,Allow
   Deny from all
   Allow from localhost
</Files>

Eine robots.txt verhindert nicht das niemand darein schnuppert, eher würden kriminelle Elemente "geil" gemacht  :gruebel:

mfg

JoergK

Zitat von: startforum am 22 April 2007, 22:05:16
Eine robots.txt verhindert nicht das niemand darein schnuppert, eher würden kriminelle Elemente "geil" gemacht 

Stimmt zwar, jedoch was nützen Dir DB-Backups auf dem Server / Webspace, wenn der Server nen Plattencrash hat?  :puzzled:

Das Verzeichnis dient einzig als Ziel für die Adminfunktion DB Backup. Anschliessend sollte man sich umgehend die dort gespeicherte Datei herunter laden und danach auffem Server / Webspace löschen.  ;)
Gruß,
Jörg


Nobody is perfect ... so don't call me Nobody