Robots.txt ist eine Datei, viele Web-Designer Platz auf ihren Servern zu steuern, wie Suchroboter " kriechen " ihrer Website. Eine starke robots.txt -Datei kann direkt helfen Websites , wie Google und Bing, die relevanten Inhalte und blockieren den Zugriff auf geschützte Datenbank . Aktivieren robots.txt kann ein bisschen Arbeit zu nehmen, aber es zu deaktivieren ist viel einfacher. Sie können sich jederzeit wieder aktivieren später. Anleitung
1
Melden Sie sich beim Server Ordner mit der Datei robots.txt .
2
Benennen Sie Ihre robots.txt-Datei etwas anderes , zum Beispiel " robotsdisabled.txt " oder " robotsoff.txt . " In vielen Server-Zugriff Konfigurationen können Sie einfach auf den Dateinamen und warten Sie ein paar Sekunden nach dem Namen zu markieren , um so zu tun. Alles andere als die genaue Schreibweise " robots.txt " schaltet ihn aus, während die Datei auf Ihrem Server . Sie können wieder aktivieren zu jedem Zeitpunkt durch die Änderung des Namens zurück .
3
Speichern Sie die Änderungen auf Ihren Server. Das nächste Mal, jede Suchmaschine kriecht Ihrer Website, wird es ignoriert die Behinderten -Datei.