Drupal nutzt eine Suchmaschine Sperrung Methode , die für alle Web -Server , Suchmaschinen aus Einarbeitung der Web-Seiten dient es in eine Suchdatenbank zu verhindern. Dies wird häufig für Websites , die nicht öffentlich zugänglichen Daten , oder Suchmaschinen von der Beantragung übermäßigen Verkehr von einer Website zu verhindern. Anleitung
1
Suchen Sie die " robots.txt "-Datei im Root- Verzeichnis Ihrer Drupal-Website . Der Stammordner ist auch der Standort Ihrer Homepage , aber die Lage auf dem Web -Server wird in Abhängigkeit von der von Ihnen verwendete Betriebssystem laufen Drupal .
2
Erstellen Sie eine leere Datei mit dem Namen " Roboter sind . txt " in Ihrem Root- Ordner, wenn es nicht bereits vorhanden ist . Drupal Version 5 und höher wird eine robots.txt-Datei standardmäßig , aber Sie können auch diese Datei, wenn es nicht bereits vorhanden ist .
3
Öffnen Sie die Datei robots.txt in ein . Texteditor
4
Ersetzen Sie den Inhalt der robots.txt-Datei mit dem folgenden:
User-agent: *
Disallow: /Tablet < p> Damit alle Web-Suchmaschinen , um alle Inhalte zu überspringen. User-Agent bedeutet die Suchmaschine , die "*" ist ein Platzhalter , dh jeder . Der "/" bedeutet, die Wurzel, oder " oben", von Ihrer Website. Daher wird durch das Verbot des die Wurzel, alle Inhalte auf allen Seiten auf der Website - die hierarchisch " niedriger " als die Wurzel sind - werden übersprungen
5
Speichern Sie die Datei robots.txt. . Wenn Ihr Web -Server verwendet einen Web -Cache- Seite , setzen Sie es so , dass die neue Seite gesendet wird, um Suchmaschinen , wenn sie die robots.txt Seite anfordern .