Ihre PHP -powered Web -Server antwortet auf jeden Nutzer oder Suchmaschinen , die Ihre Website durchsucht . Wenn Sie eine Subdomain mit Duplicate Content erstellt haben , ist es am besten , um Suchmaschinen Zugriff auf diese Seiten zu blockieren. Sie verwenden die " robots.txt " -Datei auf Subdomains von gecrawlt blockieren. Diese Datei ist eine Textdatei , die Sie erstellen und bearbeiten mit dem Editor. Es muss in das Root-Verzeichnis auf Ihrem Webserver platziert werden. Anleitung
1
Klicken Sie in Windows auf "Start " und geben Sie "notepad " in das Suchfeld ein. Drücken Sie "Enter ", um den Texteditor Notepad starten. Öffnen Sie ein neues Dokument
2
Kopieren Sie den folgenden Code in das neue Dokument : .
User-agent: * Disallow: /
3
Speichern Sie die Datei und stellen Sie sicher, Sie nennen es " robots.txt " .
4
Öffnen Sie Ihre Server-Konsole oder am Bedienfeld. Jedes Hosting-Anbieter hat eine eigene Schnittstelle , so folgt dem üblichen Verfahren, um sich einzuloggen und navigieren Sie dann zu den Root-Ordner Ihres Subdomain .
5
Laden Sie die robots.txt -Datei auf der Subdomain zu Root-Verzeichnis auf Ihrem PHP Web -Server. Suchmaschinen sind jetzt aus allen Verzeichnissen und Dateien auf dieser Subdomain blockiert.