Um die Crawling-Verzögerung aus der robots.txt-Datei auf Ihrer SiteGround-Site zu entfernen, führen Sie die folgenden Schritte aus:
1. Melden Sie sich bei Ihrem SiteGround-Konto an und gehen Sie zur Website> Site-Tools> Dateimanager .
2. Navigieren Sie im Dateimanager zu public_html Ordner und öffnen Sie die Datei robots.txt Datei.
3. Suchen Sie die Zeile, die mit „Crawl-delay:“ beginnt, und entfernen Sie sie.
4. Speichern Sie die Änderungen in der robots.txt-Datei.
Das ist es! Sie haben die Crawling-Verzögerung nun erfolgreich aus der robots.txt-Datei auf Ihrer SiteGround-Site entfernt.
Hier ist ein Beispiel dafür, wie die robots.txt-Datei vor und nach dem Entfernen der Crawling-Verzögerung aussehen könnte:
Vorher:
„
Benutzeragent:*
Crawl-Verzögerung:5
Nicht zulassen:/wp-admin/
„
Nachher:
„
Benutzeragent:*
Nicht zulassen:/wp-admin/
„