Suchmaschinen wie Google "durchsuchen" das Web nicht aktiv nach neuen Websites auf die Art und Weise, wie ein Mensch könnte. Stattdessen verlassen sie sich auf eine Kombination von Methoden, um neue Websites zu entdecken und zu indizieren:
* Einreichungen: Website -Eigentümer können die URL ihrer Website direkt über die Google -Suchkonsole (oder gleichwertige Tools für andere Suchmaschinen) einreichen. Dies ist eine ziemlich zuverlässige, wenn auch manuelle Methode.
* kriechen vorhandene Websites: Suchmaschinencrawler (auch als Bots oder Spinnen bezeichnet) durchsuchen ständig im Web und folgen Links von einer Seite zu einer anderen. Wenn sie auf einen Link zu einer neuen Website stoßen, werden sie diese Website zu ihrer Warteschlange hinzufügen, um sie zu krabbeln. Dies ist eine hochwirksame passive Entdeckungsmethode. So viele neue Websites werden gefunden; Sie sind von vorhandenen, bereits indexierten Websites verknüpft.
* Sitemaps: Website -Eigentümer können XML -Sitemaps erstellen, in denen alle Seiten auf ihrer Website aufgeführt sind. Wenn Sie diese Sitemap über ihre Webmaster -Tools an die Suchmaschine einreichen, können Sie dem Crawler alle Seiten, einschließlich neuer, effizient entdecken.
* Einreichungen von Drittanbietern: Verschiedene Webdienste und Verzeichnisse indexieren Websites und können diese Informationen mit Suchmaschinen weitergeben.
* Social Media: Obwohl sie keine primäre Methode hat, kann die erhöhte Sichtbarkeit einer neuen Website auf Social -Media -Plattformen manchmal Suchmaschinen dazu führen, sie schneller zu entdecken. Dies ist eher ein indirekter Einfluss.
* Backlinks: Andere Websites, die mit der neuen Website verlinken, können Suchmaschinen entdecken. Je mehr Backlinks eine Website hat, desto wahrscheinlicher ist es, dass sie schnell indiziert werden soll.
Der Prozess folgt im Allgemeinen folgenden Schritten:
1. Entdeckung: Eine neue Website wird durch eine der oben genannten Methoden entdeckt.
2. Abrufen: Der Crawler lädt den HTML -Code der Website herunter.
3. Indexierung: Der Crawler analysiert die heruntergeladenen Inhalte und extrahiert Schlüsselinformationen wie Schlüsselwörter, Links und Meta -Beschreibungen. Diese Informationen werden dann im Index der Suchmaschine gespeichert.
4. Ranking: Sobald die Seiten indexiert sind, werden die Seiten der Website basierend auf zahlreichen Faktoren eingestuft, einschließlich Relevanz, Autorität und Benutzererfahrung.
Es ist wichtig zu beachten, dass eine Website auch nach der Entdeckung und Indexierung in den Suchergebnissen möglicherweise nicht sofort angezeigt wird. Der Ranking -Prozess braucht Zeit und hängt von verschiedenen Faktoren ab. Außerdem werden nicht alle Seiten auf einer Website sofort indiziert. Die Häufigkeit eines gekrabbten Standorts hängt von mehreren Faktoren ab, einschließlich dessen Inhalt, Relevanz und der Anzahl der von ihnen erhälten Backlinks.