So laden Sie eine gesamte Website zur Offline-Nutzung herunter
Es gibt verschiedene Möglichkeiten, eine gesamte Website für die Offline-Nutzung herunterzuladen. Die für Sie beste Methode hängt von der Größe der Website, der Art der darin enthaltenen Inhalte und Ihrem eigenen technischen Fachwissen ab.
1. Verwenden Sie eine Browsererweiterung
Es gibt eine Reihe von Browsererweiterungen, mit denen sich ganze Websites herunterladen lassen. Zu den beliebtesten Erweiterungen gehören:
- [WebCopy ](https://webcopy.io/)
- [HTTrack ](https://www.httrack.com/)
- [SiteSucker ](https://www.sitesucker.com/)
- [Teleport Pro ](https://www.teleportpro.com/)
Diese Erweiterungen funktionieren, indem sie eine Website rekursiv crawlen und ihren gesamten Inhalt herunterladen, einschließlich Text, Bilder, Videos und Skripte. Sobald der Download abgeschlossen ist, können Sie die Website offline mit Ihrem Webbrowser durchsuchen.
2. Verwenden Sie einen speziellen Website-Downloader
Es gibt auch eine Reihe spezieller Website-Downloader, mit denen Sie ganze Websites herunterladen können. Zu den beliebtesten Website-Downloadern gehören:
- [Offline-Explorer ](https://www.offexp.com/)
- [WebCopier ](https://www.webcopier.com/)
- [WinHTTrack ](http://www.httrack.com/page/2/)
- [WSGet ](http://www.wsget.com/)
Diese Website-Downloader bieten in der Regel mehr Funktionen als Browsererweiterungen, z. B. die Möglichkeit, bestimmte Dateien herunterzuladen, Download-Limits festzulegen und Downloads zu planen.
3. Verwenden Sie eine Batchdatei
Wenn Sie mit der Befehlszeile vertraut sind, können Sie auch eine Batchdatei zum Herunterladen einer gesamten Website verwenden. Eine Batchdatei ist eine einfache Textdatei, die eine Reihe von Befehlen enthält. Mit den folgenden Schritten können Sie eine Batchdatei zum Herunterladen einer Website erstellen:
1. Öffnen Sie einen Texteditor.
2. Geben Sie die folgenden Befehle ein:
„
cd C:\Benutzer\IhrBenutzername\Downloads
Starten Sie „IE“ „http://www.example.com“
taskkill /IM iexplore.exe
Starten Sie cmd.exe
cd „C:\Benutzer\IhrBenutzername\Downloads\www.example.com“
wget -r -np -nd -e robots=off http://www.example.com
„
3. Speichern Sie die Datei als „download-website.bat“.
4. Doppelklicken Sie auf die Batch-Datei, um den Download zu starten.
Diese Batchdatei öffnet den Internet Explorer und navigiert zur angegebenen URL. Anschließend wird der Internet Explorer-Prozess beendet und ein Eingabeaufforderungsfenster geöffnet. Die Batch-Datei wechselt dann in das Download-Verzeichnis und lädt die Website mit dem Befehl wget rekursiv herunter.
4. Verwenden Sie ein Python-Skript
Wenn Sie mit Python vertraut sind, können Sie auch ein Python-Skript verwenden, um eine ganze Website herunterzuladen. Es gibt eine Reihe von Python-Bibliotheken, die für diesen Zweck verwendet werden können, wie zum Beispiel:
- [Anfragen ](https://requests.readthedocs.io/en/master/)
- [schöne Suppe4 ](https://beautiful-soup-4.readthedocs.io/en/latest/)
- [wget ](https://packages.python.org/wget/)
Mit den folgenden Schritten können Sie ein Python-Skript zum Herunterladen einer Website erstellen:
1. Öffnen Sie einen Texteditor.
2. Geben Sie den folgenden Code ein:
„Python
Importanfragen
bs4 importieren
wget importieren
def download_website(url):
Antwort =Anfragen.get(URL)
Suppe =bs4.BeautifulSoup(response.text, "html.parser")
für Link in Suppe.find_all('a'):
href =link.get('href')
wenn href und href.startswith('http'):
wget.download(href)
if __name__ =='__main__':
url ='http://www.example.com'
download_website(URL)
„
3. Speichern Sie die Datei als „download-website.py“.
4. Führen Sie das Skript mit dem folgenden Befehl aus:
„
Python download-website.py
„
Dieses Python-Skript verwendet die Anforderungsbibliothek, um den HTML-Code der angegebenen URL abzurufen. Anschließend wird die BeautifulSoup-Bibliothek verwendet, um den HTML-Code zu analysieren und alle Links zu extrahieren. Anschließend wird die wget-Bibliothek verwendet, um jeden Link herunterzuladen.
5. Nutzen Sie einen Drittanbieterdienst
Darüber hinaus gibt es eine Reihe von Drittanbieterdiensten, mit denen sich komplette Websites herunterladen lassen. Für diese Dienste ist in der Regel eine Gebühr zu entrichten, sie bieten jedoch eine bequeme und einfache Möglichkeit, Websites herunterzuladen. Zu den beliebtesten Drittanbieterdiensten gehören:
- [Internetarchiv ](https://archive.org/)
- [WebCite ](https://webcite.org/)
- [Pagefreezer ](https://pagefreezer.com/)
Diese Dienste funktionieren in der Regel durch das Crawlen einer Website und das Erfassen ihres gesamten Inhalts