wget
wget kann Dateien nicht-interaktiv aus dem Internet herunterladen
Beschreibung
Nicht interaktiv
- wget kann im Hintergrund arbeiten, während der Benutzer nicht angemeldet ist.
- Im Gegensatz dazu erfordern die meisten Webbrowser die ständige Anwesenheit des Benutzers, was bei der Übertragung einer großen Datenmenge ein großes Hindernis darstellen kann.
- So können Sie einen Abruf starten und die Verbindung zum System trennen, während Wget die Arbeit beendet.
Protokolle
- HTTP-, HTTPS- und FTP-Protokolle sowie den Abruf über HTTP-Proxys.
- Wget kann Links in HTML-, XHTML- und CSS-Seiten folgen
- um lokale Versionen von entfernten Websites zu erstellen
- wobei die Verzeichnisstruktur der ursprünglichen Website vollständig wiederhergestellt wird.
- Dies wird manchmal auch als "rekursives Herunterladen" bezeichnet.
- Dabei beachtet Wget den Robot Exclusion Standard (/robots.txt).
- * Wget kann angewiesen werden, die Links in den heruntergeladenen Dateien so umzuwandeln, dass sie auf die lokalen Dateien verweisen, damit sie offline betrachtet werden können.
- Wget wurde so konzipiert, dass es auch bei langsamen oder instabilen Netzwerkverbindungen stabil arbeitet.
- Wenn ein Download aufgrund eines Netzwerkproblems fehlschlägt, wird er so lange wiederholt, bis die gesamte Datei abgerufen wurde.
- Wenn der Server eine Wiederholung unterstützt, weist es den Server an, den Download an der Stelle fortzusetzen, an der er unterbrochen wurde.
wget ist ein Programm, mit dem man direkt aus einem Terminal Dateien von FTP- oder HTTP-Servern herunterladen kann.
Das Programm ist sehr praktisch, wenn man in einem Shellscript Daten von Servern holen will, aber es ist auch ein sehr guter Downloadmanager.
Downloads können zu einem späteren Zeitpunkt an der abgebrochenen Stelle fortgeführt werden.
Installation
# apt install wget
Syntax
Optionen
Log- und Eingabe-Optionen
Unix | GNU | Beschreibung |
---|---|---|
-i DATEI | --input-file=DATEI | Liest URLs aus einer Text- oder HTML-Datei aus |
-nv--no-verbose | Gibt nur die wichtigsten Informationen aus | |
-q | --quiet | Verhindert dass wget Informationen auf der Konsole ausgibt. |
-v | --verbose | Vollständige Ausgabe aller Informationen. (Standard) |
Download-Optionen
Unix | GNU | Beschreibung |
---|---|---|
-t <X> | --tries=<X> | Anzahl der Versuche <X>, die wget unternehmen soll eine Datei herunterzuladen. |
-c | --continue | Versucht einen teilweise durchgeführten Download fortzusetzen. |
-N | Lädt nur dann die Datei herunter, wenn die Datei neuer ist als eine Datei gleichen Namens auf dem Heimrechner. | |
-O DATEINAME | --output-document=DATEINAME | Schreibe in DATEI.
|
--user=<user> | Gibt einen Usernamen für HTTP bzw.
| |
--password=<password> | Gibt ein Passwort für HTTP bzw.
|
Verzeichnis-Optionen
Unix | GNU | Beschreibung |
---|---|---|
-P VERZEICHNIS | Erlaubt die Angabe eines Verzeichnisses, wo die heruntergeladene(n) Datei(en) gespeichert werden soll(en). | |
-nd--no-directories | Falls Dateien rekursiv heruntergeladen werden, so werden sie lokal in einem Verzeichnis gespeichert, | |
-x | --force-directories | Das Gegenteil von -nd.
|
Optionen für den rekursiven Download
Unix | GNU | Beschreibung |
---|---|---|
-r | --recursive | Aktiviert den rekursiven Download von Daten. |
-l <tiefe> | --level=<tiefe> | Anzahl der Schritte <tiefe>, die wget weiterverfolgen soll |
-k | --convert-links | Konvertiere nach dem Download externe Links zu internen, so dass ein HTML-Dokument Offline betrachtet werden kann. |
-A <acclist> | --accept <acclist> | Mit Kommata getrennte Liste an Datei-Erweiterungen, die heruntergeladen werden sollen |
-R <rejlist> | --reject <rejlist> | Mit Kommata getrennte Liste an Datei-Erweiterungen, die nicht heruntergeladen werden sollen |
-D DOMAINS | --domains=DOMAINS | Mit Kommata getrennte Liste an Domains, deren Links verfolgt werden sollen |
--exclude-domains | Eine Liste an Domains, die nicht beachtet werden sollen. |
Parameter
Umgebungsvariablen
Exit-Status
Anwendung
Fehlerbehebung
Konfiguration
Dateien
Anhang
Siehe auch
Unterseiten
Sicherheit
Dokumentation
RFC
Man-Pages
Info-Pages
Links
Einzelnachweise
Projekt
Weblinks
Testfragen
Testfrage 1
Antwort1
Testfrage 2
Antwort2
Testfrage 3
Antwort3
Testfrage 4
Antwort4
Testfrage 5
Antwort5