• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

[gelöst] Webseite will sich nicht runterladen lassen

Status
Für weitere Antworten geschlossen.

Erl

Newbie
Hi,
ich würde gerne eine Webseite komplett runterladen, z.B. mit wget.
dazu verwendete ich folgenden Syntax:
Code:
 wget --http-user=erl --no-http-keep-alive --no-cookies --user-agent=erl -r --level=inf -k --domains=domain.endung -p http://www.domain.endung
Der Effekt ist, dass ich die index.html und eine Datei namens robots.txt bekomme. In der robots.txt steht z.B.:
#bad bots
User-agent: Wget
Disallow: /
Ich vermute, der Betreiber hat hier eine Art Sicherung eingebaut, die erkennt, das ich wget verwende. [--user-agent=erl] schien wohl keinen Effekt zu haben.
Über Vorschläge, wie ich die Webseite speichern kann, ohne alle Seiten manuell aufzurufen, wäre ich sehr dankbar.
-Erl
 
OP
E

Erl

Newbie
Einfach bei wget
Code:
-erobots=off
dazunehmen und schon geht es wunderbar.
 
Status
Für weitere Antworten geschlossen.
Oben