Hi,
ich würde gerne eine Webseite komplett runterladen, z.B. mit wget.
dazu verwendete ich folgenden Syntax:
Der Effekt ist, dass ich die index.html und eine Datei namens robots.txt bekomme. In der robots.txt steht z.B.:
Über Vorschläge, wie ich die Webseite speichern kann, ohne alle Seiten manuell aufzurufen, wäre ich sehr dankbar.
-Erl
ich würde gerne eine Webseite komplett runterladen, z.B. mit wget.
dazu verwendete ich folgenden Syntax:
Code:
wget --http-user=erl --no-http-keep-alive --no-cookies --user-agent=erl -r --level=inf -k --domains=domain.endung -p http://www.domain.endung
Ich vermute, der Betreiber hat hier eine Art Sicherung eingebaut, die erkennt, das ich wget verwende. [--user-agent=erl] schien wohl keinen Effekt zu haben.#bad bots
User-agent: Wget
Disallow: /
Über Vorschläge, wie ich die Webseite speichern kann, ohne alle Seiten manuell aufzurufen, wäre ich sehr dankbar.
-Erl