• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

ganze webseiten runterladen

moin.
ich weiss nicht obs das schonmal gab, mit der suche hab ich jedenflls nix gefunden.
ich suche irgend ein proggi, mit dem man komplette webseiten herunterladen kann.
am besten noch firefox oder opera kompatibel.
weiss da wer was?
 

PC-Ulf

Member
Code:
man wget

Wenn Du eine Website runterlädst, interessiert der Browser nicht. Die Programme ändern ja nichts am Code der Website, sondern laden nur die Website runter.

Hoffe es hilft ein wenig. Sicherlich gibt es noch einige andere Möglichkeiten. :wink:
 
OP
C

Cadettillac

Newbie
danke erstma für deine antwort.
hm, geht das mit wget?
also mit
Code:
wget url
kann man eine seite runtzerladen, nur leider find ich in der hilfe keinen befehl, mit dem man die komplette seite runterladen kann...
es geht um nen kumpel der kein internet hat und ich hab ihm versprochen ihm ein paar info's zu besorgen.

edit: wer suchet, der findet.
Code:
wget -r url
-r steht für recursive.

geile sache :D
 

groove

Newbie
http://www.pl-forum.de/berichte/wget-doku.html
hier wird wget erläutert. dazu kommen auch ein paar graphische frontends. ich benutze z. b. Kwebget.
mfg
 
Oben