Hi zusammen ...
Ich suche eine Software unter Linux, mit der ich komplette Websiten runterladen kann(sprich 1:1 Kopie) damit ich sie mir auch offline anschauen kann ...
Jeder Tipp ist willkommen ☺
Danke schonmal
Anmeldungsdatum: Beiträge: 78 Wohnort: München |
Hi zusammen ... Ich suche eine Software unter Linux, mit der ich komplette Websiten runterladen kann(sprich 1:1 Kopie) damit ich sie mir auch offline anschauen kann ... Jeder Tipp ist willkommen ☺ Danke schonmal |
Anmeldungsdatum: Beiträge: 726 |
httrack 😀 mfg benny |
Anmeldungsdatum: Beiträge: Zähle... |
wget |
Anmeldungsdatum: Beiträge: 1574 |
wget -rk -np [URL]
|
Anmeldungsdatum: Beiträge: 781 Wohnort: Wien |
Army hat geschrieben: wget -rk -np [URL] Kann man mit wget auch vorhandene Kopien updaten? mfg, |
Anmeldungsdatum: Beiträge: 3188 Wohnort: Wien |
|
Anmeldungsdatum: Beiträge: 1574 |
Kein Plan, ich hab den Befehl aus nem anderen Forum geklaut, weil da was ähnliches angesprochen wurde. Durchsuch mal das Manual, vielleicht findest ja was. Auf die Schnelle hab ich jetzt in der man-page nix über Update gefunden...Such mal selber...Ich glaub auch, dass dieses -rk -np nicht unbedingt perfekt ist, habs mal kurz ausprobiert, die Links haben nicht funktioniert. |
Anmeldungsdatum: Beiträge: 62 |
Ich kann Dir WebHTTrack empfehlen, ist im universe-Repo. Schau mal unter Download-Manager |