ubuntuusers.de

Rekursives Holen mit wget funktioniert nicht

Status: Ungelöst | Ubuntu-Version: Ubuntu 9.04 (Jaunty Jackalope)
Antworten |

Darth_Özzi

Avatar von Darth_Özzi

Anmeldungsdatum:
26. August 2008

Beiträge: 67

Wohnort: Region Hannover

Liebe Linux-Genossen,

ich möchte gern diese Seite komplett herunterladen. Also unendliche Rekursionstiefe, da auf keiner der weiter verlinkten Seiten ein externer Link enthalten ist (ich hoffe, das ist verständlich formuliert). Allerdings lädt wget nur die Startseite und die robots.txt herunter. Die Befehlszeile sieht folgendermaßen aus:

wget -r --level=inf -p -k http://fhhinfo.rz.fh-hannover.de/maps/standort_ricklinger_stadtweg.htm

Nun die Frage: Mache ich etwas falsch oder kommt wget nicht damit klar, dass die Links zu den weiteren Seiten in der Grafik enthalten sind? In letzterem Fall: Was gibt es für Alternativen?

Danke schonmal

Daniel

stfischr Team-Icon

Avatar von stfischr

Anmeldungsdatum:
1. März 2007

Beiträge: 19197

Hi.

Was hältst du von Firefox, "diese Seite speichern unter" oder "Bild speichern unter"?

Ansonsten:

wget -m -p

nehmen, für mirror und page-requisites. Genaueres unter

man wget

patlkli

Avatar von patlkli

Anmeldungsdatum:
20. April 2006

Beiträge: 646

Die Option -r von wget bezweckt ja auch nicht das holen aller Dateien einer einzelnen Seite, sondern das rekursive Runterladen eines gesamten Verzeichnisbaums.

Um ersteres zu bezwecken schließe ich mich mal meinem Vorredner an.

stfischr Team-Icon

Avatar von stfischr

Anmeldungsdatum:
1. März 2007

Beiträge: 19197

Ach jetzt krieg ich das erstmal mit, da sind noch Links über ne Map ins Bild eingebettet. Das kann natürlich sein, das wget damit nicht klar kommt. Könnte aber auch daran liegen, das die Seite total fehlerhaft ist.

FaulFels

Avatar von FaulFels

Anmeldungsdatum:
15. August 2006

Beiträge: 97

Wohnort: Köln

Hallo,

du kannst es auch mit HTTrack versuchen, damit sollte es in jedem Fall funktionieren.

Gruß,

FaulFels

Darth_Özzi

(Themenstarter)
Avatar von Darth_Özzi

Anmeldungsdatum:
26. August 2008

Beiträge: 67

Wohnort: Region Hannover

Hallo FaulFels, danke für die Antwort.

Ich habe HTTrack mal ausprobiert, bisher leider mit einem sehr ähnlichen Ergebnis. Allerdings habe ich mich auch noch nicht komplett mit den extrem umfangreichen Kommandozeilenoptionen beschäftigt. 😉 Mal sehen, ob ich das noch hinkriege...

Gruß, Daniel

FaulFels

Avatar von FaulFels

Anmeldungsdatum:
15. August 2006

Beiträge: 97

Wohnort: Köln

Hallo Darth Özzi,

dann versuch doch mal WebHTTrack. Das sollte leichter fallen…

Gruß,

FaulFels

Hefeweiz3n Team-Icon

Moderator, Webteam
Avatar von Hefeweiz3n

Anmeldungsdatum:
15. Juli 2006

Beiträge: 5815

Wohnort: Ankh-Morpork

Für den Firefox gibt es noch Scrapbook. Leider muss dafür der Firefox an sein. Die Seiten ohne den Firefox anzusehen ist aufgrund der Art wie Scrapbook speichert etwas mühsam (Alles in ein Verzeichnis).

Darth_Özzi

(Themenstarter)
Avatar von Darth_Özzi

Anmeldungsdatum:
26. August 2008

Beiträge: 67

Wohnort: Region Hannover

So, die grafische Version von HTTrack ist zwar einfacher zu bedienen, aber liefert leider das gleiche Ergebnis. Ich glaube, ich lasse es erstmal sein, so wichtig ist das nicht. Trotzdem danke für alle Antworten!

Antworten |