ich möchte gern diese Seite komplett herunterladen. Also unendliche Rekursionstiefe, da auf keiner der weiter verlinkten Seiten ein externer Link enthalten ist (ich hoffe, das ist verständlich formuliert). Allerdings lädt wget nur die Startseite und die robots.txt herunter. Die Befehlszeile sieht folgendermaßen aus:
Nun die Frage: Mache ich etwas falsch oder kommt wget nicht damit klar, dass die Links zu den weiteren Seiten in der Grafik enthalten sind? In letzterem Fall: Was gibt es für Alternativen?
Die Option -r von wget bezweckt ja auch nicht das holen aller Dateien einer einzelnen Seite, sondern das rekursive Runterladen eines gesamten Verzeichnisbaums.
Um ersteres zu bezwecken schließe ich mich mal meinem Vorredner an.
Ach jetzt krieg ich das erstmal mit, da sind noch Links über ne Map ins Bild eingebettet. Das kann natürlich sein, das wget damit nicht klar kommt. Könnte aber auch daran liegen, das die Seite total fehlerhaft ist.
Ich habe HTTrack mal ausprobiert, bisher leider mit einem sehr ähnlichen Ergebnis. Allerdings habe ich mich auch noch nicht komplett mit den extrem umfangreichen Kommandozeilenoptionen beschäftigt. 😉 Mal sehen, ob ich das noch hinkriege...
Für den Firefox gibt es noch Scrapbook. Leider muss dafür der Firefox an sein. Die Seiten ohne den Firefox anzusehen ist aufgrund der Art wie Scrapbook speichert etwas mühsam (Alles in ein Verzeichnis).
So, die grafische Version von HTTrack ist zwar einfacher zu bedienen, aber liefert leider das gleiche Ergebnis. Ich glaube, ich lasse es erstmal sein, so wichtig ist das nicht. Trotzdem danke für alle Antworten!