Hallo,
im Wiki zu wget ist ein Bsp. wie man eine ganze Website inkl. einer bestimmten Verlinkungstiefe herunterladen kann, was vor ewigen Zeiten auch mal funktioniert hat - jetzt leider nicht mehr:
wget -r -k -E -l 8 http://example.com
Auch andere Bsp. aus dem Netz liefern immer nur die aktuelle Seite als Downloads, die Verlinkungen werden nicht heruntergeladen. Kann das mal jemand bei sich versuchen? Ist das nur bei mir so? Passiert auch auf meinem Raspberry Pi. Hab das mit einer Seite von der deutschen Wikipedia und dem wget-wiki hier versucht. In beiden das gleiche.
Friedrich