Hi,
ich versuche jetzt schon seit einiger Zeit eine Komplette Webseite zu downloaden. Die entsprechende Seite erreicht man aber erst wenn man seine Zugangsdaten in einer Loggin Page eingegeben hat.
Ich hab es schon mit wget und httrack versucht. Httrack hab ich die Option URL finden probiert. Zugangsdaten wurden erkannt, jedoch kann es nichts downloaden. Wget geht überhaupt nicht.
Firefox Add-On Srcapbook plus findet alles jedoch wandelt es die über 300 Links nicht um, sondern erstellt einzelne Ordner, jede Menge Ordner. Somit kann man damit überhaupt nicht arbeiten.
Es handelt sich dabei um eine Doku in HTML Format die ich gerne offline haben würde.
Gibt es noch andere Tools die das können, bzw. die Loggin Hürde nehmen und die Links in lokale Links umwandeln?
LG