Download von HTTP Verzeichnissen

  • Ich möchte von einer Webseite mehrere (hundert) Dateien runterladen, die nach dem Muster http://www.domain.de/pdf/.../.../1.pdf in verschiedenen Unterordnern liegen.


    Bisher hab ich nur die Möglichkeit gefunden, über FlashGet den Inhalt von bestimmten Ordnern runterzuladen, wenn ich die gesamte URL manuell eingebe, aber das ist bei der Menge von Unterverzeichnissen eine nahezu unendlich lange Arbeit.


    Kann ich - mit FlashGet oder einem anderen Tool - Inhalte von gesamten Verzeichnissen ziehen, ohne alle Unterpfade angeben zu müssen?

    Signatur ist so 2002.

  • Danke für den Link, hab den Thread komplett übersehen.


    HTTrack hab ich soeben probiert, irgendwie steig ich nicht dahinter wie ich einen Download starten kann, der ausgehend von einer Basis-URL alle Unterverzeichnisse selber ermittelt und zieht. Die Verzeichnisse haben eine Pfadtiefe von 3 Stufen und ich will vermeiden, alle Unterverzeichnisse manuell eingeben zu müssen.

    Signatur ist so 2002.

  • Du hast die Startseite, die 'Willkommen bei WinHTTrack' sagt und 'Bitte auf WEITER klicken'. Im nächsten Schritt gibts Du Deinem Projekt dann einen Namen, weist es vielleicht einer Kategorie zu und wählst ein Verzeichnis aus, wo es abgelegt werden soll -> WEITER -> unter URL hinzufügen kann Du die URL auswählen, die Du downloaden willst, unter Aktion wählst Du Automatische Web-Site-Kopie aus. Unter 'Einstellungen' kannst Du unter Grenzwerte noch die maximale Tiefe festlegen (bis zu 20). Noch einmal 'Weiter' und gleich 'Fertig stellen' und das wars...

  • All right, jetzt scheint es zu klappen. :)


    Vorhin hat sich ein Fehler eingeschlichen, als ich per Copy&Paste die URL eingefügt hab, da am Anfang noch ein http:// zuviel drin war.

    Signatur ist so 2002.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!