Webpage-Mirror-Tool gesucht

  • Hallo,


    ich suche ein skriptfähiges (also bestenfalls für die Kommandozeile) Programm, mit dem ich lokale Kopien von Webseiten erzeugen kann.


    Der Klassiker, "wget", ignoriert leider xHTML mit CSS-Formatierung und erzeugt daher keine korrekten Abbilder z.B. von Seiten aus der Wikipedia.
    Die Funktion "Seite speichern unter..." der Browser Internet-Exploder, Mozilla und auch Opera liefern sehr gute Ergebnisse. Leider kann ich die nicht skripten, bzw. nur schwierig - ich muß für ein Projekt ein paar Dutzend Webseiten in einer Offline-Version speichern, damit man die Demonstration auch ohne Internetzugang durchführen kann.


    Irgendwelche Tips? :)


    Gruß, Andy

    [deutschlandsim ALL-IN premium:Galaxy Nexus; BASE-internet:iPad1; BASE-internet:mifi]

  • Hallo, mir ist nicht klar, warum du auf Kommandozeile arbeiten willst/musst?


    Wieso ist der Einsatz der üblichen Offline-Reader/Browser für deinen Zweck untauglich?


    BTW: gehört das nicht ins Software-Forum?


    Grüße, Öle

    Mit Grüßen ...

  • Zitat

    Original geschrieben von rajenske
    Hallo, mir ist nicht klar, warum du auf Kommandozeile arbeiten willst/musst?
    Wieso ist der Einsatz der üblichen Offline-Reader/Browser für deinen Zweck untauglich?
    BTW: gehört das nicht ins Software-Forum?


    Kommandozeile, weil ich mit einem Skript über 350 URLs aus einem Datenbestand (XML) extrahiert habe, die ich gerne in einer Offline-Version vorliegen haben möchte.
    Die URLs der XML-Dateien werde ich dann gegen die lokalen Versionen ersetzen.


    wget ist ja eigentlich genau die richtige Software für diesen Zweck. Leider berücksichtigt es CSS-Stylesheets nicht, oder zumindest nicht korrekt.


    Falls es besser ins Software-Forum gehört, nur zu .. möge ein Mod es verschieben.

    [deutschlandsim ALL-IN premium:Galaxy Nexus; BASE-internet:iPad1; BASE-internet:mifi]

  • Wget holt natürlich nur das, was es auf der gegebenen URL geliefert bekommt. Vieleicht hilft es, die CSS-Files von Hand herunterzuladen und in den entsprechenden Pfad zu kopieren, damit der Browser darauf zugreifen kann. Z.B.:


    http://en.wikipedia.org/style/monobook/main.css
    http://en.wikipedia.org/style/commonPrint.css
    ...

    mutt : "All mail clients suck. This one just sucks less."
    Es gibt Threads die braucht man nichtmal lesen um zu wissen was ab geht - /me 2004-01-05 20:54


    Registriert seit: 05/2002 => 10 Jahre TT :)

  • Tut es leider nicht, denn die eingebetteten CSS-Files werden im xHTML-Source ja referenziert. Handarbeit ist bei mehr als 350 URLs nicht drin (es sind nicht nur Wikipedia-Seiten).


    Ich habe inzwischen ein paar Webmirror-Tools probiert und bin bei "MetaProducts Offline Explorer" hängengeblieben. Ist nur für Windows, nicht Kommandozeile, aber mit etwas Vor- und Nachbearbeitung bekomme ich da hoffentlich etwas hin ... *seufz*

    [deutschlandsim ALL-IN premium:Galaxy Nexus; BASE-internet:iPad1; BASE-internet:mifi]

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!