Hallo,
ich suche ein skriptfähiges (also bestenfalls für die Kommandozeile) Programm, mit dem ich lokale Kopien von Webseiten erzeugen kann.
Der Klassiker, "wget", ignoriert leider xHTML mit CSS-Formatierung und erzeugt daher keine korrekten Abbilder z.B. von Seiten aus der Wikipedia.
Die Funktion "Seite speichern unter..." der Browser Internet-Exploder, Mozilla und auch Opera liefern sehr gute Ergebnisse. Leider kann ich die nicht skripten, bzw. nur schwierig - ich muß für ein Projekt ein paar Dutzend Webseiten in einer Offline-Version speichern, damit man die Demonstration auch ohne Internetzugang durchführen kann.
Irgendwelche Tips?
Gruß, Andy