Supportnet / Forum / Webseiten/HTML
Download kompletter Websites
Frage
Hallo Leute,
kennt jemand eine Software (am besten natürlich Freeware), mit der ich mir eine komplette Website einschließlich der Unterverzeichnisse auf meinen Rechner ziehen kann, ohne jede html-Seite und jedes Bild einzeln downloaden zu müssen?
Danke
Websurfer
Antwort 1 von M.O.
Antwort 2 von MoRe99
Andere Alternative: google mal nach websiteloader.
Antwort 3 von gnolf
WinHTTrack ermöglicht es, komplette Webseiten herunter zu laden und anschließend offline anzusehen. Dabei werden alle Objekte der Seite auf die Festplatte kopiert und die Struktur der Seite neu arrangiert. Das Tool ist einfach zu bedienen und verfügt über eine integrierte Hilfe. Eine Unterstützung für Proxy-Server ist ebenfalls integriert.
http://www.httrack.com/
http://www.winload.de/download/28904/Browser/WinHTTrack-3.31.html
Freeware (GNU-Open Source) für Windows 9x, ME, NT, 2000, XP oder Linux
http://www.httrack.com/
http://www.winload.de/download/28904/Browser/WinHTTrack-3.31.html
Freeware (GNU-Open Source) für Windows 9x, ME, NT, 2000, XP oder Linux
Antwort 4 von stefanowski
Ich nehme dazu HTTRACK - funktioniert wunderbar, ist freeware, alles wunderbar! Gibts bei http://www.httrack.com/
Antwort 5 von websurfer
An alle
Danke!!!
websurfer
Danke!!!
websurfer
Antwort 6 von Fragenfrager ohne Kekse
Wobei noch erwähnt sei, daß es Seiten gibt die explizit diese Programme über die .htaccess aussperren, da sie unverhältnismäßig viel Traffic für den Webmaster bedeuten...
Antwort 7 von robbie17
@Fragenfrager
die erfahrung hab ich auch gemacht
das ist ne echte stolperfalle
bei httrack sollte man deshalb einen user-agent auswählen
der den namen des programms nicht enthält
dann gibt es kein problem
wenn das saugen am robots.txt-file scheitert
kann man das auch ignorieren lassen
aber darauf macht httrack bei bedarf im fehlerreport aufmerksam
die erfahrung hab ich auch gemacht
das ist ne echte stolperfalle
bei httrack sollte man deshalb einen user-agent auswählen
der den namen des programms nicht enthält
dann gibt es kein problem
wenn das saugen am robots.txt-file scheitert
kann man das auch ignorieren lassen
aber darauf macht httrack bei bedarf im fehlerreport aufmerksam
Antwort 8 von Tizi
hallo @ll
ich lese hier gerade mal zufällig vorbei.
Klingt für mich ein wenig dubios.
deshalb frag ich lieber nochmal nach.
Wozu lädt man denn eine ganze Internetpage runter?
ich lese hier gerade mal zufällig vorbei.
Klingt für mich ein wenig dubios.
deshalb frag ich lieber nochmal nach.
Wozu lädt man denn eine ganze Internetpage runter?
Antwort 9 von Schimmi
Hallo Tizi,
es gibt verschiedene Gründe. Einmal kann es sein,
daß ich mit Modem unterwegs bin und es handelt sich um eine sehr umfangreiche Website. Die kann ich dann jederzeit offline lesen. Zum Anderen gibt es Websites, die so interresant aufgebaut sind, das man in Ruhe den Quellcode studieren möchte.
Es ist natürlich so, wenn jemand mit einer DSL-Flatrate surft, ist das nicht mehr so interresant, da der BenutzerIn jederzeit und schnell die Site wieder aufrufen kann.
Gruß,
Schimmi
http://www.alschim.de
es gibt verschiedene Gründe. Einmal kann es sein,
daß ich mit Modem unterwegs bin und es handelt sich um eine sehr umfangreiche Website. Die kann ich dann jederzeit offline lesen. Zum Anderen gibt es Websites, die so interresant aufgebaut sind, das man in Ruhe den Quellcode studieren möchte.
Es ist natürlich so, wenn jemand mit einer DSL-Flatrate surft, ist das nicht mehr so interresant, da der BenutzerIn jederzeit und schnell die Site wieder aufrufen kann.
Gruß,
Schimmi
http://www.alschim.de