20. Dezember 200123 j Hi Leute Ich hab mal ne Frage Kennt ihr irgendein gutes Tool (wenn es geht Freeware) um Webseiten komplett downzuloaden und auf der Festplatte abspeichern zu können???? Wenn ja dann schreib mir bitte ein Antwort oder sogar den LINK!!!!!!!!! :eek: :confused:
20. Dezember 200123 j Hi! Ich würde einfach mal auf www.chip.de kucken, die haben da andauern so ein kram c u Greenthumb
20. Dezember 200123 j Im IE gibt's doch so ne Funktion, Webseite Offline verfügbar machen. Bringt das nichts?
20. Dezember 200123 j @ Jogo Nee, echt die funktion ist nicht so dolle. Zum einen hat man wenig Einstellungsmöglichkeiten, zum anderen sind die daten nicht zu finden auf der Platte, d.h. wenn du die Site woanders mit hinmnehmen möchtest geht das nicht, oder wenn du dein System neu machst, ist es weg. bis denn dann, Greenthumb
20. Dezember 200123 j Unter Linux gibts das Tool wget. Das ist ein Konsolentool was sehr mächtig ist. Damit hat ein anderer Azubi bei uns schon mal versehentlich (ich glaubs ihm) versucht die Seite www.microsoft.com mit allen Unterverzeichnissen herunterzuladen. Als sein /home Verzeichnis überlief haben wir es dann doch mal abgebrochen. Redfox
20. Dezember 200123 j also ich kann dir die Programme WepStripper www.webstripper.net webRipper www.webripper.net empfehlen. Probier sie einfach mal aus! Für HTML Seiten sollten die beide gleich gut sein sonst würde ich dir evtl den WebRipper empfehlen wenn du so wie ich auch dir kompletten ZIP's und so mit ziehen möchtest! Gandalf
20. Dezember 200123 j Danke erstmal Aber das geht nicht ganz Ich muß ne HTML und ne HTM Seite über ein Netzwerk ziehen (mit Suchmaschiene, Dokumentenverwaltung usw.) Die Webseite wurde von unserem neuen Intranet Portal Share Point Portal Server 2001 von MS angelegt und greift auf den IIS (Internet Information Service) zurück. Der Netzwerkpfad beginnt also nicht www. und deshalb gehen die Programme nicht so gut. Bitte ich brauche eure HILFE :eek: :eek: :eek: :eek:
20. Dezember 200123 j Des ist doch wurscht ob des mit www. anfängt oder nicht. Ich seh da überhaupt kein Problem. Dann trägst halt den Pfad als Intranetadresse ein. Wird doch sowieso nach IP uafgelöst.
20. Dezember 200123 j Die Sch**** Programme gehen aber nicht wegen dem IIS (Interne Information Service) Ich weis das das normalerweise gehen müsste aber es geht nicht!!! :confused:
20. Dezember 200123 j Werden die Seiten, die Du heruterladen möchtest, dynamisch generiert? Wenn das der Fall ist, dann geht das auf die herkömmliche Art auch schlecht.
20. Dezember 200123 j Das kann sein wo sehe ich denn das ob die Seiten dynamisch generiert werden?????????
20. Dezember 200123 j Das sieht man meist daran, das bei URs relativ lange Pfade auf irgendwelche PHP- oder PL-Dateien angegeben werden, also z.B.: <A href="seite.php?PHPSESSIONID=45454a5d4a545a4f54f5d45a4d5f45da54f5da¶m1=¶m2=...">Text</A> Ansonsten: ich hab ein Programm mit dem das Kein Problem sein dürfte: HTTP Weazel (Shareware), funktioniert mit sehr vielen Einstellungsmöglichkeiten und auch für mehrere Server, wenn nötig... Solche dynamischen Scripts erkennt das Teil automatisch. Probier's mal aus.
20. Dezember 200123 j Also ich kann mich nur oben anschließen. Mit Teleport Pro habe ich sehr gute Erfahrungen gemacht.
20. Dezember 200123 j Das sieht man meist daran, das bei URs relativ lange Pfade auf irgendwelche PHP- oder PL-Dateien angegeben werden, also z.B.: <A href="seite.php?PHPSESSIONID=45454a5d4a545a4f54f5d45a4d5f45da54f5da¶m1=¶m2=...">Text</A> Ansonsten: ich hab ein Programm mit dem das Kein Problem sein dürfte: HTTP Weazel (Shareware), funktioniert mit sehr vielen Einstellungsmöglichkeiten und auch für mehrere Server, wenn nötig... Solche dynamischen Scripts erkennt das Teil automatisch. Probier's mal aus.
Archiv
Dieses Thema wurde archiviert und kann nicht mehr beantwortet werden.