Zum Inhalt springen

Webseiten automatisiert Spiegeln?


DrNGoc

Empfohlene Beiträge

Hallo zusammen,

wir haben ca. 20+ Webseiten und möchten diese in regelmäßigen Abständen automatisiert spiegeln lassen um sie auf einem weiteren Server oder lokal auf einem separaten Rechner abzuspeichern.

CMS ist SharePoint weswegen auch die Umwandlung/Abspeicherung der .aspx-Dateien in HTML funktionieren sollte.

Die abgespeicherten Webseiten sollen sich bei jedem Zyklus aktualisieren und nach Möglichkeit ein Backup der letzten Version erstellen.

Dokumente, Bilder, Videos, Flash etc. müssen nicht mit kopiert werden. Es geht lediglich um die Textinhalte.

HTTrack z.B. hat das alles schon ganz gut gemacht, jedoch gibt es dort keine Funktion für eine automatisierte Spiegelung und man müsste es immer manuell anstoßen.

wget scheint auch in Ordnung zu sein, hatte auf die schnelle aber nichts gefunden, dass es automatisch abläuft und dass die .aspx in html umgewandelt werden.

Daher meine Frage, ob jemand ein Lösung kennt oder weitere Vorschläge hat?

Vielen Dank,

drngoc

Link zu diesem Kommentar
Auf anderen Seiten teilen

Von welchem Betriebssystem sprechen wir denn? Wenn auf Deinem Server ein *nix läuft, dann sollten sowohl wget als auch cron bereits installiert sein, oder ohne weitere Probleme installiert werden können. Bei Windows wird es bestimmt auch wget geben, cron könnte man dort vielleicht durch "geplante Tasks" (heißen die so?) ersetzen.

Schöne Grüße,

Peter

Link zu diesem Kommentar
Auf anderen Seiten teilen

Über ein Cronjob kann man nichts spiegeln, man kann es kopieren zum zeitpunkt x+1

Wie wäre es mit einem SVN zu arbeiten und die deployments mit zu versioniesieren?

Spiegeln heisst, sofort zum zeitpunkt x jeder datei, das entsprechende spiegel auf backup zu haben. Das halte ich aber bei webseiten für unsinnig.

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 4 Wochen später...

HTTrack Website Copier - Offline Browser

"HTTrack is a free (GPL, libre/free software) and easy-to-use offline browser utility.

It allows you to download a World Wide Web site from the Internet to a local directory, building recursively all directories, getting HTML, images, and other files from the server to your computer."

kleines batchfile per cronjob zu gewünschtem zeitpunkt starten

batchfile -> ruft httrack in konsolenversion mit gewünschten parametern(geschwindigkeit, nur update, komplette kopie, ziel, speicherort, ..., ...) auf

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...