Veröffentlicht 18. April 200520 j Hi, ich hab hier ein Redhat Server mit einem Ordner voll tausender kleiner Files. Normalerweise mach ich mit tar -cf einfach ein tar und schieb das als Backup (vorher noch gzip) auf einen anderen Rechner (per scp). Mein Problem: Es dauert ca. 2 Stunden bis das tar fertig ist ... dann noch mal 1 Stunde für das Zippen. Und zum Schluss hat das .gz noch ca 1,5 - 2 GB. Kann ich irgendwie das tar so verwenden das ich nur Änderungen und neue Dateien im tar habe ?? Sozusagen ein Inkrement des vorhergehenden tars ?? Dann würde ich am Wochenende einmal ein volles tar und über die Woche nur noch ein inkrementelles machen. man tar half mir nicht unbedingt weiter, dort gibts nen befehl -d (find differences between archive and file system) aber ich versteh den Sinn nicht ganz ... hab ein bisschen damit probiert und ich kam zu keinem sinnvollen Ergebnis. Danke !!! Gruß Scratch
18. April 200520 j tar -u ist laut linuxfibel.de der Befehl zum Updaten also nur das einbinden neuerer Dateien. Gruß, Containy
20. April 200520 j ja, tar --update hängt nur neue Dateien an. Ich hab das mal für automatisierte Backups per scp verwendet, mir ist dann ein Perl script empfohlen worden, backitup oder so ... *google* ..., habs verloren , sorry aber Freshmeat Inkrementelle Backups
20. April 200520 j Autor Danke !!! Hab aber selbst bereits eine Lösung gefunden: http://www.gnu.org/software/tar/manual/html_mono/tar.html#SEC85 mit tar und supereasy. Man muss nur aufpassen das man die "listed-incremental"-Datei nicht verliert ;-) Gruß Scratch
22. April 200520 j Nabend, wenn es um eine gute, platzsparende Backup Technik mit Revision geht, kann ich hiervon nur schwärmen : http://www.rsnapshot.org/ Grüße Terran
Archiv
Dieses Thema wurde archiviert und kann nicht mehr beantwortet werden.