Veröffentlicht 8. August 200619 j Mir ist folgendes aufgefallen: Woran kann es liegen, dass wenn ich Daten von einem Verzeichnis welches per NFS eingeunden ist auf die lokale Platte mit tar archiviere, ich im Schnitt die Daten mit nur ca. 3,3 MB/Sek wegschreibe (laut tar --totals). Ok, das sind immerhin 11,6 GB/Stunde, wenn ich jedoch 200 GB sichern soll innerhalb von einem Tag ist das viel zu wenig. Hat irgendjemand eine Idee woran das mit den 3,3 MB liegen kann?
9. August 200619 j Ja ein paar weitere Informationen wären da wohl nicht schlecht. Zum Beispiel wie so allgemein die Netzwerkstruktur aussschaut.
9. August 200619 j Autor Im Syslog steht nichts. Netzwerkanbindung ist GigaBit (am Gigabit Switch). Auf beiden Maschinen läuft SuSE 10.1. Der Rechner mit den Daten und der NFS-Freigabe ist ein IBM X346, der Rechner welcher die Daten lokal mittels tar speichert ist ein Noname (AMD Athlon 1500?).
10. August 200619 j NFS war noch nie ein Performancewunder. Bitte teste mal mittels NetIO wieviel wirklich über die Leitung geht. Achte bitte darauf das du NFSv3 über TCP nutzt. Alternativ teste NFSv4. Zudem gibt es unterschiede in der Zusammenarbeit von verschiedenen NFS Implementierungen. So ist z.B. ein Linux Client beim Lesezugriff von einem Solaris 10 NFS Server schneller, als die Kombination Linux-Linux. NFS Performance und Tuning ist ein weites Gebiet.
14. August 200619 j Autor Ok, das mit NFS ist klar. Jedoch tritt dieses Problem auch bei SMB auf (auch sicherlich kein Performance-Wunder). Damit habe ich es inzwischen auch schon mal getestet. Mit NetIO habe ich noch keine Messung gemacht, jedoch bei Kopie auf lokale Platte über NFS erreiche ich um die 10 MB/Sek. Auf jeden Fall deutlich mehr wie die 3,3 bei Verwendung von tar übers Netz.
14. August 200619 j Dann mach bitte mal eine Messung mit NetIO in beide Richtung, also jede Maschine einmal Client und einmal Server, jeweils TCP und UDP.
Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.