Zum Inhalt springen

Grosse Dateien im lokalen Netzwerk über torrent-Protokoll verteilen?


kb2010

Empfohlene Beiträge

Hallo

ich möchte grosse Dateien im lokalen Netzwerk über torrent-Protokoll verteilen, statt dass die einzelnen PCs (ca 1 Dutzend) sich über xcopy die Dateien holen, damit es es einfach schneller geht (statt einem "Server" sollen dann alle Rechner "Server" sein). Das kann ein Raum voller Rechner sein, die alle mit VirtualPC-Images betankt werden sollen.

Betriebssystem ist XP bisher.

Die Dateien wechseln, mal sind es die virtuellen Maschinen A, B und C, die Woche drauf wie virtuellen Maschinen D, E und F.

Scripttechnisch wäre mir am liebsten, wenn die einzelnen Rechner, wenn Sie fertig sind, eine Art Signal geben, ich möchte die Dateien ja noch automatisiert in Virtual PC einbinden.

Mögliche bisherige Rahmenbedingungen:

- Ich habe wechselnde Dateien: mal "A B und C" und die Woche drauf "D E und F". Es gibt keinen Server der zu einer Zeit alle 6 Images vorhält.

- wechselnde Server-IP-Adressen

- am liebsten scriptbar, darf auch console-only sein (d.h. keine GUI erforderlich)

- die Erstbetankung des "Masters" kann auch über USB-Platte oder in sonstiger Weise erfolgen, sobald "irgendwas" in C:\freigabe liegt soll es "losgehen" mit der Verteilung.

Nein, Warez und sonstiges Piraterie ist das nicht.

Danke & ciao

Link zu diesem Kommentar
Auf anderen Seiten teilen

Kann rsync auch reagieren, "ach wenn Maschine1 sagt sie ist beschäftigt, dann hole ich mir eine Liste von Maschinen, die die Datei (oder den entspr. Block) ebenfalls hat - nach dem Motto andere Mütter haben auch schöne Töchter."

Darum genau gehts mir: wenn ich nur eine Maschine erst betanke, dann begrent diese die Dauer bis alle 10 Rechner "auf Stand" sind.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Es wäre erst einmal die Frage wofür Du das brauchst.

Und vor allem weißt Du was Deine Maschinen machen, d.h. auf jede Maschine einen Rsync Dämon installiert und dann kannst Du gegen jede synchronisieren

Wenn es Bittorrent sein muss, dann brauchst Du trotzdem einen zentralen Tracker, denn woher soll ein einzelner Client die Liste bekommen, bei welchen Maschinen der Chunk gehostet wird?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wenn es Bittorrent sein muss, dann brauchst Du trotzdem einen zentralen Tracker

Es _muss_ nicht bittorrent sein, ich suche ein Protokoll, wo jeder Client sich seine Pakete da holen kann, wo er sie sich schnell (!) holen kann. So eine Cluster-Umgebung in VirtualPC ist schon mal 300 (in Worten dreihundert) GB - das Verteilen nur über einen Rechner dauert brutal lang - und 10 Gigabit-Netzwerk ist zu teuer für uns, speziell die Switche und dann gibts oft keine Treiber für XP.

Wenn also schon mal ein (dieses oder ein anderes) Protokoll erfolgreich eingesetzt hat... raus mit der Sprache...

Link zu diesem Kommentar
Auf anderen Seiten teilen

Es _muss_ nicht bittorrent sein, ich suche ein Protokoll, wo jeder Client sich seine Pakete da holen kann, wo er sie sich schnell (!) holen kann.

Das ist doch egal, das Bottelneck ist Anbindung des Rechners auf den geladen wird.

So eine Cluster-Umgebung in VirtualPC ist schon mal 300 (in Worten dreihundert) GB - das Verteilen nur über einen Rechner dauert brutal lang - und 10 Gigabit-Netzwerk ist zu teuer für uns, speziell die Switche und dann gibts oft keine Treiber für XP.

Wofür brauchst Du Treiber bei Switches?

Außerdem bezweifel ich diese Aussage, dass es keine Treiber gibt für LAN Karten. InfiniBand ? Wikipedia dabei ist MS selbst Mitentwickler

Da Du Deine Images auf einem Fileserver liegen hast, würde ich Dir vorschlagen, diesen mit entsprechender Bandbreite auszustatten, mehrfach Gigabit, diese als Bonding an einen Switch zu bündeln und dann via RSync die Daten zu übertragen. Bei Rsync werden nur Chunks übertragen, d.h. wenn Du einmalig synchronisiert nur noch Veränderungen.

Warum Du wochenweise immer ganze VMs kopieren musst auch unverständlich, denn ich kann einmal in jeden Client einen entsprechenden Satz an VM kopieren und via Snapshot Änderungen wieder zurück setzen und das wäre z.B. scriptbar. Das in Kombination mit Rsync würde es Dir ermöglichen, dass Änderungen die Du an Deinen Masterimages machst recht effizient zu übertragen

Link zu diesem Kommentar
Auf anderen Seiten teilen

Außerdem bezweifel ich diese Aussage, dass es keine Treiber gibt für LAN Karten.

Gugg einfach selbst unter *Network Adapter Drivers for Windows XP* "Microsoft Windows XP is not supported on 10-gigabit Intel® Ethernet Server Adapters."

Da Du Deine Images auf einem Fileserver liegen hast, würde ich Dir vorschlagen, diesen mit entsprechender Bandbreite auszustatten, mehrfach Gigabit, diese als Bonding an einen Switch zu bündeln und dann via RSync die Daten zu übertragen.

Ich habe nur einen, maximal 2 Gigabit-Links zu den Räumen. Ist ein 40 Jahre alter Beton"bunker"

Warum Du wochenweise immer ganze VMs kopieren musst auch unverständlich

Tja, mal wollen Leute Server2008r2 zeigen, die Woche drauf Linux und die Woche drauf Oracle/SAP - und du weisst nicht, woran die Leute herumgedrückt haben, also schon immer neu auftanken.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Tja, mal wollen Leute Server2008r2 zeigen, die Woche drauf Linux und die Woche drauf Oracle/SAP - und du weisst nicht, woran die Leute herumgedrückt haben, also schon immer neu auftanken.

Ja aber Du hast doch das in einer VM. Da machst Du auf einem Stand einen Snapshot und sagt, wenn die VM beendet wird, den Snapshot zurück holen, d.h. sobald die VM ausgemacht wird, hast Du immer den gleichen Stand.

Hardwaretechnisch kannst Du das auch noch mit Wächterkarten absichern, halte ich aber für oversized.

Es wäre halt einmal die Arbeit in jede Kiste eine HDD zu schrauben auf der alle Images liegen und dann kannst Du via Rsync die Images vom Server updaten, da müsste auch 1Gbit reichen

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ja aber Du hast doch das in einer VM. Da machst Du auf einem Stand einen Snapshot und sagt, wenn die VM beendet wird, den Snapshot zurück holen, d.h. sobald die VM ausgemacht wird, hast Du immer den gleichen Stand.

Du weisst aber nicht, ob ein Oracle'r evtl. eine Linux-VM gelöscht hat.

Es wäre halt einmal die Arbeit in jede Kiste eine HDD zu schrauben auf der alle Images liegen und dann kannst Du via Rsync die Images vom Server updaten, da müsste auch 1Gbit reichen

So grosse Festplatten existieren nicht, wir reden hier von fast 10 TB Software.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Gast
Dieses Thema wurde nun für weitere Antworten gesperrt.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...