Zum Inhalt springen

wie viele VMs laufen auf einem NAS mit 10 Gigabit LAN Gigabit Ethernet over iSCSI


JackC

Empfohlene Beiträge

ich weiß, man kanns nur schwer sagen und es hängt von einigen Faktoren ab, aber dennoch würde ich gerne mal eine durchschnittliche Aussage haben.

Ich plane ein QNAP TS-EC879U-RP mit Quad Core Intel® Xeon® E3-1225 v2 Processor 3.2 GHz zu verwenden und einer 10 Gigabit Ethernet LAN Karte.

Die Datastores sind über iSCSI an die Hosts angebunden.

VMs bestehen aus 4 GB RAM und sind Domänencontroller und sonstiges was eigentlich wenig Datendurchsatz hat.

Wie viele kann ich auf dem NAS gleichzeitig laufen lassen?

Ein paar Erfahrungsberichte zu ähnlichen Systemen mit shared Storage würden mir schon helfen

Bearbeitet von JackC
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich denke, die Begrenzung liegt an SCSI. Hier kann man nachlesen, wie viele Geräte per SCSI verwendbar sind: Small Computer System Interface. Ich weiß jetzt zwar nicht genau, um welche virtuelle Umgebung es sich handelt, aber wenn jede (virtuelle) Verbindung eine SCSCI-Schnittstelle simuliert, ist das die Begrenzung.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@pr0gg3r:

Die Frage ist doch, wie viele VMs drauf laufen können und nicht wie viele Laufwerke simuliert werden können. Was in der Liste da angegeben ist, ist wie viele Geräte / Laufwerke am entsprechenden SCSI-Standard gleichzeitig angeschlossen werden können. Das hat aber nicht wirklich etwas mit der Frage des Threaderstellers zu tun, denn die QNAP wird per iSCSI (vermutlich dann über einen "SAN"-Switch) an den / die Server angebunden. Pro Server werden vermutlich mehrere VMs laufen (wenn nicht sogar alle auf einem) und somit wären es vielleicht bei 2 Servern z.B. 2 iSCSI-Anbindungen, die von der Virtualisierungsumgebung dann entsprechend auf die VMs "aufgeteilt" und über virtuelle Netzwerkkarten connected werden.

Die Limitierung von 2^32 iSCSI-Devices (bei IPV4) wird man in der Praxis wohl eher nicht erreichen ( mehr als 4 Mrd. Geräte).

Was SAN-seitig die mögliche Anzahl an gleichzeitig darauf laufenden VMs limitieren könnte, wäre entweder die Netzwerkschnittstelle (Bandbreite), die Rechenleistung des "SAN-Servers", die Bandbreite der verwendeten Devices (alle oder bestimmte Platten im SAN laufen am Leistungslimit was Schreib-/Lesegeschwindigkeit angeht) sowie den verfügbaren Plattenplatz oder RAM.

Ansonsten könnte halt die Leistung / Anzahl der Server der begrenzende Faktor sein, oder aber der Switch, über den das SAN angebunden ist.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich plane ein QNAP TS-EC879U-RP mit Quad Core Intel® Xeon® E3-1225 v2 Processor 3.2 GHz zu verwenden und einer 10 Gigabit Ethernet LAN Karte.

Die Datastores sind über iSCSI an die Hosts angebunden.

VMs bestehen aus 4 GB RAM und sind Domänencontroller und sonstiges was eigentlich wenig Datendurchsatz hat

a) Sag bloss nicht wieviele Bays belegt sind und was fuer Platten genau drin stecken, Bandbreite ist naemlich Dein geringstes Problem, Raidlevel und LUN-Konfiguration waeren auch nett

B) Deine VMs sind oversized ;)

Bei 10 Gig ist IOPS die Limitierungsgroesse und nicht Bandbreite, wenn Du nicht extrem aktive netzwerklastige Server vorzeigen kannst, was Deiner Beschreibung ja zu entnehmen ist.

Bei iSCSI solltest Du zusaetzlich noch auf die Entfernung, sprich round trip time achten, idealerweise so wenig hops wie moeglich zwischen Server und "Array" haben.

@progger: SCSI-Limitierungen haben damit rein garnichts mehr zu tun, iSCSI verpackt SCSI Befehle in einen Header und spricht damit ueber das Netzwerk entsprechenden Blockstorage an. Die einzige SCSI Limitierung entsteht also am Array selbst von den Platten her, die am Controller angeschlossen sind und dem Datendurchsatz an dem jeweiligen Controller.

Link zu diesem Kommentar
Auf anderen Seiten teilen

[...]Bei 10 Gig ist IOPS die Limitierungsgroesse und nicht Bandbreite, wenn Du nicht extrem aktive netzwerklastige Server vorzeigen kannst, was Deiner Beschreibung ja zu entnehmen ist.[...]
Du meinst also mit anderen Worten, wie viele Ein- und Ausgabe-Befehle pro Sekunde der Controller an die Datenträger weitergereicht bekommt.

Bei iSCSI solltest Du zusaetzlich noch auf die Entfernung, sprich round trip time achten, idealerweise so wenig hops wie moeglich zwischen Server und "Array" haben.
Und möglichst keine Switche, die auf store-and-forward (Paket speichern und wenn es komplett da und überprüft ist erst weiterleiten) eingestellt sind, sondern nur Switche, die eines der diversen Cut-Through-Verfahren (Paket wird sofort weitergeleitet, sobald das Ziel bekannt ist. Fehlerüberprüfung findet nur unter bestimmten Umständen, in bestimmten Teilen des Pakets oder wenn bestimmte Toleranzwerte überschritten werden statt.) beherrschen.
Link zu diesem Kommentar
Auf anderen Seiten teilen

Du meinst also mit anderen Worten, wie viele Ein- und Ausgabe-Befehle pro Sekunde der Controller an die Datenträger weitergereicht bekommt.

Jain, IOPS sind I/O Operations per Second, ja die kommen erstmal am SP (Storageprozessor) an und werden dann an den Controller weitergeleitet, Problem in dem Bereich sind jedoch meist zu langsame Disks oder nicht genug Disks im Array in Verbindung mit keinem oder zu kleinem Cache. Zumal recht viele User nicht wirklich zwischen Frontend und Backend IOPS unterscheiden.

Genauso bringt es wenig unterschiedliche LUNs zu definieren, wenn dann doch alles auf der gleichen Diskgroup laeuft ;)

Wie der TE schon gesagt hat, ist das ein verdammt komplexes Thema und eine genaue Aussage ist nur mit vernuenftiger Datenlage moeglich, da helfen auch keine Erfahrungsbeispiele von anderen in der Regel, da diese durchaus andere Workloads haben als man selbst, messen ist das einzige, was Dir Gewissheit verschafft.

Bissel mehr Info u.a. folgenden Link lesen.

Calculate IOPS in a storage array - TechRepublic

Grundregel Nummer 1: Storageperformance wird als erstes geplant, danach gehts um die Groesse.

Bonusfrage: Wird das IP-SAN komplett getrennt vom Produktionsnetzwerk oder wird hier ein shared Medium verwendet, sprich hast Du vielleicht einfach einen physischen Exchange oder SQL Server, der Dir dann doch den Switch so sehr auslastet, dass der Storagezugriff extrem langsam wird?

Link zu diesem Kommentar
Auf anderen Seiten teilen

8 SATA Platten Western Digital WD2000F9YZ. Raid 5 mit einer Hot Spare.

Hab auch heute Vormittag mit QNAP telefoniert. Die meinten, Sie hätten ohne Probleme über 2 GBit Leitung schon 30 VMs getestet.

Anscheinen werden nicht viel Daten übertragen von Host zu Storage, jedoch finden viele Berechnungen direkt auf dem Storage System statt. Heißt also eher schnelle Platten.

Storage System und Hosts haben übrigens ihr eigens LAN mit eigenem 10 Gigabit Switch

Bearbeitet von JackC
Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...