Kurze Antwort: Du brauchst keinen Switch zwischen Nodes und Storage, wenn das Storage direkt genug Ports hat – für ein Produktiv-Cluster würde ich es trotzdem empfehlen. Warum? Direkte Verbindung (ohne Switch): Funktioniert prinzipiell. Jeder Node bekommt seinen eigenen Port am Storage. Problem: Kein Multipath möglich, also keine Redundanz. Fällt eine NIC oder ein Kabel aus, verliert der Node seine Storage-Verbindung – und das ist in einem Cluster kritisch. Mit dediziertem iSCSI-Switch (empfohlen): Du hast die Möglichkeit, MPIO zu aktivieren (z.B. 2 NICs pro Node x 2 Switches = 4 Pfade pro Node). Das gibt dir echte Redundanz ohne Single Point of Failure. Zur zweiten Frage, ob die Nodes untereinander über das iSCSI-Netz kommunizieren müssen: Nein, das brauchen sie nicht. Beim iSCSI redet jeder Node direkt mit dem Storage, nicht mit den anderen Nodes. Die Cluster-Kommunikation (Heartbeat, CSV-Koordination, LiveMigration) läuft über eure anderen Netze (Management und LiveMigration). Das iSCSI-Netz ist rein für Node-zu-Storage. Empfohlene Architektur für drei Nodes: Management 1 GbE (bestehend), LiveMigration / Cluster 25 GbE (bestehend), iSCSI eigenes Netz mit dediziertem Switch und MPIO mit 2 Pfaden pro Node. Wenn das Storage genug Ports hat, kannst du auch mit einem einzigen iSCSI-Switch arbeiten, solange die NICs im Server redundant sind (MPIO). Zwei Switches wären besser, aber einer ist schon ein großer Schritt gegenüber direkten Verbindungen ohne Redundanz.