Zum Inhalt springen
View in the app

A better way to browse. Learn more.

Fachinformatiker.de

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

Umstellung einer kleinen NETAPP auf FC (statt NFS über 1gbit-Ethernet) lohnt, oder doch besser neue NETAPP kaufen? nur VMware-Essentials, also kein gutes Bonding von Ethernet-Karten?

Empfohlene Antworten

Veröffentlicht

Hat hier jemand Erfahrung, ob sich Umstellung einer kleinen NETAPP auf FC (statt NFS über 1gbit-Ethernet) lohnt, oder doch besser neue NETAPP kaufen?

Wir nutzen die NETAPP nur für VMware-Essentials, die kann kein gutes Bonding von Ethernet-Karten?

Kein vMotion, kein HA, wozu brauchst Du gleich Shared Storage?

Lasten Deine 3 Hosts mit den wahrscheinlich weniger als 20 VMs denn die momentanen 1 Gig Links auch nur ansatzweise aus?
Warum wollt ihr umstellen? Performanceprobleme? Platzprobleme? Out of Support?

sorry essentialsplus.

Grund ist fehlende Peformance

bis jetzt 2 shelves , 12+24+12

Sicher das die Anbindung der NettApp der BottleNeck ist?

Sprübare Performanceprobleme auf einer VM kann an allem liegen:

- Performance der NetApp

- Anbindung der NettApp

- VM Host Probleme

- VM Guest Probleme

etc.p.p.

Gut Essentials+ rechtfertigt Shared Storage :)

Wie Enno bezweifle ich dass throughput Dein Problem ist.
Hast Du nen esxtop replay modus (aka performance logbundle) was Du irgendwo gesichert bereitstellen kannst, damit man mal reinschauen kann. Alternativ falls Support besteht kannst Du natuerlich auch direkt bei VMware ein Ticket aufmachen um Dir bestaetigen zu lassen, dass wirklich die Anbindung der Flaschenhals ist.

Bonding ueber NFS ist so oder so kein gutes Thema... NFS 3 hat kein natives Multipathing und mit kleiner Anzahl von Quellen und Zielen, was Du hier vorliegen hast ist ein echter Lastausgleich nicht wirklich realisierbar.

Kannst Du beschreiben wie genau sich die Performanceprobleme auessern? Was ist euere gemessene Baseline, was war die damalige Last auf dem Storage, wie hat sich das zu heute veraendert.

1Gbit Anbindung = 125MB/sec maximum Durchsatz, das wird normal nur bei Backup ein Problem, rechnen wir doch mal fix durch, NetApp liebt RAID6... aber auch bei RAID5 sehen die Zahlen nicht mega besser aus...

Bei 130 angenommenen IOPS fuer 10k Disks kommst Du bei nem RAID 5 auf 820 IOPS und bei nem RAID6 auf 620 in ner 12er Diskgroup.

820*4k ~ 3 MB/sec

820*64k ~ 52MB/sec (und bei 64k hast Du unter Garantie keine 820 IOPS mehr)

Diskgroups ordentlich ueber die SP verteilt und Du kommst selbst mit 1 Link gerade so an den Bandbreiten Bottleneck. Wahrscheinlicher ist, dass der Workload zu sehr auf den Disks drueckt (oder aber euer Backup zu langsam laeuft, dann koennte ne dickere Anbindung tatsaechlich helfen).

Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.