Zum Inhalt springen

wie konfiguriert man MySQL am besten für riesige Datenbanken?


GoaSkin

Empfohlene Beiträge

Hallo,

ich habe einen Anwendungsfall, bei dem eine MySQL-Datenbank verwendet wird, wobei es eine Tabelle gibt, in der sich derzeit 31 Millionen Datensätze befinden, die anders ausgedrückt etwa 5GB groß ist. Neben schneller Hardware ist es dabei wichtig, dass der Server und die Datenbank sauber konfiguriert ist. Die Maschine verfügt über 32 GB RAM und ein RAID-5 sowie einen 6Core XEON E5 (Ivy).

Auf dem Server selbst läuft ein Debian 7, bei dem an der MySQL-Serverkonfiguration keine großen Änderungen vorgenommen wurden; die Tabellen nutzen das InnoDB-Format ohne Feintuning.

Es passiert regelmäßig, dass Datenbankabfragen schnarchend langsam sind, dabei aber weder die CPU ausgelastet ist, noch der Arbeitsspeicher sonderlich beansprucht wird.

Hat jemand eine Idee, wie man MySQL sinnvoll für solch große Datenbanken konfiguriert?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Vermutlich ist dann hier das I/O der Flaschenhals - mit anderen Worten die Festplatte, auf die dann dauernd gewartet werden muss.

Wie man dem Abhilfe verschaffen kann und ob eventuell eine RAM-Disk, ein RAID aus SSDs oder ein anderer schneller Festplattenverbund sinnvoll ist, das überlasse ich aber eher dann den "Serverjungs". :rolleyes:

Link zu diesem Kommentar
Auf anderen Seiten teilen

Es passiert regelmäßig, dass Datenbankabfragen schnarchend langsam sind, dabei aber weder die CPU ausgelastet ist, noch der Arbeitsspeicher sonderlich beansprucht wird.

Klingt so als ob es halbwegs nachstellbar ist. When in doubt run procmon. Der kann Dir gewisse Hinweise ueber die Process View geben, wo Dein Flaschenhals liegt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich habe nun gemäß mehrfach genannten Tipps in MySQL-Foren Folgendes in die Konfiguration eingetragen:


innodb_file_per_table

innodb_flush_log_at_trx_commit

innodb_buffer_pool_size=2G

Daraufhin habe ich dann über Nacht einen Dump erstellt, die Datenbank samt Dateistruktur gelöst und neu generiert und den Dump zurückgespielt. Scheint viel zu bringen, wenn die ganzen InnoDB-Tabellen nicht alle in einer riesigen Datei untergebracht sind, die zu dem stets wächst aber niemals schrumpfen kann. Die "globale" Innodb-Datei hatte zuvor eine größe von 18.6GB.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...