kleiner Datenbank-"Server"

Luebke

Enthusiast
Thread Starter
Mitglied seit
26.03.2010
Beiträge
2.970
Hallo,
ich brauche mal den Rat von Leuten, die sich mit Datenbank-Anwendungen auskennen bzw. deren Hardwareanforderungen. Ich habe hier aktuell einen alten Rechner als File- und Datenbankserver im Einsatz, der wie folgt aussieht:
- R5 3600X
- Gigabyte B450 Aorus M
- 16 GB Ram 3200er
- 1 TB SATA-SSD

Die SSD ist schon mal ganz klar ein Problem und wird auf jeden Fall durch eine M.2 ersetzt, da sie ständig bei 100% Auslastung hängt.
Bei der CPU läuft Kern #8 öfter mal auf 100% während die übrigen kerne eher geringe Last haben, aber zumindest alle arbeiten.
Ram ist um 70% Auslastung

Option 1: einfach die SSD durch eine größere M.2 tauschen, das gibt das alte Brett ja noch her.
Option 2: mal wieder n bissel Geld in die Hand nehmen und nach Jahren die Kiste mal gegen was modernes tauschen und den Rechner für die Kiddies zum Spielen freigeben.

Eure Hilfe brauche ich für Option 2: was wäre hier ein sinnvoller Ersatz für mein Einsatzgebiet? Gaming ist nicht gewünscht, dafür habe ich wie gesagt andere Rechner. Und es sollte einigermaßen günstig sein. Also kein 9950X3D. Sparsam und zweckmäßig sind die Prioritäten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich empfehle folgendes:

Intel Core i5-12400F

Prozessor: Intel Core i5-12400F
RAM: 16 GB DDR4 3200 MHz
Speicher: 1 TB NVMe SSD
Grafik: integrierte Intel UHD Graphics
Betriebssystem: Windows 11 Home
 
Bei der CPU läuft Kern #8 öfter mal auf 100% während die übrigen kerne eher geringe Last haben, aber zumindest alle arbeiten.
Ist das ein Problem? Entstehen in diesen Situationen irgendwie "Hänger/Lags" die stören? Falls ja, stören sie so sehr, das man nur dafür das Geld für Option 2 ausgeben will?

Für eine schnellere SSD brauchst du ja kein neues System. RAM reicht noch und selbst wenn nicht, könnte man den auch einfach erweitern ohne gleich ein neues System zu brauchen. Bleibt also nur das eine Problem das ein Kern ab und zu mal auf 100% rödelt.
Und wenn ausschließlich nur ein Kern auf 100% läuft, deutet das ein Singlecoreproblem hin. Dafür könntest du auch nur deinen 3600X durch z.B. einen 5600(X) tauschen. Das geht auf deinem Board höchstwahrscheinlich und der hat doch nochmal eine ganze Ecke höhere Singlecoreleistung als die 3000er.

Abgesehen davon könnt man auch mal genauer nachforschen, was diese sporadischen 100%-Last verursacht. Vielleicht lässt sich das ja auch anderweitig beheben? Oder es hängt sogar mit der hohen SSD-Auslastung zusammen und wäre sogar einfach weg, sobald eine NVMe verwendet wird?
 
Zuletzt bearbeitet:
Welche Software bzw Anwendung?

Ohne detaillierte Informationen ist eine Beratung mmn nicht sinnvoll möglich
 
@Kail : das wäre ja keine so große Veränderung. Gibt es einen Grund, warum du einen Alderlake empfiehlst?
Und btw: der 12400F hat keine IGP. ;)

@Liesel Weppen : Ich vermute dass die Lags primär von der zu langsamen SSD kommen und der CPU-kern kein Problem darstellt, aber das kann ich schlecht testen wenn ich den anderen Flaschenhals nicht ausklammern kann. Option 1 ist auch mein Favorit, aber wenn ich schon neu installieren muss, dann macht halt die Überlegung Sinn, ob ich die Gelegenheit nicht für etwas Neues nutze, bevor ich in einem Jahr wieder von vorne anfange, weil dann der Rest zu langsam wird. Aus dem Grund würde ich auch wenn kein CPU-Upgrade machen, sondern den alten Rechner weiterreichen und etwas neues hinstellen, womit ich lange meine Ruhe habe. Mir fehlt halt einfach meist die Zeit mal eben alles neu aufzusetzen, vor allem eben bei dem Rechner, der zuverlässig laufen muss. Darum ist es mir wichtig, da lange nicht mehr ranzumüssen.

@VorauseilenderGehorsam : nichts von der Stange. Eine Datenbank-Software speziell für die Firma wo ich arbeite. Der Rechner dient nur dazu, die Datenbank zu betreiben und für Datensicherung. Gearbeitet wird am Notebook.
 
Zuletzt bearbeitet:
Option 1 ist auch mein Favorit, aber wenn ich schon neu installieren muss
Warum musst du neu installieren?

neue NVMe reinstecken, alte SSD auf neue NVMe klonen, alte SSD wegwerfen...

Und warum ist der Rechner, bzw. das was darauf läuft nicht virtualisiert, so das du bei einem Wechsel andernfalls maximal den Hypervisor neu installieren müsstest, aber die VMs/Container mit den eigentlichen Diensten trotzdem einfach nur übernimmst? ;)
Vorallem wenn der Rechner auch noch zuverlässig laufen muss?
 
Du hast recht, wenn ich auf eine NVMe einfach klonen kann, kann ich das auch erstmal ausprobieren. Und falls die CPU dann doch noch für die Lags mitverantwortlich sein sollte, habe ich nichts verloren und kann immernoch wechseln.
Ich glaube so mache ich es auch. :)
Hast du einen Tip für ein gutes Programm zum Clonen?

Das mit der VM ist ne gute Idee, da habe ich noch gar nicht drüber nachgedacht. Muss ich dran denken wenn ich dann den Rechner wechsel und neu aufsetze, das gleich so einzurichten. :)

Danke für die Hilfe!
 
Das mit der VM ist ne gute Idee, da habe ich noch gar nicht drüber nachgedacht. Muss ich dran denken wenn ich dann den Rechner wechsel und neu aufsetze, das gleich so einzurichten. :)
Nicht nur eine VM, sondern ggf. sogar mehrere. Z.B. eine nur für die Datenbank und eine nur für Fileserver.

Macht unabhängig von der Hardware, eben auch z.B. sogar von Festplattenparitionen, erleichtert Backups massiv, weil du einfach die ganze virtuelle Festplatte (quasi nur eine einzelne Datei auf dem Host) kopieren kannst. oder eben auch eine ganze VM auf einen anderen Rechner werfen kannst, wenn du z.B. mal feststellst, das du Datenbank und Fileserver lieber doch auf zwei verschiedenen (physischen) Rechnern hättest.

Proxmox drauf installiert und alles weitere dann in eine oder mehrere VMs oder Container. Funktioniert echt ganz einfach. Remotezugriff über Browser hast dabei auch gleich automatisch.

Rechenleistung kostet das kaum... allerdings können dann da nur 16GB RAM gerne mal knapp werden, weil das OS in jeder VM braucht ja auch RAM.
 
Das Thema VM gehe ich eh erst beim Rechnerwechsel an, da ich wie gesagt unter chronischem Zeitmangel leide und der hat dann definitiv mehr als 16 GB Ram. ;)
"Damals" als der 3600X angeschafft wurde, waren 16 GB halt noch üppig bemessen, aber die Zeit bleibt ja nicht stehen. ^^
 
So wie ich den Thread hier verstehe bringt der einfache Wechsel auf ne m.2 erstmal nix. Da laeuft ne Datenbank drauf, darum sollte ne SSD her, welche nach 2 minuten nicht hoffnungslos zusammenbricht. Aber dann sind wir schnell in der prof. Beratung. Da gehoert dann der Dienstleister her, der das Ding verbrochen hat.
 
Warum denkst du, dass eine M.2 hier nichts bringt? Die hat doch eine bedeutend höheren Datendurchsatz :confused:
Nur zur Klarstellung: aktuell verwende ich noch eine alte SATA-SSD (ergänze ich auch mal im Post #1)
 
Weil du warscheinlich ne Enterprise SSD brauchst, die keinen madigen QLC Zellen verbaut hat und deren Angaben zum Durchsatz in Steady-State angegeben wird.
Dein Problem sind warscheinlich nicht die 500mb/sec wo nen SATA Interface limitiert. Sondern dass ne ‚normale‘ SSD ab ner gewissen Zeit unter Dauerfeuer auf nen paar MB/Sec zusammenbricht weil sie mit sich selbst beschaeftigt ist.
 
Ich sag mal so, die aktuelle SATA-SSD läuft jetzt schon ein paar Jährchen und das Problem ist erst in letzter Zeit vermehrt aufgetreten. Ich mutmaße mal weil die Datenbank mit der Zeit halt kontinuierlich wächst. Die Anwendungen sind schon seit Jahren die gleichen. Denkst du, dass eine M.2 trotzdem nicht den Unterschied machen würde?
 
Das weiss ich nicht was hilft. Dafuer braeuchten wir brauchbare Informationen und Performance Metriken. So nen SQL Server kann diese Dinge ausspucken. Vllt. Sind die queries scheisse programmiert. Keine Ahnung :d (aber der Rest hier im Thread weiss es unter Garantie auch nicht)
 
Warum denkst du, dass eine M.2 hier nichts bringt? Die hat doch eine bedeutend höheren Datendurchsatz :confused:
Erstmal ist M.2 der falsche Begriff, denn auch eine M.2 SSD kann nur mit SATA (statt NVMe) laufen.

Desweiteren ist der bedeutend höhere Datendurchsatz von NVMe SSDs überwiegend nur bei sequentiellen Zugriffen mit großen Blöcken am Stück so massiv. Wenn du 50GB am Stück kopierst, dann limitiert SATA bei 500MB/s und eine NVMe trumpft mit 6GB/s auf.

Wenn du dagegen 50.000 einzelne Zugriffe die jeweils nur 1kB lesen hast, dann bricht sowohl die SATA als auch die NVMe einfach ein. Da ist eine NVMe dann kaum noch schneller, wenn überhaupt noch schneller.

Für Datenbanken... zumindest wenn diese auch entsprechend gefordert werden... braucht man nicht Platten mit möglichst hohen Maximalbandbreiten, sondern welche die schnell reagieren und bei vielen kleinen Zugriffen möglichst schnell sind. Da guckt man am besten erstmal nach den IOPS-Werten der jeweiligen Platten.

Aber wie p4n0 schon geschrieben hat, ohne genauere Infos, WAS da eigentlich läuft, kann man nicht viel sagen. Deswegen mein Hinweis viel weiter oben, das man vielleicht erstmal gucken sollte ob man rausfinden, WAS diese Probleme überhaupt verursacht.
 
Weil du warscheinlich ne Enterprise SSD brauchst, die keinen madigen QLC Zellen verbaut hat und deren Angaben zum Durchsatz in Steady-State angegeben wird.
Hast du evtl. eine Empfehlung für eine brauchbare 2 TB SSD?


Edit: dann sollte ich den Softwarehersteller wohl erstmal kontaktieren. Dachte eigentlich ich könnte das durch ein simples Upgrade fixen, aber da habe ich offenbar zu einfach gedacht. ^^
 
Hast du evtl. eine Empfehlung für eine brauchbare 2 TB SSD?
Nein. Um nen nachvollziehbares Beispiel zu bringen.
Problem: Mein auto Klappert
Antwort: ‚mach halt neue Reifen drauf‘.
Ungefaehr so laeuft das hier gerade.
 
Hab´s kapiert. Die Posts kommen grad schneller als ich antworten kann, darum hat sich das überschnitten, aber nach @Liesel Weppen s letztem Post hab ich das auch geschnallt ^^

Danke für eure Hilfe. :)
 
Weil du warscheinlich ne Enterprise SSD brauchst, die keinen madigen QLC Zellen verbaut hat und deren Angaben zum Durchsatz in Steady-State angegeben wird.
Dein Problem sind warscheinlich nicht die 500mb/sec wo nen SATA Interface limitiert. Sondern dass ne ‚normale‘ SSD ab ner gewissen Zeit unter Dauerfeuer auf nen paar MB/Sec zusammenbricht weil sie mit sich selbst beschaeftigt ist.
Ggf. wäre, je nach workload, auch ne Intel Optane (aber nicht die Billigvariante) das Maß der Dinge. Die sind nicht nur schnell, sondern sind auch kaum totzubekommen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh