[Sammelthread] HPE ProLiant MicroServer Gen10 Plus G5420/E-2224

Wozu 32 GB RAM, wenn das Teil eh nur als Target für ZFS-Send löppt?
Da bringt dir ein (großer) Lesecache nicht wirklich viel und als Schreibcache wird bei ZFS nur maximal 4GB verwendet, daher dürften 16 GB ausreichen - als Minimalvorraussetzung für TrueNAS. (Theoretisch würde ich da sogar sagen, daß 8GB vollkommen reichen, habe aber keine Info ob TrueNAS sich dann installieren läßt.)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich kauf ungern kleineren RAM, da ärgert man sich später, wenn man die kiste mal für was anders nutzen will nur unnötig. Hab hier so viele 8gb sticks liegen, die kann ich nirgends mehr gebrauchen.
Dann lieber 1x 32gb single channel und gut ist, oder?
 
Die Menge des Writecache sollte man doch per Tuneable einstellen können.
soweit ich weiß nicht!
Der Rambasierte Schreibcache funktioniert bei ZFS anders als man es von anderen Caching-Mechanismen kennt. Im RAM-basiertne Schreibcache werden nur kleinere Writes gesammelt, um diese Sequenziell als einzelne Schreiboperation durchzuführen. hierfür wird - in Abhängigkeit der RAM-Größe - maximal 4 GB bereitgestellt
Größere Schreiboperationen werden direkt durchgeführt

@gea kann das noch besser erklären :-)
Beitrag automatisch zusammengeführt:

Ich kauf ungern kleineren RAM, da ärgert man sich später, wenn man die kiste mal für was anders nutzen will nur unnötig. Hab hier so viele 8gb sticks liegen, die kann ich nirgends mehr gebrauchen.
Dann lieber 1x 32gb single channel und gut ist, oder?
Das Argument kann man so stehen lassen!
 
Wenn man sich z.B einen Atto Disk Benchmark anschaut, sieht man dass kleinere Writes besonders <64-256KB extrem in der Performance einbrechen. Das gilt es unbedingt zu vermeiden und dazu ist der ZFS Schreibcache da. (Daher auch die Notwendigkeit spezieller Slog Laufwerke die das gut können.) Er sammelt alle Writes. Ist er halb voll wird auf Platte geschrieben. Der Rest sammelt folgende Writes.

Ein riesiger Cache (wäre einstellbar) würde also nur wenig bringen. Sequentiell ist ein Pool meist schnell genug (schneller als Netzwerk). Default Ramcache bei Solaris ist 5s Write, bei Open-ZFS (Free-BSD, Linux, OmniOS etc) 10% RAM, max 4GB.
 
Zuletzt bearbeitet:
Hallo zusammen,
bin auf der Suche nach etwas Hilfe. Ich möchte mir einen HP Microserver kaufen um mit diesem ein wenig mit ESXi zu experimentieren. Ich bin mir allerdings im Moment unsicher welche Generation überhaupt für mich Sinn macht. Was ich bis jetzt mitgenommen habe ist, dass das Softwareraid der Gen10 Plus nicht wirklich geeignet dafür ist. VMWare kann ein solches Raid nicht verwalten bzw. ansprechen? Optimal wäre der Hardwarecontroller der Gen10 mit dem Smart Array E208i-p SR. Wenn ich mich allerdings so auf dem Gebrauchtmarkt umschaue ist da nicht viel zu finden. Bzw. ich finde schon Gen10 Server - kann ich mir hier allerdings sicher sein ob da immer der Smart Array E208i-p SR verbaut ist?

Mittel- bis Langfristig würde ich wie gesagt gerne mit dem Server mit VMWare Experimentieren, meine QNAP mit Truenas oder ähnlichem austauschen sowie einen DC mit einem bis zwei Testservern einrichten. Das ILO würde ich auch gerne nutzen

Was wären eure Empfehlungen für einen Kauf? Mit welchen Einschränkungen könnte ich die Gen10 Plus für diese Vorhaben verwenden?

Vielen Dank schonmal für eure Hilfe.
 
Hallo zusammen,
bin auf der Suche nach etwas Hilfe. Ich möchte mir einen HP Microserver kaufen um mit diesem ein wenig mit ESXi zu experimentieren. Ich bin mir allerdings im Moment unsicher welche Generation überhaupt für mich Sinn macht. Was ich bis jetzt mitgenommen habe ist, dass das Softwareraid der Gen10 Plus nicht wirklich geeignet dafür ist. VMWare kann ein solches Raid nicht verwalten bzw. ansprechen? Optimal wäre der Hardwarecontroller der Gen10 mit dem Smart Array E208i-p SR. Wenn ich mich allerdings so auf dem Gebrauchtmarkt umschaue ist da nicht viel zu finden. Bzw. ich finde schon Gen10 Server - kann ich mir hier allerdings sicher sein ob da immer der Smart Array E208i-p SR verbaut ist?

Mittel- bis Langfristig würde ich wie gesagt gerne mit dem Server mit VMWare Experimentieren, meine QNAP mit Truenas oder ähnlichem austauschen sowie einen DC mit einem bis zwei Testservern einrichten. Das ILO würde ich auch gerne nutzen

Was wären eure Empfehlungen für einen Kauf? Mit welchen Einschränkungen könnte ich die Gen10 Plus für diese Vorhaben verwenden?

Vielen Dank schonmal für eure Hilfe.

Moin!

ich stand vor ca. einem Jahr vor fast der gleichen Herausforderung: Ich wollte die Eierlegende Wollmilchsau. Nach Experimenten mit einem ML350p Gen.8 (Ungeeignet und mittlerweile lahm!) über monatelange Recherche und Abwägung ist es bei mir folgende Lösung geworden:
Für Experimente (TEST) habe ich meinen Hauptrechner mit Ryzen 3600 auf 80GB (128 GB möglich!) RAM aufgerüstet und eine 1TB SSD verbaut um mit nested ESX mein gewünschtes ESX/NSX/vSAN KnowHow aufzubauen. Wenn ich was probieren will starte ich den Hauptrechner per Dualboot mit ESX und dann startet das LAB darauf. Der Zugriff auf die Konsolen erfolgt über mein Notebook. Die Performance ist echt gut!

Für alle Speicheranforderungen (PROD) ist es ein QNAP geworden.

Warum kein HP Proliant Mini? Weil ich dort immer wieder mit Einschränkungen zu kämpfen hätte wenn ich alles in einer Box bekommen will:

Ich benötige ordentlich CPU Power für nested ESX passt nicht zu niedriger Stromverbrauch
Ich benötige mehr als 64GB RAM passt nicht zu ProLiant Mini
Ich will >4 Festplatten im Speicher verbauen passt nicht zu ProLiant Mini

VG
amdpc
 
Hatte den Hpe auch erst auf der Liste, mich dann aber für einen custom build entscheiden, hauptsächlich auch weil ich mehr als 4 Platten wollte, bzw noch ssds zum booten.

Am Ende ist es dann ein ITX Board mit i3 und 64gb RAM geworden, der funktioniert super.
Als Backup system ist es dann aber doch noch ein Hpe geworden, einfach, weil ich das Ding mal ausprobieren wollte.
Etwas stört mich, dass der Stromverbrauch doch recht hoch im Vergleich zu normaler Hardware ist, das Gehäuse ist aber echt klasse kompakt wenn 4 Platten reichen.
OS habe ich auf zwei USB Sticks installiert.
 
Hallo zusammen,

auch ich stelle mir die Frage, ob der Gen 10+ was für mich ist.
Alternativen wie Gen 8, T20, Primergy sind bekannt und noch nicht ausgeschlossen.

Einsatzgebiete:
- Primär als NAS mit ZFS + Verschlüsselung (Bisher ext4 & LUKS, noch zu klären)
- Pi-Hole (Docker)
- git
- Lernumgebung

Der Gen 8 ist zwar charmant aber es werden derzeit absolute Mondpreise aufgerufen.
Zudem bin ich skeptisch, weil viele Gebrauchte außerhalb der Spezifikationen betrieben wurden (z.B. Xeon E3 1220 mit 69 W TDP).
Meine Bastelambitionen sind eher in Richtung Software / Betriebssysteme und nicht Hardware.

Betreiben würde ich das vmtl. mit Ubuntu Server, welches ich direkt installiere.
Die Lernumgebung vom NAS-Betrieb zu isolieren wäre sicherlich eine gute Sache, einschätzen kann ich das Thema "Virtualisierung" aber noch nicht.
Vorstellung bzgl. Experimenten ist aktuell noch wolkig, wie beispielsweise ElasticSearch oder Windows 10 VM mit einer WaWi i.V.m einem MS SQL Server unter Linux.

Zu welchen Specs würdet ihr mir raten?
Gibt's irgend welche Dinge als Gen 10 + User wo ihr sagt, "wenn ich das gewusst hätte..." (iLO Enabler Karte ist bereits eingeplant -_-)

Viele Grüße
 
Für mich ist der limitierende Faktor am Gen10+, dass du nur 4 Platten verbauen kannst und keinen SATA Controller an VMs durchreichen kannst.
Sowas wie Proxmox + TrueNAS fällt also in den meisten Fällen flach.

Je nachdem, ob du 10Gbe braucht oder der Pcie frei ist, könntest du natürlich da eine oder zwei M2 verbauen, auf denen dann Proxmox läfut, dann wird es etwas entspannter.
 
Also der Gen10p hat einen internen USB Port. Manche Betriebsysteme können dadrauf laufen, bzw es spricht nichts dagegen. Aber halt nicht alle.
Dass man nur 4 Platte verbauen kann empfinde ich jetzt nicht so als Nachteil für sich allein genommen. Das war bei den Vorgängern zumindest ähnlich. Das Problem ist in meinen Augen eher dass er nur einen PCIe Slot hat, und auch kein M.2
M.2 fürs Betriebssystem und man hätte den PCIe Slot noch frei.
Nen Sata Controller macht im Grunde überhaupt keinen Sinn in dem Slot zu betreiben (außer er hat die Anschlüsse extern) Ich denke die meisten bauen da entweder ne 10Gbit Ethernet Karte ein oder ne M.2 mittels Adapter. So ist es aktuell bei mir. Und darauf sitzt das OS, sodass alle 4 Sata Ports frei für HDDs sind.
Gen8 würd ich mir nicht mehr holen, einfach auch aufgrund der hohen Preise.
Bei mehr als eine M.2 im PCIe Slot muss man folgendes bedenken: Der Slot kann nur in x8x8 aufgeteilt werden und nicht in x4x4x4x4. Mit einer x4x4x4x4 Adapterkarte könnte man also dann eventuell zumindest in Slot1 und Slot3 zusammen 2 M.2s betreiben.
Ein anderer Weg sind Adapter Karten mit PCIe Switch. Die sind aber (sehr) teuer und brauchen relativ viel Strom.
Einen Gen10p holt man sich in meinen Augen auch eben wegen dem kompakten Gehäuse. Wenn du mehr Platz hast würde ich daher eher zu etwas anderem tendieren. Ist auch nicht so dass der Gen10p zu einem ähnlich Kampfpreis angeboten wird wie einst der G7.
Wenn man sich aber von 10Gbit Ethernet verabschiedet, USB und/oder M.2 fürs OS benutzt, kann man schon bisschen was machen.
 
Danke für den Input.

Ich habe mich nochmals zurückbesonnen auf meine eigentliche Intention "NAS bauen". Auf der Haben-Seite Microserver Basismodell steht für mich im Allgemeinen:

ausreichende Kapazitäten CPU & RAM, Stromverbauch, Formfaktor, modernes iLO Management, Design

Nach ein paar Experimenten und Recherchen komme ich zu dem Schluss, dass der HP im Einsatz als NAS i.V.m ZFS (raidz2) schnell an seine Grenzen kommen wird.
Das liegt meiner Ansicht nach hauptsächlich an der Erweiterbarkeit der I/O Optionen. (Disclaimer: Newbie hier)

Wenn man etwas spielen/optimieren will, z.B. mit Cache-SSD, dann muss der PCIe Slot hierfür herhalten, weil mit raidz2 sind ja alle Einschübe bereits belegt. Das heißt:

1. OS muss auf USB installiert werden.
2. Kein 10 Gig LAN mehr möglich
3. Keine dedizierte SSD für virtualisierte Systeme, mit z.B. Datenbankfokus, einsetzbar.

Vom ersten Punkt will ich ja genau weg, komme vom Pi. Punkt zwei steht für mich in einem Widerspruch zur eigentlichen Motivation zur Optimierung. Punkt 3 bedeutet generell, dass darüber hinaus keine Luft für weiteren Spieltrieb ist.

Insgesamt schätze ich es so ein, dass ich von meinem Traumsystem mehr Flexibilität und Wachstumsmöglichkeiten erwarte, als der Microserver bieten kann.
Wenn ich das falsch sehe, würde es mich freuen wenn ihr meine Denkfehler aufzeigt.
 
Siehst Du richtig, wenn Du ein bissl mehr verbauen oder die Optionen offen halten willst.
Microserver und ITX-Systeme haben einen gewissen "Schnuckelfaktor" was den Formfaktor betrifft, aber der setzt halt gleichzeitig sehr schnell Limits.

Mein Microserver G7 war deswegen nur sehr kurz in Betrieb und musste dann sehr schnell mehr weichen. Zuerst ein Haswell Xeon, dann ein Skylake, aktuell ists ein 5600X auf einem X570D4U-2L2T.
 
Zuletzt bearbeitet:
3. Keine dedizierte SSD für virtualisierte Systeme, mit z.B. Datenbankfokus, einsetzbar.
Habe den Gen10p. Aktuell als reines NAS mit RaidZ2 und 4x14TB. OS ist auf einer M.2 im PCIe Slot.
Halte von SSD Cache ohnehin jetzt nicht soviel. Wenn ich etwas mit mehr Speed brauche setze ich direkt auf SSDs.
Mein Plan ist jetzt bald den Pool mit den 4x14TB in meinen Backuprechner zu packen. In die 4 Slots des Gen10p kommen dann 2 MX500 mit jeweils 2TB rein, das reicht bei mir für alles außer Videofiles, und 4TB SSDs sind ja auch nicht unbezahlbar. Als "Datengrab" taugt auch ne QLC SSDs. Die Samsung QVO mit 4TB war zumindest mal kurzzeitig für etwa 250eus bei Mydealz zu haben. Die 4TB Version kann ohne SLC Cache immer noch 160MB/s schaufeln was bei einer Gbit Anbindung immer noch ausreichend ist bzw unter Umständen gar nicht bemerkt wird.
In die 2 anderen Slots kommen dann 2 echte Server SSDs rein, mit PLP etc eben für VMs, Datenbanken etc.
Ich hoffe aber der Nachfolger vom Gen10p den ich mir dann kaufen werde hat wenigstens mehr als Gbit zu bieten und auch mindestens einen M.2 Slot zusätzlich zum PCIe Slot. Fürs OS kann dieser Slot ja auch mit nur 2 oder gar einer Lane angebunden sein...
 
Zuletzt bearbeitet:
Moin,
gestern habe ich aus "Spaß" einen Preisvorschlag bei Ebay für einen 10+ eines Händlers abgegeben und dieser wurde angenommen. Bisher habe ich einen Gen 8 hier stehen gehabt (5 Festplatten, 1 PCIe SSD zum Booten).

Jetzt habe ich mich durch alle Seiten hier durchgewühlt und es stehen dennoch einige Fragen (etwas offen).

Ist der Lüfter im Idle Betrieb (Festplatten aus) wirklich so viel lauter als beim Gen8 (mit Netzteillüftermod?).
Ich hatte den GEN 8 mit einer PCIE SSD als Bootpartition und einer zusätzlichen 5TB 2,5er Festplatte im CD Laufwerksschacht verwendet.
Meint ihr im GEN 10 ist mit einem kleinen PCI zu SATA Controller Platz für die 2,5er Platte (und eine SATA SSD, die man aber vom Gehäuse befreien könnte).

Wurden irgendwo schon Gerüchte über einen Nachfolger erzählt?
 
Zuletzt bearbeitet:
So der Gen 10 plus steht jetzt hier und kam mit einem Lockeren Speicherriegel an.
Ja auch ich empfinde den 10 Plus als lauter, aber noch annehmbar für den Flur :-).

Was den Platz angeht wäre eine 2,5er 7mm SSD noch möglich, eine (wie in meinem Fall) 1,5cm Festplatte bei bestem Willen nicht.
Bei der SSD würde ich mir den Strom vom USB Port abzweigen (habe aber noch keine Spezifikationen zu dem gefunden).
Ansonsten gibt es auch die Möglichkeit einen Molex Zwischenstecker zu konfektionieren der zwischen die Internen Festplatten und das Mainboard kommt.

Wisst ihr ob einfache PCIE Controller in der Kiste (wie so ein JMB 582 der sogar relativ modern ist) Uefi bootfähig sind?

Das einfachste wäre eine PCIe SSD, doch die sind in der 4TB Ausführung verhältnismäßig teuer.
Im Moment wanke ich zwischen einer Samsung 870 QVO oder einer PM863. Beide etwa gleich teuer, die letztere ist im Prinzip eine 860 pro, ist allerdings nur gebraucht zu bekommen.
Mir scheint, dass alle SSDs die NICHT für dauerhafte Schreibleistung und Chia coins geeignet sind noch gute Preise haben.

Ich erwarte nicht mehr als 1Gbit Geschwindigkeiten von den Medien im Server. Auf der SSD läuft ne Nextcloud mit vielleicht 15 Benutzern die aktuell noch auf einer rotierenden Platte läuft.
 

Anhänge

  • 21-11-05 14-42-26 0664.jpg
    21-11-05 14-42-26 0664.jpg
    152,1 KB · Aufrufe: 205
Zuletzt bearbeitet:
So ich antworte mir nochmal selbst:

Der JMB 582 Controller Bootet in Uefi. So ganz hab ich Uefi nicht verstanden, aber kann es sein, das Uefi alles für einen standard AHCI controller mit bringt?
Außerdem ist auch die Geschwindigkeit des kleinen JMB 582 Controllers in Ordnung. Ich bekomme bis zu 490MB/s sequentiell. Zwar nicht getestet, aber das soll auch mit zwei Laufwerken gleichzeitig klappen, bis eben PCIE 3.0 1x vom Bus her voll ist. Also kein Vergleich zu dem "Uralten" ASMedia Chip der immer noch verkauft wird, uns aus Zeiten stammte, als Mainboardhersteller SATA 3.0 auf den Karton schreiben wollten (es aber quasi nie drin war). Denke der zusätzliche Stromverbrauch am 230v Netz ist kaum Messbar.

Dann habe ich mal mit einer Strommesszange ausgetestet, was so eine olle und alte Sandisk SSD verbraucht und bin da auf 500mA Peak gekommen (2kHz Samplerate). Das ist ein Stromverbrauch, den ich dem internen USB Anschluss zumuten würde. Den Stromverbrauch und auch die Transfairraten werde ich nochmal mit der Samsung testen die bald ankommt.
Ich habe mich für einen QVO entschieden, da die gebrauchten Pros meistens eine Katze im Sack wären (wegen des Minings).

Es passt sogar noch eine SSD (und den Ort habe ich gewählt) an die von vorne gesehen linke Außenseite. So kann ich nochmal irgendwann eine zweite, große SSD nachrüsten.

Beim RAM hatte ich Speicher bei Kleinanzeigen gekauft und mich gewundert, dass dieser nur 8 Chips hatte. ECC wird dennoch angezeigt. Habe ich von DDR3 auf DDR4 eine Entwicklung verpasst?
 

Anhänge

  • 21-11-07 00-04-37 0670.jpg
    21-11-07 00-04-37 0670.jpg
    994,9 KB · Aufrufe: 248
Zuletzt bearbeitet:
Hallo,

weiß jemand ob das HPE NS204i-p NVMe OS Boot Device im MicroServer Gen10+ läuft und sich darauf das Server BS installieren lässt?
Alternativ wäre eine funtktionierende PCIe Karte auf der 2 NVME SSD's im Raid 1 laufen.

Gruß sput71

 
Danke für die Auskunft. Evtl. kann ja jemand, aus eigener Erfahrung, bestätigen, dass die o.g. Konstellation funktioniert.
Oder eben eine alternative Karte, die RAID 1 erlaubt.

Gruß sput71
 
Mich hat das Summen des Gen 10 Microservers bei mir über 2 Wochen Betrieb doch etwas genervt.
Bei mir hat das Innere des gestanzten Lüftergitters geschwungen.
Ich habe den Lüfter inzwischen mit Gummipenöpeln befestigt, anstatt ihn wie HP direkt ins Blech zu schrauben. Beim G8 gab es ja noch eine Noble Gummilagerung, die wurde hier wohl wegrationalisiert.
Was soll ich sagen, es hat definitiv etwas gebracht.

Es ist aber möglich, dass er jetzt bei höherer Auslastung lauter wird, weil der Lüfter noch 2mm näher an den Kühler gerückt ist.

Zu der Karte:
Es sieht so aus, als wäre da ein PCIE Switch drauf der nicht auf das bifurcation des Mainboards angewiesen ist. Die Chancen stehen daher gut.

Zu meiner Verwendeten SATA Karte:
Ich habe mit der QVO (Rechtschreibfehler korrigiert!) SSD fast die volle SATA 3 Bandbreite und bin damit zufrieden.
 
Zuletzt bearbeitet:
Zu meiner Verwendeten SATA Karte:
Ich habe mit der OVO SSD fast die volle SATA 3 Bandbreite und bin damit zufrieden.
Hallo Stefan,

was für eine SATA Karte verwendest Du denn? Unter OVO SSD finde ich nix, oder ist das ein Tippfehler und sollte EVO SSD (Samsung) heißen?

Gruß sput71
 
Ja Danke, ich habe mitleweile mitbekommen, dass Stefan, einige Posts über meinem, beschreibt, wie er seinen Gen10+ umgebaut hat.
Und daraus wird klar, dass er eine PCIe SATA Karte mit JMB 582 Chipsatz verwendet und daran 1 o. 2 SATA SSD's betreibt.
Ist nicht ganz das, was ich mir vorstelle, aber für ihn ist's OK.
Deshalb bin ich nach wie vor an einer funktionierenden PCIe Karte auf der 2 NVME SSD's im Raid 1 laufen interessiert.

Gruß Sput71
 
Deshalb bin ich nach wie vor an einer funktionierenden PCIe Karte auf der 2 NVME SSD's im Raid 1 laufen interessiert.
Hardware Raid oder reicht dir "IT Mode" und Software Raid?
 
Das Problem mit den QVOs ist halt zum einen die Haltbarkeit der Zellen; mit einem Copy-on-Write Dateisystem werden die sogar besonders schnell abgenutzt sein.
Sprich Diskimages von VMs würde ich nicht unbedingt da drauf legen und als NAS-Storage, falls da dauernd geschrieben wird, auch nicht.
Ferner bricht halt die Schreibleistung brutal ein, sobald der SLC-Cache voll ist. Runter auf 160 MB/s soweit ich gelesen hab bei den größeren Modellen. Für Zugriff mit 1 Gbit-Lan eher kein Problem von 1 User, mit schnelleren Lan-Verbindungen, im Multiuser-Zugriff und lokal am System aber schon.

Als Speicher für Medien oder ISOs kann ich sie mir vorstellen, wenn kaum geschrieben und fast nur gelesen wird.

Man muss also IMO ganz genau überlegen, ob sich die QVO für sich sinnvoll einsetzen lassen oder nicht,
 
Zuletzt bearbeitet:
Das Problem mit den QVOs ist halt zum einen die Haltbarkeit der Zellen; mit einem Copy-on-Write Dateisystem werden die sogar besonders schnell abgenutzt sein.
Ich kann das nicht wirklich bestaetigen.

Hier laeuft ne ne virtualisierte ZFS Appliance mit 4 x 7,68TB Micron ION 5210 (QLC SSDs).
MIttlerweile > 6000Betriebsstunden pro Platte.

Man sollte also meinen, dass durch COW wegen ZFS die Platten uebermaeßig beansprucht sind.
Ist aber nicht so.

246 Total_LBAs_Written 0x0032 100 100 000 Old_age Always - 20981219909

--> Bei Sektorsize = 4096 sind wir irgendwo bei knappen 80TB

Von den angegebenen 11PB Endurance ist also noch massig uebrig, und das Array ist wahrlich nicht am idlen.

[edit]
Sorry natuerlich, ich habe mich verlesen und statt QVO (welche ja direkt auf das Modell von Samsung bezogen sind) QLC gelesen.
Damit habe ich dein Post als generellen Tritt gegen QLC gewertet.
 
Zuletzt bearbeitet:
Von den angegebenen 11PB Endurance ist also noch massig uebrig, und das Array ist wahrlich nicht am idlen.
entspricht auch meiner Vorstellung von LC Speicherzellen.
Ja, die Technologie ist kein High End aufgrund ihres Speeds, sorgt aber dafür, dass die Preise runter kommen.
Für den normalen Anwender ist es völlig ausreichend, was die Haltbarkeit angeht und ein toller Ersatz für Magnetfestplatten gleicher Kapazität.

Ich habe noch meine erste SSD von OCZ hier und die läuft auch noch absolut problemlos und ist nicht mal annähernd an ihrem Lebensende angelangt. und damals wurde das noch gaaanz anders ausgelegt max 5 Jahre und so ein Spass.

SLC und MLC sind schon nett, TLC ist auch ok , und QLC ist kein Beinbruch und ebenso praktikabel einsetzbar, wenn man die Nachteile abfedert. Cache sollte dabei aber schon sein.

Die einzige Anwendung, wo ich definitiv extreme Belastungen habe sind Speicherkarten für Dashcams, denn die sind gerne mal nach 1-2 Jahren, je nach Kapazität, am Lebensende angelangt.
1000 Schreibzyklen bei TLC, da ist meist Ende. Bei Schreibmengen von teilweise 2-2,5x der Gesamtkapazität am Tag ist da schnell Schluss. Da läßt sich sehr schnell schön sehen, welche Qualitäten und Typen an Speicherzellen verbaut werden. Andere Speicherzellen sind schon bei 300 Schreibzyklen pro Zelle platt.
Macht QLC nicht so schlecht, bald steht PLC vor der Tür
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh