Western Digital WD Blue SN580 im Test: Budget-SSD im Preiskampf

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.944
Mit der WD Blue SN580 aktualisiert Western Digital das hauseigene SSD-Portfolio um eine neue Mittelklasse. Treu dem bekannten Farbschema von Schwarz bis Grün soll die WD_Blue dabei besonders preisbewusste Käufer ansprechen, die nicht die letzten Prozentpunkte Leistung suchen, jedoch vor allem viel für das Geld bekommen wollen. Ob also die WD Blue nun einfach nur "billig" ist oder doch eher "günstig" für das Gebotene, klären wir mit unserem Test.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Thema m2 Slots bzw. die billigen Pcie Adapterkarten wären mal ein interessantes Thema für einen Test. Die Nutzung der Slots ist ja sonst inzwischen eher überschaubar.
 
Wird denke ich mal die nächste SSD im nächsten System mit 3x2TB. Ich hab schon ewig den Vorgänger SN550 mit 1TB im Einsatz als Spiele SSD und die läuft und läuft und läuft einfach ohne Probleme.
 
Für weniger Geld gibt es das schnellere Modell:

1699487539420.png
 
Amazon heranziehen als Preisvergleich :fresse:

Bei Geizhals ist die SN580 2TB ab 103,55 Euro gelistet

Die SN770 2TB ab 113,77 Euro
 
Unter 4 TB kaufe ich nichts mehr.
Dafür sind mir die m.2-slots zu schade.

sehe ich genauso. die 2te m2 die meine beiden pcs bekommen werden sind 4TB Varianten.

der hat schon 2 und der andere hat 1 TB. zudem will ich nur noch m2 pcie nvme verbauen.
 
Das Thema m2 Slots bzw. die billigen Pcie Adapterkarten wären mal ein interessantes Thema für einen Test. Die Nutzung der Slots ist ja sonst inzwischen eher überschaubar.
Schnelle PCIe sind mangelware also zu knapp und preiswerte PCIe x1 Adapterkarten nur eine ergänzung zu SATA,
da braucht man dann sowas wie die ASUS Hyper M.2 Karten.



klein
 
kleiner Tippfehler auf der Startseite. :)
1699524457072.png


Die SN580 mag nicht die erste Wahl für Zocker sein. Laut Datenblatt hat sie aber eine der geringsten Stromaufnahmen auf dem Markt. Da die Platine auch nur einseitig bestückt ist, dürfte sie eine gute Wahl für Laptops sein.
 
Zuletzt bearbeitet:
Ist das Testsystem ohne verbaute Grafikkarte? Wenn ja wäre das ganze intererssanter mit GPU,
da die M.2 im Slot oberhalb der GPU gern mal 10-15° höhere Temps haben und früher drosseln.
 
kleiner Tippfehler auf der Startseite. :)
Anhang anzeigen 938023

Die SN580 mag nicht die erste Wahl für Zocker sein. Laut Datenblatt hat sie aber eine der geringsten Stromaufnahmen auf dem Markt. Da die Platine auch nur einseitig bestückt ist, dürfte sie eine gute Wahl für Laptops sein.

Wieso sollte die nicht was für "Zocker" sein? Habe eine Firecuda 530 als Hauptplatte, eine SN570 als Spiele SSD. Günstiger Speicher mit anständigen Leseraten mehr braucht man für Spiele nicht. DRAM, 7000+ Lese/Schreibraten und Co machen sich toll auf Datenblättern, im Alltag ist das gerade für Spieler absolut irrelevant. Und nein, "Direct Storage" ist auch heute noch keine Erwähnung Wert.
 
Ohne DRAM Cache ohne mich, als Archiv platte oder für Games der älteren Generation möglicherweise gut.
Aber für ~60€ gibt es die Samsung mit DRAM Cache.. und ich würde nur wenn die Preisdifferenz nicht eindeutig ist nie auf DRAM Cache verzichten.
Das Müssten schon 20-30% Differenz sein.

@Sheena Was man erstmal nicht realisierst, ja DRAM macht sich schön in den Datenblättern richtig, richtig ist aber auch DRAM sorgt durch intelligentes caching dafür kleine Datenbankdateien (viele kleine Dateien das der Zugriff besser wird).
Wie man auch an dem Benchmark hier sieht, irgendwann bricht die Datenrate einfach ein. Das is aber nicht das überwiegende Szenario das im Alltag eintritt, klar wenn Spiele Sequenzen laden wie Texturen sind hohe Datenraten von Vorteil. Sobald aber viele kleine Dateien vorgehalten werden müssen und viel mehr gleichzeitig passiert ist der DRAM Cache ganz klar auch wegen der niedrigeren Latenz im Vorteil.

Wenn du die ganze Zeit stirbst und immer wieder neu laden musst ist wohl DRAM Cache nicht ganz falsch. Bei Multiplayer Games ist es relativ..
..meistens muss man sowieso auf die Bambus Rechner warten. :bigok:
 
Ist das Testsystem ohne verbaute Grafikkarte? Wenn ja wäre das ganze intererssanter mit GPU,
da die M.2 im Slot oberhalb der GPU gern mal 10-15° höhere Temps haben und früher drosseln.
Naja.. ..aber selbst mit Pixelschleuder und Hightower Kühler kannst du bei einigen/vielen Boards noch einen M2-Kühler a'la HR-09 Pro auf die SSD montieren um ein früheres drosseln zu vermeiden.
Z.b. bei User @Holzmann und meinen Board passt ein HR-09 Pro noch locker auf den obersten M2 Slot zwischen montierter Pixelschleuder und CPU Kühler:

IMG_20230909_132517.jpg
(altes SSD Setup, neues siehe Sig.)

Außerdem kommt es immer darauf an, welche Warn-/Grenztemperatur in der jeweiligen FW. der SSD eingetragen ist. Da hat jeder Hersteller andere Werte hinterlegt (WD zb. 90°/94° | Samsung 85°/85° | Crucial 80°/82°).
Ist aber gerade bei einen SSD Kühler wie den HR-09 Pro eher uninteressant, denn der schafft es sogar eine Gen5 SSD unterhalb kritischer Temperatur zu halten und ist einer der derzeit besten SSD Kühler am Markt.

Ohne DRAM Cache ohne mich, als Archiv platte oder für Games der älteren Generation möglicherweise gut.
Die Lexar NM790 ist auch ohne DRam Cache seq. lesend/schreibend richtig flott, besitzt den neuen 232-Layer TLC 3D NanD und gerade in der 4TB Variante, also Datenträger die man eher zum archivieren und häufigen Daten schieben nimmt (wo dann gerade die seq. Schreib-/Leseraten wichtiger sind) immer noch ungeschlagener P/L-Tipp. Zufälligerweise gerade bei MF wieder im Angebot.
Da würde ich persönlich GB/€ primär vor besseren Ramdom Seek Times favorisieren, denn letzteres hast du eh nur vermehrt mit der OS SSD und das auf einen Level, dass schafft selbst eine Sata6G SSD locker. (y)

Das Thema m2 Slots bzw. die billigen Pcie Adapterkarten wären mal ein interessantes Thema für einen Test. Die Nutzung der Slots ist ja sonst inzwischen eher überschaubar.
Wie meinst du das? Was soll denn da genau getestet werden?

.. im Alltag ist das gerade für Spieler absolut irrelevant. Und nein, "Direct Storage" ist auch heute noch keine Erwähnung Wert.
So ist es! Ich habe mir mal den Joke erlaubt und mehrere Spiele (CoD Cold war, BO III, BF 5) sowohl auf meiner WD SN850X als auch auf der Lexar NM790 installiert um die im MP zu testen.
Unterschiede bei Ladezeiten usw. habe ich da jetzt nicht bemerkt. Wenn es da welche geben soll, dann sind die wohl eher so marginal (im Millisekundenbereich) und nur auf den Papier vorhanden.
Aber es soll ja auch Leute geben, die angeblich ingame einen Unterschied zwischen 140fps und 165fps ausmachen können. Anatomische Wunderkinder nenne ich das.
 
Zuletzt bearbeitet:
Auf der Begrüssungsseite steht nur SN58 anstat SN580

Die erwähnte Crucial P5 Plus mit 1TB ist meine Systemplatte für Gnu gentoo linux und windows 11 pro. Keine Auffälligkeiten.

Für gewisse Anwendungsszenarien werden gewisse Laufwerke auch zu gebrauchen sein:
Als Backuplaufwerk ist eine andere WD Blue bei mir recht brauchbar: WD Blue SN570 1TB High-Performance M.2 PCIe NVMe SSD, mit bis zu 3500MB/s Lesegeschwindigkeit
 
Zuletzt bearbeitet:
Schnelle PCIe sind mangelware also zu knapp und preiswerte PCIe x1 Adapterkarten nur eine ergänzung zu SATA,
da braucht man dann sowas wie die ASUS Hyper M.2 Karten.
Weder noch. x1-Karten-Adapter haben zwar nichts mit SATA zu tun (außer dass die max. Speeds sich nähren), sind aber natürlich selten sinnvoll. Die großen 16x für viele aber bereits Overkill/too much, da sie auch ihre Graka meist ohne Kompromisse weiter nutzen wollen. Interessant ist also nur der Mittelweg - ganz normale 4x-Adapter, da die meisten Consumer-Bretter in dem unteren PCIe-Slot genau 4x Lanes bieten. Diese haben aber keine eigene Logik und leiten einfach 1:1 die vorhandenen Lanes weiter, also ein weiterer M.2-Slot ohne Nachteile. Zumindest der Großteil ordentlicher Adapter im Angebot hat ausreichende elektrische Qualität. Außer man kauft den billigsten no-name Adapter "@ AliE" - dann kann natürlich sein, dass plötzlich 2 Lanes fehlen oder von 4.0 auf 3.0 runtergeschaltet wird.
 
Ich habe meine 2te M2 SSD in eine PCIe IcyBox gesteckt, und die läuft mit PCIe 4.0 4x, das reicht. Im 2ten M2 Slot würde sie nur meine Grafikkarte langsamer machen.
1933607-l0.jpg
 
die läuft und läuft und läuft einfach ohne Probleme.
Das ist ja aber auch die Mindestanforderung, wenn sie selbst das nicht schafft, ist sie Schrott.

Amazon heranziehen als Preisvergleich :fresse:
Das zeigt wie gut deren Marketing funktioniert, wenn manche schon gar keine anderen Händler oder Preisvergleichsportale auch nur in Beracht ziehen.

Schnelle PCIe sind mangelware also zu knapp
Eben, mein Mainboard hat mehr M.2 Slots als PCIe Slots und ich hätte lieber einen weiteren PCIe Slot und würde dafür gerne einen M.2 Slot hergeben.

preiswerte PCIe x1 Adapterkarten nur eine ergänzung zu SATA,
da braucht man dann sowas wie die ASUS Hyper M.2 Karten.
Wie massaker schon schrieb, haben x1 Adapter nichts mit SATA zu tun und es ist nicht sinnvoll von einem Extrem auf das andere zu gehen, die normalen 08/15 x Adaper für eine M.2 PCIe SSD wäre der goldene Mittelweg. Schon weil so eine Hyper Card eben einen Slot mit 16 Lanes braucht, davon haben die Mainboardplattformen (also aktuelle AM5 bzw. S. 1700) nur einen der auch wirklich 16 Lanes hat und dazu noch PCIe Lane Bifurkation mit x4+x4+x4+x4 um alle 4 M.2 Slots nutzen zu können. AM5 kann dies, Intels S. 1700 aber nur maximal x8+x8, wobei aber die Frage ist ob das jeweilige Mainboard dies auch unterstützt. Die meisten werden da eine Graka einbauen und damit fällt das raus und in den übrigens Slots die mechanisch x16 breit sind, wird man dann meist nur 4 Lanes (vom Chipsatz) haben und dann reicht auch ein einfacher x4 Adapter für eine SSD.

richtig ist aber auch DRAM sorgt durch intelligentes caching dafür kleine Datenbankdateien (viele kleine Dateien das der Zugriff besser wird).
Nein, denn sofern die SSD genug DRAM Cache hat, also normalerweise 1GB DRAM pro 1TB Kapazität, wird der Controller die ganze Mappingtabelle im DRAM cachen, also ganz dumm alles. Intelligentes Caching von Teilen der Mappingtabelle brauchen die DRAM less SSDs für den gleichen Teil den sie im internen DRAM halten und ebenso für den HMB, denn der ist auch viel zu klein um da die ganze Mappingtabelle drin zu halten. Besonders intelligent kann diese Caching aber auch nicht sein, denn es muss schnell gehen und darf nicht viel Aufwand machen. es dürfte also einfach immer der älteste Eintrag überschrieben werden.

Wenn der passende Teil der Mappingtabelle nicht im Cache steht, dann muss er erst aus dem NAND nachgeladen werden, was eben viel länger als ein RAM Zugriff dauert, auch wenn es über PCIe auf das RAM des Hosts ist und dies passiert unabhängig davon wie lang der Zugriff ist, macht sich bei den kurzen Zugriffen aber eben besonders stark bemerkbar.
Wie man auch an dem Benchmark hier sieht, irgendwann bricht die Datenrate einfach ein.
Man sieht vor allem bei CDM das es eine DRAM less SSD ist und zwar wenn man die 4K Q1T1 Lesend beim Test über 1GiB und dem über 64GiB vergleicht, wo der Wert von 76,76 MB/s auf 54,51MB/s gefallen ist, denn auch HMB reicht eben meist nur um einen Teil der Mappingtabelle für einen Adressraum von 32GB abzudecken. Während beim Test über 1GiB also spätestens beim zweiten Durchlauf der ganze Teil der Mappingtabelle für diese 1GB gecacht sind, sind es bei dem Test über 64GiB dann bestenfalls die Hälfte.

Genau dieses Caching des nötigen Teils der Mappingtabelle beeinflusst dann auch die Anwendungs Benchmarks, denn wie man sieht werden ja maximal 887 MB (bei Battlefield 3) gelesen und 5,6GB geschrieben. Da diese Tests im Review mehrfach wiederholt werden, schneiden DRAM less SSDs da besser ab, ich wette im Alltag wo solche Dateien geschrieben wurden lange bevor sie wieder gelesen werden, hätten sie da ein weit schlechtere Performance, eben weil sie dann sehr wahrscheinlich erst die passenden Teil der Mappingtabelle aus dem NAND laden müssten, während er eben noch dort steht, wenn die gleichen Dateien wiederholt gelesen werden.
 
Weder noch. x1-Karten-Adapter haben zwar nichts mit SATA zu tun (außer dass die max. Speeds sich nähren), sind aber natürlich selten sinnvoll. Die großen 16x für viele aber bereits Overkill/too much, da sie auch ihre Graka meist ohne Kompromisse weiter nutzen wollen. Interessant ist also nur der Mittelweg - ganz normale 4x-Adapter, da die meisten Consumer-Bretter in dem unteren PCIe-Slot genau 4x Lanes bieten. Diese haben aber keine eigene Logik und leiten einfach 1:1 die vorhandenen Lanes weiter, also ein weiterer M.2-Slot ohne Nachteile. Zumindest der Großteil ordentlicher Adapter im Angebot hat ausreichende elektrische Qualität. Außer man kauft den billigsten no-name Adapter "@ AliE" - dann kann natürlich sein, dass plötzlich 2 Lanes fehlen oder von 4.0 auf 3.0 runtergeschaltet wird.
Es ging darum das auch heutzutage PCIe Steckplätze knapp sind und weil in vielen System nur noch ein die PCIe x1 frei sind diese eine gute ergänzung zu SATA mit endsprechener Geschwindigkeit.

Und habe nirgends von unbedingt PCIe x16 Steckplätzen geschrieben sondern von schnellen PCIe
und wenn man viele M.2 SSD braucht und nur wenig PCIe Steckplätze vorhanden sind sind diese ASUS Hyper M.2 Karten eine lösung,
aber es ist falsch das viele schnelle PCIe Steckplätze vorhanden und frei wären !

Eben, mein Mainboard hat mehr M.2 Slots als PCIe Slots und ich hätte lieber einen weiteren PCIe Slot und würde dafür gerne einen M.2 Slot hergeben.
Mein Mainboard hat nur drei M.2 Slots aber fünf PCIe Slot !

Dann war den Mainbord ein fehlkauf wenn dir so wichtige Dinge fehlen.

klein
 
Zuletzt bearbeitet:
Es ging darum das auch heutzutage PCIe Steckplätze knapp sind und weil in vielen System nur noch ein die PCIe x1 frei sind
Also mein ASRock Z790 Steel Legend WIFI hat nur 3 PCIe Slots die alle mechanisch x16 lang sind, aber elektronisch PCIe 5.0 x16, PCIe 4.0 x4 und PCIe 3.0 x2.

Und habe nirgends von unbedingt PCIe x16 Steckplätzen geschrieben sondern von schnellen PCIe
und wenn man viele M.2 SSD braucht und nur wenig PCIe Steckplätze vorhanden sind sind diese ASUS Hyper M.2 Karten eine lösung,
Nein, nur selten wird so eine Karte die Lösung sein, meist nur für die großen Plattformen wo es eben viele PCIe Slots gibt und PCIe Lane Bifurkation inzwischen Standard ist, seit S. 2066 und TR. Die Mainboards für die Mainstreamplattformen haben einfach nicht genug passende PCIe Slot für so eine Karte für 4 PCIe SSDs ohne PCIe Lane Switch (aka PLX Chip). Wie gesagt kann man da nur bei AM5 Boards drauf hoffen das dies geht, wenn das BIOS es unterstützt und man auf eine Graka verzichtet bzw. damit zufrieden ist sie an 4 Lanes vom Chipsatz zu betreiben. Schon letzteres dürfte für die meisten ein No-Go sein.

Mein Mainboard hat nur drei M.2 Slots aber fünf PCIe Slot !

Dann war den Mainbord ein fehlkauf wenn dir so wichtige Dinge fehlen.
Das scheint wohl eher auf dich zuzutreffen, wenn du schon x1 oder x16 Adapterkarten erwähnst.

Generell muss man ja bei der Auswahl des Mainboards immer einen Kompromiss machen, denn das ideale Mainboard mit genau den Eigenschaften die man möchte, wird man nicht finden. Mein Board passt für mich, ich wollte 8 SATA Ports, was die Auswahl an Z790 Boards mit DDR5 und 8 SATA Ports schon deutlich einschränkt und als ich vor einem Jahr gekauft habe, waren es noch weniger. Dazu wollte ich möglichst viele PCIe Slots wo eine x4 Karte reinpasst und die wenigstens mit PCIe 3.0 x2 angebunden sind, da dies für meine 10GBASE-T Karte reicht, während ich keine x1 Karten mehr im PC verwende. Von daher würde ich das Board auch heute wieder kaufen, wenn nicht inzwischen W680 Boards wie dies verfügbar wären, was sie damals eben noch nicht waren.
 
Generell muss man ja bei der Auswahl des Mainboards immer einen Kompromiss machen, denn das ideale Mainboard mit genau den Eigenschaften die man möchte, wird man nicht finden. Mein Board passt für mich ...
Stimmt,
mein PRIME Z690-P D4 kam meinen wünschen am nächsten wollte ich möglichst viele PCIe Slots wo eine x4 Karte reinpasst
und mindestens drei M.2 das einzige was bei den Mainbord zuknapp ist die USB Anschlüsse,
aber die Inateck KU5211 USB PCIe Karte aus den vorgänger System hat das neue optimiert.


klein
 
aber die Inateck KU5211 USB PCIe Karte aus den vorgänger System hat das neue optimiert.
Mit PCIe Slots ist man eben universeller als mit M.2 Slots. Mit einem billigen Slot Adapter kann eine M.2 NVMe SSD darin betreiben oder eben USB oder SATA Host Controller oder was auch immer. Es gibt zwar auch SATA Host Controller Karten für M.2 Slots, aber da hört es dann meines Wissens nach auch schon auf. Klar kann man auch Adapter auf einen PCIe Slot finden und dann mit Raiserkabeln arbeiten, aber dies verbessert die Signalqualität nicht und von Problemen wie der Befestigung der PCIe Karte etc. will ich gar nicht anfangen. Allenfalls eine Adaptierung auf U.2 wäre für nicht akzeptabel, aber auch da wäre es mir lieber diese dann auf einen Slotadapter zu schrauben um eben die Signalqualität nicht durch längere Signalwege und mehr Steckverbindungen unnötig zu verschlechtern.
 
@Holt die guten SSDs haben ja eine Kombination aus DRAM und SLC Cache. Z. B Die Samsung. Auch wenn die 970 evo plus nur gen3 ist, liefert sie gute resultate im alltag.

Du merkst aber auch definitiv einen Unterschied wenn du ne VM auf z. B auf einer SSD mit DRAM laufen lässt und die in die in den swap/virtuellen Speicher arbeiten muss. Ich hab mich nicht im Detail damit beschäftigt, aber man merkt einfach einen performance Unterschied.
 
die guten SSDs haben ja eine Kombination aus DRAM und SLC Cache.
Das eine hat mit dem anderen nichts zu tun! Der DRAM Cache ist für die Verwaltungsdaten des Controllers, vor allem die Mappingtabelle. Der Pseudo-SLC Schreibcache ist für die Steigerung der Schreibrate, die eben bei TLC und erst recht QLC NAND nicht so toll ist wie vorher bei MLC NAND und den haben eben auch alle Consumer SSDs. Es gibt ja keine mehr die nicht TLC oder QLC haben und gewissermaßen könnte man sagen, die guten SSDs haben keinen Pseudo SLC Schreibcache, denn die haben entweder noch MLC, SLC oder 3D XPoint (also die Intel Optane) oder sind Enterprise SSDs.

Man sollte eher sagen, dass gute SSDs eben einen RAM Cache haben, die Optane ausgenommen, die haben keinen aber dafür ein Medium welches kaum langsamer als DRAM ist und am Besten im Verhältnis von 1GB DRAM zu 1TB Kapazität.
Du merkst aber auch definitiv einen Unterschied wenn du ne VM auf z. B auf einer SSD mit DRAM laufen lässt und die in die in den swap/virtuellen Speicher arbeiten muss.
Klar, denn dann wird über einen großen Adressbereich zugegriffen und hier macht der DRAM Cache dann den Unterschied und zwar nur hier, wenn nur über einen kleinen Adressraum zur Zeit zugegriffen wird, dann können sich die DRAM less SSDs noch gut behaupten. Meist reicht der Teil der Mappingtabelle im internen SRAM des Controllers für einen Adressraum von 1GB und der im HMB für 32GB, passieren die Zugriffe nur innerhalb dieses Adressbereichs, so braucht der Controller ja nie andere Teile der Mappingtabelle nachladen und genau das dauert eben und senkt die Performance. An dieser Stelle kann ich nur wieder den Benchmark von Anantech für die 4k IPOS über unterschiedlich große Adressbereich mit und ohne HMB von der BG4 verweisen:

BG4_HMB.png


Einen neueren Benchmark dieser Art kenne ich leider nicht, aber man sieht das über 1GB die Performance gleich ist, denn passt ja der nötige Teil der Mappingtabelle ins SRAM des Controllers. Bis 32GB verhält sich die SSD mit HMB ähnlich wie SSDs mit DRAM Cache, ohne HMB fällt sie hingegen schon. Warum sie von 2GB bis 16GB gleich bleibt kann ich nicht sagen, eigentlich sollte man erwarten das sie da auch schon abfällt, denn je größer der Adressraum wird über den die Zugriffe erfolgen, umso unwahrscheinlich wird es das passende Teil der Mappingtabelle zufällig gerade im SRAM oder HMB gecacht ist und dies sieht man dann auch mit HMB wenn über einen Adressraum von mehr als 32GB zugegriffen wird.

Das die Performance mit HMB bei mehr als 32GB sogar minimal schlechter als ohne HMB ist, dürfte der Cacheverwaltung geschuldet sein, denn die verzögert ja zusätzlich und je größer ein Cache ist, umso länger dauert es tendenziell rauszufinden ob die Daten im Cache stehen. Dies hängt aber von der Datenstruktur ab. Optimal ist eine flache Tabelle, wie Intel sie damals mit der 730 eingeführt hat, als sie erstmal Wert auf eine konstante Performance gelegt haben und dafür braucht man dann eben 1GB DRAM Cache pro 1TB Kapazität, während man mit anderen Datenstrukturen Platz sparen kann, aber eben Zeit bei der Suche verliert. Im SRAM dürfte nicht einmal genug Platz sein um so eine Tabelle für die Cacheinhalten zu haben, was auch logisch ist, denn wenn man 1TB oder gar 2TB Kapazität hat, wäre die Tabelle sehr groß und sehr, sehr leer, wenn man nur genug HMB Cache für 32GB hat. Wenn jeder Datenblock der Mappingtabelle genug für Daten für 1GB Adressraum hat, bräuchte man eine Tabelle für 1000 bzw. 2000 Einträge von denen nie mehr als 32 belegt sind und wäre z.B. ein b-tree besser, schon weil er viel platzsparender ist.

Aber eben anderes als der Pseudo-SLC Schreibcache hat der DRAM Cache nicht viel mit der Schreibperformance zu tun, außer dass der Controller eben schauen muss wo er freie NAND Pages zum Beschreiben hat und diese Information schlimmstenfalls bei einer DRAM less SSD auch aus dem NAND laden muss. Aber kurze zufällige Schreibzugriffe werden eben normalerweise im internen SRAM (auch bei den SSDs mit DRAM Cache) gepuffert bis genug Daten für eine NAND Page zusammengekommen sind und die werden dann im Hintergrund weggeschrieben und dann fällt es genau wie bei langen Zugriffen nicht so ins Gewicht wenn auch mal ein NAND Zugriff auf die Verwaltungsdaten erfolgen muss. Zumal auch die SSDs mit DRAM bei Schreibzugriffen regelmäßig ihre Verwaltungsdaten im NAND aktualisieren, denn die will man bei einem unerwarteten Spannungsverlust ja nicht alle verlieren. Enterprise SSDs mit Full-Power-Loss Protection können sich das sparen, keine Ahnung ob sie das auch machen.

SLC Cache ist sowieso die falsche Bezeichnung, denn es gibt kein SLC NAND bei diesen SSDs, sondern nur Pseudo-SLC, also TLC oder QLC NAND bei dem eben nur ein Bit beschrieben wird, genau wie bei SLC NAND und dies geht schneller und braucht weniger Energie als alle 3 oder 4 Bit zu beschreiben. Es ist auch immer nur ein Schreibcache, wogegen die Controller normalerweise keine Userdaten im DRAM Cache speichern, im Gegensatz zu HDDs, aber bei denen ist das DRAM in aller Regel auch das RAM des Controllers, die haben normalerweise kein internes SRAM und nutzen auch nur ein Teil des DRAM als Datencache, meist nur einen recht kleinen Teil. Dies hindert die Hersteller aber natürlich nicht daran dessen volle Kapazität als Cache anzugeben und während Hitachi früher noch angegeben hat wie viel davon wirklich als Cache genutzt wurde, sucht man diese Angabe heutzutage meist vergeblich.
 
Ich habe meine 2te M2 SSD in eine PCIe IcyBox gesteckt..
Die beste Alternative zu mehr NVMe SSD onboard (zumal der sehr großflächige Alukühler auf der Icy mal wirklich was taugt), wenn einem die M2 Slots ausgehen. (y)
 
Machen es die nicht mit Gummis ?
Welche Gummis? ..oder meinst du jetzt diese PCIe x4 Adapterkarten wo kleinere Kühlkörper per Gummis befestigt werden?
Kann man nehmen aber da die wohl kaum günstiger sind als die weitaus bessere ICY wo alles verschraubt wird, eher teurer -> WARUM sollte man schlechteres Equipment für mehr Geld erwerben? :unsure:

Icy Box PCI208-HS aktuell 13,90€ (ich habe damals knapp 11€ bezahlt) ..und im Karton ist sogar noch, außer der Garantiekarte mit Link zum deutschen Support für Ersatzteilanfragen, auch noch (Ersatz)Zubehör dabei (fehlt diesen Billgheimern komplett, da darf man froh sein wenn das bei liegt was bei liegen soll).

ps: Außerdem halte ich von diesen Gummi Gerotze nicht viel. Selbst schon zweimal mit 2 Kühlern erlebt (1x Icy, 1x No_name) das die nach ein paar Wochen/Monaten porös werden und unter Wärmeeinfluss schlicht reißen. Der letzte (vor der HR-09 Pro Lösung) war dann ein Enermax mit Metallklammern. Das war die definitiv "haltbarere" Lösung im wahrsten Sinne des Wortes für den M2 Slot hinter der Graka, wo eh kaum Platz ist.


Und selbst wer nur noch einen PCIe x1 frei hat bekommt einen anständigen Kühlkörper !
Du willst eine Gen3, schlimmer noch Gen4 M2 SSD via PCIe x1 adaptieren? Viel Spaß dabei. Außerdem brauchen die noch nicht einmal einen "guten" Kühlkörper, wenn die die Leistung einer allgemein üblichen NVMe SSD, technisch bedingt, auf ca. 25% von machbaren 100% herab drosseln. Könntest auch mit nen Hubba_Bubba da drauf kühlen. (y)

..da kann ich auch eine Sata6G SSD nehmen und spare mir Geld dabei (zumindest aber die Knete für die PCIe Ausbremskarte).
 
Zuletzt bearbeitet:
Icy Box PCI208-HS aktuell 13,90€ (ich habe damals knapp 11€ bezahlt) ..und im Karton ist sogar noch, außer der Garantiekarte mit Link zum deutschen Support für Ersatzteilanfragen, auch noch (Ersatz)Zubehör dabei (fehlt diesen Billgheimern komplett, da darf man froh sein wenn das bei liegt was bei liegen soll).

ps: Außerdem halte ich von diesen Gummi Gerotze nicht viel. Selbst schon zweimal mit 2 Kühlern erlebt (1x Icy, 1x No_name) das die nach ein paar Wochen/Monaten porös werden und unter Wärmeeinfluss schlicht reißen. Der letzte (vor der HR-09 Pro Lösung) war dann ein Enermax mit Metallklammern. Das war die definitiv "haltbarere" Lösung im wahrsten Sinne des Wortes für den M2 Slot hinter der Graka, wo eh kaum Platz ist.


Du willst eine Gen3, schlimmer noch Gen4 M2 SSD via PCIe x1 adaptieren?
Stimmt hatte die Icy Box Adapter oft mit diesen Gummis gesehen ganz schlimm sowas würde ich mir nicht antun.

Es ging nur um die alternative zu den sehr knappen schnellen PCIe,
wenn nur noch ein PCIe x1 zur verfügung seht oder wenn man eine ältere kleinere M.2 SSD noch nutzen will halte ich einen M.2 PCIe x1 Adapter für sinnvoll
und würde eine empfindliche M.2 SSD immer geschützt nutzen.

klein
 
Zuletzt bearbeitet:
Ältere M2 SSD sind aber dann meist auch NGFF bzw. mSata mit B-M Key. Da machts tatsächlich keinen Unterschied ob man so einen Schinken in einen PCIe x1 Slot betreibt oder eine Sata6G SSD nimmt.
Aber NVMe SSD Gen3 plus aufwärts -> sinnfrei! Da sollte schon minimum ein PCIe3.0 x4 Slot vorhanden sein wenn die M2 Slots alle belegt sind.
 
wenn nur noch ein PCIe x1 zur Verfügung seht oder wenn man eine ältere kleinere M.2 SSD noch nutzen will halte ich einen M.2 PCIe x1 Adapter für sinnvoll
absolut korrekt. Immer noch 1,5x bis doppelt so schnell wie SATA und für viele Einsatzbereiche immer noch völlig ausreichend schnell, wie z.B. OS-SSD -> fürs Betriebssystem sind die theoretisch erreichbaren max. seq. Speeds absolut irrelevant und genau da sieht man keinen Unterschied zur 4x-Anbindung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh