Wer steckt hinter Fanxiang

Kann man irgendwie grob definieren, ab wann es sich lohnt eine SSD mit Cache zu kaufen?
Lies mal diesen Thread ab diesem Post, da habe ich es ausgiebig durchgekaut.

Wie sieht es z.B. mit einem ZFS RaidZ2 aus?
Das hängt nicht wirklich vom Filesystem und/oder RAID Level ab, sondern eben davon was für Zugriffe darauf erfolgen. Viele Zugriffe die über größere Adressräume gehen die über die paar GB hinausgehen und dann womöglich viele parallele davon, sind jedenfalls nicht das, wofür ich eine DRAM less SSD empfehlen würde.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So, hier noch einmal zur Info praxisnahe Tests (kein zusammen gegoogeltes, altbackenes Geschwurbel) meiner 4TB FikWot FN955 dramless HMB Mode SSD vs. 2TB SK_hynix Platinum P41 mit 2GB DRam Cache um die Vor- und Nachteile einer dramless/HMB Mode SSD etwas besser zu beleuchten. Hat zwar etwas Zeit und Arbeit gekostet das alles zu testen aber ich hoffe, damit wird endlich mal mit ein paar hier im Forum ständig gleichen "Amenmärchen" bzgl. angeblicher Unnutzbarkeit von dram_less NVMe SSDs aufzuräumen.

Zuerst einmal werden beide SSDs anhand des sehr fordernden PCMark 10 (Prof.Edition-Site | GUI: 2.1.2662.64 aktuell) Storage Full System Drive Benchmark auf ihre alltagstauglichkeit getestet.
Dieser Benchmark benötigt je SSD ca. 70 Minuten, umfasst folgende Testszenarien (im Spoiler) und beide SSDs waren zum Zeitpunkt des Tests komplett leer und via Chipset an M_2 und M_5 @ PCIe4.0 angebunden.

Der PCMark 10 Full System Drive Benchmark verwendet eine breite Palette realer Szenarien beliebter Anwendungen und häufiger Aufgaben, um die Leistung der schnellsten Laufwerke vollständig zu testen. Der Benchmark soll die Leistung schneller Systemlaufwerke messen, die über PCI Express angeschlossen sind. Ziel des Benchmarks ist es, aussagekräftige reale Leistungsunterschiede zwischen schnellen Speichertechnologien wie SATA, NVMe und Intel Optane aufzuzeigen. Der Full System Drive Benchmark verwendet alle 23 Traces und führt 3 Durchgänge mit jedem Trace durch. Die Ausführung dauert normalerweise eine Stunde (je SSD). Was wird geprüft:

- Booten von Windows 10
- Adobe Acrobat – Starten der Anwendung, bis sie nutzbar ist
- Adobe After Effects – Starten der Anwendung, bis sie verwendbar ist
- Adobe Illustrator – Starten der Anwendung, bis sie nutzbar ist
- Adobe Premiere Pro – Starten der Anwendung, bis sie nutzbar ist
- Adobe Lightroom – Anwendung starten, bis sie nutzbar ist
- Adobe Photoshop – Starten der Anwendung, bis sie nutzbar ist
- Battlefield V – Starten des Spiels bis zum Hauptmenü
- Call of Duty Black Ops 4 – Starten des Spiels bis zum Hauptmenü
- Overwatch – Starten des Spiels bis zum Hauptmenü
- Verwendung von Adobe After Effects
- Verwendung von Microsoft Excel
- Verwendung von Adobe Illustrator
- Verwendung von Adobe InDesign
- Verwendung von Microsoft PowerPoint
- Verwendung von AdobePhotoshop (starke Nutzung)
- Verwendung von AdobePhotoshop (leichte Nutzung)
- Kopieren von 4 ISO-Image-Dateien, insgesamt 20 GB, von einem sekundären Laufwerk auf das Ziellaufwerk (Schreibtest)
- Erstellen einer Kopie der ISO-Dateien (Lese-Schreib-Test)
- Kopieren der ISO auf ein sekundäres Laufwerk (Lesetest)
- Kopieren von 339 JPEG-Dateien, insgesamt 2,37 GB, auf das Ziellaufwerk (Schreibtest)
- Erstellen einer Kopie der JPEG-Dateien (Lese-/Schreibtest)
- Kopieren der JPEG-Dateien auf ein anderes Laufwerk (Lesetest)

pcm10 fsd.png


Diesbezüglich dann auch noch einmal ein direkter Vergleich beider SSDs anhand AnvilsStorage Benchmark:

anvilbench.png


Als nächstes kommen wir dann zum Thema "pseudo SLC" dram_cached vs. dram_less SSD. Hier wurde ja schon einmal bzw. mehrfach (trotz zahlreichen Nachweis meinerseits das dem nicht so ist) behauptet, dass SSDs heutzutage nur dynamischen, füllstandsabhängigen pSLC Cache nutzen, statischer pSLC fester Größe quasi nicht mehr verwendet würde. Im Gegensatz zu meinen SSDs der Marken/Typen -Fanxiang S880, Fanxiang S770, Lexar NM790 und FikWot FN95- scheinen aber gerade meine SSDs der Marken/Typen -WD SN850X, SK_hynix Platinum P41- diesen aber ebend doch zu besitzen.

Hierzu einmal der HDTune Kopiertransferbenchmark random Pattern (leider von HDTune auf 300GB limitiert sonst hätte ich gerne 1TB genommen):

hdtune.png

..hier zeigt sich anhand des Graphen der statische pSLC (limitiert auf ca. 220GB) der SK_hynix P41 (bei der WD SN850-X liegt dieser bei ca. 180GB) ggü. den dynamischen, füllstandsabhängigen pSLC der FikWot FN955.
Dies Verhalten belegt dann auch der folgende, sequentielle Kopiertransfer eines 648GB Ordner mit 7444 Dateien, Quell-SSD war hierbei eine WD SN850-X:

pslc transfer.png

Um die dynamischen, füllstandsabhängigen pSLC Transferraten der FikWot FN955 noch einmal genau auszuleuchten, habe ich hierfür meine 4TB Lexar NM790 aus den anderen rechner ausgebaut, kurzzeitig in meinen Arbeitsrechner eingesetzt und mehrere Ordner mit einer Gesamtkapazität von ca. 3,32TB transferiert. Hier das Ergebnis (Kurzübersicht):

0,00TB bis ca. 1,78TB Füllstand | Kopiertransferrate: durchschnittlich ~3,0 GB/s
1,78TB bis ca. 2,56TB Füllstand | Kopiertransferrate: durchschnittlich ~1,8 GB/s
2,56TB bis ca. 3,32TB Füllstand | Kopiertransferrate: durchschnittlich ~1,1 GB/s

FAZIT: Da die FikWot FN955 aufgrund des Maxiotec MAP1602 und YMTC 3D-TLC NanD (232-Layer) quasi 1:1 baugleich einer Fanxiang S880 und Lexar NM790 daher kommt, einzig die Größe des gehosteten HMB Cache nach SSD Kapazität unterschiedlich hoch ausfällt (4TB: 40MB / 2TB: 32MB) werkeln diese in der Praxis auch nahezu identisch. Gerade als Datenträger für sog. "Datengrab"-Archive und auch als Gaming SSD sind diese SSDs absolut empfehlenswert! Differenzierter sollte man die Nutzung dann für sehr randomseek intensive 4K-Workflow Anwendungen betrachten. Hier empfiehlt sich dann doch (wegen Mapping) eher eine dram_cache SSD wie zb. hier gezeigte SK_hynix Platinum P41 bzw. WD SN850-X. Für "normalen" 4k Workflow langt eine HMB SSD allemal.
 
@Spieluhr das geht absolut klar. Nur wie ich weiter oben schon meinte viele nutzen die SSD als mixed workload sprich da is ne windows Partition und eine Games Partition, dann wird was gezockt und im Hintergrund laufen noch aktivitäten etc.

Das geht schon grundsätzlich alles. Die Wahrscheinlichkeit das aber die Datenträger Auslastung halt hoch ist sehr groß (lags).

Wenn du da nur z. B STEAM drauf hast und gerade nur Cyberpunk lädst und spielst schaffen die das locker.

In modernen systemen hat man ja schon 32GB RAM und mehr, also da würde auch weniger in den virtuellen Arbeitsspeicher ausgelagert werden.

Trotzdem sollte man wegen 10-15€ Aufpreis eine DRAM SSD nehmen, einfach weil die mit Überlastung dann besser klar kommt.

Aber so als Datengrab/Games Platte ist das kein Problem stimmt schon.

Nur manche geben es sich halt hart die lassen alles auf eine SSD laufen, evtl noch chrome Stream oder selbst streamen etc... das stresst die schon ordentlich.
 
der statische pSLC (limitiert auf ca. 220GB) der SK_hynix P41
Das Spieluhr nicht lernfähig ist, sollte bekannt sein, deshalb ist er auf meiner IL, aber für alle anderen: Dir Pseudo-SLC Schreibcache der P41 ist nicht statisch, wäre er dies, würde er selbst bei voller SSD zur Verfügung stehen. Dazu müssten aber das dreifach der 220GB als zusätzliches TLC NAND verbaut sein. Deren Pseudo-SLC Schreibcache ist genauso dynamisch wie bei anderen SSDs, aber seine maximale Größe ist eben nicht so groß wie bei anderen, die teils das Maximum ausnutzen was möglich ist, nämlich bei TLC ein Drittel der freien Kapazität.

Ansonsten bestehen seine Praxistests ja vor allem aus dem Kopieren von Dateien, wo der DRAM Cache wirklich kaum eine Rolle spielt. Aber wenn jemand ständig jede Menge Dateien zwischen seinen SSDs hin- und her kopieren muss, dann ist doch irgendwas bei der ganzen Planung des Systems schiefgelaufen.
 
Nur manche geben es sich halt hart die lassen alles auf eine SSD laufen, evtl noch chrome Stream oder selbst streamen etc... das stresst die schon ordentlich.
Dafür gibt es ja dann entsprechend auch die dram_cached SSDs (hatte ich ja im Fazit extra erwähnt), die genauso wie halt die HMB_cached SSDs für ihren speziellen Workflow Anwendung finden.
Der PCMark10 Test, der schon sehr intensiv in der 3ten Stufe (von 4) FSD alles andere als nur reine Kopierbenchmarks angeht sollte auch zeigen, dass HMB SSD einer dram_cached SSD selbst 4k randomseek bei normalen Workflow nicht unterlegen sein muss. Man sollte auch mal die Kirche im dorf lassen und nicht alles immer unter extremsten workflow betrachten wollen. Praktisch kommt das eh dann im Homeuser Segment so gut wie nie vor und bei denen wo das dann wirklich so passiert, die konfigurieren gleich von Beginn an auf ganz anderen Niveau - werden auch hier keine Infos diesbezgl. einholen.

edit: Laut der UL Technical Guide bildet der FSD Benchmark auch am besten die Nutzung eines via PCIe angebundenen Systemlaufwerks (Sata, NVMe, Intel Optane) ab, verwendet alle 23 Traces, mit 3 Durchgängen je Trace. Also alles andere als "nur" seq. hin- und herkopieren irgendwelcher Datenpakete. Da liegt die dram_less FN955 -in der Gesamtwertung, welche sich aus mehreren errechneten Faktoren Schreib-/Leselast seq./random und Seektime zusammen setzt- halt nicht sehr weit hinter der dram_cached P41. Toppen könnte das dann halt nur der Phase 4 DPC-Konsistenz Test, welcher mal ebend so zwischen 10~20 Stunden je SSD dauert und mit einer höheren Schreib-/Löschzyklus Abnutzung einher geht. Das ist dann aber eher wieder so ein "..mit Kanonen auf Spatzen schießen" Ding.


Testmethode:
Der allgemeine Ansatz des Drive Performance Consistency Test wird durch fünf Phasen definiert:
1. Vorbedingungsphase
2. Abbauphase
3. Steady-State-Phase
4. Erholungsphase
5. Aufräumphase

Achtung: Die erwartete Nutzungsdauer einiger Speichergeräte basiert auf die Anzahl der Schreib-/Löschzyklen, die sie durchführen. Das wiederholte Ausführen dieses Benchmarks verkürzt die Lebensdauer einiger Laufwerke erheblich!

Alle Benchmarking-E/A-Vorgänge werden nur für die durch den Benchmark erstellten Dateien durchgeführt. Benutzerdaten auf dem Laufwerk werden durch den Test nicht berührt.

Vorbedingungsphase:
Um das Laufwerk für den Test vorzubereiten, wird es fast vollständig mit temporären Dateien gefüllt.
1. Beschreiben Sie das Laufwerk sequentiell bis zur angegebenen Kapazität mit Zufallsdaten, Schreibgröße 256 × 512 = 131.072 Bytes. Siehe Festlegen von precondition_block_size.
2. Schreiben Sie es ein zweites Mal durch, um eine Überbereitstellung zu vermeiden. Siehe Festlegen von precondition_passes.

Abbauphase:
Das Ziel der Degradationsphase besteht darin, das Laufwerk mit Schreibvorgängen zu überlasten, sodass es seine allgemeinen Verwaltungs- und Optimierungsroutinen nicht mehr ausführen kann.
Wie der Name schon sagt, ist in dieser Phase mit einer Verschlechterung der Leistung des Laufwerks zu rechnen.
1. Führen Sie Schreibvorgänge mit zufälliger Größe zwischen 8 × 512 und 2048 × 512 Bytes mit zufälligen Offsets für 1 Minute oder bis 50 GB geschrieben wurden, je nachdem, was zuerst eintritt.
Siehe Einstellungen degrade_duration_init, degrade_data_size_init, degrade_min_block_size, degrade_alignment, degrade_max_block_size.
2. Führen Sie einen Leistungstest mit einem Trace durch.
3. Wiederholen Sie die Schritte 1 und 2 für jede Spur. Für jede Wiederholung erhöhen wir die Dauer der zufälligen Schreibvorgänge in Schritt 1 um 1 Minute oder 50 GB.
Siehe Einstellungen degrade_duration_inkrement und degrade_data_size_inkrement.
4. Wiederholen Sie die Schritte 1–3 für 8 Durchgänge. Siehe Festlegen von degrade_passes.

Steady-State-Phase:
In der Steady-State-Phase wird der letzte und anspruchsvollste Durchgang der Abbauphase einige Male wiederholt.
1. Führen Sie Schreibvorgänge mit zufälliger Größe an zufälligen Offsets aus (wie in Degradationsschritt 1) für die endgültige Dauer und Datengröße, die in der Degradationsphase erreicht werden.
2. Führen Sie einen Leistungstest mit einem Trace durch.
3. Wiederholen Sie die Schritte 1 und 2 für jede Spur.
4. Wiederholen Sie die Schritte 1–3 dreimal. Siehe Einstellen von steady_passes.

Erholungsphase:
Das Ziel der Wiederherstellungsphase besteht darin, zu sehen, wie schnell sich das Laufwerk erholen und seine Leistung optimieren kann.
1. 5 Minuten im Leerlauf laufen lassen. Siehe Einstellung von „recovery_duration_init“.
2. Führen Sie einen Leistungstest mit allen Traces durch.
3. Wiederholen Sie die Schritte 1 und 2 fünfmal. Siehe Festlegen von „recovery_passes“. Mit der Einstellung „recovery_duration_increment“ können Sie optional die Leerlaufzeit für jede Wiederholung erhöhen.
Der Standardwert ist keine Erhöhung.

Aufräumen:
In dieser Phase werden die temporären Testdaten vom Laufwerk entfernt. Benutzerdaten auf dem Laufwerk bleiben unberührt.
1. Beschreiben Sie das Laufwerk sequentiell bis zur angegebenen Kapazität mit null Daten, Schreibgröße 256 × 512 = 131.072 Byte.
Siehe Einstellungen postcondition_passes, postcondition_block_size.
 
Zuletzt bearbeitet:
Hallo
Was ich möchte auch noch fragen, warum momentan Fanxiang Speicher kostet fast so teuer wie Bekannten Gute Marken von Speicher?

Gruß
 
Das mit den anziehen der Preise hat sich aber wieder gegessen, wenn die Chinesen da nicht mitspielen.
Dieses Jahr soll ja, laut Spekulatius News, YMTC mit deren Speicherchips in Xtacking 4.0 Fertigung (3Dv4 232-Layer war noch nach Xtacking3.0) auf den Markt kommen.
Es ist zwar kein weiteres Schichten der Layer geplant (mit 232-Layer ist man eh schon ganz vorne mit dabei), die Speicherdichte und damit auch die Datenübertragungsraten sollen aber noch einmal via Xtacking 4.0 erhöht und optimiert werden. Da werden dann sicherlich auch einige neue SSDs der jetzigen Chinamarken (vieleicht auch von Lexar) auf den Markt kommen.
Das werden einige der etablierten Marken sicherlich nicht so gerne sehen.

ps: zudem sind die Chinesen alles andere als dumm (eher die USA), denn die Sanktionswut des Westens umgeht man ganz galant, indem man String-Stacking in Verbindung mit Hybrid-Bounding (Stapeln mehrerer Wafer) nutzt, für dessen Fertigung die Wafer-Fab-Anlagen von den Exportsanktionen ausgenommen sind. Anderer positiver Effekt, die Herstellung soll einfacher und billiger sein, YMTC produziert diese in sehr hohen Stückzahlen.
Das scheint wohl so lukrativ, dass Micron da was "abkupfern" wollte, ist aber leider aufgeflogen und nun vor kalifornischen Gerichten anhängig. Ich meine Kioxia nutzt mittlerweile ein ähnliches Herstellungsverfahren.
Also ich denke mal, die können schon alleine über die Menge und da es ja nun auch diesen Guangdong Fond Phase-II gibt (gesamt ca. 4 Milliarden Dollar), die Preise unten halten, während hier die Lagerüberschüsse bald abverkauft sind und Samsung & Co. das nutzt, um die eh schon hohen Preise weiter anzuziehen.

..und da wir ja die Verbraucher und Endkunden sind, dürft ihr dreimal raten, wer dann deren gesteigerte Gewinnmarge im Endeffekt bezahlen darf, ohne das die Produkte besser werden dürften.
Das Gegenteil dürfte eher der Fall sein, denn "Sparen" hört, liest und sieht ein Hersteller immer am liebsten. ;)
 
Zuletzt bearbeitet:
Abwarten, Tee trinken und die Show genießen; es bleibt spannend. Bin nur froh, hier im Sommer und zum schwarzen Freitag den Bedarf an Speicherplatz gedeckt zu haben. War zwar jeweils "Markenware", aber die Preise waren einfach zu gut; vor allem, wenn man die sich jetzt anschaut... :rolleyes2:
 
Das hat nix mit bekannten "guten" Marken zu tun:

Der allgemeine Preisanstieg bei NAND-Flash betrifft alle SSD Hersteller gleichermaßen. Der Preisvorteil, den SSD von Fanxiang früher gegenüber SSD von renommierten Herstellern hatten, kann dadurch also nicht gemindert worden sein. Wenn der Grund bei den NAND-Flash-Preisen liegen sollte, kann nur ein größerer Preisanstieg bei chinesischem NAND-Flash als bei westlichem NAND-Flash die Ursache für eine solche Entwicklung sein.
 
Der allgemeine Preisanstieg bei NAND-Flash betrifft alle SSD Hersteller gleichermaßen. Der Preisvorteil, den SSD von Fanxiang früher gegenüber SSD von renommierten Herstellern hatten, kann dadurch also nicht gemindert worden sein. Wenn der Grund bei den NAND-Flash-Preisen liegen sollte, kann nur ein größerer Preisanstieg bei chinesischem NAND-Flash als bei westlichem NAND-Flash die Ursache für eine solche Entwicklung sein.
Das weiß man ebend nicht so genau.
Denn im Gegensatz zu den westlichen NanD Herstellern/Anbietern gibt es zu den chinesischen Fertigern weniger Infos.
Das hat auch einen einfachen Grund. SMIC und YMTC stehen auf der Sanktionsliste des US-Handelsministeriums.
Die haben selbst von sich aus noch nicht einmal damit geworben, dass die den hochdichtesten 232-Layer QLC-Flash in Serie via BSSC fertigen.
 
Hier noch einmal ein just_for_Fun 1TB Kopiertransfer von 2x2TB SK_hynix Platinum P41 im übergreifenden Volume auf die 4TB FikWot FN955:

1tb transfer.png


..bricht nach ca. 850GB von ~3,8GB/s auf ~2,4GB/s ein und verbleibt den restlichen Transfer auf diesen Niveau. FN955 war vor Kopiertransfer mit 458GB (ca. 12%) befüllt, danach zu 40%.
Bin immer noch begeistert von meinen ganzen China Storage. Keine einzige darunter die bisher schlapp gemacht hat. (y)
 
Bin immer noch begeistert von meinen ganzen China Storage. Keine einzige darunter die bisher schlapp gemacht hat. (y)
Klar, wenn man sie auch immer bald wieder weiterverkauft. Wo sind denn die Fanxiang von denen du hier am Anfang berichtet hast? Wenn man seine SSDs dauernd wechselt, dann ist hin und her kopieren natürlich ein häufiger Anwendungsfall, aber sonst eher nicht.
 
Er wollte nur zum Ausdruck bringen, das die Teile aktuell einfach nur abliefern und auch große Datenmengen mit durchaus hohen Durchsatzraten schreiben können ohne einzubrechen. Zumindest lese ich das so heraus; wer nicht will, muss diese Teile ja nicht kaufen. Natürlich sind das jetzt keine langfristigen Erfahrungswerte; das sollte jedem klar sein...
 
Ich wüßte nun nicht, warum ich mein Storage, dass ich verteilt (mangels begrenzter Anzahl an PCIe4.0 meines Hauptrechners) nutze, hier nun noch einmal irgendwem vorstellen sollte? :unsure:

edit: ..erst recht jemandem, der eine eh grundsätzliche Abneigung gegenüber Hardware einnimmt die er nicht "kennt" und zudem gerne mit HW. angibt, die er selbst scheinbar nicht besitzt.
Kann man ja machen wenn man möchte und das braucht, ist aber auch einfach nur Status Level -> kindisch! ..aber jedem das seine..

Außerdem habe ich nicht umsonst hier gefragt, ob jemand dafür eine Lösung weiß, damit ich ebend mehr der SSDs welche jetzt in Rechner B werkeln, ohne Leistungsverlust zusätzlich zu den bisherigen SSDs in Rechner A umziehen lassen kann.

ps: sorry für den späten Nachtrag, hatte besseres zu tun als auf so einen dummen Kappes (komplett & mit Begründung) zu antworten. (y)
 
Zuletzt bearbeitet:
Ich habe mir jetzt auch mal 2x2TB geholt. Die packe ich auf die Qnapkarte im NAS und verwende die als Temp Platten. Mal sehen wir lange die Überleben, 640 TBW sind jetzt nicht so berauschend viel. Explizit angegeben NAS NVME sind mir für den "eigentlich brauche ich das nicht" Zweck zu teuer und lohnt vermutlich auch nicht.
 
Ich habe mir jetzt auch mal 2x2TB geholt. Die packe ich auf die Qnapkarte im NAS und verwende die als Temp Platten. Mal sehen wir lange die Überleben, 640 TBW sind jetzt nicht so berauschend viel. Explizit angegeben NAS NVME sind mir für den "eigentlich brauche ich das nicht" Zweck zu teuer und lohnt vermutlich auch nicht.
640TBW dürfte man auch mit einem NAS erst nach Jahrzehnten erreichen, sofern man nicht gerade ein größeres Netzwerk mit Clients betreibt, die ständig speichern.
Btw, die TBW sind nur eine Werbeabgabe, die bestenfalls rechnerisch aus einer spezifizierten Zahl an P/E-Zyklen des NAND-Flash abgeleitet wird. Über die tatsächliche Haltbarkeit sagt diese nichts aus. Zudem ist bei den betreffenden SSD unklar, inwieweit die P/E-Zyklen spezifiziert sind. Das verwendete NAND-Flash von YMTC ist nicht ohne Grund anders gelabelt als originale Exemplare.
 
" Temp Platten" Also schon recht viel schreiben, aber nicht 1 TB am Tag oder jeden Tag. Warten wir es ab wie lange sie durchhalten ;-)


Ich habe gerade mein NAS auseinandergenommen zwecks Raid 1 umstecken auf die Internen Ports. Hat problemlos funktioniert. Dabei ist mir aufgefallen wieviel Platz eigentlich hinter den Laufwerkseinschüben ist. Ich habe noch eine LSI 2800 auf IT Mode geflasht im Büro liegen, ich schaue mal ob ich die eingebaut bekomme und ob das NAS die erkennt. Dann könnten man ein ganzes Rudel SSD in den Ding lagern. :d
 
Scheint ja auch QLC NAND zu sein.
Autsch und ich dachte er hätte die S880 genommen.

Das Q in der Typenbezeichnung steht mit Sicherheit für QLC, zumal die geringe Schreibperformance auch dafür spricht. Für den verlinkten Preis bekommt man hierzulande Modelle von Toshiba oder Lexar mit TLC.
 
Ich habe nichts in der Preisklasse gefunden was nicht genauso bescheiden ist. Das NAS hat eh nur 2 x PCIe Gen 3 x 4 Steckplätze, wovon dann bei der QNAP Karte mit 2 Steckplätzen 2000 MB übrigbleiben wenn beide gleichzeitig aktiv sind. Da ist es recht egal ob die 4000MB oder 7000 MB machen. So spare ich circa 50€ und gut ist es. Die SN700 hätten auch nur knapp 300€gekostet, aber für was ?

Dabei nicht vergessen das mache ich nur zum Spaß, nicht weil es irgendwie nötig wäre.

Mal sehen was das Tool Qnap DA Drive Analyzer sagt. Für 46,48 EUR im Jahr kann das mal mitgenommen werden.


Screenshot 2024-02-16 201454.jpg
 
Zuletzt bearbeitet:
Grade gesehen, das Fanxiang hier auch USB Sticks anbietet; die stellen sich wohl aktuell recht breit auf....
 
Grade gesehen, das Fanxiang hier auch USB Sticks anbietet; die stellen sich wohl aktuell recht breit auf....
uGreen NVMe M.2 USB Gehäuse

für 20€ holen und eine der billige m.2 mit 512 oder größere an stöpseln. Ich hab die schon getestet mit einer 1TB 970 Evo, schafft die 1 Gigabit/s Transfer.
Das ist schnell genug um sogar Spiele direkt darüber zu launchen.

Da versucht Fanxiang, qasi auch Geld zu verdienen, ich weiß natürlich das eine external m.2 sehr wahrscheinlich größer ist und weniger kompakt wie ein USB Stick.
 
Nicht nur wahrscheinlich größer, sondern definitiv; hab selber sowas. Ist eben kein Stick...
 
Zuletzt bearbeitet:
@MoBo 01/04 Nun ist die Frage wie verhält sich das im NAS. Ohne DRAM und vermutlich auch ohne nutzbaren HBM.

Im Test steht beim HD Tune Pro Dauertest
Nach ca. 154 GB war der Cache voll und die Leistung wurde gedrosselt.
Die Testdatei konnte immerhin mit einer Schreibgeschwindigkeit von durchschnittlich 2507 MB/s gelesen und mit 1644 MB/s geschrieben werden.
Mir fehlt der HBM im NAS, meinst du das macht sehr viel aus? Ich denke eigentlich das die 154 GB Cache ausreichen. Oder doch lieber die SN700 nehmen, soviel wollte ich aber in die Spielerei nicht reinstecken. Heute Abend erstmal schauen ob ich den HBA zum laufen bekomme.
 
Zuletzt bearbeitet:
Die 154GB sind die Größe des SLC-Cache im leeren Zustand. Der SLC-Cache ist ein vom HMB unabhängiges Feature, das auch in einem NAS funktionieren sollte. Fehlender HMB führt vor allem zu einer Reduzierung der Performance bei kleinen Lesezugriffen, vgl. https://www.hardwareluxx.de/community/threads/wer-steckt-hinter-fanxiang.1325682/post-30005861
Die SN700 ist auch ein SSD, dass mangels eigenem DRAM auf HMB setzt. Damit wäre also nichts gewonnen. Die günstigsten brauchbaren 2TB-SSD mit DRAM kosten derzeit ab etwa 130,-
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh