Wer steckt hinter Fanxiang

@Holt
danke für die Aufklärung das ändert natürlich alles...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die S880 ist DRAM less, die würde ich erst recht nicht nehmen oder empfehlen, zumal man mit einem Review die Probleme der Haltbarkeit die solche China SSDs meist plagen, sowieso nicht feststellen kann. Außerdem bekommt man selbst eine SN770 2TB schon für 90€:


Wenn man also wirklich mit DRAM less leben kann, so gibt es für wenig mehr auch PCIe 4.0 SSDs von NAND Herstellern mit TLC NAND und die SN850X 2TB kostet kostet inzwischen unter 120€ und ist wirklich eine Spitzen SSD. Relativ ist der Preisunterschied zwar groß, absolut gesehen ist es aber nicht so viel.
 
Zu den Fanxiang gibt es nach meiner Recherche keine Reviews, die konzeptionell geeignet sind, eventuelle Schwachstellen aufzudecken. Was man vor allem findet, sind Influencervideos ohne kritische Distanz. Eine einmalige Windowsinstallation und ein CDM-Run mit einem mickrigen Testfile von 1GB sind Belastungen, die selbst billigste SSD unauffällig bestehen.
 
Um das Thema des Threads mit etwas mehr Substanz anzureichern, habe ich mir von Fanxiang eine S500 Pro 512GB beschafft. Gemäß dem Tools "Maxio NVME SSD id" Ver. 0.33a sind auf diesem SSD folgende wesentliche Komponenten verbaut:

- Controller: Maxio Technology MAP1202 NVMe
- NAND-Flash: YMTC 3dv3-128L(x2-9060) TLC 16k 512Gb/CE 512Gb/die 4Plane/die

Es handelt sich um DRAM-less SSD mit x4 Gen3-Anbindung. Statt eigenem DRAM werden 16MB RAM (Host Memory Buffer - HMB) genutzt. Die NAND-Chips sind äußerlich gleich zu denen, die hier für die S770 2TB in https://www.hardwareluxx.de/community/threads/wer-steckt-hinter-fanxiang.1325682/post-29965517 gepostet wurden.

IMG_20230712_141012.jpg
CrystalDiskInfo_20230717093936.png


Lediglich die Kapazität weicht mit 256GB statt 512GB ab. Zu diesen Chips findet man nach meiner Recherche keine spezifizierende Informationen. Anhand der äußeren Erscheinung der Packages und der Labels lässt sich allein feststellen, dass diese nicht direkt von YMTC stammen. Deren selbst vermarkete Typen YMTC 3dv3-128L sehen so aus:

YMTC 128L TLC_genuine.jpg


Die Leistung im leeren Zustand entspricht der üblicher DRAM-less SSD mit Gen3-Anbindung.

CrystalDiskMark_20230717104733.png


Wobei auffällt, dass mit zunehmender Größe des/der Testfiles, insbesondere die Random-Leistung bei CDM deutlich einbricht. Das dürfte daran liegen, dass die Mappingtabelle (Zuordnung der externen Adressen zu den NAND Adressen) nicht vollständig in den HMB passt. Bei Zugriffen, die über größere Adressräume verteilt sind, müssen daher zusätzlich Teile der Mappingtabelle nachgeladen werden. Für die Praxis jenseits von Benchmarks ist das durchaus relevant. Dass die Adressen auf die OS, Apps zufällig zugreifen, gerade im HMB geladen sind, dürfte nicht die Regel sein.

CrystalDiskMark_20230717111801.png


Vergleichsweise mit CDM getestete SSD mit DRAM, wie Samsung 980/990 pro und SKHynix P41 plat, bleiben in dieser Hinsicht völlig unbeeindruckt. Egal, wie groß das Testfile ist, die Messwerte sind nahezu gleich.

Die Größe des SLC im leeren Zustand beträgt ca. 60 GB. Jenseits des SLC-Caches liegt die seq. Schreibleistung zunächst bei ca. 600 und später bei ca. 390 MB/s.


SLC-Cache.jpg

Fortsetzung folgt ...
 
Zuletzt bearbeitet:
Wobei auffällt, dass mit zunehmender Größe des/der Testfiles, insbesondere die Random-Leistung deutlich einbricht. Das dürfte daran liegen, dass das Testfile dann nicht mehr vollständig in den SLC-Cache passt.
Das dürft weniger mit dem Pseudo-SLC Schreibcache als dem fehlenden DRAM Cache zu tun haben. DRAM less NVMe SSDs können das zwar mit HMB ausgleichen, aber nur sehr begrenzt, wie dieser Test von Anandtech zeigt:

BG4_HMB.png


Wie man sieht reicht der HMB hier um die Performance für zufällige Zugriffe über einen Adressraum von bis zu 32GB hoch zu halten, wird aber über größere Adressräume zugegriffen, so bricht die Performance ein, weil dann eben immer erst der passenden Teil der Mappingtabelle nachgeladen werden muss.
Vergleichsweise getestet SSD mit DRAM, wie Samsung 980/990 pro und SKHynix P41 plat, bleiben in dieser Hinsicht völlig unbeeindruckt.
Was wieder nur bekräftigt das es am fehlenden DRAM Cache liegt, der ist nämlich nicht primär dazu da Userdaten zu cachen, sondern die Verwaltungsdaten des Controllers und da vor allem die Mappingtabelle, als die Tabelle mit der Zuordnung der externen Adressen zu den NAND Adressen und deshalb ist die Größe des DRAM Cache ja meist auch proportional zu Kapazität der SSD. idealerweise im Verhältnis von 1GB DRAM Cache pro 1TB Kapazität.
 
Das trifft doch auf jede NVMe SSD zu.


Das sehe ich anders. Die 1TB 990 bricht nach 115GB ein und die P41 nach ca. 184 GB.
Das trifft m. W. nur zum Teil für alle SSD zu. Dass bspw. die Leistung beim zufälligen Lesen einbricht, dürfte Eigenheit von DRAM-less SSD sein.

Ansonsten stimme ich deinem Einwand zu. Meine Aussage sollte sich eigentlich speziell auf den Test mit CDM beziehen. Dort werden maximal 64GB Daten erzeugt. Ich passe den Text entsprechend an.
Beitrag automatisch zusammengeführt:

Das dürft weniger mit dem Pseudo-SLC Schreibcache als dem fehlenden DRAM Cache zu tun haben. DRAM less NVMe SSDs können das zwar mit HMB ausgleichen, aber nur sehr begrenzt, wie dieser Test von Anandtech zeigt:

Anhang anzeigen 905094

Wie man sieht reicht der HMB hier um die Performance für zufällige Zugriffe über einen Adressraum von bis zu 32GB hoch zu halten, wird aber über größere Adressräume zugegriffen, so bricht die Performance ein, weil dann eben immer erst der passenden Teil der Mappingtabelle nachgeladen werden muss.
Danke für den Kommentar. Ich hoffe, es spricht nichts dagegen, wenn ich diese Erklärung sinngemäß in meinen Text übernehme.
 
Zuletzt bearbeitet:
Wenn die Schreibrate einbricht, liegt dies daran das der Pseudo-SLC Schreibcache voll ist, was bei heutigen Consumer SSDs normal ist, da die alle TLC oder QLC NAND und einen Pseudp-SLC Schreibcache haben und der ist heutzutage eben dynamisch, seine Größe hängt also davon ab wie voll die SSD ist. Die Einrüche beim Lesen erklärt dies aber nicht.
 
Fortsetzung von https://www.hardwareluxx.de/community/threads/wer-steckt-hinter-fanxiang.1325682/post-30005797

Die Tests mit Anvil's Storage Benchmark zeigen, dass der Maxio-Controller ähnlich Sandforce- oder Phison-Controllern synthetische Testdaten, die ausschließlich aus Nullen bestehen, erkennt und keine vollständigen Zugriffe ausführt. Insbesondere für 4K-Zugriffe werden dann unrealistisch hohe Leistungen angezeigt.

Fanxiang S500PRO 512GB Anvil_4GB_leer.png

Test mit randomisierten Daten (praxisnah)

Fanxiang S500PRO 512GB Anvil_4GB_0-fill_leer.png

Test mit 0-Fill Daten

Inzwischen habe ich zum Test der Haltbarkeit mit Anvil's Storage Bench und IO-Meter etwa 50TB auf das SSD geschrieben und zwischendurch die Datenintegrität mehrmals mit h2testw geprüft. Dabei sind bisher keine Fehler aufgefallen.

Bei Amazon wird das SSD mit 320 TBW beworben. Bis dahin werde ich den Haltbarkeitstest in jeden Fall fortsetzen.
 
Zuletzt bearbeitet:
Ein cooler Test wären auch echte Transaktionen. Wie Game loading Times, Paralleles kopieren oder verschieben von Dateien bei gleichzeitigem "Lesen".

Aber danke schonmal für die ganzen Tests, aber wenn ich mir das so angucke... ists ne Mogelpackung. Zumindest dem initialen Anschein nach.
 
Weswegen ich meine SSDs gerne mit den älteren Oracle Orion-Benchmark teste; der simuliert konfigurierbare (auch mix und verschieden große) Lese- und Schreibzugriffe einer SQL-Datenbank.
 
Aber danke schonmal für die ganzen Tests, aber wenn ich mir das so angucke... ists ne Mogelpackung. Zumindest dem initialen Anschein nach.
Wo siehst du denn da eine Mogelpackung? Die Fanxiang S770 hatte einen Temperaturbug, der wurde durch den Support / Technik beseitigt. Habe ich hier lang und breit dokumentiert und von der Leistung / Komponentenwahl (gerade des Controllers) kann die mit jeder weit teureren Marken SSD mit halten - auch lang und breit hier getestet. Nun kommt hier ein User mit einer der billigsten "Low-End" SSDs und versucht sein Resümee damit zu ziehen. Ist ja ok aber irgendwo schon weit mehr als Äpfel mit Birnen. Was soll man davon halten wenn man gute Hardware nun mit Crap Ausschussware vergleichen will? Richtig, NIX!!

Eine 512GB S500 mit einer 2TB S770 irgendwo "initial" dem Anschein nach vergleichen zu wollen (wohl um diesen Thread einen weiteren Negativtouch Versuch anzulasten) ist ungefähr so, wie wenn du eine 1TB Samsung980 mit einer 4TB Samsung990 Pro vergleichen möchtest -> absolut kein Vergleich halt. Von daher halte ich mich hier zurück, möchte kein "Trollfutter" dazu steuern. (y)

ps: ..nur soviel, meine beiden 2TB 770er laufen noch tiptop! Ein ausführliches Feedback mit belastbaren Daten der SSDs gibts dann gegen Ende des Jahres (..so Gott will).
 
Zuletzt bearbeitet:
@Spieluhr
Die Tests mit Anvil's Storage Benchmark zeigen, dass der Maxio-Controller ähnlich Sandforce- oder Phison-Controllern synthetische Testdaten, die ausschließlich aus Nullen bestehen, erkennt und keine vollständigen Zugriffe ausführt. Insbesondere für 4K-Zugriffe werden dann unrealistisch hohe Leistungen angezeigt.

Das ist wie VW und Abgaswerte auf dem Prüfstand.
Scheinbar machen das auch andere Hersteller.
Deshalb ist mir ein Real World Test auch so wichtig. Die Synthetischen scheinen halt manipulierbar zu sein.
Ich mein bei einem Guten Preis kommt es am ende nicht auf die 5 - 10% Schwankungen die am ende nicht immer konstant die peak max werte oder ähnliches erreichen.
Wichtig sind trotzdem konstant hohe Leistung, gute Ausdauer und angemessene Kapazität.
 
Zuletzt bearbeitet:
Laut hersteller verwendet MAP1602 datenkompression ob das jetzt mogeln ist muss man selbst entscheiden
edit: oh gerade gesehen das es um MAP1202 ging, vllt. hat die auch kompression
http://www.maxio-tech.com/news/11645/12952.html
jo hat auch kompression Agile Zip数据压缩技术
 
Zuletzt bearbeitet:
Ein cooler Test wären auch echte Transaktionen. Wie Game loading Times, Paralleles kopieren oder verschieben von Dateien bei gleichzeitigem "Lesen".

Aber danke schonmal für die ganzen Tests, aber wenn ich mir das so angucke... ists ne Mogelpackung. Zumindest dem initialen Anschein nach.
Danke für die konstruktive Anmerkung. Die Intension meiner Tests ist vor allem herauszufinden, ob das betreffende Fanxiang-SSD außergewöhnliche Inkonsistenzen in der Performance und Defizite in der Zuverlässigkeit/Haltbarkeit aufweist. Eine detaillierter Leistungsvergleich mit gängigen SSD anderer Anbieter ist eher nicht beabsichtigt. Dass ein DRAM-less SSD dort eher schlecht anschneiden wird, ist vorhersehbar.

Die bisher festgestellten Eigenschaften der S500 pro sind für ein DRAM-less mit 3D-TLC-NAND typisch. Solange die nicht mit den unrealistischen Leistungswerten für 0-Fill-Daten beworben wird, sehe ich in dem Angebot auch keine eindeutige Mogelpackung. Obwohl das Kompressionsfeature wahrscheinlich allein den Zweck hat, in Benchmarkprogrammen höhere Werte zu generieren. Speicherkapazität gewinnen SSD, die dieses Feature aufweisen, dadurch jedenfalls nicht.
Beitrag automatisch zusammengeführt:

Fortsetzung von https://www.hardwareluxx.de/community/threads/wer-steckt-hinter-fanxiang.1325682/post-30005946

Was an der Fanxiang S500 pro ebenfalls nicht funktioniert, ist die Erfassung oder Übermittlung der Temperatur. HWinfo (alle drei Temp-Werte) und CDI zeigen, egal ob idle oder große Random-Schreiblast, immer 40 - 42 °C an.

Mit zunehmender Befüllung nimmt die Performance erwartungsgemäß ab. Bei etwas über 50% Füllstand werden sequentiell nur noch ca. 30 GB mit etwa 2,5 GB/s geschrieben. Sofern dann in einem Rutsch weiter geschrieben wird, fällt die Schreibrate danach auf ca. 260MB/s ab. Bei 85% werden sequentiell ca. 20 GB mit etwa 2GB/s geschrieben. Darüber hinaus fällt die Schreibrate bei ununterbrochenem weiteren Beschreiben bis zur vollständigen Befüllung auf ca. 260 MB/s ab, wobei es dann auch zu mehrere Sekunden andauernden kompletten Unterbrechungen des Schreibvorganges kommen kann.

HDTune_Fxg512p_405GB.png


Nach meiner Recherche stimmt dieses Verhalten mit anderen DRAM-less SSD mit 3D-TLC-NAND in etwa überein.

Bei 99% Füllstand liefert CDM immerhin noch folgende Werte. Die Performance bricht also nicht allzu deutlich ein, sofern keine größeren Schreibvorgänge stattfinden.

CrystalDiskMark_99%.png
 
Zuletzt bearbeitet:
Danke für die konstruktive Anmerkung. Die Intension meiner Tests ist vor allem herauszufinden, ob das betreffende Fanxiang-SSD außergewöhnliche Inkonsistenzen in der Performance und Defizite in der Zuverlässigkeit/Haltbarkeit aufweist. Eine detaillierter Leistungsvergleich mit gängigen SSD anderer Anbieter ist eher nicht beabsichtigt. Dass ein DRAM-less SSD dort eher schlecht anschneiden wird, ist vorhersehbar.

Die bisher festgestellten Eigenschaften der S500 pro sind für ein DRAM-less mit 3D-TLC-NAND typisch. Solange die nicht mit den unrealistischen Leistungswerten für 0-Fill-Daten beworben wird, sehe ich in den Angebot auch keine eindeutige Mogelpackung. Obwohl das Kompressionsfeature wahrscheinlich allein den Zweck hat, in Benchmarkprogrammen höhere Werte zu generieren. Speicherkapazität gewinnen SSD, die dieses Feature aufweisen, dadurch jedenfalls nicht.
Danke alles gut, aber wir wissen ja das die Hersteller in den letzten Jahren viel getrickst haben.
Deshalb halt einen runden Test mit Alltagssituationen.
Die synthetischen reichen ja meistens für die schlechten Plagiate aus.
Am ende zählt ja nicht die reine theoretisch mögliche Performance sondern das was im Durchschnitt hinten rauskommt auch mit Worst Case Szenarien.
z.b Wie Schnell kann man noch was machen wenn die SSD zu 85% befüllt ist. Hier wird man bei billigen feststellen das kaum Overprovisioning vorhanden ist und dadurch kein Auslagerungs Speicher fürs Aufräumen und ersetzen beschädigter Zellen. Bei den guten Herstellern/Modellen sind hier locker 15-20% drin, gerade weil es ja kein DRAM Cache gibt den man fürs aufräumen verwenden könnte.
 
Die Tests mit Anvil's Storage Benchmark zeigen, dass der Maxio-Controller ähnlich Sandforce- oder Phison-Controllern synthetische Testdaten, die ausschließlich aus Nullen bestehen
Hast Du auch mal die Einstellung mit 46% Komprimierharbeit gebencht?
Scheinbar machen das auch andere Hersteller.
Das gerade die 3k Performance beim Bennchen über größere Adressräume nachlässt, passiert nur bei DRAM less SSDs und ergibt sich eben schlicht aus der Tatsache, dass sie zwar einen kleinen Teil der Mappingbtalle, üblicherweise genug für einen Adressraum von 1GB, im internen SRAM des Controllers halten können (und ja auch müssen, wie sollten sie sonst funktionieren) und bei NVMe mit HMB noch einen Teil mehr im DRAM des Hosts, was dann eben z.B. für einen Adressraum von 32GB reicht, aber eben nicht genug um die ganze Mappingtabelle zu cachen. Dafür dient ja eben der DRAM Cache bei SSDs und SSDs mit dem vollen DRAM Cache zeigen so ein Verhalten deshalb auch normalerweise nicht.
Laut hersteller verwendet MAP1602 datenkompression ob das jetzt mogeln ist muss man selbst entscheiden
Wenn sie bei real komprimierbaren Dateien wie Programmcode oder logs etwas bringt, dann ist es kein Mogeln, aber ist dies hier der Fall? MoBo 01/04 kann das ja vielleicht noch mal benchen. Die andere Frage ist dann aber immer noch wie viel die Datenkompression selbst dann bringt, wenn man bedenkt das es ja nur ein kleiner Controller mit einem oder zwei Watt Leistungsaufnahme ist der einen Datenstrom vom über 3GB/s in Echtzeit komprimieren und dekomprimieren muss. Wenn das so gut wie die NTFS Datenkompression ist, wäre es schon viel und wenn man die mal mit Zip oder 7z vergleicht, dann sieht man da schon einen deutlichen Unterschied.
Obwohl das Kompressionsfeature wahrscheinlich allein den Zweck hat, in Benchmarkprogrammen höhere Werte zu generieren.
Davon gehe ich auch aus.

Speicherkapazität gewinnen SSD, die dieses Feature aufweisen, dadurch jedenfalls nicht.
Wie sollte das auch gehen? Die SSD kann ja auch nur mit nicht komprimierbaren Daten wie z.B. Videos (außer im Rohformat) oder mp3s etc. beschrieben werden, wo die Datenkompression nichts rausholen kann. Was sollte die SSD dann machen, wenn sie im Vertrauen auf die Komprimierbarkeit mehr Kapazität gemeldet hätte? Sie kann die Partition die auf ihr angelegt wurde ja nicht selbst verkleinern, dies kann nur das Betriebssystem, welches aber eben nicht weiß dass die SSD gerade in Schwulitäten ist weil sie die Daten nicht wie erwartet komprimieren konnte. Damit bleibt also nur bei bestimmten Daten besser Performancewerte zu erreichen und die NANDs ein wenig zu schonen, weil weniger in die NAND geschrieben werden muss, aber wie weit letzteres bei ordentlichen SSDs wirklich jemals relevant war, darüber brauchen wir wohl eher nicht zu streiten.

Was an der Fanxiang S500 pro ebenfalls nicht funktioniert, ist die Erfassung oder Übermittlung der Temperatur. HWinfo (alle drei Temp-Werte) und CDI zeigen, egal ob idle oder große Random-Schreiblast, immer 40 - 42 °C an.
Das ist nicht gut, denn der Controller wird das sicher können und es stellt sich die Frage wieso es nicht korrekt implementiert wurde. Zumindest bei Controller würde ich davon ausgehen, dass der den Temperatursensor schon intern verbaut hat, wenn man die beiden anderen Sensoren einspart, dann frage ich mich wo noch gespart wurde. Oder es ist um die User glauben zu machen diese SSD wäre besser als andere weil sie ja scheinbar immer schön kühl bleibt, nur wenn man schon da schummelt um sie besser aussehen zu lassen als sie ist, wo denn noch?
 
Was an der Fanxiang S500 pro ebenfalls nicht funktioniert, ist die Erfassung oder Übermittlung der Temperatur. HWinfo (alle drei Temp-Werte) und CDI zeigen, egal ob idle oder große Random-Schreiblast, immer 40 - 42 °C an.
Wenn da drei Temperature Werte in HWInfo angezeigt werden, dann ist das der Temperaturbug den auch meine S770 hatten. HWInfo sollte dir eigentlich auf Temperature 3 die aktuelle und auch richtige Temperatur auslesen.
Das CDI damit nicht klar kommt liegt schlicht und einfach daran, dass das Programm generell immer nur den ersten Temperature (0) ausliest, also schlecht programmiert das Tool.
Normale SSDs wie zb. meine Crucial P5P haben 2 Temperature Sensoren und die synchronisieren untereinander. Die Fanxiang S770 hat nach den FW. Update auch nur noch Temperature (0) + Temperature 2 Sensor, die untereinander synchronisieren und somit immer die richtige Temperatur auslesen, siehe Screen @ Post #189.
Ausnahme ist hier auch wieder die Samsung980 mit ihren 3 Temperature Sensoren (Werten) wo auch Temperature 3 eine minimal andere Temperatur anzeigt als Temperature (0) und Temperature 2.

Da kann man sich nun auch fragen welches die richtige Temperatur bei der Samsung980 ist: Die Temperatur die CDI auf Temperature (0) ausliest oder die welche HWInfo auf Temperature 3 anzeigt?
Denn gerade unter Schreiblast können da Temperature (0) und Temperature 3 laut HWInfo schon im 2stelligen Bereich auseinander driften. Schummelt da etwa Samsung? Hmm, wo dann noch? :unsure:

Ergo ein ganz normaler Firmware Bug der sich beseitigen lässt und gerade Samsung in der letzten Zeit ein langes Liedchen von trillern dürfte, Crucial im übrigen auch. ;)
 
Zuletzt bearbeitet:
Nachtrag: So, für den Fall das ihr mir das mit der Temperatur Mogelei der Samsungs nicht glaubt, habe ich das jetzt mal anhand meiner beiden Samsung 980 nachgestellt.

Da die beiden Samsung 980 in einen Windows Speicherpool laufen und ich diesen hierfür nicht extra auflösen möchte, habe ich den Pool mal mit abgebildet (Laufwerk G).
CDI erkennt natürlich diesen Pool nicht aber CDI kommt eh mit so einigen Sachen nicht klar, von daher ist dieses Tool immer meine letzte Wahl wenn ich Infos zu Laufwerken auslesen möchte.
Ergo werden die beiden Samsung hier nur als "Disk" angezeigt, hauptsache HWInfo liest alles korrekt aus. Die anderen Laufwerke sind dann halt die beiden S770 und die P5Plus.
Testszenario ist eine 550GB VC Content Datei die ich von Laufwerk E (erste Fanxiang S770) in den Samsung 980 Pool (Laufwerk G) kopiere um mal richtig Schreiblast zu generieren.
Die Temperaturwerte die da auseinander driften und von CDI, gerade unter Schreiblast, falsch angezeigt werden, habe ich orange markiert:

Idle Temperaturwerte:
samsung idle.png

Last Temperaturwerte:
samsung last.png

So, jetzt sagt mir mal noch einer, Marken Anbieter würden da weniger mogeln. Darf jeder gerne mal selbst anhand seiner Samsung SSDs überprüfen.
Wenigstens war Fanxiang so ehrlich, hat offen mit mir kommuniziert und diesen Temperaturbug beseitigt. Und Samsung? Die habe ich auch angeschrieben -> keine Reaktion, bis dato!!! (y)

edit: Zum Ende des Kopiervorgangs hatte die 2te Samsung 980 (Disk 2) laut HWInfo einen Drive Temperature 3 Wert von 69°, CDI hat nur 51° angezeigt (Temperature (0) bzw. Temperature 2). Da werden, vertraut man CDI, mal ebend satte 18° tatsächliche Schreiblasttemperatur unterschlagen. Ich weiß auch nicht, ab welcher Lasttemperatur eine Samsung 980 thermisch bedingt drosselt, Samsung ist mit so etwas ja sehr auskunftsfreudig. :unsure:
 
Zuletzt bearbeitet:
Nachtrag: So, für den Fall das ihr mir das mit der Temperatur Mogelei der Samsungs nicht glaubt, habe ich das jetzt mal anhand meiner beiden Samsung 980 nachgestellt.

Da die beiden Samsung 980 in einen Windows Speicherpool laufen und ich diesen hierfür nicht extra auflösen möchte, habe ich den Pool mal mit abgebildet (Laufwerk G).
CDI erkennt natürlich diesen Pool nicht aber CDI kommt eh mit so einigen Sachen nicht klar, von daher ist dieses Tool immer meine letzte Wahl wenn ich Infos zu Laufwerken auslesen möchte.
Ergo werden die beiden Samsung hier nur als "Disk" angezeigt, hauptsache HWInfo liest alles korrekt aus. Die anderen Laufwerke sind dann halt die beiden S770 und die P5Plus.
Testszenario ist eine 550GB VC Content Datei die ich von Laufwerk E (erste Fanxiang S770) in den Samsung 980 Pool (Laufwerk G) kopiere um mal richtig Schreiblast zu generieren.
Die Temperaturwerte die da auseinander driften und von CDI, gerade unter Schreiblast, falsch angezeigt werden, habe ich orange markiert:

Idle Temperaturwerte:
Anhang anzeigen 905371

Last Temperaturwerte:
Anhang anzeigen 905372

So, jetzt sagt mir mal noch einer, Marken Anbieter würden da weniger mogeln. Darf jeder gerne mal selbst anhand seiner Samsung SSDs überprüfen.
Wenigstens war Fanxiang so ehrlich, hat offen mit mir kommuniziert und diesen Temperaturbug beseitigt. Und Samsung? Die habe ich auch angeschrieben -> keine Reaktion, bis dato!!! (y)

edit: Zum Ende des Kopiervorgangs hatte die 2te Samsung 980 (Disk 2) laut HWInfo einen Drive Temperature 3 Wert von 69°, CDI hat nur 51° angezeigt (Temperature (0) bzw. Temperature 2). Da werden, vertraut man CDI, mal ebend satte 18° tatsächliche Schreiblasttemperatur unterschlagen. Ich weiß auch nicht, ab welcher Lasttemperatur eine Samsung 980 thermisch bedingt drosselt, Samsung ist mit so etwas ja sehr auskunftsfreudig. :unsure:
Samsung Magician verwenden, das zeigt meine ich auch Temperaturen an. Außerdem habe ich festgestellt das erst mit dem Samsung Nvme Treiber die SSDs erst richtig genutzt werden.
Der bei der Installation von Windows verwendete Nvme Treiber funktioniert zwar schon recht ordentlich, hatte aber noch einmal einen Unterschied gemacht.

Bei mir sieht es so aus:
1690133023891.png
 
Der Normal_User wird sich aber weder einen Samsung NVMe Treiber aufspielen noch über Magician Temps auslesen. Im Windows Speicherpool erkennt Magician eh keine Samsung SSDs, so schlau ist das Tool nicht.

Hier wurde ja seitenweise CDI als das ultimative Tool angepriesen und weil dort die Temperaturen meiner Fanxiang falsch ausgelesen wurden, der Fehler alleine bei der Fanxiang gesucht.
Das CDI selbst nicht sauber läuft, wurde erst gar nicht in Betracht gezogen. Jetzt ist das Temperaturproblem der Fanxiang behoben, voila, nun zeigt sich das auch Marken SSDs davon betroffen sind und nun heißt es: "Anderes Tool nehmen"? Nun soll der Fehler also doch bei CDI liegen (wo der ja u.a. auch zu suchen ist)?

..hmmm.. :unsure:

Geht sogar noch besser:

fake temps samsung.png

Darf jeder -der auch eine Samsung nutzt- gerne mal bei seiner SSD nachprüfen. Unterschied (max. Temp) ausgelesen CDI -> 49°, laut HWInfo auf Temperature 3 -> 70°!!
Meine P5Plus läuft da absolut sauber, genau so wie meine Fanxiang. (y)

ps: Ich bin mir sogar fast sicher, dass sich dieser Temperaturbug nicht nur auf die Samsung 980 beschränkt sondern auch weitere (Marken) SSDs davon betroffen sind. Sollte man mal einen Sammler aufmachen, wo jeder seine SSD anhand CDM bencht und zeitgleich die Temps via CDI und HWInfo prüft und halt einen entsprechenden Screen dann postet.
 
Zuletzt bearbeitet:
Sei es drum (extra nur für diesen paranoiden Troll mal aus den Speicherpool genommen):

magician.png

..soll ich auch noch einen Lastbench machen? :unsure:

Ignoriere ihn einfach und dont feed the Troll!
Wäre mir sehr mit geholfen, wenn DU dich mal daran halten würdest! Predigt hier in jeden 2ten Post wie toll er es findet mich auf seiner heiß geliebten Igno stehen zu haben, kann es aber selbst einfach nicht lassen, jeden - aber auch wirklich jeden meiner Postings mit höchsten Interesse nachzulesen. Ehrlich, dass nenne ich Kindergartenniveau Deluxe wie du dich verhälst. (y)


edit: ..ach komm, weils so schön ist -> der Lastbench @ Magician:

magician1.png

..auch hier wird nur Temperature (0) ausgelesen. Ergo, gleicher Bug oder halt die Samsung FW. ist verbugt. Außerdem ist Magician denkbar ungeeignet für die Temperaturanzeige, da diese nur aktualisiert wird, wenn man den Aktuallisieren Button klickt. Das da mal ebend -nur beim Lesen- schon 10° höhere Temps an Temperature 3 anliegen -> uninteressant!
 
Zuletzt bearbeitet:
Sei es drum (extra nur für diesen paranoiden Troll mal aus den Speicherpool genommen):

Anhang anzeigen 905444

..soll ich auch noch einen Lastbench machen? :unsure:



Wäre mir sehr mit geholfen, wenn DU dich mal daran halten würdest! Predigt hier in jeden 2ten Post wie toll er es findet mich auf seiner heiß geliebten Igno stehen zu haben, kann es aber selbst einfach nicht lassen, jeden - aber auch wirklich jeden meiner Postings mit höchsten Interesse nachzulesen. Ehrlich, dass nenne ich Kindergartenniveau Deluxe wie du dich verhälst. (y)


edit: ..ach komm, weils so schön ist -> der Lastbench @ Magician:

Anhang anzeigen 905446

..auch hier wird nur Temperature (0) ausgelesen. Ergo, gleicher Bug oder halt die Samsung FW. ist verbugt. Außerdem ist Magician denkbar ungeeignet für die Temperaturanzeige, da diese nur aktualisiert wird, wenn man den Aktuallisieren Button klickt. Das da mal ebend -nur beim Lesen- schon 10° höhere Temps an Temperature 3 anliegen -> uninteressant!
Samsung zeigt die durchschnittlichen Temperatur Werte an, wenn du laut Hwinfo den min und den max nimmst/2 bekommst du 47° die Magician anzeigt.
 
Samsung zeigt die durchschnittlichen Temperatur Werte an, wenn du laut Hwinfo den min und den max nimmst/2 bekommst du 47° die Magician anzeigt.
Steht wo? :unsure:

Die 47° waren noch der Wert vor aktualisieren. Habe ja geschrieben, dass Magician von selbst nicht die Temp aktualisiert. Ergo, denkbar ungeeignet das Tool zum Temperatur auslesen.

Ich habe euch jetzt bestimmt schon 10 Postings lang gezeigt, dass bei der Samsung 980 die Temperatur auch falsch ausgelesen wird. Anhand mehrerer Tools.
Wenn das dann immer noch nicht verstanden wird, nicht mehr mein Problem. :rolleyes:
 
Dass Samsung die sog. Composite Temperature, also einen Mittelwert über Controller und NAND, anzeigt, erschließt sich aus dem entsprechenden SMART-Wert 2. Dieses Begriffsverständnis entspricht genau der NVME-Spezifikation.

Was irgendeine nicht zertifizierte App anzeigt, ist letztlich (fast) egal. Entscheidend ist, dass temperaturabhängige Schutzfunktionen (Drosselung, Abschaltung) vom Controller sicher umgesetzt werden.
Dass dies bei Samsung nicht der Fall wäre, wird durch eigene Erfahrungen mit Belastungstests sowie die hier gezeigten Screens für die 980 keinesfalls belegt. Im Gegenteil bei Belastung und tatsächlichem Tempertaturanstieg liefert zumindest einer der Sensoren plausibel veränderte Werte.
Bei Fanxiang, das war mein Punkt, ist das nicht der Fall, dort zeigt keiner der Sensoren einen zum Belastungsverlauf plausiblen Temperaturwert an. Vor diesem Hintergrund liegt die Frage, inwieweit Schutzfunktionen korrekt implementiert sein können, wesentlich näher als bei Samsung.

Btw, habe ich nochmal die Leistung der Fanxiang S500 pro mit 46% komprimierbaren Daten gemessen. Wie zu erwarten, liegen die Werte dann im Rahmen der Messtoleranz der Werte für nicht komprimierbare Daten. Die Kompressionsbeschleunigung kommt also nur bei synthetischen Daten zum Tragen, die keinerlei Informationen enthalten.

Fanxiang S500PRO 512GB Anvil_4GB_0-fill_leer.png

Testdaten 100% komprimierbar

Fanxiang S500PRO 512GB Anvil_4GB_leer.png

Testdaten nicht komprimierbar

Fanxiang S500PRO 512GB Anvil_4GB_46_leer.png

Testdaten 46% komprimierbar
 
Nicht schlecht; muss jetzt nur mal noch einer testen. Also Freiwillige bitte vortreten...
 
Wobei die Gen5 schon gar nicht mehr so günstig ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh