Wer steckt hinter Fanxiang

Der Preis ist völlig Banane, die wollen den dreifachen Preis einer S770 Gen4 für gerade mal nüchterne 30% mehr Performance.

Nicht mal Corsair einer der bekannten Markenhersteller bekommt die Hitze im Griff, der8auer hat das schon getestet.
Beitrag automatisch zusammengeführt:

PCIE GEN5 hat gerade mal den Status proof of concept.

Mehr nicht in meinen Augen, das muss erstmal noch 1-2 Jahre durch Forschung und Entwicklung bezüglich Abwärme Lösungen die plug&play sind.

Ja wir sind hier im Luxx/Bastler Forum, mit Sicherheit wird's ne Wasserkühlung geben demnächst.
Das einzige was effektiv helfen wird ist ein massiver Kupferkörper oder irgendwas mit Vapor Chamber.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei Fanxiang, das war mein Punkt, ist das nicht der Fall, dort zeigt keiner der Sensoren einen zum Belastungsverlauf plausiblen Temperaturwert an.
Siehe Screen Post #189, mehr schreibe ich dazu nicht (mehr). Wenn du diese "Feststellung" jetzt allerdings auf deine "lowend Budget" S500 kleinster Kapazität beziehst, tja, ist halt der billigste Schund den man für Geld erwerben kann. Da darf man sich dann nachher auch nicht wundern das die mit weit besseren (und logischerweise auch teureren) Modellen nicht wirklich mit halten kann. :coffee:

Dass Samsung die sog. Composite Temperature, also einen Mittelwert über Controller und NAND, anzeigt, erschließt sich aus dem entsprechenden SMART-Wert 2.
Sehr abenteuerliche Theorie, durch nichts belegbar. Fanxiang (nach FW. Update), Crucial P5Plus verwenden beide zwei Temperature Werte (0+2) die synchron auch so mit JEDEN Tool korrekt ausgelesen werden.
Die Samsung 980 nicht! Hier werden sich irgend welche "Mittelwert Rechnereien" zusammen gesponnen. Sehr sehr abenteuerlich. (y)
Kann mir das gerade gut vorstellen: Ein User liest seine Samsung 980 über CDI aus, freut sich, dass das Teil selbst unter Schreiblast kaum über 50° warm wird und denkt sich: "Hey, geiler Kühler, dass Teil bleibt ja richtig kühl!" ..und dann kommt ihr mit eurer Mittelwert-Theorie und erzählt den User: "Nix da 50°! Musst du noch einmal 15° drauf rechnen, ist der errechnete Mittelwert, weil it's not a Trick, it's a Samsung Feature!". Vieleicht solltet ihr das mal den Progger vom CDI mitteilen, dass der für das Tool ein extra "Samsung 980 Mittelwert Algorithmus"-PlugIn in das Tool integriert, damits dann auch mit der ausgelesenen Temp. stimmt. ;)
...

PCIe Gen5 ist die für mich derzeit sinnbefreiteste Innovation im Hardwaresegment. Selbst PCIe4.0 ist meist schon overkill.
 
Zuletzt bearbeitet:
PCIe Gen5 ist die für mich derzeit sinnbefreiteste Innovation im Hardwaresegment. Selbst PCIe4.0 ist meist schon overkill.
Ich sehe in PCIE Gen4 SSDs auch noch Optimierungsbedarf, IOPS erhöhen, Kapazitäten, Lebensdauer, Latenzen => Dram Cache Optimierung ... kommt schon Speicher kostet doch gerade nichts, wie wäre es endlich mit DDR4 basiertem DRAM Cache?
 
Mehr nicht in meinen Augen, das muss erstmal noch 1-2 Jahre durch Forschung und Entwicklung bezüglich Abwärme Lösungen die plug&play sind.
Nein, man muss dann nur die Controller in moderneren Fertigungsverfahren herstellen damit sie effizienter werden, denn sie brauchen ja noch mehr Performance als bei PCIe 4.0 um den Datenstrom bewältigen zu können. Aber die Kosten für so ein Design explodieren regelrecht, je kleiner die Fertigung sein soll und damit lohnt sich dies nur für die großen Hersteller die auch auf entsprechende Stückzahlen kommen.
Ich sehe in PCIE Gen4 SSDs auch noch Optimierungsbedarf, IOPS erhöhen,
Die maximalen IOPS sind egal, die werden nur bei so vielen parallelen Zugriffen erreicht, wie sie Heimanwender im Alltag nie sehen werden und auch die maximalen Transferraten wird kaum jemals jemand aus so eine SSD kitzeln können, von Benchmarks abgesehen. Denn dazu braucht man eben auch einige lange und vor allem einige parallele Zugriffe.
Kapazitäten, Lebensdauer, Latenzen => Dram Cache Optimierung
Um die Latenzen zu senken, müsste die Latenz vom NAND runter, was zwar machbar ist wie Samsung mit den Z-SSDs gezeigt hat, aber dies macht sie auch sehr teuer und die Optane mit ihrem 3D XPoint, die Könige der Latenz, war extrem teuer und trotzdem für Intel Verlustbringer. Gleiches gilt für mehr Zyklenfestigkeit, wobei ich mich frage wo dies je ein Problem für Heimanwender ist, außer wenn sie für Chia oder als SSD Cache z.B. in einem NAS genutzt werden. Was am DRAM Cache noch zu optimieren wäre, weiß ich nicht, wenn es 1GB DRAM Cache pro 1TB Kapazität ist, ist dies optimal, nur sparen eben manche Hersteller bei einigen Modellen am DRAM Cache um die Kosten zu senken und außer damit auch die Leistungsaufnahme und damit Temperatur zu senken, bringt es eben nur Nachteile. Wenn man diese Nachteile nicht will, dann kauft man eben eine mit dem vollen DRAM Cache im Verhältnis 1:1000 zur Kapazität, es gibt ja zum Glück noch genug SSDs die dies bieten.
 
Ich sehe in PCIE Gen4 SSDs auch noch Optimierungsbedarf, IOPS erhöhen, Kapazitäten, Lebensdauer, Latenzen => Dram Cache Optimierung ... kommt schon Speicher kostet doch gerade nichts, wie wäre es endlich mit DDR4 basiertem DRAM Cache?
Du musst immer die "Alltagsnutzung" gegen rechnen. Was nutzen dir solche, ich schreibe mal "Speed Monster", wenn du zu 98% tgl. eh nur gelegentliche Schreib-/Lesezugriffe darauf hast. Das kannst du selbst mit Sata-II/III noch mehr als satt & schmatzig abdecken. Klar, ist schön wenn man diese Hardware hat (auch für das gute Gefühl) aber "wirklich brauchen"? Das bezweifel ich mal sehr.

ps: Ich persönlich sehe den großen Vorteil dieser SSDs in der Verbauweise. Sitzen platzsparend onboard, keine zusätzlichen Strom-/Datenkabel mehr. Man hat alles an einen Fleck. Das es den höheren Datenstream noch oben drauf gibt, sehr gerne. Aber alles halt nur ein "must have" Feature.
 
Das einzige was effektiv helfen wird ist ein massiver Kupferkörper oder irgendwas mit Vapor Chamber.

Mit den Board eigenen Kühlern gelingt es mir meine Crucial T700 Gen5 SSD als Systemplatte so bei 50 Grad zu halten.
 
Mit den Board eigenen Kühlern gelingt es mir meine Crucial T700 Gen5 SSD als Systemplatte so bei 50 Grad zu halten.
Wie viele Stunden Belastungstests hast du gemacht? geht das auch nach 1-2 Stunden Benchen klar?
 
Wie viele Stunden Belastungstests hast du gemacht? geht das auch nach 1-2 Stunden Benchen klar?

Hab da nur paar mal Christalmark drüber laufen lassen, da geht es dann so an die 60 Grad, wie das über mehrere Stunden aus sieht weiß ich nicht.
 
Du musst immer die "Alltagsnutzung" gegen rechnen. Was nutzen dir solche, ich schreibe mal "Speed Monster", wenn du zu 98% tgl. eh nur gelegentliche Schreib-/Lesezugriffe darauf hast. Das kannst du selbst mit Sata-II/III noch mehr als satt & schmatzig abdecken. Klar, ist schön wenn man diese Hardware hat (auch für das gute Gefühl) aber "wirklich brauchen"? Das bezweifel ich mal sehr.

ps: Ich persönlich sehe den großen Vorteil dieser SSDs in der Verbauweise. Sitzen platzsparend onboard, keine zusätzlichen Strom-/Datenkabel mehr. Man hat alles an einen Fleck. Das es den höheren Datenstream noch oben drauf gibt, sehr gerne. Aber alles halt nur ein "must have" Feature.
Naja interessant ist es schon bezüglich Direct Storage. Aber die Frage ab wie viel merkt man es noch im Alltag.
Es gibt einen Sweetspot zwischen Nutzen/Leistung.
Das ist wie Kernanzahl bei den CPUs in meinen Augen, du brauchst auch die Anwendungen die mit dem Durchsatz skalieren können.

Wie du schon sagst im Alltag hast aber eher (Games, Anwendungen die Datenbanken haben mit vielen Zugriffen) oder Windows selbst hat auch integrierte Datenbanken. Da kommt es mehr auf kleine Dateien mit vielen zugriffen als auf große Transfers.
Klassiker für C:/Windoof der Auslagerungsspeicher/Swap bei Linux.
Beitrag automatisch zusammengeführt:

Hab da nur paar mal Christalmark drüber laufen lassen, da geht es dann so an die 60 Grad, wie das über mehrere Stunden aus sieht weiß ich nicht.
Im durchschnittlichen Alltag könnte es klappen aber ich denke nach 30 Minuten maximal Belastung wird das Ding spätestens drosseln.
 
Was soll denn so ein mehrstündiger Belastungstest bringen? :unsure:

Holzi seine T700 hat, meine ich, eine Kapazität von 1TB. Selbst wenn er jetzt on stock da mal 700GB Daten seq. schiebt, dann dürfte das nicht länger als 10-15min. maximal dauern und das wäre dann schon die Last, welche die höchsten Temperaturen generieren dürfte. Dafür muss ich doch keine SSD mehrere Stunden "braten", wenn diese Last, zeitlich bedingt, schon der Logik nach nie entstehen kann.

Theorie & Praxis halt. (y)


Naja interessant ist es schon bezüglich Direct Storage.
DS steckt noch in den Kinderschuhen, da können wir uns dann in 1-2 Jahren vieleicht noch einmal drüber unterhalten.
Alltagsnutzung, Datenbanken, Windows & Co. hast du meist random Access Zugriffe, ergo auch so Sachen wo du eine SSD nie wirklich ins Schwitzen bringst und gerade dort (IOPS) ist der Unterschied Sata-III vs. PCIe3.0/4.0 so marginal, dass du die Unterschiede meist nur noch messen aber nicht mehr merken wirst.
 
Zuletzt bearbeitet:
Siehe Screen Post #189, mehr schreibe ich dazu nicht (mehr). Wenn du diese "Feststellung" jetzt allerdings auf deine "lowend Budget" S500 kleinster Kapazität beziehst, tja, ist halt der billigste Schund den man für Geld erwerben kann. Da darf man sich dann nachher auch nicht wundern das die mit weit besseren (und logischerweise auch teureren) Modellen nicht wirklich mit halten kann. :coffee:
Ich wundere mich nicht darüber. Bei einem Anbieter, der in seiner Webpräsenz keine einzige haftbar zu machende Person nennt, liegt dergleichen im Erwartungsbereich. Eine funktionierende Temperaturerfassung hängt auch nicht vom Preis ab. Das haben üblicherweise auch Budegt-Modelle.

Sehr abenteuerliche Theorie, durch nichts belegbar. Fanxiang (nach FW. Update), Crucial P5Plus verwenden beide zwei Temperature Werte die synchron auch so mit JEDEN Tool korrekt ausgelesen werden.
Die Samsung 980 nicht! Hier werden sich irgend welche "Mittelwert Rechnereien" zusammen gesponnen. Sehr sehr abenteuerlich. (y)

Selbstverständlich ist das durch die NVME-Basisspezifikationen Rev. 1.4 und höher belegt. Man muss nur nachschauen, die sind öffentlich zugänglich.
 
Was soll denn so ein mehrstündiger Belastungstest bringen? :unsure:

Holzi seine T700 hat, meine ich, eine Kapazität von 1TB. Selbst wenn er jetzt on stock da mal 700GB Daten schiebt, dann dürfte das nicht länger als 10-15min. maximal dauern und das wäre dann schon die Last, welche die höchsten Temperaturen generieren dürfte. Dafür muss ich doch keine SSD mehrere Stunden "braten", wenn diese Last, zeitlich bedingt, schon der Logik nach nie entstehen kann.

Theorie & Praxis halt. (y)
Das gleiche wie bei einem PC, die Stabilität zu ermitteln. Ob die SSD drosselt oder nicht wäre hier schon interessant und selbst wenn nicht, wäre gut zu wissen ob Fehlerraten entstehen.

Ich hab das selbst oft das ich im Hintergrund was installiere während ich entweder über eine VM oder ein Game zugriff auf dem Datenträger habe und dort was mache.
 
Im durchschnittlichen Alltag könnte es klappen aber ich denke nach 30 Minuten maximal Belastung wird das Ding spätestens drosseln.
Weit gefehlt, wie die bisherigen Tests von Gen5-SSD zeigen, erreichen die bei adäquaten Lasten nach Sekunden Temperaturen, die zur Drosselung führen.
 
kann da gerne mal ein Test machen, wenn man mir sagt welchen ich wie nutzen soll ...
 
Selbstverständlich ist das durch die NVME-Basisspezifikationen Rev. 1.4 und höher belegt. Man muss nur nachschauen, die sind öffentlich zugänglich.
Na, dann zeig mir mal den Passus in der NVMe1.4 (meinetwegen auch 1.1, 1.3 oder 2.0) Spezifikation der diese Mittelwerttheorie belegt, so wie du sie hier ausführst. Bin gespannt.

@ PCIe Gen.5: Wenn Holzi schreibt, dass er seine T700 mit noch adäquaten Temperaturen laststabil CDM benchen konnte, warum sollte man ihm das nicht glauben? Keiner von euch weiß doch, wie er diese SSD kühlt. Nur weil irgend welche Tests da was anderes behaupten (wie zu vieler anderen Hardware auch, die dann praktisch bei anderen Usern vollkommen entgegen dieser synthetischen Tests läuft), heißt das noch lange nicht das man die immer und überall für bare Münze nehmen muss. Theorie & Praxis halt. Ich glaube ihm das, warum auch nicht.
 
wie die bisherigen Tests von Gen5-SSD zeigen, erreichen die bei adäquaten Lasten nach Sekunden Temperaturen, die zur Drosselung führen.
Das hängt immer von der Kühlung ab, würde man keinen CPU Kühler verwenden, könnte man das Gleiche auch von jeder aktuellen CPU sagen, während CPUs vor Jahrzehnten, etwa in einem C64 oder XT noch gar keine Kühler hatten.
 
Na, dann zeig mir mal den Passus in der NVMe1.4 (meinetwegen auch 1.1, 1.3 oder 2.0) Spezifikation der diese Mittelwerttheorie belegt, so wie du sie hier ausführst. Bin gespannt.

@ PCIe Gen.5: Wenn Holzi schreibt, dass er seine T700 mit noch adäquaten Temperaturen laststabil CDM benchen konnte, warum sollte man ihm das nicht glauben? Keiner von euch weiß doch, wie er diese SSD kühlt. Nur weil irgend welche Tests da was anderes behaupten (wie zu vieler anderen Hardware auch, die dann praktisch bei anderen Usern vollkommen entgegen dieser synthetischen Tests läuft), heißt das noch lange nicht das man die immer und überall für bare Münze nehmen muss. Theorie & Praxis halt. Ich glaube ihm das, warum auch nicht.

Ich glaube Holzi schon, nur er hat ja selbst eingeräumt das er jetzt nur kurz einen Durchlauf gemacht hatte.
 
NVM Express Revision 1.4, Page 121 f
Wenn, dann ist dort höchstens die Rede von einer "zusammen gesetzten Temperatur" und keinen Mittelwert (aus was eigentlich?) wobei ja das Protokoll selbst schreibt, dass dieser noch nicht einmal den tatsächlich, thermisch abgebildeten Wert/en (Controller / NVM) entsprechen muss. Ziemlich schwammig wenn man darauf seine Mittelwert Theorie aufbauen möchte.

@Holzmann : Du hast doch selbst eine Samsung SSD und wie ich sehe, zeigt HWInfo auch bei dir drei Temperature Werte an. Jede Wette, CDI liest bei dir unter Last auch nur Wert 0 aus und Wert 3 (Temperature 3) ist der Wert der bei dir unter Last einiges höher geht als der ausgelesene Wert. Kannst du die mal bitte CDM benchen, CDI und HWI dabei offen lassen und uns den "Mittelwert" berechnen den CDI nicht anzeigen möchte?

..bei deinen beiden Crucials brauchst du das nicht, die bilden ja exakt die Temperatur ab. (y)
 
Ein Mittelwert ist ein Wert, der aus mehreren Zahlen durch eine bestimmte Rechenvorschrift gebildet wird. Nichts anderes wird bezüglich der "Composite Temperature" in der Spezifikation beschrieben. Dass das Begriffsverständnis bei vielen auf das arithmetische Mittel beschränkt ist, dafür kann ich nix.
Glücklicherweise muß man auch nicht verstehen, wie der Mittelwert "Composite Temperature" gebildet wird. Der ist vornehmlich dafür da, wie ebenfalls in der Spezi erwähnt, dass logisch sinnvolle Schutzaktionen vom Controller ausgelöst werden.

Die Temperatur mit CDM zu triggern, halte ich für suboptimal. In den Standardeinstellungen wird dort immer nur in 10s Blöcken zugegriffen. Zwischen den Blöcken liegen Zugriffspausen von 5s. In denen wird kaum Wärme freigesetzt, was letztlich zu einer Abmilderung oder Umkehrung des Temperaturanstiegs führt. Ein reine, ununterbrochene Schreibbelastung mit mehreren Queues/Threads würde schneller zum Ziel führen. Man kann das einfach mit IO-Meter erzeugen.
 
Zuletzt bearbeitet:
Kannst du die mal bitte CDM benchen, CDI und HWI dabei offen lassen und uns den "Mittelwert" berechnen den CDI nicht anzeigen möchte?

980 pro run.png
 
1690232632040.png
 
Klingt logisch @n3cron (y)

Wenn ich das Statement vom HWInfo Author richtig verstanden habe, liegen bei der Samsung dann als "Verbundtemperatur" (also das was auch das NVMe Protokoll schreibt - und eine Verbundtemperatur ist halt was anderes als ein (errechneter) Temperaturmittelwert) der Hauptwert (Temperature (0)) plus Temperature 2 an. Das zeigt ja HWInfo auch immer richtig (synchron), siehe Holzis Screen der Samsung, meine Screens der Samsung. Die zweite, andere Temperatur (Temperature 3) "könnte" es sich um einen anderen Sensor handeln (dann frage ich mich welcher und ob nicht dieser primär maßgeblich der wichtigere Temperaturwert sein könnte? ..das bleibt ungeklärt) bzw., so gibt es der Author auch wieder, "normalerweise" die Temperatur des ASIC Controllers sein könnte.

..tja, was stimmt da nun bzw. ist primär die maßgeblichere Temperatur und wo wird denn nun bei Samsung die Controller Temperatur ausgelesen? Temperature, Temperature 2 (bzw. die synchronisierte Verbundtemperatur aus beiden zuvor genannten) oder doch Temperature 3, die auffällig schneller ansteigt als Verbundtemperatur (0+2) und sogar -unter Last- 2stellig höher abdriften kann? :unsure:

Zumindest das Rätsel hat Fanxiang ja mit den FW.-Update gelöst, scheinbar über die MP-Tools Temperature 3 komplett aus der FW. heraus genommen und Temperature 2 den Temperaturwert von Temperature 3 zugeordnet. Welcher ja, genau wie z.b. bei den Crucial SSD als Verbundtemperatur immer synchron den auch richtigen Wert von 2 an 0 weiter gibt (oder umgekehrt). Seither kann sogar CDI mit den Temperaturen was anfangen. Siehe auch hier wieder Post #189. Da sind beide Fanxiang in HWInfo abgebildet. Die eine nach FW.-Update mit 2 Temperaturwerten, die andere vor FW.-Update mit den 3 Temperaturwerten ähnlich bzw. identisch der Samsung SSD.

..verstehe nun wirklich nicht, was daran so schwer zu verstehen ist, dass auch die Samsung SSDs die Temperaturen offensichtlich nicht bzw. falsch weiter geben und normale Tools wie CDI diese dann u.U. verfälscht anzeigen.


Die Temperatur mit CDM zu triggern, halte ich für suboptimal. In den Standardeinstellungen wird dort immer nur in 10s Blöcken zugegriffen. Zwischen den Blöcken liegen Zugriffspausen von 5s. In denen wird kaum Wärme freigesetzt, was letztlich zu einer Abmilderung oder Umkehrung des Temperaturanstiegs führt. Ein reine, ununterbrochene Schreibbelastung mit mehreren Queues/Threads würde schneller zum Ziel führen. Man kann das einfach mit IO-Meter erzeugen.
Sicher ist CDI suboptimal (schreibe ich hier schon seitenweise), dennoch scheint es der 08/15 User primär gerne einzusetzen. Den Aktualisierungsrefresh kannst du ja auch manuell auslösen, ergo meinetwegen alle 2-3sek. und das die Zugriffpausen von CDM immer dann auftreten wenn der Refresh bei CDI statt findet, wäre schon ein sehr großer Zufall. Nur, diese Zugriffpausen würden und werden, wenn man denn HWInfo zeitgleich zum Monitoring nutzt, auch an diese Software weiter gereicht welche ja wesentlich schneller refresht und im Endeffekt hättest du ja das gleiche (Fehler)Bild der verfälscht ausgelesenen Temperaturen unter CDI (zumindest bei den hier gezeigten Samsung SSDs von Holzi und mir. Ob das weitere SSDs anderer Marken/Modelle die ich selbst noch nicht hatte so betrifft, keine Ahnung.)

ps: So sollte eine "saubere", wie auch in den Vorposting verlinkten Zitaten von HWInfo, Verbundtemperatur ausschauen mit der auch Software wie z.b. CDI was anfangen kann:

p5p vs. s770.png


..und genau so haben es mir auch bisher fast alle meine NVMe SSDs angezeigt (selbst eine billig Intenso) , bis halt die S770 (vor FW. Update) und bis dato die beiden Samsung 980. Bei Holzi schaut es ja genau so aus.
Ich hatte ja den Samsung Technics Support vor knapp 2 Wochen angeschrieben, bisher keine Antwort. Vom Fanxiang Support hatte ich (wenn es nicht am WE war), meist innerhalb weniger Stunden eine Rückmeldung.
Sogar eine Problemlösung, steht alles hier im Thread - einfach mal Post für Post nachlesen und nicht immer nur die letzten 5 Postings. ;)
 
Zuletzt bearbeitet:
Wenn ich das Statement vom HWInfo Author richtig verstanden habe, liegen bei der Samsung dann als "Verbundtemperatur" (also das was auch das NVMe Protokoll schreibt - und eine Verbundtemperatur ist halt was anderes als ein (errechneter) Temperaturmittelwert) der Hauptwert (Temperature (0)) plus Temperature 2 an ... Die zweite, andere Temperatur (Temperature 3) "könnte" es sich um einen anderen Sensor handeln (dann frage ich mich welcher und ob nicht dieser primär maßgeblich der wichtigere Temperaturwert sein könnte? ..das bleibt ungeklärt) bzw., so gibt es der Author auch wieder, "normalerweise" die Temperatur des ASIC Controllers sein könnte.
Dass ein Temperaturmittelwert einfach der Summe zweier Einzelwerte entspricht, hat niemand behauptet.
Ob der volatilere, zu höheren Maxima tendierende Temperaturwert der wichtigere ist, hängt davon ab, wofür der Temperaturwert benötig wird. Aus der NVME Spezifikation resultiert keine Anforderung, genau jenen Wert als SMART 02h auszugeben.

..verstehe nun wirklich nicht, was daran so schwer zu verstehen ist, dass auch die Samsung SSDs die Temperaturen offensichtlich nicht bzw. falsch weiter geben und normale Tools wie CDI diese dann u.U. verfälscht anzeigen.
Es wird nichts falsch weitergegeben. SMART 02h ist nach NVME-Spezifikation lediglich als Mittelwert definiert, der die Temperatur des Controllers und damit zusammenhängender Bereiche nach nicht näher definierter Berechnungsvorschrift einschließt. CDI zeigt diesen SMART-Wert korrekt an.

Sicher ist CDI suboptimal (schreibe ich hier schon seitenweise), dennoch scheint es der 08/15 User primär gerne einzusetzen. Den Aktualisierungsrefresh kannst du ja auch manuell auslösen, ergo meinetwegen alle 2-3sek. und das die Zugriffpausen von CDM immer dann auftreten wenn der Refresh bei CDI statt findet ...
Dass CDI suboptimal sei, habe ich ebenfalls nicht behauptet. Ich schrieb von CDM.
Inwieweit man den Temperaturverlauf bei der CDM-Belastung messtechnisch auflösen kann, ist nebensächlich. Um zu erkennen, dass CDM keinesfalls das Worst-Case für die Abschätzung der Zeitkonstanten für Drosselung, Abschaltung, etc. darstellt, reicht eine simple thermodynamische Überschlagsbetrachtung.

Die höchste Wärmefreisetzung erfolgt bei Schreibzugriffen. Lesezugriffe und Idlen sind nur mit einem Bruchteil dieser Wärmefreisetzung verbunden. Da

- CDM nur 1/3 des Testzeitraumes schreibt und ansonsten liest und pausiert

führt das bei konstanter Kühlleistung natürlich zu einem langsameren Temperaturanstieg und zu einer geringeren Endtemperatur (Begrenzung durch Drosselung vernachlässigt) als mit

- einer Anwendung, die über den kompletten Testzeitraum schreibt.

..und genau so haben es mir auch bisher fast alle meine NVMe SSDs angezeigt (selbst eine billig Intenso) , bis halt die S770 (vor FW. Update) und bis dato die beiden Samsung 980. Bei Holzi schaut es ja genau so aus.
Ich hatte ja den Samsung Technics Support vor knapp 2 Wochen angeschrieben, bisher keine Antwort. Vom Fanxiang Support hatte ich (wenn es nicht am WE war), meist innerhalb weniger Stunden eine Rückmeldung.
Sogar eine Problemlösung, steht alles hier im Thread - einfach mal Post für Post nachlesen und nicht immer nur die letzten 5 Postings. ;)
Dann sind deine Exemplare nicht für den Durchschnitt an NVME-SSD repräsentativ. Samsung, Intel, SK Hynix und WD teilen bei neueren Modellen zumeist nicht genau zwei Temperaturen mit, haben aber zusammen ca. 60% Anteil am SSD-Markt. Dass du gerne den höchsten der Temperaturwerte in CDI sähest, ist klar. Da es weder eine verbindliche technische Regel dafür noch besondere Mängel am Temperaturmanagement bei Samsung-SSD gibt, ist aber auch klar, dass kein Problem vorliegt und eine entsprechende Einzelanfrage beim Support rechts unten in der Eisenhower-Matrix landet.
 
Zuletzt bearbeitet:
CDI zeigt diesen SMART-Wert korrekt an.
Mag sein, nur halt nicht dort wo der übliche 08/15 User zuerst hin schaut. Ist in Post #260 (bei CDI) orange markiert.
______________________________________

- einer Anwendung, die über den kompletten Testzeitraum schreibt.
Daher habe ich ja, siehe Post #260, den 550GB Schreibtransfer auf die Samsung 980 gemacht der ja bekanntermaßen dann nur "den kompletten Testzeitraum" schreiben dürfte. Richtig?
Resultat und da zitiere ich mich mal aus Post #260 selbst:
Zum Ende des Kopiervorgangs hatte die 2te Samsung 980 (Disk 2) laut HWInfo einen Drive Temperature 3 Wert von 69°, CDI hat nur 51° angezeigt (Temperature (0) bzw. Temperature 2). Da werden, vertraut man CDI, mal ebend satte 18° tatsächliche Schreiblasttemperatur unterschlagen.
______________________________________

Dann sind deine Exemplare nicht für den Durchschnitt an NVME-SSD repräsentativ.
..und Holzis Samsung SSD dann wohl auch? Bin mal gespannt welche SSDs noch (sollte man mal einen Sammler aufmachen).
______________________________________

Samsung, Intel, SK Hynix und WD teilen bei neueren Modellen zumeist nicht genau zwei Temperaturen mit, haben aber zusammen ca. 60% Anteil am SSD-Markt.
Dann sind da halt bis zu 60% "neuerer" SSDs am Markt unterwegs die einen Temperaturbug, ähnlich der Fanxiang S770, haben. Denn die S770 hat ja im Grunde zu keiner Zeit eine falsche Temperatur -unter Last- ausgegeben, wurde halt nur "mal wieder" von CDI falsch wieder gegeben. So wie bei der Samsung. Kannst du alles, ab Seite 4, anhand zahlreicher Screens selbst nachprüfen.
Nur weil da Samsung, WD usw. drauf steht, sind die nicht automatisch bugfree.
______________________________________

Dass du gerne den höchsten der Temperaturwerte in CDI sähest, ist klar.
Ja natürlich! Was ist daran falsch? Genau das ist ja DIE Temperatur, die ja hier im Thread zu der S770 immer als -> "schau mal da, die Chinamänners unterschlagen wieder was" dieser immer als Temperaturbug angekreidet wurde und worauf sich meine zahlreichen Supportanfragen (kannst du ebenfalls hier nachlesen) an den Fanxiang Support richteten. Bei der Samsung darf und soll nun der im Grunde identische Auslesefehler als galanter "naja, Samsung darf das, ist halt Samsung" unter den Teppich Kehrer akzeptiert werden? Auch eine Logik. :unsure:
______________________________________

Da es weder eine verbindliche technische Regel dafür noch besondere Mängel am Temperaturmanagement bei Samsung-SSD gibt,
Soll mir nun was genau sagen? Das jeder Hersteller da machen und pfuschen darf wie er möchte oder was genau möchtest du nun damit aussagen?
______________________________________

ist aber auch klar, dass kein Problem vorliegt und eine entsprechende Einzelanfrage beim Support rechts unten in der Eisenhower-Matrix landet.
Zeigt mir als Kunden nur, dass deren Support nichts taugt, was zu verschweigen hat oder einfach nur sehr "abgehoben" ist. Habe ich aber keine Probleme mit, da ich ja weiß wo ich die tatsächlichen Temperaturen sehe. (y) ..andere Teilnehmer in diesen Thread scheinbar schon, die stufen aber dann auch CDI als ultima Ratio zur Temperaturanzeige ein (was mich persönlich dann aber auch weniger belastet).


edit: Ich mache es dir jetzt mal ganz einfach und stelle dir nur eine Frage. Bei welchen dieser vier folgenden Screens erkennst du einen sogenannten Temperaturauslesefehler und wo nicht? Vieleicht noch mit einer kurzen Begründung warum und wieso, wenn es nicht zu viel Arbeit macht. (von links nach rechts -> 1 bis 4):

01.png 02.png 03.png 04.png
 
Zuletzt bearbeitet:
Auslesefehler seitens CDI liegen eventuell bei 3 und 4 vor, denn die CDI-Temperatur sowie die "Drive Temperature/Aktuell" in HWInfo müssen identisch sein, da beide SMART 02h abbilden. Ich bin mir aber relativ sicher, dass diese Abweichung daher rührt, dass die Anwendungen unterschiedlich schnell aktualisieren.

Dass CDI nicht den höchsten erfassten Temperaturwert anzeigt, betrachte ich, wie bereits geschrieben, nicht als Fehler. Dieser Wert dürfte einer korrigierten Temperatur des Controllers entsprechen. SMART 02h ist aber nicht als exklusive Controllertemperatur spezifiziert. Meine Kritik und nach meiner Lesart auch die von Massaker beziehen sich darauf, dass sich bei einigen SSD, inkl. meiner S500 pro, die Temperaturen auch bei hoher, langanhaltender Schreiblast (Q8T8 und mehr) nicht oder nur bis zu einem unplausibel niedrigen Beharrungswert erhöhen. Bei all den Fällen, die du hier anführst, kann ich dieses Problem nicht erkennen.

Bei meinem Exemplar wäre noch zu klären, ob dieses Phänomen Folge der minimalistischen Konzeption des Controllers und dem schnell ausgehenden HMB und SLC-Cache ist. Diese Faktoren führen bei länger anhaltender Belastung nach rel. kurzer Zeit zur Absenkung der Performance und könnten somit eventuell die Temperatur begrenzen, ohne dass diese jemals in die Nähe eines kritischen Werts kommt.
Allerdings zeigen Reviews recht frischer DRAM-less SSD namhafter Hersteller, dass Spitzentemperaturen von etwa 70° C möglich sind.
 
Zuletzt bearbeitet:
Dass CDI nicht den höchsten erfassten Temperaturwert anzeigt, betrachte ich, wie bereits geschrieben, nicht als Fehler.
Das ist auch kein Fehler, sondern eben die Funktion des Programmes und CDI liest eben die Werte aus dem Controller aus und zeigt sie an, HWInfo macht das gleiche, merkt sich aber die Min und Max Werte (die kann man mit dem Uhrsymbol unten zurücksetzen) und zeigt diese ebenfalls an. Das ist ein zusätzliches Feature und das dies bei CDI fehlt ist doch kein Fehler.
 
Zumindest mal die üblichen Benchmarks..... :sneaky:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh