HDD wird nur nach erneutem Einschalten erkannt

Wanderdüne

Profi
Thread Starter
Mitglied seit
12.08.2020
Beiträge
173
Hallo,

eine 14 Monate alte Toshiba S300 (HDWT720) 2TB wird hier meistens (nicht immer) nur bei jedem zweiten Einschalten erkannt.
Wenn ich den Rechner morgens einschalte, wird sie idR nicht erkannt. Ein RESET reicht nicht. Ich muss den PC ausschalten (StandBy) und wieder einschalten. Wenn der PC zuvor ein paar Minuten (2-3) lief, wird sie nach der Prozedur erkannt und funktioniert problemlos.
Wie lang der PC ausgeschaltet sein muss, sodass die HDD beim nächsten Start nicht mehr erkannt wird, kann ich nicht genau sagen, weil ich den PC idR. abends aus und morgens wieder einschalte.

Bisher habe ich das SATA-Kabel, den Poweranschluss und gestern sogar den SATA-Kontroller (zusätzlicher PCIe-SATA-Kontroller im Erweiterungsslot) probiert. Nach dem Einbau des Controllers, was ca. 20 - 30 mins gedauert hat, wurde die Platte sofort erkannt. Heute Morgen wieder erst beim zweiten Einschalten. Es sieht so aus, als müsste die Platte, bzw. eine ihrer Komponenten zunächst etwas warm laufen, um erkannt zu werden. Das Problem ist unabhängig von der Tages- und Jahreszeit und der Raumtemperatur. Es tritt im Winter morgens bei 19°C und im Sommer bei 27°C gleichermaßen auf.

Hat jemand einen Tipp, was die Ursache für das Problem sein kann? Abgesehen davon, dass das nervig und zeitraubend ist, ist die erhöhte Zahl der Neustarts für alle HDDs im PC natürlich nicht lebensverlängernd.

44140346lq.png
 
Das habe ich schon mal ausprobiert, aber das funktioniert nicht, da die Laufwerkserkennung stattfindet, BEVOR ich ins Bios gehe. Wenn ich das Bios verlasse oder den PC mit der Resettaste neu starte, werden zwar wieder die Laufwerke gesucht, oder zumindest nacheinander angezeigt, aber die besagte Toshiba ist nicht dabei. Das geht nur, wenn ich den PC kurz ausschalte

Dagegen spricht auch die Erfahrung mit dem Zusatzkontroller, denn damit dauert der Bootvorgang in etwa doppelt so lang. Zuerst werden die Laufwerke am Board-Controller erkannt, bzw. angezeigt und erst dann startet das Bios des Zusatz-Controllers und wartet ebenfalls noch mal einige Sekunden, bis er das/die erkannten Laufwerk(e) anzeigt. Die Platte hat am neuen Controller also in etwa die doppelte Zeit wie früher und wurde heute Morgen dennoch erst beim zweiten Einschalten erkannt.
 
Was ist denn sonst in dem Rechner verbaut? Wenn der Anlaufstrom einer FP nicht weiter ins Gewicht fällt, kannst du das wahrscheinlich vergessen, aber wenn das nur so'n kleiner Officekasten / Server o.ä. ist, würde ich noch mal ein anderes Netzteil probieren. Auf der FP selber gibt's ja eigentlich keine Elkos oder sowas.

Sind evtl. Laufgeräusch / Vibrationslevel kalt und warm deutlich unterschiedlich? (Ich hatte mal eine alte 9-GB-SCSI-Platte von Fujitsu, die war kalt die reinste Kreissäge und hat sich nach einigen Minuten erheblich beruhigt.) Evtl. ist auch der Kontakt der Platine zum Rest etwas mit etwas thermischer Ausdehnung gut genug.

Ansonsten sind das möglicherweise irgendwelche SMR-Marotten... so ähnlich wie es bei manchen SSDs mal vorgekommen ist, die sich nach etwas Betriebszeit dann wieder "erholt" haben. (Ein Probleme mit der SATA-Verbindungsaushandlung ist es eher nicht, da reichte seinerzeit bei dem problematischen VIA-Controller ein Warmstart.) Ich traue SMR ja nicht so ganz. Die Serie S300 wird eigentlich als Dauerläufer für die Videoüberwachung verkauft (schätze das heißt kein Teilkontaktbetrieb und möglicherweise SMR, ein paar Modelle sind auch CMR), evtl. ist damit die Firmware nicht eben auf regelmäßiges Abschalten optimiert.

Im Zweifelsfall würde ich die Platte mal testweise in einem anderen Rechner einbauen und testen, ob sie dort das gleiche macht. Sollte ein USB-Dock oder USB-SATA-Adapter vorhanden sein, wäre auch das ggf. einen Versuch wert.
 
Ansonsten sind das möglicherweise irgendwelche SMR-Marotten...
Das ist eine S300 und die haben gar kein SMR. Aber selbst wenn, dann hätte dies mit SMR nichts zu tun, dies wirkt sich nur beim Schreiben aus und auch erst nachdem der Media Cache voll ist, vorher schreiben sie bei kleinen, zufälligen Schreibzugriffen sogar schneller als HDDs ohne SMR.
 
Die 2 TB S300 habe ich mir wissentlich als SMR-Platte gekauft, weil die eine sehr niedrige Leerlaufleistungsaufnahme hat, ausschließlich für Backups dienen sollte und bis auf die 1-2 h am Tagesende nur vor sich rumdödelt. Man hört auch sehr schön, wie sie nach einem Backup noch eine ganze Zeit rumknuspert und sich sortiert.

Der PC ist ein handelsüblicher Multimedia-PC mit IGP, 300 W-Netzteil und einer Leistungsaufnahme von 70 W Leerlauf bis 180 W Volllast. Die Zickerei ist meiner Erinnerung nach von Anfang an da gewesen, aber ich meine, dass es anfangs nicht so oft auftrat. Kurz nach dem Einbau war ich beruflich so eingespannt, dass nicht daran zu denken war, irgendwas auszuprobieren.

Wenn hier sonst keiner Ideen hat, was das Problem verursachen könnte, dann würde ich auch auf ein Kontaktproblem generell oder faule/fehlende/schlecht kontaktierte Kondensatoren tippen. Das Ding in einen anderen Rechner zu bauen, ist aufwendig und bringt evtl. nicht sofort Klarheit, weil der Fehler nur nach Ruhezeit auftritt und auch nicht immer. Ich werde mir daher zuerst eine andere HDD besorgen. Wenn der Fehler dann am anderen PC auch auftritt, werde ich eine Reklamation starten.

Da ich bis auf die Macke mit der HDWT720 sehr zufrieden war, tendiere ich zur HDWT840 (4TB) aus der gleichen Serie.
 
Das sieht Toshiba aber irgendwie anders...
Stimmt, dies hatte ich gar nicht mitbekommen.

Der PC ist ein handelsüblicher Multimedia-PC mit IGP, 300 W-Netzteil und einer Leistungsaufnahme von 70 W Leerlauf bis 180 W Volllast.
Also ein OEM Fertig-PC? Da ist gerne mal der Timeout für die Laufwerkserkennung im BIOS so kurz eingestellt, wie es bei den ab Werk verbauten Platten gerade reicht, damit er möglichst schnell bootet. Schau mal im BIOS ob der einstellbar ist und wenn ja, dann stelle ihn höher.

Schau mal mit CrystalDiskInfo ob der Rohwert (recht Spalte) des Attributes C7 bei allen Laufwerken noch auf 0 steht. Wenn nicht, könnte es bei einem Probleme mit dem SATA Datenkabel geben (z.B. einen losen Stecker) und dies kann dann auch die Erkennung von Laufwerken verzögern und zur Folge haben, dass am Ende des Timeouts nicht alle erkannt wurden.
 
Sorry, ich dachte, es ging um die Energieleistungsreserve und mit "handelsüblich" meinte ich, dass es sich hier um einen typischen Multimedia-PC handelt. Den habe ich aber selbst zusammengestrickt. Am Mainboard, ein Asus M4A78 Pro, kann man keine Verzögerung einstellen. Wie schon geschrieben, hängt die zickige Toshiba derzeit am zusätzlichen PCIe-SATA-Controller, der die Initialisierung insgesamt mind. 10 s verzögert. Dass es an einem zu schnellen Bootvorgang liegt, halte ich daher für sehr unwahrscheinlich.

C7 ist bei allen eingebauten HDDs auf 0. Bei der EVO860 steht "140", aber das liegt daran, dass ich sie eine Zeit lang unter Linux benutzt habe, was in Verbindung mit dem AM3-Chipsatz zu CRC-Fehlern geführt hat. Erst als ich ncq über den Kernel deaktiviert hatte, kamen diese Fehlermeldungen nicht mehr.
(GRUB_CMDLINE_LINUX_DEFAULT="quiet splash libata.force=noncq")
 
Am Mainboard, ein Asus M4A78 Pro
Das Teil uralt, da kann es natürlich mal zu Kompatibilitätsproblemen kommen, denn kein Hersteller dürfte seine aktuelleren HDDs noch an so einem uralten Board getestet haben.
C7 ist bei allen eingebauten HDDs auf 0. Bei der EVO860 steht "140", aber das liegt daran, dass ich sie eine Zeit lang unter Linux benutzt habe, was in Verbindung mit dem AM3-Chipsatz zu CRC-Fehlern geführt hat.
Wenn der Wert nicht weiter ansteigt, sollte das kein Problem sein.
 
Der PC ist ein handelsüblicher Multimedia-PC mit IGP, 300 W-Netzteil und einer Leistungsaufnahme von 70 W Leerlauf bis 180 W Volllast.
70 W im Leerlauf ist nebenbei bemerkt etwas arg viel für so einen Kasten, hier hatte einer 38 W - so um die 40 W mit einem Athlon II X4 hatte ich auch noch im Hinterkopf. Soviel Festplatten kriegt man doch schier gar nicht unter. Ist vielleicht CnQ deaktiviert und ein relativ fetter Prozessor verbaut? Oder war das inklusive Monitor?

Was für ein Netzteil ist das eigentlich? Wenn das genauso "modern" ist wie das Board, könnte man da auch mal über was neuzeitlicheres nachdenken, erstens zum Ausschließen als Fehlerquelle und zweitens der Effizienz wegen. Ich würde z.B. LC-Power LC600-12 (gar nicht schlecht, wenn man mit den Kabellängen hinkommt - nicht zu verwechseln mit dem alten LC600H-12) oder be quiet! Pure Power 11 (CM) 400W (das ist deutlich nobler ausgestattet und ab dem mittleren Leistungsbereich effizienter) näher ins Auge fassen, bei sehr knappem Budget auch das LC420-12 (ein ehrliches 250-300 W - aber bloß Finger weg vom alten billigen LC420H-12, das ist ein Chinaböller übelster Couleur).

Im übrigen plättet selbst ein lumpiger Haswell-i5-4570S/4590S (der neueste Schrei des Jahres 2014) jeglichen für diese alte Plattform erhätlichen Prozessor, ist dabei erheblich sozialer in der Wärmeentwicklung (Ich würde mal von knapp 100 W Primärleistung bei Vollast ausgehen) und läßt sich ohne viel dran schon mal stark in Richtung wenig über 10 W in Leerlauf drücken, wenn man das richtige Board erwischt. Von entsprechender neuzeitlicherer Hardware aus den Jahren 2016-18 ganz zu schweigen. Ja, meine Eltern eiern auch noch mit einem Q9550 durch die Gegend (vergleichbar mit einem Athlon II X4 640), aber der Kasten läuft vielleicht mal 1-2 Stunden am Tag und braucht mit einer GT610 und SSD dabei unter 40 W, das fällt nicht weiter ins Gewicht.

Da ich bis auf die Macke mit der HDWT720 sehr zufrieden war, tendiere ich zur HDWT840 (4TB) aus der gleichen Serie.
Was genau muß die denn können? Sieht ja irgendwie nach Datenschleuder aus. Brauchst du denn mehr als 2 TB? SSDs in der Größe (z.B. Crucial MX500) kosten heute auch nicht mehr unbedingt die Welt, machen keinen Radau, brauchen weniger Strom und sind natürlich erheblich flotter. Wenn es denn partout bei spinning rust bleiben soll, würde ich vielleicht mal die WD Red Plus 4 TB ins Auge fassen - dauerbetriebstauglich und CMR, nicht sehr stromhungrig und geräuschtechnisch wohl ziemlich sozial, und viel teurer als die HDWT840 ist sie auch nicht.

Aber denke dran, ohne GPT geht in der Größe nix.
 
Alles hat ein Ende und nur die Wurst hat zwei!

Wenn da das Netzteil und die SATA Controller Karte auch über 13 Jahre alt ist wie das Board und man sich dann bei sowas auch noch wundert...

Da tauscht man immer das Netzteil und guckt und beim NT reichen immer viel viel weniger Jahre, um Ärger zu bekommen, der sich da auch genau so äußern kann.


Außerdem löscht man da immer das RTC-RAM = CMOS-RAM per Jumper = macht ein CMOS-Clear.

Ich würde da auch immer das neueste Bios flashen.


Ich habe übrigens mit etlichen AMD 780G Boards schon wirklich viel "Spaß" gehabt und würde mindestens Board und den DDR2 RAM der Tonne übergeben.

Außerdem hat man wenn man Strom sparen will mit der uralten Plattform absolut immer die Arschkarte gezogen!


Und viel neuere, bessere, viel weniger Strom verbrauchende und schnellere Haswell Kisten gibts nachgeschmissen...



und selbst die iGPU ist da viel schneller.
 
Zuletzt bearbeitet:
Da ihr viele Themen anschneidet, wird das hier wohl länger.

Sicher ist die Hardware insgesamt alt, aber den Zusatzkontroller habe ich vor einem Jahr gekauft und daran verhält sich die HDD gleich. Am Brett liegt es also ziemlich sicher nicht und an den Spezifikationen zu SATA-II hat sich nix geändert. Ich gehe auch nicht davon aus, dass die HDD-Hersteller alle ihre Modelle mit allen aktuell verfügbaren Kontrollern/Brettern testen, da dies nicht nur die ganzen Mainboards umfasst, sondern auch andere Geräte mit ARM-Chips, usw.

Das Netzteil ist afair 4 Jahre alt, ein Pure Power 300. Das könnte natürlich ne Macke haben, aber da der Tausch deutlich aufwendiger ist, werde ich zuerst die HDD in einem anderen Rechner tasten.

70 W sind viel, aber für die Kiste normal. Ich habe noch einen Zweitrechner mit dem gleichen Board M4A78 Pro, welcher knapp unter 40 W verbraucht. In meinem Hauptrechner stecken aber 3 HDDs, eine SSD, ein DVD-ROM, ein BR-Brenner, ein USB3-Kontroller und es laufen ein paar Dienste, die zumindest in der Summe noch ein paar Watt verbraten.
Die Leistungsaufnahme habe ich vor langer Zeit das letzte Mal gemessen. Den genauen aktuellen Wert kenne ich nicht.

zum Upgrade: Keine Frage, die Kiste ist out, hat bisher aber leistungsmäßig völlig ausgereicht, weshalb ich von neuer Hardware abgesehen habe. Energieersparnis habe ich immer im Auge, aber die Kosten für eine komplette Systemumstellung bekommt man damit nicht rein.
Intel hat bis vor wenigen Jahren die Nase technisch immer vorne gehabt, aber es hätte schon sehr viel passieren müssen, damit ich mir von denen was gekauft hätte. Die schmierigen Machenschaften, mit denen sie sich Vorteile verschafft haben, möchte ich nicht unterstützen. Außerdem muss man sich bei jedem Prozessorwechsel auch ein neues Brett kaufen, was mich immer gestört hat. Ich hatte hier im Laufe der Zeit 3 CPUs werkeln: Athlon X2 240, X4 620 und Phenom II 1055.

Wie auch immer, ich habe schon einen Ryzen5700G mit MSI B550 Tomahawk hier stehen, welcher mit einer SSD knapp unter 20 W aufnimmt. Leider hatte ich noch keine Zeit für den Wechsel meines Produktiovsystems auf die neue Kiste und ich habe noch ein Problem, welches ich lieber vorher lösen möchte. Beim Booten zickt die neue Kiste nämlich rum und wertes Tastatureingaben nicht richtig aus. Wenn ich also von einen Bootstick starte, dann kann ich im Menü nicht navigieren. Meiste werden Tastatureingaben mehrfach interpretiert, sodass ich immer nur das oberste oder unterste Element eine Liste auswählen kann, oder aber die Kiste friert ein oder zeigt mir z.B. das Grub-Menü nicht an.
Netzteiltausch, Bios-Updates, Speicherplatzwechsel, hat alles nix gebracht.

Die HDWT720 dient hier als Backupplatte und ist ziemlich voll. Deswegen würde ich gerne eine größere nehmen. SSD wäre für den Zweck übertrieben teuer. Die Red Plus sieht auch nicht schlecht aus. Deren höheren Schreibspeed brauchte ich bisher zwar nicht, aber er stört ja nicht und die Idle-Leistungsaufnahme ist auch noch ziemlich gut.

4 TB bei 512e gehen übrigens auch mit MBR, was ich hier mit Win10 und Linux ausprobiert habe. Dafür muss nur die letzte Partition 2 TB groß sein und innerhalb der ersten 2 TB liegen. Im MBR wird ein 32-bit Wert für Start und Partitionsgröße hinterlegt, sodass man 2 x 32 bit Speicherplatz adressieren kann.
Am Boardcontroller des M4A78 Pro geht das allerdings nicht. HDDs mit mehr als 2 TB werden nur mit 780 GB, oder so angezeigt/erkannt. Am Zusatzkontroller geht es aber.
 
4 TB bei 512e gehen übrigens auch mit MBR, was ich hier mit Win10 und Linux ausprobiert habe. Dafür muss nur die letzte Partition 2 TB groß sein und innerhalb der ersten 2 TB liegen.
Das hängt wohl von der Implementierung ab, bei einigen Implementierung geht es nicht, offenbar rechnen die dann intern auch nur mit 32 Bit Adressen und können damit die zweite Partition nur am Anfang adressieren. Aber wenn nicht von der Platte gebootet wird, dann sollte es ja kein Problem sein selbst auf dem alten Board welches noch kein UEFI hat, für Datenplatten trotzdem GPT zu verwenden.
 
Das Netzteil ist afair 4 Jahre alt, ein Pure Power 300.
Das ist zwar effizienztechnisch nicht der Brüller, sollte aber immerhin solide sein (ist eine "gut abgehangene" Basis von FSP, immer noch EPN meine ich - den Effizienzwerten nach sind Pure Power 11, 10 und 8 300W quasi identisch). Hätte ich jetzt nicht weiter im Verdacht.
zum Upgrade: Keine Frage, die Kiste ist out, hat bisher aber leistungsmäßig völlig ausgereicht, weshalb ich von neuer Hardware abgesehen habe.
Es klang nur so, als würde der den lieben langen Tag durchlaufen, und dann läppert sich das schon irgendwann. Ich habe meinen Anfang des Jahres ersetzt - bisher sieht es nach einer Ersparnis von ca. 80 kWh im Jahr aus, und das bei einem Delta von nur 20-25 W.
Intel hat bis vor wenigen Jahren die Nase technisch immer vorne gehabt, aber es hätte schon sehr viel passieren müssen, damit ich mir von denen was gekauft hätte.
OK, verstehe... aber braucht ja nicht neu zu sein. Es ist haufenweise gebrauchte Hardware von Team Blue im Umlauf, da sieht dein Geld nur der Verkäufer. Aber hat sich ja schon erledigt.
Beim Booten zickt die neue Kiste nämlich rum und wertes Tastatureingaben nicht richtig aus. Wenn ich also von einen Bootstick starte, dann kann ich im Menü nicht navigieren.
Schon mal eine PS/2-Tastatur probiert, oder generell eine andere? Ansonsten würde ich noch den sonstigen Ansätzen aus diesem Reddit-Thread nachgehen (v.a. einen reinen USB-2.0-Port probieren oder xHCI beim Booten ausschalten, wenn das irgendwie geht).
 
Zuletzt bearbeitet:
Das ist zwar effizienztechnisch nicht der Brüller, sollte aber immerhin solide sein (ist eine "gut abgehangene" Basis von FSP, immer noch EPN meine ich - den Effizienzwerten nach sind Pure Power 11, 10 und 8 300W quasi identisch). Hätte ich jetzt nicht weiter im Verdacht.
Ich sehe mir vor dem Kauf auch gerne die Effizienz an, aber oft genug bekommt man leider keine ausreichenden Infos und andere Faktoren überwiegen. Bei Netzteilen werden meist nur 3 Lastzustände gemessen (20, 50, 100%). Bei meinem Ryzen 5700G liege ich derzeit bei knapp unter 20 W. Die kleinsten sinnvollen ATX-NTs haben aber mind. 300W, sodass ich weit von dem 60W-Messpunkt entfernt bin. Wie gut ein NT nun bei 20 W ist, kann ich also nur ausprobieren, und damit nicht gezielt aussuchen.
Aber gut, die Kiste ist jetzt noch nicht komplett fertig. Wenn die HDDs und optischen Laufwerke drin sind, kommen noch mal rund 10 W dazu.
BTW: Ein altes Systempower mit 300 W (S7?) ist bei den 20 W Leistungsaufnahme messbar effizienter als ein aktuelles Pure-Power mit 300 W.
Es klang nur so, als würde der den lieben langen Tag durchlaufen, und dann läppert sich das schon irgendwann. Ich habe meinen Anfang des Jahres ersetzt - bisher sieht es nach einer Ersparnis von ca. 80 kWh im Jahr aus, und das bei einem Delta von nur 20-25 W.
Die Kiste ist mal eine ganze Zeit lang täglich 16 h gelaufen. Jetzt tut sie das aber nicht mehr und wie sich das entwickelt, kann ich nicht voraussehen.
Wenn etwas 24/7 läuft, dann sind bis vor 2 Jahren Kosten von rund 2 Euro/W/a angefallen. Inzwischen ist das mehr. Wie auch immer, ich habe schon oft den Bleistift angespitzt, eine Neuanschaffung hätte sich immer erst nach vielen Jahren gelohnt. Außerdem habe ich hier schon lange 2 - 3 PCs stehen, die ich für Backups und zum Testen verwende. Alle haben AM2/3-Plattformen, sodass ich bei Problemen immer schnell Ersatz habe. Das ist für mich wichtig, da ich die Rechner auch beruflich benötige.
Schon mal eine PS/2-Tastatur probiert, oder generell eine andere? Ansonsten würde ich noch den sonstigen Ansätzen aus diesem Reddit-Thread nachgehen (v.a. einen reinen USB-2.0-Port probieren oder xHCI beim Booten ausschalten, wenn das irgendwie geht).
PS/2-Tastatur wollte ich schon mal machen, habe es gerade versucht und es geht. Allerdings heißt das noch nichts, denn es ging vorher auch ab und zu. Danke für Reddit-Link.
Ich habe nun mal die PS/2 und die USB-Tastatur gleichzeitig (an einem USB2-Port) angehängt. In den Bootmenüs von YUMI und Grub kann ich mit der PS/2-Tastatur problemlos navigieren, aber die USB-Tastatur interpretiert jeden Tastendruck vielfach, sodass ich nur von einem Ende der Liste zum anderen springen kann.

Letztlich möchte ich meine alte Cherry-Tastatur mit PS/2-Anschluss verwenden, sodass das kein Problem sein sollte. Merkwürdig ist es dennoch.
 
Ich sehe mir vor dem Kauf auch gerne die Effizienz an, aber oft genug bekommt man leider keine ausreichenden Infos und andere Faktoren überwiegen. Bei Netzteilen werden meist nur 3 Lastzustände gemessen (20, 50, 100%).
Bei 80PLUS ist seit Jahren auch die 10%-Marke Standard, bei Cybenetics gibt es noch mehr Details.
Wie gut ein NT nun bei 20 W ist, kann ich also nur ausprobieren, und damit nicht gezielt aussuchen.
Jein, man kann es eigentlich bei vorhandenen Meßwerten bis 10% ganz gut extrapolieren / abschätzen, wenn man mal die absolute Verlustleistung plottet.
BTW: Ein altes Systempower mit 300 W (S7?) ist bei den 20 W Leistungsaufnahme messbar effizienter als ein aktuelles Pure-Power mit 300 W.
Das würde zu den Werten in der Datenbank passen, sehr groß sollte der Unterschied aber eigentlich nicht sein (vielleicht 0,3 W). Manchmal ist das auch einfach Serienstreuung und z.B. ein Montags-Primärelko mit erhöhtem Leckstrom drin, so jedenfalls mein Eindruck. Könnte auch erklären, warum die generell in letzter Zeit eher knapp ausfallen.
 
Zuletzt bearbeitet:
Bei 80PLUS ist seit Jahren auch die 10%-Marke Standard, bei Cybenetics gibt es noch mehr Details.
Ich kennen nur Messwerte ab 20%. Laut wikipedia werden die 10%-Werte erst ab 80 Plus Titanium gefordert und sowas gibt es nicht in den Leistungsklassen, die für mich interessant sind.

Jein, man kann es eigentlich bei vorhandenen Meßwerten bis 10% ganz gut extrapolieren / abschätzen, wenn man mal die absolute Verlustleistung plottet.
Die Kurve ist in dem Bereich sehr steil, sodass die Genauigkeit leidet. Da man nur 3 Messwerte hat, fallen Unregelmäßigkeiten unter den Tisch (z.B., wenn ein Regler in den intermittierenden Modus wechselt).
Das würde zu den Werten in der Datenbank passen, sehr groß sollte der Unterschied aber eigentlich nicht sein (vielleicht 0,3 W). Manchmal ist das auch einfach Serienstreuung und z.B. ein Montags-Primärelko mit erhöhtem Leckstrom drin, so jedenfalls mein Eindruck. Könnte auch erklären, warum die generell in letzter Zeit eher knapp ausfallen.
Ich habe hier einen Unterschied von 16,7 zu 18 W gemessen, also 1,3 W.

Mir ist auch aufgefallen, dass NTs mit DC-DC-Technik im untersten Bereich schlecht sind. Effizienzvorteile haben die erst ab ca. 20% (immer bezogen auf 300 - 400 W-NTs, denn größere brauche ich nicht)
 
Ich kennen nur Messwerte ab 20%.
80 PLUS® Certified Power Supplies and Manufacturers
Cybenetics Labs – PSU Efficiency & Noise Level Certifications
Oder halt ggf. aus sonstigen unabhängigen Tests, so vorhanden.
Ich habe hier einen Unterschied von 16,7 zu 18 W gemessen, also 1,3 W.
Oh. Hmm.
Mir ist auch aufgefallen, dass NTs mit DC-DC-Technik im untersten Bereich schlecht sind.
Naja, das be quiet! Pure Power 11 (CM) 400 W ist es schon mal eher nicht. Überhaupt ist doch heute jedes moderne Netzteildesign ab 400 W / 80PLUS Silver/Gold DC/DC (war jedenfalls bisher mein Eindruck), anders ist die 12V-Lastigkeit aktueller Hardware auch schwer zu bewältigen (Stichwort Crossload). Ein erhöhter Eigenverbrauch wäre grundsätzlich natürlich nicht überraschend, immerhin heißt DC/DC zusätzliche nachgeschaltete Regler. Könnte auch erklären, warum LC-Power LC420-12 / LC600-12 untenrum so effizient sind. (Im Vergleich zu Kleinvieh-Netzteilen ist aber selbst das Niveau noch eher mau.) Die Fertig-Officekisten von Dell, Fujitsu und Co. haben übrigens teils seit >10 Jahren reine 12V-Netzteile (lange bevor das als ATX12VO standardisiert wurde), die Wandler für die Unterspannungen stecken auf dem Board, also letztlich auch DC/DC - und die sind nun teils wirklich extrem sparsam, obwohl die Netzteile noch 280-300 W hergeben.
 
Ich habe mich schon länger nicht mehr intensiv damit beschäftigt, aber die für mich interessanten Netzteile werden selten intensiv getestet. Es werden dagegen lieber die fetten Teile unter die Lupe genommen, vermutlich weil unter den Enthusiasten gerne geklotzt wird und man die schönen Spitzenwerte gut vermarkten kann.
Die Superflower fangen bei 550 W an und haben für mich wertloses Kabelmanagement. Ich bräuchte aber idealerweise ein NT mit 150 W (gibt es afaik nach ATX nicht), welches bei 25 W schon richtig gut ist.
PICO-PSU habe ich mir auch schon überlegt, aber das ist auch nicht das Gelbe vom Ei. Laufwerke müsste ich dann mit etlichen Verteilern verbinden, was es unsicher macht. Ein ordentliches 12 V / 150 W Netzteil zu finden, ist auch Glücksache und dann hat man es neben dem Midotower rumfliegen. Meist werden die Dinger über Hohlstecker verbunden. Die Gefahr, dass dort mal jemand ein 19V-NT oder eins mit vertauschter Polung anschließt, ist mir zu groß. Außerdem kann es auch nicht gut sein, wenn die gesamte Leistung über so ein langes Kabel geführt wird, wenn am Pico-PSU nur so ein mickriger Elko schwitzt.

Naja, das be quiet! Pure Power 11 (CM) 400 W ist es schon mal eher nicht. Überhaupt ist doch heute jedes moderne Netzteildesign ab 400 W / 80PLUS Silver/Gold DC/DC (war jedenfalls bisher mein Eindruck), anders ist die 12V-Lastigkeit aktueller Hardware auch schwer zu bewältigen (Stichwort Crossload). Ein erhöhter Eigenverbrauch wäre grundsätzlich natürlich nicht überraschend, immerhin heißt DC/DC zusätzliche nachgeschaltete Regler. Könnte auch erklären, warum LC-Power LC420-12 / LC600-12
Meiner losen Erfahrung ist der Eigenverbrauch eines DC-DC-NTs sehr deutlich. Beim Pure Power 11 600W sind es z.B. mind. 8W. Bei einem Rechner, der im Idle unter 20 W aus der Dose zieht, geht 1/3 der Leistung nur fürs NT drauf. Bei PCs, die vorwiegend für Office genutzt werden und viele Betriebsstunden machen, fährt man mit einem 300W-Netzteil bzgl. Effizienz besser.
Ich würde mir ein bezahlbares, gute 150 oder 200W-NT wünschen. Irgendwas, was an ATX angelehnt ist, also wie ein solches montier- und anschließbar ist, aber eben unten rum Effizienz bringt.
untenrum so effizient sind. (Im Vergleich zu Kleinvieh-Netzteilen ist aber selbst das Niveau noch eher mau.) Die Fertig-Officekisten von Dell, Fujitsu und Co. haben übrigens teils seit >10 Jahren reine 12V-Netzteile (lange bevor das als ATX12VO standardisiert wurde), die Wandler für die Unterspannungen stecken auf dem Board, also letztlich auch DC/DC - und die sind nun teils wirklich extrem sparsam, obwohl die Netzteile noch 280-300 W hergeben.
ATW12VO lese ich jetzt zum ersten Mal. Werde ich mir mal näher ansehen.
Das Fertig-Kisten teilweise sehr effizient sind, ist mir auch schon aufgefallen. "BTX" fällt mir in dem Zusammenhang ein. Leider steigt durch so etwa die Abhängigkeit vom Hersteller, was ich möglichst vermeide.
 
Ich bräuchte aber idealerweise ein NT mit 150 W (gibt es afaik nach ATX nicht), welches bei 25 W schon richtig gut ist.
<300 W gibt es quasi nur in Kleinvieh-Größen wie SFX und TFX, besonders effiziente kann man dabei an den Fingern einer Hand abzählen und sie kosten soviel wie "ausgewachsene" Netzteile. Im Bereich Selbstschrauber gibt es da wohl nicht den Bedarf.
Meiner losen Erfahrung ist der Eigenverbrauch eines DC-DC-NTs sehr deutlich. Beim Pure Power 11 600W sind es z.B. mind. 8W.
Wobei das auch besser geht. Mit dem 400W bist du dann bei 5-6 W, und das 500 W hat bei 25 W immer noch ca. 2,1 W weniger, mit deutlicherem Abwärtstrend. (Hier auch mal ein paar 550W-Modelle bei 6 W Ausgangsleistung.) Respektabel finde ich 750W Titanium wie das Dark Power 12, die brauchen auch nicht mehr.
Der derzeitige Low-Power-King ist anscheinend das Corsair RM550x 2021, mit noch über 81% Effizienz bei 25 W. Da fehlt dann schon nicht mehr viel zur PicoPSU-Lösung. Auch das Pure Power 11 FM 550W schlägt sich gut bei kleinen Leistungen (und das findet man tatsächlich nur durch Nachmessen heraus, die Extrapolation gibt das nicht wirklich her).
Das Fertig-Kisten teilweise sehr effizient sind, ist mir auch schon aufgefallen. "BTX" fällt mir in dem Zusammenhang ein.
Das ist das falsche Stichwort - BTX ist seit 2010, spätestens 2012 absolut mausetot. ;) Dieses Format hatte primär was mit Airflow zu tun, der Prescott-P4 im besonderen hatte es nötig. Mein alter Rechner war BTX (FSC Celsius W370), die CPU-Temperaturen waren immer Bombe...
 

Anhänge

  • Effizienz Netzteile.ods.zip
    200,5 KB · Aufrufe: 49
Zuletzt bearbeitet:
<300 W gibt es quasi nur in Kleinvieh-Größen wie SFX und TFX, besonders effiziente kann man dabei an den Fingern einer Hand abzählen und sie kosten soviel wie "ausgewachsene" Netzteile. Im Bereich Selbstschrauber gibt es da wohl nicht den Bedarf.
Ja, sieht leider so aus. Als vor etlichen Jahren das Thema Effizienz aufkam, war es wohl in erster Linie davon getrieben, dass die Hersteller daran arbeiten mussten, um überhaupt noch stärkere Hardware anbieten zu können. Bei kleinen Leistungen ist die finanzielle Einsparung zu gering, als das es sich lohnt, stark zu optimieren, und viele Leute nehmen dann auch gerne Laptops.
Wobei das auch besser geht. Mit dem 400W bist du dann bei 5-6 W, und das 500 W hat bei 25 W immer
Bist du mit den 5-6 W für das PurePower 400 sicher? Die Hersteller verwenden sehr wahrscheinlich nur wenig unterschiedliche Designs für unterschiedliche Leistungen.

noch ca. 2,1 W weniger, mit deutlicherem Abwärtstrend. (Hier auch mal ein paar 550W-Modelle bei 6 W Ausgangsleistung.) Respektabel finde ich 750W Titanium wie das Dark Power 12, die brauchen auch nicht mehr.
Die Effizienz finde ich beachtlich, aber das ist einfach zu teuer. Einen Test des PurePower 400 mit Effizienzmessung konnte ich nicht finden und bei BQ geben die nur den Wert bei 20%-Auslastung (also bei 80W) an.

Danke für deine Tabelle, aber so richtig finde ich mich darin nicht zurecht. Etwas Beschriftung an den Diagrammen würde helfen :-)


 
Bist du mit den 5-6 W für das PurePower 400 sicher?
Ziemlich, das sind ja bei 10% (40 W) schon nur noch knapp unter oder über 7 W Verlustleistung, Trend weiterhin leicht abwärts. Allerdings auch im 115V-Test, das kann bei 230 V nochmal leicht anders aussehen. Ich habe keinen Grund, die für BQ in der Datenbank hinterlegten Werte groß zu bezweifeln... bei den zwei älteren 450 W / 550 W Platinum von Super Flower sahen Tests von Dritten immer noch sehr gut, aber weniger spektakulär aus als es zunächst den Anschein hatte, da wurde mglw. etwas nachgeholfen...
Das Seasonic Prime Titanium 750W (SSR-750TD) schlägt übrigens noch bei 20 W das RM550x 2021... scheint allerdings nicht die zuverlässigste Serie gewesen zu sein. Das SSR-750TR ist dann wieder etwas schlechter und holt das Corsair erst bei 40 W ein (bzw. immer noch um die 30 W beim 650TR). Die Wunder-Schaltung war wohl nicht ganz alltagstauglich...
Danke für deine Tabelle, aber so richtig finde ich mich darin nicht zurecht. Etwas Beschriftung an den Diagrammen würde helfen :-)
Hatte ich aus Platzgründen weggelassen, ist eh schon eng genug.

Oben links das erste Diagramm ist Effizienz über absoluter Ausgangsleistung in W. Die anderen sind alle Verlustleistung in W über Ausgangsleistung 10-350 W, doppeltlogarithmisch.
 
Zuletzt bearbeitet:
@hardwear
auf deinen letzten Beitrag gehe ich aus Zeitgründen später ein.

Ich wollte (mal eben) die WD40EFZX anschließen und den Kram von der fragwürdigen HDWT720 kopieren. Die Platte kam komplett unformatiert hier an. Unter Linux Mint kann ich problemlos Partitionen anlegen und beschreiben.
Unter XP (brauche ich noch) wird die Platte aber nicht richtig erkannt. Im Gerätemanager wird sie angezeigt, aber in der Datenträgerverwaltung taucht sie nicht auf.
Wenn ich mir im Gerätemanager die Volumes des Laufwerks anzeigen lassen möchte, kommt nix (auch nicht nach dem Drücken auf "Aktualisieren").
CrystalDisInfo zeigt die Platte. PartitionWizard 9 zeigt sie auch, aber Änderungen werden nicht übernommen. Lösche ich z.B. eine Partition, tut PW so, als würde er sie löschen, aber danach ist sie immer noch da, sowohl in PW, als auch unter Linux.

Dass XP nicht die vollen 4 TB bedienen kann, kann man überall lesen, aber warum wird die Platte nicht in der Datenträgerverwaltung angezeigt und warum kann ich nicht zumindest auf die erste 2TB zugreifen?
 
Zuletzt bearbeitet:
Die Platte kam komplett unformatiert hier an.
Das ist bei internen HDDs und SSDs normal, nur die externen werden normalerweise ab Werk formatiert ausgeliefert.

Dass XP nicht die vollen 4 TB bedienen kann, kann man überall lesen, aber warum wird die Platte nicht in der Datenträgerverwaltung angezeigt und warum kann ich nicht zumindest auf die erste 2TB zugreifen?
Vermutlich ist die nach GPT partitioniert und das normale 32 Bit XP unterstützt eben ab Werk noch kein GPT. Das Löschen von Partitionen ändert nichts an der Art der Partitionierung, dazu muss man die Partitionierungsinformationen entfernen, z.B. mit Diskpart (Teil von Windows) und CLEAN.
 
4-TB-Platte und XP... man kann sich das Leben auch wirklich künstlich schwer machen. *seufz*

Von passendem Partitions-Alignment für Platten mit eigentlich 4K großen Sektoren hat das Oldie-System auch noch nichts gehört. Sowas gehört nach Möglichkeit wenigstens mal in eine VM umgezogen. Zumindest bei VMware ist das ziemlich einfach.
 
Unter Linux habe ich mit GParted eine Partitionstabelle nach "msdos" angelegt, nicht "GPT", wie es vorgeschlagen wurde. An GPT sollte es daher nicht liegen, höchstens daran, dass Linux unter MBR was anderes versteht, als XP.
DISKPART erkennt die HDD auch nicht (DISKPART LIST DISK). Da es eine Spalte "GPT" hat, nehme ich an, dass es GPT-Platten zumindest auflisten würde.

An 4K sollte es nicht liegen, denn laut meiner Info hat die WD40EFZX 512e.

Das Ziel ist es auch, XP in eine VM zu packen, aber das war bisher nicht möglich.
 
Neue Erkenntnisse:

Die WD40EFZX hatte ich am Zusatzkontroller mit Marvell 9125-Chip angeschlossen, weil ich bisher die Erfahrung gemacht hatte, dass HDDs > 2 TB vom Board-Bios mit ~800 GB angezeigt worden sind.
Ich habe lange nach alternativen Treibern für den Chip gesucht, aber für XP scheint es nur die ganz alten Teile von 2009 in Version 1027 zu geben.
Letztlich habe ich die WD40 dann an den Boardkontroller angeschlossen und sie wird mit 1,8 GB angezeigt. Unter Linux kann ich aber auf die vollen 4 TB zugreifen und sie auch als msdos und GPT partitionieren.
Mit msdos wird dann unter XP ein unpartitionierter Datenträger mit ~1,6 TB angezeigt.
Mit GPT kann ich auf die gesamte HDD zugreifen, da ich zuvor den Paragon GPT-Loader installiert hatte.
In der Datenträgerverwaltung sieht es auch "normal" aus. In den Eigenschaften/Volumes gibt es sogar einen Hinweis auf GPT.
Partition Wizard 9.1 zeigt dagegen keine Partitionen an. Damit werde ich nicht auf das Laufwerk zugreifen.

Dass die WD40EFZX nicht verfügbar war, scheint also irgendwie mit dem PCIe-Controller zusammen zu hängen. Treiberproblem, Inkompatibilität, ...

Es scheint zu laufen, sodass ich die Daten nun von der HWDT720 auf die WD40 kopieren kann und danach die HWDT720 an einem anderen PC testen kann (bzgl. der Startprobleme).
 
Die WD40EFZX hatte ich am Zusatzkontroller mit Marvell 9125-Chip angeschlossen, weil ich bisher die Erfahrung gemacht hatte, dass HDDs > 2 TB vom Board-Bios mit ~800 GB angezeigt worden sind.
Das könnte auch daran liegen, dass der Treiber nicht mehr als 32 Bit Adressen (also 2TiB bei 512 Byte pro LBA) unterstützt und dann sollte man die falsche Angabe in der Datenträgerverwaltung als Warnung betrachten, dass da irgendwas keine so großen Platten unterstützt! Gehe blos nicht mit irgendwelchen 3rd Party Tools dabei die Platte trotzdem zu Partitionieren, dann ist Datenverlust meist vorprogrammiert, sobald jenseits der 2TiB Grenze geschrieben wird.
 
Jup, mit der 4 TB-Platte werde ich aus XP heraus mit keinen Tools hantieren. Die Partitionierung habe ich unter Linux gemacht, sodass auch das Allignment stimmen sollte.

@hardwear
Deinen Einwand bzgl. 4K habe ich gestern falsch aufgefasst, nämlich in Bezug auf die grundsätzliche Dysfunktionalität der HDD, als sie noch am Marvell-Controller hing. Grundsätzlich ist der Einwand richtig, sollte aber hier kein Problem darstellen, da ich das Ding mit GParted eingerichtet habe.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh