12V-2×6/12VHPWR: Wieder Berichte über schmelzende Stecker und Buchsen

@Tib
Die Stecker sind ja nur Beispiele, da müsstest dann sowieso noch z.B. Sensepins mit dazu bauen, um der GPU zu sagen wieviel Strom drüber darf...
Es gibt aber einfach schon bewährte Lösungen an denen man Ansetzen kann...
Kann man sich sogar sparen, da es ja nur einen Stecker mit zwei Kontakten gibt. Wenn der Stecker steckt, kann er auch voll belastet werden. Das Einige, was ich da noch machen würde, wäre eine Lastbegrenzung im Netzteil selbst.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Tib nVidia hat gar keine andere Möglichkeit als versuchen es unter den Teppich zu kehren! Das US Verbraucherschutzrecht würde Klagen ermöglichen die schon sehr empfindlich sein dürften, auch für nVidia, wenn ein Eingeständniss seitens nVidia vorliegt.
 
  • Danke
Reaktionen: Tib
Von CableMod gibt es auch 12V-2x6 Kabel mit 3x oder 4x 8 Pin Anschlüssen für Seasonic Netzteile. Diese sind aber nicht vorgefertigt, sondern nur über den Konfigurator erhältlich.
Das Ding ist, wenn das Problem im Stecker auf GPU Seite liegt mit ungleichmäßigem Kontakt o.Ä. dann macht es eigentlich keinen Unterschied wie viele 8 Pin auf der anderen Seite sind. Da können trotzdem einzelne Adern überlastet werden
 
Kann man sich sogar sparen, da es ja nur einen Stecker mit zwei Kontakten gibt. Wenn der Stecker steckt, kann er auch voll belastet werden. Das Einige, was ich da noch machen würde, wäre eine Lastbegrenzung im Netzteil selbst.
Der 12V-2x6 kann aber nicht nur 600W, sondern 150W, 300W, 450W oder 600W und über die Sense-Pins wird der Karte mitgeteilt, was sie ziehen darf.

2x4 und 2x6 sry xD
Verstehe es immer noch nicht sorry.
Aber wenn es ein ATX 3.0 Netzteil ist, dann sollte es ja den 12VHPWR Stecker haben?
 
@Tib

Völlig richtig!
Aber leider ist Nvidias Handeln, hier insbesondere trotz der bekannten (!!!) Probleme mit überlasteten Steckern und Kabeln schon bei der 4xxxer Generation, an der Verbindung festzuhalten (und die Ströme noch zu erhöhen), nur so zu verstehen, daß sie dieses Problem ignorieren wollen! Sie handeln bewußt falsch. Und das ist das Problem. Man wird sie nicht "überzeugen" können, es sei denn, mit harten Maßnahmen, die aber von Behörden kommen müssen. "Der Markt" wirds nicht richten. Und die User auch nicht. Wenn ich als geschädigter Kunde die Wahl habe, gegen ein Milliardenunternehmen vor Gericht zu ziehen, oder mein Geld geräuschlos erstattet zu bekommen, was werde ich da tun?

Und Nvidia wird zum jetzigen Zeitpunkt niemals auf einen Dialog eingehen, denn das käme einem öffentlichen Schuldeingeständnis gleich, eben bewußt eine solche fehleranfällige und potenziell gefährliche Lösung angewandt und den NT- und Board-Partnern vorgeschrieben zu haben. Die Folgen wären unabsehbar für das Unternehmen. Also werden sie es aussitzen, und hoffen, daß es wie bei den 4xxxern nochmal gut gehen wird.
Und den Gamern bleibt nur die Hoffnung, daß jetzt endlich ein Umdenken einsetzt, und bis zur nächsten Gen ein neuer, wirklich belastbarer Standard entwickelt wird
 
Ihr habt ja alle Recht. Aber warum müssen wir eigentlich die Tastaturen dazu heißtippen? Gibt es inzwischen irgendwo etwas offizielles dazu, dass Nvidia das Problem - sagen wir mal - nicht ignoriert?

Ich habe ja den Verdacht, dass Nvidia genau dies tun wird: Warum sollte ein Multi-Milliarden-Dollar Konzern zugeben, dass sie einen Fehler gemacht haben? ...nur weil ein es ein paar User-Error gab und eine Hand voll Nerds da nun deswegen die Welle machen? (Ironie und nicht despektierlich gemeint!!!) Deswegen werden Nvidia bzw. die Karten-Hersteller doch nicht ihr Hardware-Design hinterfragen, Mängel zugeben oder gar eine Rückruf-Aktion in Erwägung ziehen.

Damit da da offiziell Schwung in das Thema kommt, darf es ja nicht erst zu Presse-Mitteilungen wie "Family killed in fire caused by Nvidia graphics card!".Der 12V2x6 Designfehler ist ja nun bis zum Erbrechen diskutiert und bekannt, aber was müsste denn passieren, damit sich was ändert und wir mit diesen Karten wieder etwas beruhigter zocken können?

Von selbst kommen die wenigsten Hersteller auf ein Schuldeingeständnis oder Rückruf. Ich weiß nicht wie es im Elektrobereich ist, aber bei Autos gibt es das KBA (Kraftfahrtbundesamt) was diese Vorgänge überwacht und kontrolliert, ob der Rückruf stattgefunden hat und oder Sach- und Fachgerecht behoben wurde. Hier kann man sich evtl. an die Verbraucherschutzzentrale wenden keine Ahnung?

Eine wie von dir beschriebene Meldung das eine Grafikkarte von Nvidia für ein Feuer verantwortlich ist, wird man nie lesen, da keiner die Eier hat (auch wenn es so wäre), ein Multimilardenschweres Unternehmen öffentlich zu Beschuldigen.

Und es ist irgendwie kurios zu lesen „es darf nicht passieren… bis Schwung in das Thema kommt bis man handelt..“ ist nicht genau das das heutige Deutschland?
 
D.h. einfach mal auf gut Glück probieren? ;)

Der8auer hat ja auch seine 5090er auf seinem 1600er AXI von Corsair getestet.Nutzt das selbe Kabel wie ich. So viele 3.1 NTs gibt es ja nicht. Die 3.0 NTs sind im Prinzip ATX 2.4 NTs mit dem neuen Kabel.

Also ich werde mein AX1000 länger behalten und auch bei einer 6090 nutzen wenn es passt von den Anschlüssen her. Also sehe kein Zwang auf ATX 3.1. Wenn dann mal neue MB und CPU Power Anschlüsse kommen sollten, dann kann man mal schauen.
 
Der 12V-2x6 kann aber nicht nur 600W, sondern 150W, 300W, 450W oder 600W und über die Sense-Pins wird der Karte mitgeteilt, was sie ziehen darf.
Das kenne ich anders! Laut 8auer ist der "Sense-Pin" beim 12VHPWR ein einfaches Kabel, das beim Einstecken gebrückt wird, und dem Netzteil vermittelt, daß der Stecker steckt. Mehr nicht. Man sieht auch auf vielen Fotos nur zwei statt 4 Drähte im Stecker.
Das bewies auch sein Test mit nur zwei Kabeln (4 waren gekappt), die dann die vollen 50A lieferten. Die "Sense"-Pins überwachten nicht mehr als die Tatsache, daß der Stecker steckte.
Das ist auch beim "Design" der FE gar nicht anders möglich, da die Kontakte ja spätestens im Stecker des PCB gebrückt sind und die Karte so gar nicht "sehen" kann, wieviele Kabel wirklich verbunden sind und welche Ströme darüber fließen.

Was du vermutlich meinst, das ist noch von der Vorgängergeneration mit ihren PCIe-Steckern, derer es 1, 2, 3 oder 4 gab, und dies in den Ausführungen 8fach und 6fach. Da gab es in jedem dieser Stecker einen separaten Sense-Pin, der eben auch signalisierte, welche Anschlüsse gesteckt sind. Steckte nur ein 8er, waren es 150W, steckten 4 davon, 600W.
 
Zuletzt bearbeitet:
Der 12V-2x6 kann aber nicht nur 600W, sondern 150W, 300W, 450W oder 600W und über die Sense-Pins wird der Karte mitgeteilt, was sie ziehen darf.


Verstehe es immer noch nicht sorry.
Aber wenn es ein ATX 3.0 Netzteil ist, dann sollte es ja den 12VHPWR Stecker haben?
aber noch den alten. habe mir eh ein winkel adapter bestellt müsste bis mittwoch da sein :) be quiet! 12V-2x6 / 12VHPWR 90° Kabel CH
 
Ich habe das gleich mal mit 3*6+2Pin nachgestellt und es ist überhaupt kein neues Problem. Je nach Kabel und Stecker ist das schon ewig so gewesen es fiel nur nicht auf, weil die Leistung der GPUs nur bei Extreme OC so abartig war. Einzig die Pins haben sich massiv verkleinert und hier denke ich ist das größte Problem. Warum sich dies verschlimmert hat.

Beitrag automatisch zusammengeführt:

@Tib

Völlig richtig!
Aber leider ist Nvidias Handeln, hier insbesondere trotz der bekannten (!!!) Probleme mit überlasteten Steckern und Kabeln schon bei der 4xxxer Generation, an der Verbindung festzuhalten (und die Ströme noch zu erhöhen), nur so zu verstehen, daß sie dieses Problem ignorieren wollen! Sie handeln bewußt falsch. Und das ist das Problem. Man wird sie nicht "überzeugen" können, es sei denn, mit harten Maßnahmen, die aber von Behörden kommen müssen. "Der Markt" wirds nicht richten. Und die User auch nicht. Wenn ich als geschädigter Kunde die Wahl habe, gegen ein Milliardenunternehmen vor Gericht zu ziehen, oder mein Geld geräuschlos erstattet zu bekommen, was werde ich da tun?

Und Nvidia wird zum jetzigen Zeitpunkt niemals auf einen Dialog eingehen, denn das käme einem öffentlichen Schuldeingeständnis gleich, eben bewußt eine solche fehleranfällige und potenziell gefährliche Lösung angewandt und den NT- und Board-Partnern vorgeschrieben zu haben. Die Folgen wären unabsehbar für das Unternehmen. Also werden sie es aussitzen, und hoffen, daß es wie bei den 4xxxern nochmal gut gehen wird.
Und den Gamern bleibt nur die Hoffnung, daß jetzt endlich ein Umdenken einsetzt, und bis zur nächsten Gen ein neuer, wirklich belastbarer Standard entwickelt wird
LMAO
KI Experte wird in den Staaten von der TRUMP / Musk Administration zur Rechenschaft gezogen !?
Nie im Leben sehen wir da irgendeine Aktion unter der Administration.

Da entsteht gerade wieder Wilder, Wilder Westen.

Einfach eigenverantwortlich selbst die richtige Entscheidung treffen und ignorieren und ablehnen.
Oder Risiko eingehen und selbst absichern.
 
Das kenne ich anders!
1739702626361.jpeg


Beide Sense Pins müssen auf GND liegen, damit die Karte 600W ziehen darf.
 
Die heißen aber PCIe 6 oder 8.
"2x4" wäre auch falsch, da der PCIe 8 gar keine 4 Plusleitungen hat, sondern wie der PCIe 6 nur 3.
kann ich aber das kabel von atx 3.0 erstmal bis nächte woche nutzen oder muss ich auf das neue warten?
 
Beim NT hilft nur testen und beobachten.
Und das am besten beim spielen.
Die lastspitzen treten im Benchmark nicht so kräftig auf, und die können euer NT in den Wahnsinn treiben.

Hatte heute Morgen mal bei Kleinanzeigen nach ASUS Thor NT geschaut, einfach nur krank wieviel Geld die für gebrauchte Hw wollen ohne Rechnung oder dergleichen.
 
@Tib nVidia hat gar keine andere Möglichkeit als versuchen es unter den Teppich zu kehren! Das US Verbraucherschutzrecht würde Klagen ermöglichen die schon sehr empfindlich sein dürften, auch für nVidia, wenn ein Eingeständniss seitens nVidia vorliegt.
Ich bevorzuge zwar auch die 90er Modelle von nVidia, aber ich bin dafür das nVidia dort mal eine Ansage bekommt, das sie für so einen Mist in vollem Umfang haften müssen und nichts auf Verbraucher abwelzen können. Wie @der8auer bereits gesagt hat in seinem letzten Video, es ist absolut nicht nachvollziehbar wie man auf dem 4090er Theater nichts gelernt haben kann und es bei der 5090 noch schlimmer macht mit Stromhunger an der Stecker Spezifikation ohne entsprechende Sensorik mit/oder Lastverteilung.
 
Ich verstehe noch immer nicht, warum nur auf NV eingeschlagen wird. Das Problem liegt doch auf beiden Seiten. Auch am Netzteil hat man am Ende diese "Überlast". Auch am Netzteil schmilzt der Stecker weg. Auch das Netzteil müsste also eigentlich erkennen, wenn es Quatsch macht (oder daran angeschlossene Hardware quatsch macht).
Das Netzteil müsste eigentlich schon eine Überlast auf einer Phase erkennen und sagen: NOPE.

Die ellenlange Diskussion über fackelnde PCs (ach was, Elektrogeräte können brennen) und dann das Beispiel eines Netzteils (ach was, gerade von Netzteilen geht im Grunde genommen die größte Gefahr aus).
Wo wir wieder bei der Frage wären: Problem der Grafikkarte oder doch vielleicht Problem des Netzteils - bzw. möglicher Standards am Netzteil, die dieses Problem zulassen?
 
Ich verstehe noch immer nicht, warum nur auf NV eingeschlagen wird. Das Problem liegt doch auf beiden Seiten. Auch am Netzteil hat man am Ende diese "Überlast". Auch am Netzteil schmilzt der Stecker weg. Auch das Netzteil müsste also eigentlich erkennen, wenn es Quatsch macht (oder daran angeschlossene Hardware quatsch macht).
Das Netzteil müsste eigentlich schon eine Überlast auf einer Phase erkennen und sagen: NOPE.

Die ellenlange Diskussion über fackelnde PCs (ach was, Elektrogeräte können brennen) und dann das Beispiel eines Netzteils (ach was, gerade von Netzteilen geht im Grunde genommen die größte Gefahr aus).
Wo wir wieder bei der Frage wären: Problem der Grafikkarte oder doch vielleicht Problem des Netzteils - bzw. möglicher Standards am Netzteil, die dieses Problem zulassen?
Schau dir das Video an, dann kannst du möglicherweise nachvollziehen warum das bei 3090Ti kein Problem war aber bei der 4090 und noch schlimmer 5090 (FE).

 
Auch am Netzteil hat man am Ende diese "Überlast"
das Netzteil hat keine Überlast, das Netzteil liefert wie gefordert 500W auf der rail. Das Netzteil weiß nicht, auf wievielen Leitern diese Last zum Verbraucher kommt und wie diese aufgeteilt ist. Kann es auch gar nicht wissen da es entsprechende Messschaltungen einfach nicht hat. Kein Netzteil hat das.
 
Fakt ist das man an der Sekundärseite des Netzteils etwas macht das in der Elektrik eigentlich verboten ist. Die Last auf mehrere Adern zu splitten und jeder der 2 Beteiligten verlässt sich darauf das die andere Seite das schon regelt ( überwacht). Nvidia hat dies jedoch mit den letzten beiden Gens eingestellt...und nun? :kotz:
 
das Netzteil hat keine Überlast, das Netzteil liefert wie gefordert 500W auf der rail. Das Netzteil weiß nicht, auf wievielen Leitern diese Last zum Verbraucher kommt und wie diese aufgeteilt ist. Kann es auch gar nicht wissen da es entsprechende Messschaltungen einfach nicht hat. Kein Netzteil hat das.
Das ist der springende Punkt. Und das Netzteil weiß auch nicht, wer auf der anderen Seite die Last darstellt: Die Grafikkarte oder die Verbindung dorthin, die zum Heizelement mutiert. Aus Sicht des NT sind das beides ohmsche Lasten und fertig. Und so lange die in der dafür vorgesehen Range bleiben (also unter 660 Watt), und kein Kurzschluß auftritt, schlafen die Schutzschaltungen den Schlaf der Gerechten.
 
Fakt ist das man an der Sekundärseite des Netzteils etwas macht das in der Elektrik eigentlich verboten ist.
Wie kommst du darauf das das verboten ist? Das ist gang und gebe.

Viel Interessanter als das sinnlose gebashe wäre mal Ursachenforschung.

Es scheinen ja die Crimpkontakte in den Kabeln Schuld zu sein mit zu großen Toleranzen zueinander.

Ob einfach Hersteller X mit Hersteller Y nicht kompatibel ist obwohl diese ineinanderpassen.
 
Wie kommst du darauf das das verboten ist? Das ist gang und gebe.
Na ja... Auch nur im Computerbereich, oder? Im Alltag wäre es mir neu, daß Lasten von derselben Quelle auf denselben Verbraucher auf mehrere Adern verteilt und wieder zusammengeführt werden. Wenn die Kapazität eines Leiters nicht ausreicht, nimmt man eben einen mit höherem Querschnitt, und legt nicht einfach einen weiteren dazu. Und schon gar nicht 5 oder 11 andere, wie bei der Verkabelung von Grafikkarten. Das wäre auch hier das Mittel der Wahl gewesen.
 
Die Molex-Spezifikation zu dem Stecker:
- weniger als 5 mOhm beim ersten Steckversuch
- weniger als 10 mOhm im Rahmen normaler Alterung

PCI-SIG macht dann daraus:
- 6 mOhm maximal in jeder Situation
- maximal einen absoluten Unterschied von 3 mOhm zwischen Pins des gleichen Steckers

Molex sagt auch "maximal 9.2A pro Pin". PCI-SIG macht draus "9.2A pro Pin im Durschnitt, darf erheblich abweichen solange 55A in der Summe nicht überschritten wurden". PCI-SIG bleibt dann aber trotzdem bei der Empfehlung von AWG16. Mit der schlimmsten theoretischen Kombination - komplett innerhalb der PCI-SIG-Spec - sind es bis zu 16A statt der 9.2A.
Was für 600W aber auch schon zu viel Toleranz ist. Praktisch darf es bei realistisch kurzen Kabeln nur um nur 1 mOhm variieren, sonst überhitzen die Kabel schon. Mit Steckern die "nur" innerhalb der Molex-Spezifikation bleiben kann es bereits brennen, insbesondere bei kurzen Kabeln wo auch kein hoher Kabelwiderstand entgegen wirkt.

Molex hat den Steckertyp niemals für das designt was die PCI-SIG daraus versucht hat zu machen. Und Nvidia verlässt sich auf Toleranzen, die noch enger sind als was die PCIe-Spezifikation fordert, weil die bereits unzulänglich war.
 
Ich frage mich ja, wo diese ungleichmäßige Strombelastung herkommt. Habe hier gleich einmal nachgemessen:

Gigabyte AORUS GeForce RTX 5090 MASTER 32G: 580 W (Gesamtleitungsaufnahme)
  • Pin 1: 7,7 A
  • Pin 2: 7,8 A
  • Pin 3: 7,8 A
  • Pin 4: 8,0 A
  • Pin 5: 9,2 A
  • Pin 6: 9,4 A
NVIDIA GeForce RTX 4090 Founders Edition: 420 W (Gesamtleitungsaufnahme)
  • Pin 1: 2,7 A
  • Pin 2: 5,0 A
  • Pin 3: 7,0 A
  • Pin 4: 5,6 A
  • Pin 5: 7,6 A
  • Pin 6: 5,0 A
NVIDIA GeForce RTX 5090 Founders Edition: 530 W (Gesamtleitungsaufnahme)
  • Pin 1: 3,0 A
  • Pin 2: 8,7 A
  • Pin 3: 7,1 A
  • Pin 4: 7,3 A
  • Pin 5: 10,0 A
  • Pin 6: 7,6 A
An einem Seasonic Prime TX-1600 ATX 3.0 mit dazugehörigem Kabel.

Ich habe bei meiner 5090 aorus ebenfalls mal nach gemessen und komme auf folgende werte
 

Anhänge

  • IMG_8151.jpeg
    IMG_8151.jpeg
    8,7 KB · Aufrufe: 104
Es scheinen ja die Crimpkontakte in den Kabeln Schuld zu sein mit zu großen Toleranzen zueinander.

Ob einfach Hersteller X mit Hersteller Y nicht kompatibel ist obwohl diese inineinanderpassen.
Wen wundert es denn, schau dir an wie filigran die Steckkontakte des 12V-2x6 sind im Vergleich zu einem "alten" 6 oder 8 Pin Stecker. Man hätte "einfach" jene Stecker auf einen einzelnen 12 Pin Stecker erweitern sollen, ohne das der Stecker insgesamt viel größer geworden wäre. Hier mal ein Vergleich mit dem 12Pin Stecker am BeQuiet netzteilseitig. Völlig sinnfrei und ohne Not diesen Mini Stecker eingeführt, der Ärger hätte für alle Beteiligten erspart bleiben können.
 

Anhänge

  • 20250216_182944.jpg
    20250216_182944.jpg
    351,4 KB · Aufrufe: 77
  • 20250216_182821.jpg
    20250216_182821.jpg
    553,9 KB · Aufrufe: 77
  • 20250216_183059.jpg
    20250216_183059.jpg
    324,5 KB · Aufrufe: 76
Zuletzt bearbeitet:
12VHPWR plugs and pins are rated by the manufacturers' (I looked it up on the Molex website) for a MAXIMUM of 30 connects-disconnects.
Every time you plug in a 12VHPWR pug you introduce wear on the plugs and the pins - as proved by the testing of hardwareLUXX.

In addition, you will see on the manufacturers' websites that 12VHPWR plugs are NEVER to be used for testing because they are not designed for repeated plugging and unplugging.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh