12VHPWR/12V-2x6-Problematik: Boardpartner mit Bedenken und fehlgeschlagenen Lösungsansätzen

Man kann jedem nur raten ein Wire View Pro zu verwenden, nein das soll keine Werbung sein, rein aus Sicherheitsgründen.
eine traumhafte lösung!
karten 2500€ aufwärts die man zusätzlich überwachen "muss"
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was würde da der TüV/VDE sagen?
Ist das überhaupt zulässig?
Jain, das ist halt die Frage! Zunächst haben sich ja alle an die "Vorschrift" aka Spezifikation PCI-SIG PCIe5 gehalten! Die ist aber eben auf Kante genäht und das führt nun zu den Problemen!

Edit:

Also bei näherer Betrachtung sind TÜV und VDE raus aus der Nummer, weil es gar nicht in deren Zugriffsbereiche fallen könnte....

Ich würde mehr Erfolg erwarten, wenn man sauber dokumetiert an die Verbrauchzentrale geht! Das Problem ist halt die saubere Dokumentation dafür... Aber über den Weg kann man zumindest Verkaufsverbote/Rückrufe etc. bis auf EU Ebene erreichen...
 
Zuletzt bearbeitet:
Tja bei mir ist gestern die Warnung vom wire view auch angesprungen bei ca. 70 Grad am Stecker nach 15 Minuten Last bei 500 Watt was soll man sonst machen als sich selber ein Templimit zu setzten zur Sicherheit.... auffällig ist aber hier schon, dass die höchsten Temperaturen nun auf der Netzteilseite erreicht werden?
Ich nutze die Suprim X 4090 seit Okt. 2022 mit 90° Kabel (kein Adapter) das auf 4x 8-PIN im Netzteil übergeht - mit Temperaturmeßgerät soweit noch keine kritischen Temperaturen oberhalb 65° gesehen, sowohl an der GPU als auch NT-Seite. Aber habe die Karte auch nie, außer für Benches, voll laufen lassen -> Powerlimit auf 72-75%, damit liegt sie in den meisten Anwendungen zwischen 320-360 Watt. Der 12VHPWR oder 12V6x6 bleibt ein Schlag ins Wasser...und die 5090 geht ja quasi nicht tiefer als 400 Watt?!
 
Okay, habe meine 5090 nun auf 420 Watt reduziert... So ist sie auch noch schnell. Mal sehen, wann ein fix kommt...
Wie soll der aussehen? Der müßte ja in Hardware (an der Grafikkarte) erfolgen. Software-Updates bringen da nur etwas, wenn Nvidia die Spannungen bzw. Powerlimits generell absenken würde, was die ganze Serie zur Makulatur machen würde, da dann jede 4xxx schneller wäre.
 
Ein Trauerspiel, was gerade abgeht. Vor allem wird der Wiederverkaufswert einer 5090 deutlich nach unten gehen. Hoch investiert und in Teilen Schrott gekauft. Also ich würde niemals nie eine gebrauchte 5090 kaufen. Man kann nur hoffen, dass betroffene Grafikkarten innerhalb der Garantie das Zeitliche segnen. Ich bin ja schon gespannt, was Nvidia daraus gelernt hat und wie die Stromversorgung der Nachfolgegeneration aussehen wird. Die Idee eines Steckers ist ja per se nicht schlecht, vor allem für das Kabelmanagement im Gehäuse, aber offensichtlich ist diese Kabel-/Steckerkonstruktion nicht mehr haltbar. Ich denke, alles, beginnend bei Netzteilhersteller, Platinenhersteller, usw. werden einen Prüfstand durchlaufen (müssen), um solche Nachrichten/Probleme in Zukunft zu vermeiden.
 
Man kann jedem nur raten ein Wire View Pro zu verwenden, nein das soll keine Werbung sein, rein aus Sicherheitsgründen.
Das ist an Dilettantismus kaum zu überbieten, da zahlt man gute 3000,-€ und der Stromstecker ist nicht mal sicher.

Soll man jetzt selbst für die Sicherheit sorgen, was kommt demnächst, muss man dann bei der nächsten Grafikkarte die Kondensatoren selbst anlöten?:unsure:
 
Also ich verstehe immer noch nicht, selbst wenn man es für Laien verständlich formuliert....
Wenn man die gleiche Menge Energie, für die früher 4x 8Pin Stecker benötigt wurden, heute über einen einzigen Stecker der etwa nur 1/4 der Größe der 4 alten Stecker hat, leitet, dann muss doch JEDEM klar sein, dass NT Hersteller, Mainboard-Hersteller, der Papst und auch nicht Biene Maja was dazu beitragen können. Die gleiche Energie auf ~1/4 der Fläche gebracht führt unweigerlich zu Problemen!

Die Physik lässt sich nicht austricksen! Der Versuch war/ist 12VHPWR bzw. 12V2x6! Und der Versuch ist gescheitert!
Beitrag automatisch zusammengeführt:

Das ist an Dilettantismus kaum zu überbieten, da zahlt man gute 3000,-€ und der Stromstecker ist nicht mal sicher.

Soll man jetzt selbst für die Sicherheit sorgen, was kommt demnächst, muss man dann bei der nächsten Grafikkarte die Kondensatoren selbst anlöten?:unsure:
Nein ähnlich wie beim Hauskredit... musst du Sicherheiten bringen... Z.B. eine Brandschutzversicherung. Die Police vorzeigen und es wird dir erlaubt eine Grafikkarte zu kaufen

(Das war ein Scherz, für die Nobelpreisträger hier!)
 
Vielleicht gibt es bei der nächsten Geforce 6000 Serie einen kostenlosen Feuerlöscher dazu.

Spaß bei Seite:

Der Stecker ist einfach für die Spannung viel zu klein, es muss eine neue Lösung her oder die alten Stromstecker werden benutzt, auch wenn es dann Drei sein sollten.
 
Jetzt hab ich mir bei Bequiet das gewinkelte 12VHPWR/12V-2x6 Jabel bestellt und anschliessend lese ich das ein 8Pin auf 12VHPWR/12V-2x6 nun zumindest einseitig sicherer wäre. Soll ich mir jetzt so ein olles Kabel holen und das von Bequiet lieber zurückschicken?
 
Vielleicht gibt es bei der nächsten Geforce 6000 Serie einen kostenlosen Feuerlöscher dazu.

Spaß bei Seite:

Der Stecker ist einfach für die Spannung viel zu klein, es muss eine neue Lösung her oder die alten Stromstecker werden benutzt, auch wenn es dann Drei sein sollten.
Die Spannung ist nicht das Problem, es ist die Stromstärke! Die allein bestimmt die nötigen Querschnitte und elektrische Last auf den Kontakten. Mit der vierfachen Spannung käme der Stecker wohl locker klar - dafür hätte er bei weiterhin 600 Watt aber auch nur noch ein Viertel der Ströme zu verkraften. 12,5 Ampere statt 50, verteilt auf 6 Litzen. Damit wäre es sicher. Sogar mit den deutlich kleineren Pins als bei PCIe. Die Frage ist, ob man die Grafikkarten mit 48 Volt betreiben will. Theoretisch könnte man das, da die Karte ohnehin mit internen Spannungswandlern arbeiten muß, da wohl außer den Lüftern nix darauf mit 12Volt arbeitet.
 
Würde halt n kompletten redesign der ATX Spezifikation bedeuten. Und n umfangreichen HW Tausch, da man alle alte Kompatibilität verlieren würde.

N anderes Steckerdesign wäre da weniger Aufwand, da man "nur" das Kabel ändern müsste. Es gibt ja mittlerweile, u.a. aus dem Drohnenbereich, auch wirklich viele Stecker/Kabelspecs die entsprechende Ströme locker handlen können
 
Man kann nur hoffen dass es NVIDIA noch gelingt etwas Entspannung in die Steckersache zu bringen zb. durch einen aktiven Schutzadapter der nachträglich angebracht werden kann oder muss.
Schauen wir mal ....
 
Man kann nur hoffen dass es NVIDIA noch gelingt etwas Entspannung in die Steckersache zu bringen zb. durch einen aktiven Schutzadapter der nachträglich angebracht werden kann oder muss.
Schauen wir mal ....
An NVidias Stelle würde ich das aussitzen und Rubin etwas früher bringen.
 
Ok hat ja bei Ada auch geklappt :d
 
Würde halt n kompletten redesign der ATX Spezifikation bedeuten. Und n umfangreichen HW Tausch, da man alle alte Kompatibilität verlieren würde.

N anderes Steckerdesign wäre da weniger Aufwand, da man "nur" das Kabel ändern müsste. Es gibt ja mittlerweile, u.a. aus dem Drohnenbereich, auch wirklich viele Stecker/Kabelspecs die entsprechende Ströme locker handlen können
Schon. Aber auch ein neues Steckerdesign würde neue Hardware erfordern. Und zumindest das wäre unerläßlich. Also könnte man auch gleich was Ordentliches bauen. Generell sind Stromstärken um die 50 Ampere und darüber die Ursache des Problemes.
 
Wie in der News steht hätten sie es ja nur wie bei der 3090 machen müssen, mit diesen Shunt Wiederständen, das ist ja noch nicht mal ein großer Aufwand und sonderlich teuer kann das auch nicht sein.

Natürlich lässt sich das in nachhinein nicht mehr ändern aber dass das überhaupt geändert wurde macht so gar keinen Sinn.
 
Vielleicht fürchtete man, daß diese Schaltung inklusive Balancing zu oft Alarm schlagen bzw. die Karte deaktivieren würde?
Es muß ja Gründe für dieses Handeln geben, und schaltungstechnisch sinnvoll waren die ganz gewiß nicht. Vielleicht hoffte man einfach, durch das strumpfe Zusammenschalten würde sich das schon irgendwie von selber regeln. Motto Augen zu und durch.
Denn daß diese Kabel/Stecker-Kombi dieser Aufgabe nicht gewachsen war, wußte man ganz sicher. Die Boardpartner, die angesichts der Probleme schon bei den 40xx-Karten für zwei dieser Stecker bei den 50xx plädierten, oder andere Lösungen anmahnten, haben das ja auch nicht aus Jux und Dollerei getan.
 
Löst das Problem aber auch nicht für die die eine haben/:
Man wusste es...daher, Pech gehabt💁‍♂️
Beitrag automatisch zusammengeführt:

Jetzt hab ich mir bei Bequiet das gewinkelte 12VHPWR/12V-2x6 Jabel bestellt und anschliessend lese ich das ein 8Pin auf 12VHPWR/12V-2x6 nun zumindest einseitig sicherer wäre. Soll ich mir jetzt so ein olles Kabel holen und das von Bequiet lieber zurückschicken?
Lass es einfach keine 5090 werden. Problem solved.
Beitrag automatisch zusammengeführt:

@EleCtricStream schiebt nVidia es denn auf die NT-Hersteller? Ich höre da immer nur "User Fehler", die Experten und Wissenschaftler in den Foren versuchen das Problem im Netzteil zu suchen....
NV schiebt nix rum, es ignoriert es einfach.
 
Zuletzt bearbeitet:
NV ist ja auch nicht "Alleinverantwortlich" für den Standard... Auch wenn immer so getan wird, als ob die Spezifikationen und der Stecker designed by NV ist und NV auch alle (auch Netzteilhersteller) dazu zwingt, diesen Stecker zu unterstützen. Die sind bestimmt auch schuld, dass Corsair inzwischen auch schon Mikrofit-Stecker auf Netzteilseite (für ALLE) Stecker hat. Auch schreibt NV den AIBs nicht vor, wie sie den Stecker auf dem eigenen PCB anbinden. ASUS hat es ja zumindest bei den Astral-Modellen anders gemacht, als NV bei der FE. Wobei das auch wieder so eine halbgare Lösung ist. Genauso wie das Gebastel mit dem WireView Pro.
Das aktuelle Update zeigt doch ganz eindeutig, dass das Problem eben nicht einfach nur der Anschluss an der Grafikkarte ist, sondern wird das Problem beidseitig haben. Und selbst das ist keine "News", weil im "allersten" bekannten Fall das Kabel ja auf beiden Seiten angeschmort ist.

NV wird dazu öffentlich auch nichts sagen, weil das im Endeffekt kein direktes Problem von deren Produkt ist, sondern maximal von Komponenten, die an ihr Produkt angeschlossen werden. Maximal wird man hinter verschlossenen Türen überlegen, ob und wie man das Problem ab der nächsten Generation vielleicht etwas mindert... Innerhalb der PCI-Sig. Und PCI-Sig ist nicht gleich NV.

Andere Geschichte wäre es, wenn die 5090 reihenweise mit dem mitgelieferten Adapter durchbrennt ;)
 
Gibt es eigentlich schon Entwürfe für einen 12V-2x10? Da das Kühlerdesign ja mit 600 Watt sehr gut klar kommt spricht ja nichts dagegen die Density weiter zu erhöhen und bock auf 2 Kabel habe ich eigentlich nicht, das ein Kabelstrang mit kompakten Stecker Konzept gefällt mir sehr gut.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh