12VHPWR/12V-2x6-Problematik: Boardpartner mit Bedenken und fehlgeschlagenen Lösungsansätzen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
NV ist ja auch nicht "Alleinverantwortlich" für den Standard... Auch wenn immer so getan wird, als ob die Spezifikationen und der Stecker designed by NV ist und NV auch alle (auch Netzteilhersteller) dazu zwingt, diesen Stecker zu unterstützen.
Du hast aber schon mitbekommen, daß NV den Stecker bei allen Grafikkarten mit NV-GPU vorgeschrieben hat? Alternativ auf PCIe-Stecker oder wenigstens zwei der 12VHPWR-Stecker (statt nur eines) zu setzen, war den Bordpartnern strikt untersagt!
Und damit waren auch die NT-Hersteller letztlich gezwungen, den neunen Anschluß einzubauen, um sich nicht den Vorwurf der Adapteritis einzuhandeln.

Und ja, NV ist nicht der einzige Hersteller, der diesen Unsinnsstecker verbaut. Bei den neuen AMD-Karten ist eine Saphhire-Karte damit ausgerüstet. Aber die anderen haben alle PCIe. Bei Nvidia 5xxx keine einzige mehr!
 
News schrieb:
Dies haben auch die Boardpartner erkannt und so gingen an NVIDIA wohl Anfragen, für das Referenz-PCB der GeForce RTX 5090 doch zwei 12V-2x6-Anschlüsse zu verwenden. Offensichtlich wurde dies nicht umgesetzt.
@Don

Das ging aus dem Text meines Verständnis nach nicht hervor: was ist denn der Grund warum bisher kein Hersteller eine 5090 mit zwei 12Pin Steckern gezeigt hat? Traut sich kein Hersteller vom nVidia Design abzuweichen oder sagt nVidia in letzter Instanz nein?

Was ich auch nicht verstehe: wenn sich alle Board Partner der Problematik ihrer >1000 Doller Karten 'so sehr bewusst' sind, warum verbaut kein Hersteller effektive Schutzmaßnahmen (Balancing) auf deren PCB bei einem Stecker, oder sagt hier auch vom Design her nVidia mit dem letzten Wort nein?

Außerdem soll doch nVidia so der 'Kontrollwütige' sein mit dem Green Light Programm um schlechte Designs auszusortieren und den Standard möglichst hochzuhalten, wie passt das mit der Strom Stecker Brandgefahr zusammen? Hat man die Standards reduziert weil Grafikkarten für Gamer mittlerweile nur noch zweit oder drittrangig sind?!
 
Meines Wissens haben die Bordpartner erst extrem spät (teilweise erst zwei Wochen vor dem Verkaufsstart) die Chips und endgültigen Spezifikationen bekommen, Die haben also "blind" entwickeln, und sich auf die Vorgaben von Nvidia verlassen müssen.
 
Und damit waren auch die NT-Hersteller letztlich gezwungen, den neunen Anschluß einzubauen, um sich nicht den Vorwurf der Adapteritis einzuhandeln.
Oh ja, die NT-Hersteller waren "gezwungen". Obwohl NV ja selber eigentlich die Verwendung des eigenen Adapters empfiehlt. Okay...

Du hast aber schon mitbekommen, daß NV den Stecker bei allen Grafikkarten mit NV-GPU vorgeschrieben hat?
Ja. Und ich habe auch mitbekommen, dass das Problem (fast) ausschließlich die 4090 oder 5090 betrifft. Also ist das an und für sich auch gar kein Problem. Was NV scheinbar nicht vorschreibt ist das PCB-Design und wie die Spannungsversorgung zur Platine hin erfolgt. Sparen sich die AIBs aber trotzdem und orientieren sich an NV.

Und ja, NV ist nicht der einzige Hersteller, der diesen Unsinnsstecker verbaut. Bei den neuen AMD-Karten ist eine Saphhire-Karte damit ausgerüstet.
Die Sapphire Nitro+ wird perspektivisch auch bei AMD-Karten keine Ausnahme bleiben. Btw. macht es das "Produktportfolio" halt übersichtlicher, wenn alle Karten denselben Anschluss haben.
War den Kunden beim USB-Anschluss und mobilen Endgeräten ja auch super wichtig.

Meines Wissens haben die Bordpartner erst extrem spät (teilweise erst zwei Wochen vor dem Verkaufsstart) die Chips und endgültigen Spezifikationen bekommen, Die haben also "blind" entwickeln, und sich auf die Vorgaben von Nvidia verlassen müssen.
Die Problematik war denen aufgrund der 4090 aber nicht unbekannt... Und die 575 Watt spuckten Monate vor Release schon durch die Gerüchteküche. Man kann schon davon ausgehen, dass die Partner eine grobe Ahnung hatten. Mindestens, dass es nicht weniger als 450 Watt werden.
 
Ja. Und ich habe auch mitbekommen, dass das Problem (fast) ausschließlich die 4090 oder 5090 betrifft. Also ist das an und für sich auch gar kein Problem.
Verstehe.... Wenn nur 4090 und 5090 schmoren, dann passiert das ja praktisch nicht.... :wall: :wall: :wall:


Nur mal so: DU hat behauptet, daß das kein NV-Problem sei, weil die den Stecker weder entwickelt haben noch exklusiv einsetzen. Ich belege dir, daß es sehr wohl ein NV-Problem ist, wegen der strikten Vorschrift, diesen Stecker (und nur einen davon!!!) einzusetzen, und dann schwafelst du dir einen ab von wegen... oooch, soviele Karten sind das ja gar nicht....

Sowas nennt man "Trolling". Und dafür stehe ich nicht zur Verfügung.
 
hitziges thema, aber bitte sachlich bleiben. danke!
 
Also ich muss sagen dass ich den 12VHPWR eigentlich geil finde da schön zu verlegen und er sieht nicht aus wie eine Mönchspeitsche zur Selbstkasteiung.
Hängt bei mir auch nur an einer leistungsunhungrigen 4070 ti super, welche als Übergangslösung gedacht war wegen schlechter Verfügbarkeit der 5090. Jetzt habe ich auf die 5090 nur noch wenig bock.
Für mich wollte / musste Nvidia unbedingt noch einen Nachfolger der 40er Reihe bringen die natürlich mehr Leistung haben musste da halt Nachfolger. Soweit ich weiß ist das Fertigungsverfahren aber ähnlich, wenn nicht gar gleich. Also ging Nvidia wissend das Risiko ein mit der höheren Leistungsaufnahme um 30% Mehrleistung rauszukitzeln.
Ich denke mit max. 500 Watt kann der Stecker gerade noch umgehen, wenn auch schon grenzwertig. Aber mal ehrlich, muss eine GraKa 600W ziehen?
Für die 6090 eine Bitte an Nvidia, haltet den Stecker gerne bei Steigert die Performance um 30% und senkt die Leistungsaufnahme auf 450W mit einem hoffentlich kleineren Fertigungsverfahren.
 
Eigentlich gibt es nicht viel zu diskutieren, den unnötigen Kram einfach ignorieren 🫠

Der Stecker an sich funktioniert ja, hätte man nicht die Schutzmechanismen weg gespart.

Keine Ahnung ob es schiere Gier war oder ob da noch etwas anderes dahintersteckt aber bei den momentanen Problemen dieses Steckers, würde ich erst zu so einer Karte greifen wenn dieser Fehler behoben ist.

Ps. Ja es gibt noch nicht so viele Berichte über Defekte 5xxx Karten aber wirklich viele gab es ja nicht zu kaufen und eigentlich ist auch jede Defekte 5xxx Karte auf Grund fehlender Schutzmechanismen, eine zuviel.
 
Wenn ich mir den einen oder anderen Kommentar hier durchlese, kann ich mich doch so langsamdem dem Gedanken beugen, keine DIY PC mehr zu zu lassen.... Da fehlen mir einfach die Worte! >160 Posts, und einige haben es noch immer nicht verstanden... :oops:
 
Gibt es irgendwo ein Bild vom 5090 Prototyp? Da sind mit Sicherheit noch zwei 12V-2X6 Header drauf, genauso wie beim 4090 Prototyp.

Im Zuge der Gewinn-Optimierung hat man dann wahrscheinlich den zweiten Header bei den Verkaufsversionen eingespart, genauso wie bei fast allen 4090. Wenn einer der sech microFit Kontaktverbindungen dann doch mal nicht ganz optimal funktioniert, müßen die restlichen fünf Kontakte das ausbaden, und deren Verschleißrate/Ausfallrate schnellt dann natürlich auch in die Höhe, obwohl sie eigentlich noch nicht defekt sind.

Ein Rückruf wird es mit Sicherheit nicht geben, denn das wäre viel zu teuer. Dann lieber den "schwarzen Peter" weiter reichen, solange bis die GrafikkartenGeneration aus der Garantiezeit gealtert ist.

Als Käufer bleibt nur Selbstinitiative, wenn man auf die Hardware nicht verzichten will. Augen zu und durch, ist selten die richtige Lösung. Den 12V-2X6 Header von KrisFix, gegen ein fest in der GPU-Leiterplatte eingelötetes Kabel mit vier klassischen miniFit NT-Steckern dran, tauschen zu lassen, geht ja wohl auch nicht ohne Garantieverlust. Sonst müsste ja Nvidia ihr Eigenverschulden eingestehen, und alle 350W+ Grafikkarten nachbessern.

Eine komfortable nachrüstbare Überwachung ist nicht möglich, solange dafür noch keine kontaktlose Sensorik zu kaufen gibt. Und selbst dann stellt sie den fortschreitenden Kontaktverschleiß ja nur fest, und behebt oder verhindert ihn nicht.

Ne "dreckige" Lösung wäre, wenn man die Female microFit Stecker Kontakte in eine SMD Weichlötpaste taucht, und die HeaderPin's mit aufgesteckten Kabelstecker auf 150° erwärmt. Dann verlöten sich die Steckerkontakte fest mit den HeaderPin's, und halten dann problemlos auch deutlich höhere Belastungen ohne Verschleiß dauerhaft aus. Kommt es dann später doch irgendwann mal zu einem Garantiefall, muß man darauf hoffen, das der "klemmende" 12V-2X6 Stecker nicht weiter genau untersucht wird. Denn von Außen ist die Verlötung zwischen HeaderPin und SteckerKontakt nicht zu erkennen. Der 12V-2X6 Stecker "klemmt" halt nur untrennbar im GrafikkartenHeader.

Wehm die "dreckige" Lösung zu heikel ist, und auf legaler GarantiertSeite bleiben will, der kann nur versuchen die Ausfallwahrscheinlichkeit auch nur einen der microFit Kontakt im 12V-2X6 Stecker zu minimieren. Klar kann man das auch mit Begrenzung der maximalen GPU-Leistungsaufnahme mehr oder weniger sicher erreichen. Nur hätte man sich ja dann auch gleich ne kleinere Grafikkarte für weniger Geld kaufen können. Damit schießt man sich ja selber ins Portemonnaie.

Also bleibt nur ein 12V-2X6 Stromversorgungskabel zu verwenden, das auf Grund seiner mechanischen Eigenschaften so nah wie möglich an den microFit Spezifikationen von Molex bleibt, um die Ausfallwahrscheinlichkeit zu minimieren. Und wenn die Grafikkarte dann doch noch in der Garantiezeit irgendwann die Segel streicht, kann man auf "legalen" Ersatz oder Reparatur setzen.

Wenn man die mechanischen Spezifikationen von Molex einigermaßen einhalten will, sind sleeved EinzelLitzen oder 90° Kabelstecker, und genauso jegliche Zwischenadapter ein "noGo". Selbst die bei den Grafikkarten dabei liegenden Kabelpeitschen, halte ich für zu fern der microFit Spezifikationen von Molex. Aber das ist wie immer nur meine persönliche Meinung. Ein "Molex konformes" Verbindungskabel zwischen einer 12V-2X6-Grafikkarte und einem NT, hat einen geraden 12V-2X6 Stecker mit jeweils nur einer AWG16 Litze an jedem Crimpkontakt. Und die EinzelLitzen dürfen inkl. Isolierung möglichst nicht dicker als 2mm sein., Ein Knickschutz an den Steckern, der die mechanische Beweglichkeit der Kontakte im Steckergehäuse einschränkt, ist auch nicht Molex konform. Um die von der Grafikkarte geforderte Leistungsaufnahme mit möglichst wenig Strombelastung erreichen zu können, sollten am NT nur 3 bis 4 klassische miniFit Stecker verwendet werden. Ein 12V-2X6 Stecker auch am NT zu benutzen, bewirkt genau das Gegenteil. Egal was irgendeine Werbeargentur blumig suggeriert.

Bisher habe ich nur einen oder zwei große Kabelhändlern gesehen, die auch "12V-2X6 to 3x8pin" Verbindungskabel mit geradem microFit Stecker und AWG16(2.0mm Außendurchmesser) anbieten. Wenn man genau danach sucht, findet man aber bestimmt auch noch andere Händler, die halt nicht nur schöne "BlingBling" Kabel teuer verkaufen, sondern zum fast dem gleichen Preis solche mechanisch "Molex microFit konforme" Anschlusskabel anbieten. Das ist mMn die einzige Möglichkeit die DefektWahrscheinlichkeit des 12V-2X6 Steckersystems an potenten Grafikkarte "legal" zu verringern, wenn man beim Verlegen und Zurechtbiegen des Kabelstrang im PC-Gehäuse auch darauf achtet, das die Female Kontakte in dem 12V-2X6 Steckergehäuse ausreichend beweglich bleiben.
 
Oh ja, die NT-Hersteller waren "gezwungen". Obwohl NV ja selber eigentlich die Verwendung des eigenen Adapters empfiehlt. Okay...


Ja. Und ich habe auch mitbekommen, dass das Problem (fast) ausschließlich die 4090 oder 5090 betrifft. Also ist das an und für sich auch gar kein Problem. Was NV scheinbar nicht vorschreibt ist das PCB-Design und wie die Spannungsversorgung zur Platine hin erfolgt. Sparen sich die AIBs aber trotzdem und orientieren sich an NV.


Die Sapphire Nitro+ wird perspektivisch auch bei AMD-Karten keine Ausnahme bleiben. Btw. macht es das "Produktportfolio" halt übersichtlicher, wenn alle Karten denselben Anschluss haben.
War den Kunden beim USB-Anschluss und mobilen Endgeräten ja auch super wichtig.


Die Problematik war denen aufgrund der 4090 aber nicht unbekannt... Und die 575 Watt spuckten Monate vor Release schon durch die Gerüchteküche. Man kann schon davon ausgehen, dass die Partner eine grobe Ahnung hatten. Mindestens, dass es nicht weniger als 450 Watt werden.
also die adapter sind der größte müll von n vidia
 
no risk no fun! (Spaß) :d

Da ich überwiegend AIDA64 für's Monitoring nutze, habe ich mal in deren Forum die Implementierung für die Astral Besitzer angestoßen.
Hoffe, das geht fix, dann bräuchte man das ASUS Tool nicht mehr. Thread im AIDA64 Forum

Die Temp.Sensoren an den beiden 8-PIN Kabel (Netzteil) laufen ebenfalls schon mit AIDA64. Senoren hängen an einen Aquacomputer Farbwerk 360.

aida64.png


Wenn die Entwickler von AIDA64 jetzt noch die anderen Werte hinzugefügt haben, dann reicht mir das vorerst mal als Überwachung.
 
Die meisten Adaper sind völliger Murks und provozieren ja förmlich zu hohe Kontaktwiderstände. Dann gibt es die oberen 10%, mit den Adaptern meist von NT-Herstellern, die wenigstens versucht haben in Richtung der Molex Vorgaben zu produzieren. Und nur ganz wenige halten die Vorgaben dann tatsächlich auch komplett ein.

Den sechs 12V miniFit Kontakten der zwei klassischen 8pin Steckern kann man die 600W schon eher anvertrauen, auf jeden Fall eher als einem 12V-2x6 Stecker seinen sechs nur halb so großen microFit Kontakten. Wobei bei 600W eigentlich schon drei miniFit 8Pin Stecker angesagt sind, damit immer ausreichend Fail Reserve vorhanden ist.

Ne TemperaturÜberwachung macht nur Sinn, wenn man jeden 12V Steckerkontakte einzeln mit einem TempSensor überwacht. Sonst lässt sich ja nicht feststellen, welcher der Kontakte es nicht so tut wie er soll. Und dann bitte nicht den ext. TempSensor einfach von hinten in das Steckergehäuse schieben. Denn dann drückt der TempSensor(sei er auch noch so dünn) den STeckerkontakt zur Seite, und verschlechtert damit seine Funktion einen möglichst geringen Kontaktwiderstand zu HeaderPin zu halten.
 
Klar, wäre eine Überwachung jeder einzelnen Ader sinnvoller.
Die Messung am Stecker zwischen den Adern, ist nur fürs Gewissen.
 
Warum nutzt man weiterhin diese Stecker und spart sogar noch Schutzmechanismen ein obwohl die Probleme schon bei der 40er Reihe bekannt waren?
Ich verstehe diese Ignoranz von Nvidia nicht obwohl sogar Boardpartner an Nvidia rantretten bezüglich diesem Problem.
Und dennoch verteidigen viele Nvidia und Ihre Karten und tun das Thema etwas leichtfertig ab als wäre das doch nichts, das ist für mich unbegreiflich.
Ich will doch als Endverbraucher eine GPU die ich nicht überwachen muss, wo ich mir keine Gedanken machen muss das irgendwas kaputt geht... aber nein lieber Tausende Euros ausgeben und dann noch die Karte Monitoren müssen? Also für mich wäre das ein KO Kriterium.
 
Warum nutzt man weiterhin diese Stecker und spart sogar noch Schutzmechanismen ein obwohl die Probleme schon bei der 40er Reihe bekannt waren?
Ich verstehe diese Ignoranz von Nvidia nicht obwohl sogar Boardpartner an Nvidia rantretten bezüglich diesem Problem.
Und dennoch verteidigen viele Nvidia und Ihre Karten und tun das Thema etwas leichtfertig ab als wäre das doch nichts, das ist für mich unbegreiflich.
Ich will doch als Endverbraucher eine GPU die ich nicht überwachen muss, wo ich mir keine Gedanken machen muss das irgendwas kaputt geht... aber nein lieber Tausende Euros ausgeben und dann noch die Karte Monitoren müssen? Also für mich wäre das ein KO Kriterium.
der stecker wurde von amd ausgesucht amd hat für denn stecker gestimmt nicht n vidia!!!!! amd war nur so schlau und hat den fehler früh bemerkt und es nicht eingebaut erst mit der 9070
 
Defacto gab es auch schon mit weniger Leistungsaufnahme Probleme. Das "Steckerschmelzen" ist keine neumodische Erscheinung des 12VHPWR-Anschlusses. Vielleicht(!) kommt es beim 12VHPWR häufiger vor. Dazu haben WIR aber keine belastbare Zahlen. Wir kennen häufig nur breit öffentlich thematisierte Einzelfälle bei denen dann nicht selten die Ursache ein mangelhaftes Kabel ist. Denn fast alle dieser Fälle haben eine Sache gemeinsam: Der Kontakt zwischen Stecker und Buchse. Und genau DAS kann halt auch bei einem PCIe-8-PIN-Anschluss passieren - und passiert auch.

Den 8 Pin mit dem 12V-2×6 zu vergleichen halte ich für sehr gewagt. Ich bin mal so frei und zitiere:

The 8-pin connector that we all know and love is famously capable of handling significantly more power than it is rated for. With each pin rated to 9A per the spec, each pin can take 108W at 12V, meaning the connector has a huge safety margin. 2.16x to be exact.

Gemessen an dem 6 Pin darf man/n den 12V-2×6 wohl unter Verar*** verbuchen.

The 6-pin is even more overbuilt, with 2 or 3 12V lines of the same connector type, meaning that little 75W connector is able to handle more than its entire rated power on any one of its possibly 3 power pins. You could have 2/3 of a 6-pin doing nothing and it would still have some margin left. In fact, that single-9-amp-line 6-pin would have more margin than 12VHPWR has when fully working, with 1.44x over the 75W.

Quelle: An Electrical Engineer's take on 12VHPWR and Nvidia's FE board design

Kommen wir zur eigentlichen Frage und jenen Rückschritt berücksichtigend:

On both the 3090 and 3090ti FE, each pair of 12V pins has its own shunt resistor to monitor current, and some power switching hardware is present to move what I believe are individual VRM phases between the pairs. I need to probe around on the FE PCB some more that what I can gather from pictures to be sure.

Welche Redaktion (Hardwareluxx, Computerbase, PCGH und wie sich nicht alle heißen) hat sich dazumal diesem Problem gewidmet, bzw. explizit darauf hingewiesen? Nein, ich spreche nicht von dem 12V-2×6 Dilemma im Allg., sondern von dem fertigen Produkt in Form der RTX 4090, 5090 usw. Oder anders formuliert: Hätte nicht schon dazumal solch ein eindeutiger Hinweis erfolgen müssen:

If you even suspect your card may be at risk, return it and get your money back. Spend it on something else. You can do a lot with 2 grand and a bit extra. They do not deserve your money if they are going to sell you a potentially dangerous product lacking arguably critical safety mechanisms. Yes that includes AMD and Intel. That goes for any company to be honest.

Stattdessen wird vorrangig die Leistung bewertet, wohl weil man/n es sich zukünftig nicht mit den Herstellern verscherzen möchte. Dies verdeutlicht einmal mehr, die Wertlosigkeit solche Testberichte. Siehe auch das anfängliche Problem zu hoher Spannung des Speichercontrollers der X3D Prozessoren sowie Intels zu hoher Leerlauf Spannung, welche das gute Stück vorzeitig altern ließ. Sprich, die holde Kundschaft wird angefüttert, rammelt dem Testbericht vertrauend im guten Glauben los, nur um wenig später festzustellen, dass der so hochgelobte Test nicht das Papier wert ist, auf dem's geschrieben wurde.

Edit: Supi auch die neuen Spezifikationen der ATX Netzteile (3.0 und höher).

Of all the above changes, the most important ones are Intel’s new transient response tests, which go up to 200% of the PSU’s max-rated capacity. That said, this test only lasts for 100us, so that it won’t create any problems in most PSUs. On the other hand, the toughest transient tests are the 180% load for 1ms and the 160% load for 10ms. I expect most PSUs to fail in these two, and so far, this is the case. It is crazy to ask the PSU to have appropriately set protection features and at the same time to require such high power levels at periods of 1ms and above.

Quelle: Intel ATX v3.0 Specification for Dummies!
 
Zuletzt bearbeitet:
Klar, wäre eine Überwachung jeder einzelnen Ader sinnvoller.
Die Messung am Stecker zwischen den Adern, ist nur fürs Gewissen.
Nein! Ein Stecker in dem Bereich ist so zu konzipieren, dass eine Überwachung nicht notwendig ist! Muss der P8 Stecker überwacht werden? Der 24-pol ATX Stecker? Nein? komisch!

Erschreckend wie bereitwillig hier die Kunden den Geldbeutel zücken um an Symptomen herumzudoktern.....
 
Wenn du die Verantwortung nun auch noch auf die Werbepartner abwälzen willst, machst du genau das womit sie schon bei der 4090 prima gefahren sind.

Erst waren es verschwindend geringe Anwenderfehler. Dann wurden die Anwender mit neuem Steckernamen und ATX Standard abgelenkt, und schwupps schon war die nächste GrafikkartenGeneration das heiße Thema. Das ist doch aus Sicht der eigentlich verantwortlichen Hersteller bestens für Sie gelaufen. Besser kann man ein Kostenoptimiertes Design doch gar nicht vermarkten.
 
Um manchen User aufzuklären worum es geht. In der Elektrotechnik gibt es zwei Grundsätze.
1. Personenschutz und
2. Anlagenschutz
Im Anlagenschutz geht es letztlich immer darum einen Brand im Kern gar nicht entstehen zu lassen.
Meiner Auffassung nach handelt NV rechtswidrig und das schon seit der 4000er Generation. Als Hersteller und Inverkehrbringen von Ware für Endverbraucher muss eine CE Konformität vorliegen, nach der alle Richtlinien, Normen und Gesetzen eingehalten wurden. Dafür stehen z.B. international die ISO, EU-weit die EN und in Deutschland die VDE Norm. Und hier national natürlich auch SGB und ProdSG in Gesetz.
Da bei dem 12VHPWR Stecker und Buchse, sowie auch bei den AWG Leitungen die maximal zulässigen Temperaturen und Strombelastbarkeiten nicht eingehalten werden (können), ist es mMn seit der 5000er Generation sogar vorsätzlich gesetzteswidriges Handeln vorwerfen. Ein für Laien nicht sicher zu benutzendes Gerät zu verkaufen ist äußerst problematisch und empfindlich.

Und nun zu meiner sehr subjektiven und persönlichen Meinung. Für unfassbar halte ich die Ignoranz einiger User hier und in anderen Foren. Da wird vehement NV verteidigt und teilweise sogar in die Opferrolle gesteckt. Diesen Usern wünsche ich einen HW-Defekt vom feinsten. Lernen durch Schmerz heißt die Devise.
Zumal auch NV sich noch mit anderen Problemen bei der 5000er Generation auseinander zu setzen hat - sofern da überhaupt mal was passiert.

Solange diese Karten aus den Händen gerissen werden (zu solchen Preisen:stupid:), wird sich auch nichts ändern.
 
@hRy Ich stimme dir zu! Es gibt aber ein "aber": Die Eckdaten des Steckers, Kabel, etc. all das liegt im Rahmen! Aber unter Rahmenbedingungen die in der Praxis schwer einzuhalten sind und fast gar nicht zu kontrollieren sind. Daher wäre es angezeigt, einen Stecker zu wählen der die Anwendung in der realen Praxis ermöglicht!

Man fragt sich aber zurecht, warum auf Youtube oder auf diversen Hardwareseiten Menschen auftreten, die einen Hochschulabschluss in Elektrotechnik vorweisen, die Ursachen bis ins Detail erklären, es aber unterlassen trotz ihrer Expertise die entsprechenden Schritte einzuleiten....
 
  • Danke
Reaktionen: hRy
Hast Du dafür einen Beweis?
wie hast du beweis da wurde hier mal irgendwo so komuniziert
Beitrag automatisch zusammengeführt:

bestes beispiel der eine kollege der meint wenn ich das kabel nicht aufmache bin ich kein guter kunde für die hersteller ect!!!!
 

Anhänge

  • Screenshot 2025-03-09 094444.png
    Screenshot 2025-03-09 094444.png
    97,9 KB · Aufrufe: 26
der stecker wurde von amd ausgesucht amd hat für denn stecker gestimmt nicht n vidia!!!!! amd war nur so schlau und hat den fehler früh bemerkt und es nicht eingebaut erst mit der 9070
Gibt es dazu Quellen? Oder ist das wieder nur hörensagen? Das ist das erste mal das ich davon höre, kann aber natürlich auch total an mir vorbei gegangen sein.
Ändert aber nichts an der Tatsache das Nvidia hier einfach alles tot schweigt und nichts tut 😉
 
Gibt es dazu Quellen? Oder ist das wieder nur hörensagen? Das ist das erste mal das ich davon höre, kann aber natürlich auch total an mir vorbei gegangen sein.
Ändert aber nichts an der Tatsache das Nvidia hier einfach alles tot schweigt und nichts tut 😉
ich habe es auch nur von hier hören und sagen :) quelle kenne ich jetze keine :)
 
Ich stimme dir zu! Es gibt aber ein "aber": Die Eckdaten des Steckers, Kabel, etc. all das liegt im Rahmen!
Hast du dazu auf der schnelle was für mich. Wenn ich mir diese filigranen Kontakte anschaue kann ich mir das tatsächlicht nicht vorstellen.
Bei AWG finde ich mehreres, aber nichts konkretes, da die Typisierung der Leitungen, Umgebungstemperatur und Faktorisierungen anderer Umstände dies fast unmöglichen machen.

@0ldn3rd
Igor hat dazu was mal veröffentlicht. Das muss ich mir mal in Ruhe zu Gemüte führen.
 
Zuletzt bearbeitet:
wenn man es irgendwo aufgeschnappt hat, sollte man es vielleicht ein wenig anders formulieren und nicht als tatsache verkaufen, oder?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh