12-Pin Micro-Fit 3.0 Stecker für Ampere-GeForce-Karten bestätigt

Bei dem Preis sollte ein Kabel mit RGB schon drin sein. 🤪
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wäre schon arm wenn kein Adapter beiliegen würde. Und wenn, dann bitte keinen mit weißen Steckern und farbigen Kabeln

Die Stecker und Kabel werden ROSA, damit man auch gleich erkennt das es ganz spezielle Kabel sind. ;)
 
Weil es ja auch die Norm ist doppelt Hardware für Reviews an die Redaktionen zu verschicken. Wie beim RTX 2000er Release also, wenn man da an die unzähligen SLi/NVLink Reviews denkt, die nie veröffentlicht wurden, nimmt das bei RTX 3000 sicherlich einen hohen Stellenwert ein.

Manche reimen sich hier auch die wildesten Sachen zusammen...
Du hältst es also wahrscheinlicher, dass Nvidia eine FE mit 2x 12pin (aka 4x 8pin! per adapter) macht, als dass Seasonic einfach zwei Kabel schickt, weil es zB beim entsprechenden NT einfach zwei PCIE Stränge gibt oder weil sie bei einem Vorserienprodukt lieber zwei als eins an Reviewer schicken.

Natürlich.
 
Vielleicht that Seasonic auch einfach nur zwei verschickt, weil es hinsichtlich der Kosten keine Rolle spielt und/oder wir zwei Testsysteme betreiben?

Anhand der Anzahl würde ich in jedem Fall keine weiteren Rückschlüsse ziehen.
 
Manche Leute übertreiben es mit dem Deuten der Leaks und Gerüchte auch einfach.

Es handelt sich hier um eine xx90 GPU, bei der wir nicht wissen, was es eigentlich sein wird. Nur weil da der verbrauch angeblich etwas höher ist, muss man nicht gleich von 750 Watt ausgehen.
Man muss auch nicht gleich davon ausgehen, dass zwei Kabel von Seasonic eine "Bestätigung" für irgendwas sind.

Bestätigt ist damit lediglich, dass es diesen 12 Pin Stecker geben wird.
Wir wissen nicht, ob es bei jeder GPU benutzt werden wird. Wir wissen nicht, warum es benutzt werden wird (für mich die spannendste Frage). Wir wissen nicht wie viel der möglichen Leistung dann im Ende benutzt / benötigt wird.

Einfach mal bisserl den Aluhut im Schrank lassen und nicht jedes Detail komplett in wahnwitzige Extreme spinnen.
NVidia wird wohl nicht so einen Schritt gehen, ohne einen guten Grund. Niemand hier wird happy darüber sein und das wissen die auch. Es muss also einen guten Grund geben, sonst würden sie diesen offensichtlichen Nachteil für PR doch nicht machen. Es ist ja nicht so, als würden sie damit Geld verdienen. Im Gegenteil. Es wird sicher ein paar Käufer von einem Upgrade abhalten.
Darum einfach mal abwarten und etwas gesunden Menschenverstand in die Spekulationen bringen.
 
Laut Berichten soll es diesen 12-pin Stecker nur auf der 3090 FE geben. Falls dem so sein sollte, frage ich mich warum anderen Herstellern dann seitens nVidia der Freiraum gewährt wird davon abzuweichen. Da hätte man sich den Aufwand auch gleich sparen können wenn es anscheinend auch anders geht.

:unsure:
 
Genau wegen solchen Details würde mich der Sinn hinter der Aktion interessieren.
Sie machen das ja nicht nur, um Leute zu verwirren und Kunden abzuschrecken. Irgendeinen nachvollziehbaren Grund müssen sie doch haben.
Wenn die Boardpartner da einfach weiter 2-3x8Pin nutzen können, macht es das Ganze nur noch kurioser.
 
Da war vielleicht ein "Scheuer" am Werk
 
Sie machen das ja nicht nur, um Leute zu verwirren und Kunden abzuschrecken. Irgendeinen nachvollziehbaren Grund müssen sie doch haben.
Ich vermute, der FE-Kühler würde es vom Design her nicht zulassen, dass der Platz für 3x8pin auf der Platine freigehalten werden muss.
Da man mit dem Microfit-Stecker die 24pins auf dem Platz von vorher nur 16pins unterbringen kann, wird ja Platinenplatz gespart, welchen man mit "Kühlkörper" zukleistern kann.
Vllt gab es bestimmte Vorgaben bzgl. eines Mindestvolumens des FE-Kühlers?
Alles nur Knochenwerferei meinerseits... :unsure: :sneaky:
 
Dann wäre aber das komplette Design der FE fragwürdig. Wenn die anderen Hersteller es mit 2-3 8-pin Steckern auf ihren Karten schaffen, warum dann nicht die FE? Warum muss das Design unbedingt so extravagant sein? Naja, mal abwarten...
 
Dann wäre aber das komplette Design der FE fragwürdig. Wenn die anderen Hersteller es mit 2-3 8-pin Steckern auf ihren Karten schaffen, warum dann nicht die FE?
Ich kann mir das nur so vorstellen dass es um Platz am PCB geht.
Schau dir mal die Bilder der vermutlichen FE an, durch die gewählte Kühlkonstruktion brauchst du ein kürzeres PCB wie zB jetzt bei einer 2080Ti.
Bei "normalen" Customs sitzen oben einfach die Lüfter, da ist die Länge des PCBs eher nebensächlich und unter dem PCB sitzen keine Bauteile die eine aktive Kühlung benötigen.

Jetzt sieht's so als würden die VRAM-Chips auf der Unterseite auch eine brauchbare Kühlung benötigen, reine passive Kühlung nicht ausreichend.
Wie die anderen Hersteller das umsetzen wird sich erst zeigen, jegliches neue Kühldesign gleich als fragwürdig zu bezeichnen ist halt auch nicht sinnvoll, vor allem bei derzeitigem Wissensstand. (nicht mehr als Spekulationen)

Abwarten auf erste Tests, dann gibt's noch genügend Zeit um NV zu erzählen wie sie es besser machen hätten können. ;)
 
Gibt genug Karten, die 3x8Pin haben
 
Gab es nicht sogar Dual GPU Karten mit 4x 8 Pin

Wenn die Boardpartner da einfach weiter 2-3x8Pin nutzen können, macht es das Ganze nur noch kurioser.

Die Platinen der Bordpartner sind doppelt so lang als das Referenz Design.
Das PCB ist auch nicht FE exklusiv, da gemunkelt wird das einige non Custom EVGA Modelle auch mit 12Pin kommen.

Warum nvidia sich überhaupt für so ein Platinen Design im Consumer Bereich entschieden hat, bleibt deren Geheimnis.
 
Warum nvidia sich überhaupt für so ein Platinen Design im Consumer Bereich entschieden hat, bleibt deren Geheimnis.
Die bauen ein komplexes Platinendesign welches auch noch aufwändige Kühllösungen braucht, nur deswegen weil sie alle potentiellen Käufer nerven wollen mit einem neuen Stromanschluß.

Dass sich das kurze PCB sich einfach ergeben hat weil NV sowieso die Signalwege für den VRAM so kurz wie möglich halten musste um die Signalintegrität gewährleisten zu können ist ja absolut unwahrscheinlich.
Und dass sie, aufgrund der vielen notwenigen VRAM-Chips für Ihren TopDog, diese nicht mehr mit kurzen Signalwegen auf der Oberseite des PCBs unterbringen konnten scheint auch völlig unrealistisch.
 
Dann müssten die 3090 Custom Lösungen mit "normalen" PCB und 3x 6+2 Pin ja langsamer sein
 
Der neue Stecker könnte die effektive Verlustleistung reduzieren und ist auch eventuell ? aufgrund von Steckertauschschutz (nicht jeder 8-polige Stecker ist gleich ausgeführt?) eingeführt worden und natürlich Platz- und Kostenersparnis auf lange Sicht.

Man kann auch nicht mehr die Karte versehentlich mit nur einem 8-Pol - Stecker unter Strom setzen.
 
Vielleicht that Seasonic auch einfach nur zwei verschickt, weil es hinsichtlich der Kosten keine Rolle spielt und/oder wir zwei Testsysteme betreiben?

Anhand der Anzahl würde ich in jedem Fall keine weiteren Rückschlüsse ziehen.
SLI is back?:-)
 
Dass sich das kurze PCB sich einfach ergeben hat weil NV sowieso die Signalwege für den VRAM so kurz wie möglich halten musste um die Signalintegrität gewährleisten zu können ist ja absolut unwahrscheinlich.
Und dass sie, aufgrund der vielen notwenigen VRAM-Chips für Ihren TopDog, diese nicht mehr mit kurzen Signalwegen auf der Oberseite des PCBs unterbringen konnten scheint auch völlig unrealistisch.

Ich glaube nicht, dass das hier jemand anzweifelt. Nur wenn es so sein sollte, dass Custom-Lösungen die Signalintegrität auch klassisch mit 6/8-pin Buchsen realisiert bekommen - nVidia den Boardpartnern den neuen 12-pin Anschluss nicht verbindlich vorschreibt - dann ist das Argument so nicht haltbar, weil die Notwendigkeit dann nicht mehr gegeben ist. Bei nVidia hätte man sich dann einfach bewusst für ein extravagantes PCB entschieden, das zumindest technisch dann nicht unbedingt notwendig gewesen wäre. Ich will da auch gar nicht von einer Fehlentscheidung sprechen, da es auch andere als technische Gründe dafür geben könnte.

Warten wir mal ab, dazu wird es sicher bald mehr Infos geben...
 
Zuerst würde ich gern mal die Custom-Lösungen sehen und die Performance der Karten vergleichen.
Natürlich könnte man das PCB einfach etwas länger machen um die Anschlüsse wieder unterbringen zu können, nur kannst du dann eben schwerer die Rückseite aktiv kühlen.
Anscheinend fand das NV weniger elegant wie die Implementierung des 12-Pin-Steckers um ihr Kühlkonzept so umzusetzen.
Wir werden sehen wie sehr sich das Design auf die Performance und vor allem die Temps des VRAM auf der Rückseite auswirkt.

Die Diskussion geht aber schon in die Richtung "Ein Stecker um sie alle zu knechten" ;)

Der Stecker, naja, aber ansonsten finde ich die angebliche Kühlerlösung der 3090 schon interessant und zumindest mal was anderes wie "täglich grüsst das Murmeltier" dass die meisten Custom-Lösungen bieten.
Schauen wir mal ob es auch gut funktioniert oder nur teurer Firlefanz ist, aber es liegt bissl an meiner persönlichen Grundeinstellung dass ich es immer ganz lässig finde wenn Firmen mal was neues auszuprobieren.
 
Du hältst es also wahrscheinlicher, dass Nvidia eine FE mit 2x 12pin (aka 4x 8pin! per adapter) macht, als dass Seasonic einfach zwei Kabel schickt, weil es zB beim entsprechenden NT einfach zwei PCIE Stränge gibt oder weil sie bei einem Vorserienprodukt lieber zwei als eins an Reviewer schicken.

Natürlich.
Eine Wahrscheinlichkeit einer These negiert nicht die Möglichkeit einer anderen These, was ich für wahrscheinlicher halte war nicht Gegenstabd meiner Anmerkung/Frage. Zumal, die angesprochene 350W TDP vs 1x12Pin Thematik hast du augenscheinlich wiederholt außen vor gelassen, offensichtlich an Ermangelung eigener sinniger Erklärungsmöglichkeiten. "Vorserienprodukt" Review 'Absicherung' als ernsthaftes Argument bei nem Kabel mit anderem Stecker? Da zieht ja das Argument von Don weils nichts kostet noch mehr. Als wenn so nen Kabel/Adapter technisch hoch anspruchsvoll wäre und viel Entwicklungsaufwand dahinter stecken würde, wenn man nur vorgegebene Kontakte, Kabel und Gehäuse zusammen fügt. Das machen quasi unzählige Enthusiasten von Jung bis Alt wenn sie irgendwelche gesleevten Kabel herstellen tagtäglich nebenbei.


Manche Leute übertreiben es mit dem Deuten der Leaks und Gerüchte auch einfach.
[...]
Nur weil da der verbrauch angeblich etwas höher ist, muss man nicht gleich von 750 Watt ausgehen.
Man muss auch nicht gleich davon ausgehen, dass zwei Kabel von Seasonic eine "Bestätigung" für irgendwas sind.
[...]
Einfach mal bisserl den Aluhut im Schrank lassen und nicht jedes Detail komplett in wahnwitzige Extreme spinnen.
Fällt dir noch auf wenn du dir in deinem Text selbst widerspricht? Von 750W "Bestätigung" sprichst nur du. Gehörst du zur Spinner Aluhut Fraktion von der du geschrieben hast?

Es muss also einen guten Grund geben, sonst würden sie diesen offensichtlichen Nachteil für PR doch nicht machen. Es ist ja nicht so, als würden sie damit Geld verdienen. Im Gegenteil. Es wird sicher ein paar Käufer von einem Upgrade abhalten.
Nachteilige PR? Welche Käufer werden abgehalten wenn es quasi bereits bestätigte Boarddesigns mit gewöhnlichen 8Pin Anschlüssen gibt? Das ist deine persönliche subjektive negative Einstellung die du teilst, objektiv kann man die realen Auswirkungen dieser Stecker Diskussion bis zum Erhalt echter Fakten noch gar nicht wirklich bewerten.

Den Grund für nVidias Initiative hat doch bereits jeder gesehen außer scheinbar du: der neue 12Pin Stecker ist ungefähr so groß wie nen alter 8Pin liefert aber die doppelte Strommenge. Zwei 12Pin bräuchten nur den Platz von zwei der alten 8Pin Stecker und liefern allerdings die Strommenge von vier 8Pin Anschlüssen. Mit max AWG18 und 8,5A ist der Micro Fit 12Pin 3.0 Anschluss laut Molex Spec scheinbar auch nicht irgendwie 'besser' als es real vorhandene 8Pin Anschlüsse sind, wie bereits hier ein User anmerkte und bei seinem aktuellem Netzteil verglich. Recht deutlich zu erkennen räumt der 12Pin Anschluss das Zusatz Stromanschluss "Wirrwarr" oberhalb von 6Pin auf, macht Konfigurationen von 1x 8Pin sowie 2x6Pin und 6Pin+8Pin und 2x8Pin bei gleicher/größerer Strommenge und/oder gleichem/geringerem Platzbedarf obsolet.

Darum einfach mal abwarten und etwas gesunden Menschenverstand in die Spekulationen bringen.
Diffamiere nicht andere User, wenn du dir an dein Ratschlägen selbst kein Beispiel nehmen willst/kannst.
 
Zuletzt bearbeitet:
Ich glaub es wird eine 3080ti geben für boardpartner und die 3090 FE bleibt NVexclusiv(Titan für gamer oder so) und hat ne höhere TDP (300-350) und sehr gut für OC blablabla da spezielle spannungsversorgung blablabla... und die 3080ti hat den gleichen chip nur mut max z.B. 275Watt TDP und hirnbenutz blablabla.
So meine vermutung inzwischen. und man hat alles abgedekt psychologisch, richtigeTitan kost dann 2-2,5k€ und alles is gut
3080 ->bis 950€ 3080ti ->bis 1250€ 3090FE ->bis 1650€ und eben die alte Titan mit über 2000€
Preise ohne Gewähr sagt meine Glaskugel
 

Ich glaube, Du solltest meinen Beitrag noch mal genau lesen und ggf. die Antwort editieren (vor allem auf vorherige Beiträge und Kontext achten, das scheinst Du leider beides komplett übersehen zu haben).
 
Zuletzt bearbeitet:
 
Dann wäre aber das komplette Design der FE fragwürdig. Wenn die anderen Hersteller es mit 2-3 8-pin Steckern auf ihren Karten schaffen, warum dann nicht die FE?
Weil der alte Standard schon seit Jahren fragwürdig ist! Ein gesplittetes Kabel, bei dem man lieber einen 2. Strang nehmen soll, als beide Stecker des einen, ist für mich viel fragwürdiger.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh