NVIDIA Ampere: Neue Netzteilversorgung soll alte Zöpfe abschneiden

Ja dann musst du noch mehr 8PIN CPU Stecker am board anschließen oder wo kommt der strom her ? vom 24 pol?

Bei diesen Designs wird meist mit Powerboards gearbeitet - da gibts dann irgendwo ein Stückchen PCB mit Verteilersteckern. Zum Board geht dann was dickes - mit viel "Bumms" und alles zieht sich den Spaß dann über diesen dicken Verbinder.
Wie das bei Apple gelöst ist, kein Plan, hab so ein Teil bis dato nicht offen gehabt. Im Serverumfeld ist sowas aber gängige Praxis... Da gibts dann nicht selten eben auch die 24 Pin ATX Stecker zzgl. EPS nicht (mehr). Bestenfalls noch bei Standard ATX Steckkarten die PCIe Stromstecker. Die kommen dann dann ggf. aber auch nicht zwingend vom NT, sondern vom Powerboard oder direkt vom Mainboard.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
2x 8-Pin entsprechen soweit ich weiß schon nicht mehr der Spezifikation für die Versorgung einer Karte. Jeweils einmal 6-Pin und 8-Pin sind das Maximum. 150 + 75 + 75 W (66 W) reichen dann eben nicht mehr.
 
"wie bei Servern" klingt als wäre das die Regel
Sorry, dass dir meine Formulierung nicht gefällt. Ich schrieb auch nie, dass da 48V aufs Board geht nur, dass es 48V als Zwischenschritt zwischen 230/400V AC oder 400V DC und 12/5/3.3V DC gibt.
 
Es gab da ne Spezifikation von 300W pro Steckkarte. Das bezog sich meine ich aber auf Single Slot - ob Dual Slot theoretisch 300W könnte, kein Plan, müsste man im Detail prüfen.
Ich fragte nur, weil nicht mit 2x8 Pin ließt sich wie, das 2x8 Pin dafür nicht ausreichend wären...

Sorry, dass dir meine Formulierung nicht gefällt. Ich schrieb auch nie, dass da 48V aufs Board geht nur, dass es 48V als Zwischenschritt zwischen 230/400V AC oder 400V DC und 12/5/3.3V DC gibt.
Hää? Was möchte die Aussage dann aber benennen? Hier gehts doch um eben "aufs Board"... Und nicht den Zwischenschritt von 240/400V Richtung irgend einem Wandler auf eben jene 12/5/3,3V...
"Ich könnte mir als nächsten Schritt 48V wie bei den Servern vorstellen. Macht die Stecker kleiner und die Kabel feiner (flexibler) bei gleicher Leistung."
-> ist damit auch nicht wirklich passend, weil sich der Stecker, den du benennst und der "gut aussieht" eben "aufs Board" Verbinder bezieht...
Deswegen die Frage!? Warum direkt so pissig?
 
Zuletzt bearbeitet:
Der Artikel ist doch ewas merkwürdig, was soll die Speku das da Wechselstrom durch fließt ? Das ist doch technischer Nonsens.
Ausserdem hat jeder der sich ne 1000+ Euro #Karte kauft auch ein passendes Netzteil mit 2 oder mehr 8 Pin 12V Anschlüssen..
Hier wird ein Problem gelöst das nicht existiert.
 
Genau.

Von mir aus sollen sie 4x8 Pin der Karte spendieren :d
 
Wie wäre es auf 24V zu setzen.... nein, wir bleiben lieber oldschool 12V.
Die Leute glauben, nur mit möglichst vielen Pins die Lösung finden zu können, traurig.
 
Naja, sollte NVIDIA bei Ampere die derzeitige Effizienz bei behalten können bei 350 Watt+ wissen wir was Phase ist.
Im Leben nicht, 7/8nm wird deutlich effizienter als Turing. Bei AMD hat der Wechsel etwa 80% mehr Effizienz gebracht. Rechne den Effizienzvorteil von 8nm bei Nvidia mit ein, dann kannst du erahnen wo die landen wird.

Leistungsmonster incoming ... :oops:
Poor BN :shake:
Aber quasi eh egal, 350W Nvidia GPU... das Geld wird eh kaum jemand auf den Tisch legen wollen.


Btw:
Bestimmte Leute haben über Jahre in Foren gepredigt dass moderne Hardware immer weniger Strom aufnehmen wird. Das Gerücht gibts glaube ich seit ~ 2012. Seitdem haben wir konstant 250W GPUs gehabt und dieses Jahr kommen die 300-350W Monster :fresse2: :shot:

Und CPUs wildern nun auch im ~150W Bereich :hust:
 
Zuletzt bearbeitet:
Poor BN :shake:

Aber quasi eh egal, 350W Nvidia GPU... das Geld wird eh kaum jemand auf den Tisch legen wollen.
Die Karten werden erst mal genug Leute kaufen, um den Preis ganz weit oben ansiedeln zu können.

Geringe Chipausbeute, Verrückte die sie haben wollen, Preis hoch.

Die 2080ti hat sich letztendlich auch wie geschnitten Brot verkauft, obwohl man sich zu Beginn an für einen Boykott ausgesprochen hat.
Aber sehr schnell kommt dann folgender Spruch zur Geltung:
"Was interessiert mich eigentlich mein Geschwätz von gestern?"

Weil sich die 2080ti fabelhaft verkaufte, kann und wird man das obere Preislimit weiter ausloten.
 
Zuletzt bearbeitet:
Bei einer Versorgung mit Wechselstrom ist diese Rechnung nicht ganz so einfach, aber mehr als 400 W sind auch dann problemlos möglich.
Warum bringt ihr Wechselspannung mit ins Spiel?
Sekundärseitig ist die Wechselspannung absolut nicht von Bedeutung.
Außerdem, wie soll die Leistungsaufnahme primärseitig mit 400W reichen?
 
Bestimmte Leute haben über Jahre in Foren gepredigt dass moderne Hardware immer weniger Strom aufnehmen wird. Das Gerücht gibts glaube ich seit ~ 2012. Seitdem haben wir konstant 250W GPUs gehabt und dieses Jahr kommen die 300-350W Monster :fresse2: :shot:

Meine 1080ti kann 375W TDP. Die ist 4 Jahre alt. Was ist an 300 - 350W so besonders ? Was manche Leute predigen ist mir doch Wurst.
 
Ja die Wechselspannung gehört da nicht rein. Bleiben wir, bei sagen wir 5 x 8,5 A x 12 V = 510 W oder auch 4 x 8,5 A x 12 V = 408 W, je nachdem wie viele der 12 Pins mit 12 V belegt sind.
 
Ein neuer Stecker ist sicher nicht unmöglich, allerdings glaube ich daran bei Standard GPUs erst wenn ich das sehe.

Man hört auch immer wieder, dass NTs mir nur 12V angedacht sind und auch da tut sich nichts da alles was bisher da ist inkompatibel wäre - dass man aber bei so einer Umstellung auch neue Stecker für GPUs einführen könnte wäre nahe liegend.
 
Bestimmte Leute haben über Jahre in Foren gepredigt dass moderne Hardware immer weniger Strom aufnehmen wird. Das Gerücht gibts glaube ich seit ~ 2012. Seitdem haben wir konstant 250W GPUs gehabt und dieses Jahr kommen die 300-350W Monster :fresse2: :shot:
Und dennoch haben wir im mobilen Bereich richtige Leistungsmonster... AMDs Renoir quetscht aus 15W raus, was bisher nicht möglich war. Die Effizienz ist enorm gestiegen, der Wille Leistung auf Kosten des Verbrauchs rauszupressen aber auch. Ich mag mir garnicht ausmalen was eine Gpu mit der Effizenz von 20 Jahre alten Karten heute verbrauchen müsste. Das werden mehrere Kilowatt sein.

Ne Geforce 256 hatte laut Wikipedia ne Füllrate von 480 MT/s. Eine 2080Ti dagegen kommt auf 400 GT/s, das ist Faktor 800. AGP konnte damals maximal 50W bereitstellen, die 2080Ti zieht ~300W, das ist grob Faktor 6. 800/6 = 133. Man stelle sich mal vor die 2080Ti bäuchte nicht 300W, sondern das 133-fache. Uff. ;)

Dazu passt dann auch die Aussage das der NV10 17 Millionen Transistoren hat und der TU102 auf 18 Milliarden kommt.
 
Zuletzt bearbeitet:
Deswegen die Frage!? Warum direkt so pissig?
Ach, nur so. Mir kam es nur so vor, als würdest du mich extra missverstehen ;) bei den 48V Netzteilen die ich kenne geht es darum, möglichst effizient den Strom im Rack/Schrank zu übertragen. Bei grossen Anlagen geht man zu ±200VDC zwischen den Schränken um auf die mehrfach Wandlung AC/DC zu sparen. Das alles weisst du auch, da bin ich mir sicher.

Die Brücke, die ich schlagen wollte ist, dass in Zukunft bei Consumer als auch bei Servern auf 48V Netzteil Board geschwenkt werden könnte. Das spart Kabel, Stecker und Strom durch die effizientere Wandlung und Leitung. Stecker haben so 1-5 mOhm. Das gibt bei 12V und 8.5A 361mW pro Pin. Bei 2.125A nur noch 22mW. Als Beispielrechnung für diese Art Stecker. Isolation sollte imo gehen von den Abständen etc.
 
@Nimrais
Ja, auf 24V oder direkt 48V zu gehen wäre ne Möglichkeit. Wenn man sich allerdings anschaut wie lange das nun im KFZ (und das ist pro Fahrzeug ein in sich geschlossenes/autarkes System!) schon dauert, dann frage ich mich wie man das bei Computern angehen will. Man müsste quasi über Jahre beides parallel anbieten und langsam ablösen. Also z.B. erst die Grafikkarte mit neuem Stecker ausrüsten, Netzteile entsprechend anbieten und dann irgendwann die Mainboards und sonstige Peripherie mit anpassen.

Ist die Frage ob der Aufriss bei "normalen" Verbrauchern abseits der GPU überhaupt lohnt.
 
Ja, auf 24V oder direkt 48V zu gehen wäre ne Möglichkeit. Wenn man sich allerdings anschaut wie lange das nun im KFZ (und das ist pro Fahrzeug ein in sich geschlossenes/autarkes System!) schon dauert
Das wirst du zwar nicht gemeint haben, aber irgendwie liest es sich so als gäbe es reine 48V Bordnetz Autos. Dort existiert dieses Netz parallel zum bisherigen 12V Netz. Dir ist das bekannt, wollte es nur noch mal für andere klarstellen.
 
  • Danke
Reaktionen: Tzk
@undervolter19
Jop, genau. Ich wollte zum Ausdruck bringen das man seit Jahren im KFZ an 48V Netzen rumdoktort, aber die Umstellung sehr schleppend verläuft. Meines Wissens gibts aber mittlerweile auch Fahrzeuge mit (fast reinem) 48V Netz und 12V Wandler für z.B. die Bordsteckdose. Und dabei ist Kupfer schon teuer genug, da sollte man meinen das Hersteller tunlichst versuchen am Kabelquerschnitt zu sparen... :d
 
Könntest du die Rechnung mal darstellen?
Klar, hoffe ich verhedere mich nicht:

Leistung ist bekanntlich Strom mal Spannung -> P=U*I
Spannung ist Strom mal Widerstand also U=I*R
Setzt man das ein kommt P=I*I*R heraus -> P=I²*R
Steckerwiderstand R von 5mOhm und Leiterstom I von 8.5A sind demnach 0.361W
Um die selbe Leistung mit 48V zu übertragen wie mit 12V reicht viermal weniger Strom (12V*8.5A=102W=48V*2.125A). Wieder eingesetzt hat man bei gleichbleibendem Widerstand und viermal höherer Spannung, einen viertel des Stroms auch 16 (?) Mal weniger Kontaktverlust.
5 mOhm sind übrigens so ein gängier Steckerwiderstand im Niederspannungsbereich. idR ist er aber tatsächlich noch tiefer, um 1mOhm.
Was steigt sind die Anforderungen an die Isolation. 3mm Pinabstand, schlaues Material und saubere Umgebung lassen aber seeehr viel mehr als 48V zu. Die 48V kommen imo (!) daher, das bis 50V als Schutzkleinspannung gilt und von dir und mir bedient werden kann ohne spezielle Schutzvorkehrungen.

Edit: @Tzk die 48V im Auto sind doch dazu da höhere Leistungen zu liefern? Eine Knacknuss in diesem Umfeld, die kenne ich persönlich, sind die Anforderungen an Sicherungen und Schalter. Ab 20V muss man mit Schaltlichbogen rechnen. Die können einem die Einsparungen ganz schön verhageln.
Als Gegenbeispiel wäre USB mit 5V und 20V (?). Das ging ruck zuck. Ich weiss aber nicht, ob sich das jetzt so wirklich durchgesetzt hat.
 
  • Danke
Reaktionen: hRy
Meines Wissens gibts aber mittlerweile auch Fahrzeuge mit (fast reinem) 48V Netz und 12V Wandler für z.B. die Bordsteckdose.
Welches Fahrzeug ist das? Hochlast Verbraucher sind natürlich alle auf 48V, aber die Boardelektronik, die Steuergeräte usw.? Den 48V->12V wandler haben die sowieso (fast) alle, da man nur noch eine "Lima" hat, also ich rede halt von dem Hybrid Motor, also dem E-Motor. Mein Gott muss man mit diesen Marketingbegriffen aufpassen um sich weiterhin verständlich/präzise auszudrücken :d

Als Gegenbeispiel wäre USB mit 5V und 20V (?). Das ging ruck zuck. Ich weiss aber nicht, ob sich das jetzt so wirklich durchgesetzt hat.

Kein wirkliches Gegenbeispiel, dort wurde nicht 5V durch 20V ersetzt, sondern 20V (bzw. >5V) wurde als zusätzliche Option eingeführt. D.h. die Netzteile können mehrere Spannungen liefern, als Fallback aber immer die bisherigen 5V.
 
Zuletzt bearbeitet:
Wie wäre es auf 24V zu setzen.... nein, wir bleiben lieber oldschool 12V.
Die Leute glauben, nur mit möglichst vielen Pins die Lösung finden zu können, traurig.
Im Prinzip eine interessante Idee, der Aufschrei wäre dann aber wirklich groß, denn das kann man nicht mit Adaptern an bestehenden Netzteilen betreiben.
Sicherlich könnte NV theoretisch eine alternative 24V Variante anbieten und hoffen dass Netzteilhersteller mitziehen. Die Motivation zu soetwas ist aber doch verständlicherweise sehr gering.
 
Eine 24V variante halte ich fuer unrealistisch, aber 48V warum nicht Dell bietet auch 48V Systeme fuer das rz an. da gibt dann Wandler auf dem Mainboard. 48V direkt in die CPU_VRM gibt es auch schon von anderen Anbietern. eine 48V variante fuer Compute server liegen nicht so weit weg, wie einige hier Denken. Nvidia koennte ja externe nt anbieten gab es bei den Vodoo karten auch. Glaube aber nicht das es jetzt passiert der nutzen ist für Selberbauer zu klein. die werden einfach einen Adapter anbieten.
 
Ja die Wechselspannung gehört da nicht rein. Bleiben wir, bei sagen wir 5 x 8,5 A x 12 V = 510 W oder auch 4 x 8,5 A x 12 V = 408 W, je nachdem wie viele der 12 Pins mit 12 V belegt sind.
Aber die Rechnug wird so halt nicht aufgehen können - bzw. sagen wir es anders, die Rechnung funktioniert mit dem PCIe Strecker auch. 3 x 8A x 12V = 288W -> würde also gar mit nem einzelnen 6Pin PCIe Stecker zzgl. PCIe Slot schon "gehen". Nur gibts eben verschiedene Spezifikationen. Stecker/Buchsen, Kabel, irgend was drüber liegendes wie die PCIe Spezifikation für irgend ein Limit usw.

Ich hab das nicht mehr 100% auf dem Schirm, da gab es damals zu Polaris Zeiten ja relativ viel Gegenwind bei AMD, weil dort die Spezifikationen überschritten wurden, zum Teil zumindest. Die Kabel sind da nichtmal unbedingt das Hauptproblem. Bei Marken NTs mit dicken Querschnitten bei den Adern auch nicht. Aber es gibt halt auch günstigere NTs bzw. der ganze Adapterkram. Ich habe es schon gesehen, wie sich der China Adapter am EPS Stecker in Rauch aufgelöst hat ;) Sowas will man nicht haben...

Und dennoch haben wir im mobilen Bereich richtige Leistungsmonster... AMDs Renoir quetscht aus 15W raus, was bisher nicht möglich war. Die Effizienz ist enorm gestiegen, der Wille Leistung auf Kosten des Verbrauchs rauszupressen aber auch. Ich mag mir garnicht ausmalen was eine Gpu mit der Effizenz von 20 Jahre alten Karten heute verbrauchen müsste. Das werden mehrere Kilowatt sein.

Bedenke, dass die massiv gestiegene Effizienz im CPU/APU Bereich primär durch viel MT Performance im Boost kommt! Dauerhaft mit anhaltender Last ist die Effizienz gar nicht so massiv gestiegen. Und vor allem, es ist halt von der Last abhängig. MT Belastung only bei kompromissloser Skalierung lässt sich auch mit Takt im absoluten Sweetspot + entsprechend viele Kerne gut und effizient abbilden. Das ist aber eben nicht die breite Realität. Und auch nicht unbedingt vergleichbar mit der GPU Geschichte. Bei den GPUs zählt einerseits die Dauerlast, während die APUs und CPUs auf kurze Lastpeaks hin ausgerichtet sind.

Btw. der Vergleich zur Vergangenheit hinkt da etwas. Wo sollen denn die mehreren Kilowatt herkommen? Das Produkt von damals ist nicht in der Lage überhaupt so hoch in der Leistung ausgefahren zu werden, damit man das erreichen könnte. Selbst extrem OC nicht... Von der Kühlung ganz zu schweigen - steigende Temperatur sorgt dann auch für mehr Verbrauch usw.

Dass heute die absolute Leistungsaufnahme mal wieder eher steigt statt fällt, hat natürlich Gründe. Das liegt nicht an der Unfähigkeit oder dem fehlenden Willen der Hersteller - sondern, weil es eins der letzten Mittel ist, den geforderten Fortschritt noch halbwegs aufrecht zu erhalten. Ich sagte es oben schonmal - die Fertigungsprozesse bringen in immer längeren Abständen immer weniger absolute Verbesserungen. Und werden dazu immer teurer. Wie soll die Rechnung auf Dauer aufgehen? Das kann nicht funktionieren. Es liegen (bei NV) 4+! Jahre zwischen Pascal Release und Ampere im nächsten Prozess Schritt. Und in diesen 4 Jahren ist hat sich die Fertigung eben nicht um Faktor sonstwie viel verbessert. Früher war sowas mal anders. Da gab es teil alle 1-2 Jahre massive Verbesserungen sodass du auf 4 Jahre gesehen mehrere Ganzzahlige Faktoren hast bekommen. Zumindest manchmal. Heute komplett utopisch... Die Effizienz durch Tricks lässt sich aber auch nicht unendlich steigern. Und die Architektur durch Optimierung nicht unendlich verbessern. Am Ende müssen auch irgendwo die Taktraten passen und das Powerbudget gibt den Deckel nach oben vor. -> ergo, Powerbudget rauf = mehr Leistung drin.

Ach, nur so. Mir kam es nur so vor, als würdest du mich extra missverstehen ;) bei den 48V Netzteilen die ich kenne geht es darum, möglichst effizient den Strom im Rack/Schrank zu übertragen. Bei grossen Anlagen geht man zu ±200VDC zwischen den Schränken um auf die mehrfach Wandlung AC/DC zu sparen. Das alles weisst du auch, da bin ich mir sicher.
Ja, so kenn ich das ebenso. Ich habe aktuell damit zwar nichts zu tun, weil wir solche Systeme nicht haben/nutzen - aber kennen ja. Aber eben genau darum frage ich, wie passt das hier ins Bild? 48V von Rack zu Blech ist in etwa so wie von Steckdose aus der Wand zu NT im heimischen PC... Wo sollen die 48V denn her kommen? Aus der Wand kommt das nicht. Die 48V der Systeme geht eben dort auch "nur" ins Netzteil - wir haben bspw. Cisco Equipment, wo die entsprechenden Verbinderli dran sind und man die nutzen könnte - bei entsprechender Infrastruktur. Intern im Gerät wandelt der dennoch auf die gleichen Versorgungsspanungen. Im Server sind das dann entsprechend 12/5/3,3V - in irgendwelchen Routern/Switches/whatever eben was dort notwendig ist. Ich könnte mich irren, aber 48V direkt in die Komponenten gibts da nicht...
Der Wechsel auf 48V wäre ggf. eine gute Idee im Server Business - aber selbst dort zeigt sich schon, es ist lange nicht die Regel. Solange das so ist, der Spaß lebt ganz klar von Standards -> du kannst die Komponenten in den Systemen untereinander tauschen, weil da alles 12V nutzt Eingangsseitig. Baust du jetzt eine Grafikkarte mit 48V - brauchen erstmal alle ein neues NT, was 48V ausspuckt (anders als bei der Rackverkablung, wo es eben aus dem Rack "rauspurzelt").
 
Was ich immer noch nicht verstehe: Der PCIE 8-Pin hat ja gegenüber dem 6-Pin einfach nur zwei Massepins mehr, d.h. die Anzahl der 12V Leitungen bleibt gleich. Wie um alles in der Welt soll der plötzlich die doppelte Leistung (150W vs 75W) übertragen können?
Ist die Spezifikation vom 6-pin einfach nur hoffnungslos unterdimensioniert? Und wenn ja, warum?
 
Ist die Spezifikation vom 6-pin einfach nur hoffnungslos unterdimensioniert?
Jap. Vermutlich wurde das so gemacht um damals zur Einführung die Kosten für die Netzteilhersteller im Rahmen zu halten. Damals gab es nur eine 6800 Ultra mit etwa 110 W Leistungsaufnahme. Es war wohl noch nicht absehbar wie viel Leistung zukünftige Generationen verbraten werden.
 
Was ich immer noch nicht verstehe: Der PCIE 8-Pin hat ja gegenüber dem 6-Pin einfach nur zwei Massepins mehr, d.h. die Anzahl der 12V Leitungen bleibt gleich. Wie um alles in der Welt soll der plötzlich die doppelte Leistung (150W vs 75W) übertragen können?
Ist die Spezifikation vom 6-pin einfach nur hoffnungslos unterdimensioniert? Und wenn ja, warum?
Hi,
die Masse Brücken sind nur Möglich wenn der Leitungsquerschnitt groß genug ist.
Am Querschnitt wird bestimmt wie viel Ampere übertragen werden können.
Was auch noch eine Rolle spielt, die Physikalische Stromfluss Richtung findet von Masse zum Plus Pol statt.
Die doppelte Auslegung der Pins dient dazu, den Übergangswiederstand so klein wie möglich zu halten.
Theoretisch reicht auch eine Leitung, die dann aber dicker Dimensioniert sein muss.

MfG
 
Mein Netzteil ist gute 10 Jahre alt (wurde zu zwei GTX580 zum Release angeschafft), wird Zeit für was neues.
Gebt alles.
 
Mal bei bewuit nach nem Kabel fragen für das DarkPowerPro 11
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh