NVIDIA Ampere: Neue Netzteilversorgung soll alte Zöpfe abschneiden

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
turing-gpu.jpg
In den vergangenen Tagen, Wochen und Monaten wurden immer wieder neue Gerüchte zu den vermeintlichen technischen Daten der kommenden GeForce-Grafikkarten gestreut. So richtig festlegen mag sich die Gerüchteküche jedoch noch nicht und inzwischen wurde für jedes Modell so ziemlich jede SM- und Speicherkonfiguration genannt, so dass man eigentlich sagen könnte, dass eines der Gerüchte früher oder später zutreffen wird.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ne Karte die out of the box 350 watt TDP hat muss ja eigentlich auch nicht sein.
 
Ein Flaschenhals weniger!
Aber wie stellt man sich die Kühlung vor?
 
Aber wie stellt man sich die Kühlung vor?

So? :fresse2:

 
Solange es passende Adapter geben wird ist doch alles gut.
 
Der Roman hat zum Thema GPU Stromversorgung eins ehr Interessantes Video gemacht. die 6 bzw 8 pin Stecker sind Leistungstechnisch noch lange nicht am Limit.
 
Naja, sollte NVIDIA bei Ampere die derzeitige Effizienz bei behalten können bei 350 Watt+ wissen wir was Phase ist.
Leistungsmonster incoming ... :oops:
 
Der Roman hat zum Thema GPU Stromversorgung eins ehr Interessantes Video gemacht. die 6 bzw 8 pin Stecker sind Leistungstechnisch noch lange nicht am Limit.
Aus phyischer Sicht nicht, aber wohl aus Rücksicht auf Billignetzteilen hat man die halt sehr niedrig spezifiziert und damit haben wir den (Kabel-)Salat.
Wenn ich mich nicht irre gilt im gesamten ATX Standard, die Stromversorgung physisch doppelt so belastbar auszulegen wie spezifiziert.
Nvidia wird nicht riskieren gegen die Spezifikation zu verstoßen.

Was den hohen Verbrauch angeht, denke in der Effizienz hat man in der Tat keinen wirklichen Fortschritt gemacht. Allerdings ist der Leistungshunger da und NV will ihn natürlich bedienen. Bei den Preisen die für High End Karten zur Zeit aufgerufen werden, kann man es sich schlicht leisten, viel Silizium zu verbauen (anders als früher).
Wegen kühlung gibt es ja noch immer dieses spezielle Design mit Lüfter das von der Rückseite ansaugt.
 
Zuletzt bearbeitet:
Solange es passende Adapter geben wird ist doch alles gut.

Yo auf 3x 6+2 Pin


Der Roman hat zum Thema GPU Stromversorgung eins ehr Interessantes Video gemacht. die 6 bzw 8 pin Stecker sind Leistungstechnisch noch lange nicht am Limit.

Der test ist aber Unsinn hat keine Relevanz.
Nur weil er für 30 Sekunden lang jedes mal ein weiteres Kabel abschneidet :rofl:

Ohne Langzeit Test kann man dazu überhaupt keine Antwort geben.
 
Zuletzt bearbeitet:
Leute wir brauchen mehr saft und die anforderung wird vom ATX standard nicht vorgesehen. Wir umgehen das indem wir einen neuen stecker machen der nicht im ATX standard vorgesehen ist.

Genius!
 
Ich finde es eigentlich toll, dass seit Jahren die Tendenz dahin geht, dass man passable GPU-Leistung auch mit weniger Leistungsaufnahme schafft.
Weniger Abwärme, weniger Lärm, weniger Akku-Verbrauch bei den Mobile-Ablegern...OK, es zwingt mich ja keiner High-End zu kaufen, aber ich habe immer weniger Lust auf
diese stromfressenden Monsterkarten, wie es die AMD Highend-Karten vor einigen Jahren waren. Zur Zeit hab ich eine 1070 TI mit 180W TDP, mehr will ich eigentlich gar nicht mehr.
 
Der Stecker ist nicht von Nvidia selbst und auch nicht neu sondern ein Intel Standard https://www.heise.de/newsticker/mel...ndeln-12-Volt-kuenftig-selbst-um-4644433.html

Nein, ich hatte ATX12VO auch in der News erwähnt, weil er ähnlich, aber nicht identisch ist. Der ATX12VO misst 22,3 mm in Breite und hat einen Pin-Abstand von 4,2 mm. Der neue Stecker den NVIDIA verwende soll, misst 18,85 mm in der Breite und die Pins haben einen Abstand von 3 mm.
 
Ich finde es eigentlich toll, dass seit Jahren die Tendenz dahin geht, dass man passable GPU-Leistung auch mit weniger Leistungsaufnahme schafft.
Weniger Abwärme, weniger Lärm, weniger Akku-Verbrauch bei den Mobile-Ablegern...OK, es zwingt mich ja keiner High-End zu kaufen, aber ich habe immer weniger Lust auf
diese stromfressenden Monsterkarten, wie es die AMD Highend-Karten vor einigen Jahren waren. Zur Zeit hab ich eine 1070 TI mit 180W TDP, mehr will ich eigentlich gar nicht mehr.
Und wie ist dein boost 1683MHz^^
 
Mir wäre es ganz Recht wenn der Stecker am Mainboard ist und sich beim einstecken der Graka in den PCI-E Slot automatisch auch noch mit dem Stromstecker verbindet. Dieses lose Kabel mittem im Rechner ist unschön.
 
Das kommt auch drauf an was die Karten leisten. Wenn die neuen Topmodelle 350 W ziehen und mehr als doppelt so viel leisten wie beispielsweise eine 2080 Ti, wäre das noch verkraftbar. Um der Abwärme Herr zu werden muss dann untervoltet werden.
 
high end heißt halt max leistung und das geht nur mit max takt was halt strom braucht.
 
Einen Gleichstrom angenommen und ausgehend von sechs +12V-Pins könnten über einen solche Stecker mehr als 600 W (6 x 8,5 A x 12 V) geliefert werden.
Bei 6 Pins mal 8.5A bleiben keine Senspins mehr. Denn bei 6 Pins brauchts auch 6 Rückleiter mit je 8.5A.
Das mit AC könnt ihr nicht bringen. 12V DC entsprechen 12V AC (Effektivspannung). Bloss die Isolation muss bei AC mehr aushalten, weil û knapp 17V betragen würde.

Der Stecker schaut gut aus finde ich. Ich könnte mir als nächsten Schritt 48V wie bei den Servern vorstellen. Macht die Stecker kleiner und die Kabel feiner (flexibler) bei gleicher Leistung.
 
Würde es besser finden die Leistungsaufnahme mit jeder neuen Generation zu verringern, dann bräuchte es auch keine dickeren Stecker. Mit mehr Luft nach oben werden sicher einige bei Nvidia denken, warum viel Geld für effizientere Hardwareentwicklung ausgeben, wenn es ein anderer Anschluss für 10 Cent auch tut? Wir können ja offiziell jetzt 500W oder mehr verballern... Irgendwo sollte da auch mal eine Grenze nach oben sein um unvernünftige Produkte zu verhindern, zumindest im Desktop.
 
Würde es besser finden die Leistungsaufnahme mit jeder neuen Generation zu verringern, dann bräuchte es auch keine dickeren Stecker. Mit mehr Luft nach oben werden sicher einige bei Nvidia denken, warum viel Geld für effizientere Hardwareentwicklung ausgeben, wenn es ein anderer Anschluss für 10 Cent auch tut? Wir können ja offiziell jetzt 500W oder mehr verballern... Irgendwo sollte da auch mal eine Grenze nach oben sein um unvernünftige Produkte zu verhindern, zumindest im Desktop.
Du kannst die Karte ja dann im Power Limit auf 180Watt stellen wenn du das unbedingt möchtest aber lass uns mal die Karte am Anschlag benutzen . Da kann das TDP nicht hoch genug sein .
 
Super... ein neuer Anschluss auf Netzteilseite.

Positiv gestimmt wäre ich gewesen, hätte man die Stromversorgung vom Mainboard zur Karte über den PCI-E Slot (oder einer integrierten zusätzlichen Steckverbindung) optimiert / erweitert, so dass man künftig wieder auf zusätzliche Stecker und Kabel verzichten könnte.

Würde man z.B. den Zusatzstecker auf dem MB hinter dem PCI-E Slot (oder in der Nähe) verlöten und die Karte hätte die Buchse entsprechend nach unten an dieser Stelle, so fände ich dies sehr viel praktischer.
 
Super... ein neuer Anschluss auf Netzteilseite.

Positiv gestimmt wäre ich gewesen, hätte man die Stromversorgung vom Mainboard zur Karte über den PCI-E Slot (oder einer integrierten zusätzlichen Steckverbindung) optimiert / erweitert, so dass man künftig wieder auf zusätzliche Stecker und Kabel verzichten könnte.

Würde man z.B. den Zusatzstecker auf dem MB hinter dem PCI-E Slot (oder in der Nähe) verlöten und die Karte hätte die Buchse entsprechend nach unten an dieser Stelle, so fände ich dies sehr viel praktischer.
Ich stelle mir das grad echt übel vor hoffe so etwas kommt nie. Nach unten wo die anderen Karten und der Kühler ist ?
 
Noch mehr Stromkosten und noch teurer die Grafikkarte? Ich glaub, ich brauch nen Zweitjob :d
 
Der Roman hat zum Thema GPU Stromversorgung eins ehr Interessantes Video gemacht. die 6 bzw 8 pin Stecker sind Leistungstechnisch noch lange nicht am Limit.

Spezifiaktionen gehen beim schwächsten Bauteil immer vom schlimmsten aus und das auf langzeit. Hier sieht man ein Markennetzteil das weit über den Speccs liegt, nur einen Kurztest und brauchbare Bedingungen.

Deswegen mag ich die meisten 8auer Videos nicht, ist mir zu sehr auf Marketing und Selbstdarstellung ausgelegt.
 
Ich denke das der Roman ein bisschen mehr Ahnung von der Materie hat hals du ;)
 
Ich frage mich langsam, wo das hinführen soll. Da sparen wir uns mit Energiesparlampen und Waschmaschinen/Spülmaschinen (Die jetzt ein deutliches mehr an Zeit benötigen) den Arsch ab, um sie für Games in CPU und GPU´s zu pumpen?! Jetzt darf eine CPU auf einmal 250 Watt verbraten und eine Grafikkarte über 350 Watt. Das ist doch Irrsinn. Ich betreue ja doch einige Leute mit ihren PC´s. Über die Hälfte betreibt Rechner, die mehr als 6 Jahre auf dem Buckel haben und wenn nicht was kaputt geht, steigen die auch nicht um. Früher hat man noch jeder von den besseren Rechnern profitiert, ca. 8% Mehrleistung war spürbar und hat die Leute auch gereizt, sich was neues zuzulegen. Jetzt bleiben als Interessenten für bessere Computer nur noch die Gamer und Video-Schnippsler.
 
Würde man z.B. den Zusatzstecker auf dem MB hinter dem PCI-E Slot (oder in der Nähe) verlöten und die Karte hätte die Buchse entsprechend nach unten an dieser Stelle, so fände ich dies sehr viel praktischer.

So in der Art macht es Apple ja beim Mac Pro und den MPX-Modulen. Hinter dem PCI-Express-Slot sieht man die Steckverbindung für die Spannungsversorgung.

MacPro-Radeon-Pro-Vega-II-Duo-3_7D0D7C2CBFCF40D9B3D7FD1CFF4CE216.jpg

MacPro-Radeon-Pro-Vega-II-Duo-5_D981925D96824015B423F70D187563B9.jpg


Aber das bringt wieder mehr Komplexität und den notwendigen Platzbedarf auf dem Mainboard.
 
Ja dann musst du noch mehr 8PIN CPU Stecker am board anschließen oder wo kommt der strom her ? vom 24 pol?
 
Ich könnte mir als nächsten Schritt 48V wie bei den Servern vorstellen. Macht die Stecker kleiner und die Kabel feiner (flexibler) bei gleicher Leistung.
"wie bei Servern" klingt als wäre das die Regel... ist es aber zumindest für den x86 0815 Stuff nicht. Es gibt Server, die auf 48V NTs bauen - aber intern ist das nichts anders als jetzt auch. Standard 3,3, 5 und 12V. Teils mit genormten, teils mit irgendwelchen proprietären Steckern.

Würde es besser finden die Leistungsaufnahme mit jeder neuen Generation zu verringern, dann bräuchte es auch keine dickeren Stecker. Mit mehr Luft nach oben werden sicher einige bei Nvidia denken, warum viel Geld für effizientere Hardwareentwicklung ausgeben, wenn es ein anderer Anschluss für 10 Cent auch tut?
Die Idee ist gut - praktisch aber nicht umsetzbar. Denn die Leistungsaufnahme steigt ja nicht, weil sie es so wollen - sondern weil die Hardware seit geraumer Zeit schlicht Power limitiert ist. Das heißt, man ist als Hersteller am Limit von dem, was im Rahmen der Herstellungsprozesse realistisch als Effizienz möglich ist. Will man aber mehr Leistung als der Fertigungsprozess drauf bringt - muss die Leistungsaufnahme steigen. Zaubern kann da keiner... ;)
Und dazu kommt, die Fertigungsprozesse werden immer kleiner von den Sprüngen - sie dauern immer länger zwischen den Zyklen und vor allem, sie werden immer teurer und teurer bei den Flächenkosten. Am Ende bedeutet das, 100% Leistungssteigerung, die du vor keine Ahnug 15-20 Jahren alle Nase lang bekommen hast, bekommst du heute realistischerweise irgendwo alle 3-5 Jahre. Und in 15-20 Jahren vllt nichtmal mehr... (ggf. gibts auch andere Technologien bis dahin)
In der Zwischenzeit kompensiert man das mit mehr Leistungsaufnahme. Nur noch gedeckelt durch die Möglichkeit, die Verlustleistung auch abführen zu können (Kühlung). CPUs sind heute bei 180, 250, 280W und teils noch mehr. GPUs sind eigentlich lange bei 250W gewesen im max., zeigen aber auch jetzt Tendenzen zu mehr. Turing mit 270W, Vega mit >300W, Ampere jetzt spekuliert mit 350W usw.

Ich denke das der Roman ein bisschen mehr Ahnung von der Materie hat hals du ;)

Ziemlich dünnes Argument ;)
Mit der Zange Kabel abzuschneiden hat nix mit "Ahnung" zu tun. Es geht dabei um Spezifikationen. Und die sind, wie sie sind... Da kannste Kabel knibsen und feststellen dass das läuft, wie du willst. Spezifikationen sind dafür da um eingehalten zu werden. Weil die verschiedenen Beteiligten sich darauf verlassen.
Vllt etwas übertrieben - aber stell dir nur vor, du fährst mit deinem Wagen mit 250km/h über die BAB und dir fliegen die Reifen weg - weil der Hersteller meint, in irgend nem YT Video hat mal wer gesagt, man braucht da keine Spezifikationen einhalten, weil für 5min Test tut auch das 80km/h Notrad bei 200+... Und dann kommt der Aufschrei, wie das denn sein konnte...

Sollte eine GeForce RTX 3080 Ti tatsächlich auf eine TDP von 350 W kommen, könnte NVIDIA laut PCI-Express-Spezifikation nicht mehr auf 2x 8-Pin zurückgreifen, da man sich hier außerhalb der Spezifikationen bewegen würde. Ein neuer 12-Pin-Stecker könnte also Abhilfe schaffen.
Kannst du das näher erläutern?
75W über den PCIe Slot (wobei davon ein Teil nicht aus 12V kommt, wenn mich nicht alles täuscht - es waren glaube ich um die ~66W?) zzgl. 2x150W über 12V von den beiden PCIe Stromsteckern würde rechnerisch passen.
Die Frage ist eher, welcher Teil der Spannungsversorung ist wie gespeißt? Wenn das alles zusammen an den PCIe Stromsteckern hängt, und quasi keine Belastung über den PCIe Slot kommt - geht natürlich nicht auf. Die FE bzw. Ref. Karten haben das doch aber bis dato so nicht gehabt?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh