Weniger ist manchmal mehr: GeForce RTX 3080 im Undervolting-Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.870
ampere-undervolting.jpg
Eine Erkenntnis der bisherigen Tests der neuen GeForce-RTX-30-Karten lautet: Sie werden am Limit und manchmal auch darüber hinaus betrieben. Das Effizienz-Fenster hat NVIDIA weitestgehend nach oben ausgereizt. Umso beeindruckender waren die bisherigen Ergebnisse das Power-Limit der Karten zu reduzieren. Allerdings ist diese Lösung nicht gerade besonders elegant. Daher haben wir uns das Undervolting über die Takt-/Spannungskurve angeschaut.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schöner Test! :)

Ich denke ihr habt mit 0.85V so ziemlich den Sweet-Spot aus Leistung und Leistungsaufnahme gefunden. Wenn der Speicher dadurch auch noch ein paar Grad an Abwärme verliert, umso besser.
 
0,85 V1.935 MHz


ist ein verdammt guter Wert, sind die 1935 Mhz denn konstant durch die Bank durch?
 
Ist wohl Ansichtssache. 5 - 10 % weniger Mittelwert-/Minimum-Bildrate für 19 % weniger Stromverbrauch.
Nur sind es meist mehr hin zu 10 % als 5 %.
Würde ich persönlich dennoch ganz gut finden, wären da nicht die Minimum-Fps Ausreißer von +15 % weniger Minimum-Fps unter BF5, Death Stranding und Tomb Raider.

Die gpu-Temperatur mit 0.85 V Spannung ist 2 °C niedriger als mit 0,8 V?
Wie hoch war denn nochmal die max. gpu-Taktrate dieses nicht besonders guten Musters, wenn andere 2150 MHz erreicht haben?
 
ist ein verdammt guter Wert, sind die 1935 Mhz denn konstant durch die Bank durch?

Ja, er geht mal hier und da auf 1.920 MHz, aber 1.935 MHz sind so der Standardwert gewesen.

Die gpu-Temperatur mit 0.85 V Spannung ist 2 °C niedriger als mit 0,8 V?
Wie hoch war denn nochmal die max. gpu-Taktrate dieses nicht besonders guten Musters, wenn andere 2150 MHz erreicht haben?

Sorry, da waren die Werte vertauscht. Es sind 67 °C bei 0,8 V und 69 °C bei 0,85 V. Also in Spitzen sehe ich 2.025 MHz bei dem Sample.
 
Leider gibt es ja noch nicht viel Beiträge zum Undervolting der Karten.
Vllt. kommt da noch was zum Undervolting https://www.hardwareluxx.de/communi...3090-overclocking-und-modding-thread.1277791/

Wäre halt gut zu wissen um wie viel langsamer ein gutes Sample was um die 2100 MHz schafft abschneidet.
Sowas geht halt nur in kontrollierten Testbedingungen wie z.B. deinen.

Warum fällt denn vor allem die Minimum-Bildrate so stark ab? Bei der Hälfte der Spiele ist es das sogar das 3 - 4-fache.
 
Das passiert ja auch beim Absenken des Power-Limits in der Form. Warum das so ist, darüber habe ich mir noch gar keine Gedanken gemacht.
 
Die Spiele laufen ja alle - bis auf Doom Eternal - üblicherweise nicht ins Stromlimit.
Bei Doom gibt es deshalb sogar mehr FPS.

Kann es sein dass ohne undervolting, also wenn sich die Karte 330 W genehmigt, es einfach x Szenen gibt wo für Millisekunden die GPU-Auslastung halt so stark ansteigt, sich die GPU dann kurze Spikes von über 450 W genehmigt, und somit dann die Minimum-Fps in diesen Szenen deutlich besser ist?

Diese Verbrauchs-Spikes fallen mit undervolting dann halt weg, und somit sinken die min.fps?
Sinken auch die Spikes um 50 - 80 W oder mehr?
Du hast als Tester doch das nvidia PCAT Toolkit erhalten. Hast du dieses noch und könntest da in der nächsten Zeit mal testen?
Auch Igor hat da noch nicht mit undervolting getestet.
 
Wie schräg ist das denn? Bei AMD wurde damals gemeckert das man die Vcore runterschauben musste und hier wird es gefeiert bei NV......
Diese 3000er Karten sind echt ein Witz und wenn es sich jetzt noch schön geredet wird ist das noch schlimmer
 
Das passiert ja auch beim Absenken des Power-Limits in der Form. Warum das so ist, darüber habe ich mir noch gar keine Gedanken gemacht.
Kleiner Einwurf aus den Erfahrungswerten bei der Vega (evtl. übertragbar?)

Dort habe ich die Spannungen reduziert, aber das PL auf max gesetzt - so dass die Karte regeln konnte, wie sie wollte. Der Verbrauch ist primär durch die Absenkung der Spannungen runtergegangen, aber das PL hab ich bis zum Ende auf max gelassen, damit da nix künstlich deckelt. Evtl. haut das die 1% low nach unten?

Wie schräg ist das denn? Bei AMD wurde damals gemeckert das man die Vcore runterschauben musste und hier wird es gefeiert bei NV......
Diese 3000er Karten sind echt ein Witz und wenn es sich jetzt noch schön geredet wird ist das noch schlimmer
Ich sehe den Test hier eher aus Schraubersicht und nicht aus AMD vs Nvidia Sicht. Du wirst - wenn man sowas bei AMD machen würde - aber leider bestätigt werden. Bei der Vega war das Tuning eine "schlimme Sache". Da hilft halt nur Augen offen halten und sich nicht die Ecke aus dem Apfel beißen lassen.
 
Diese Verbrauchs-Spikes fallen mit undervolting dann halt weg, und somit sinken die min.fps?
Sinken auch die Spikes um 50 - 80 W oder mehr?
Du hast als Tester doch das nvidia PCAT Toolkit erhalten. Hast du dieses noch und könntest da in der nächsten Zeit mal testen?

Wir haben das PCAT-Kit leider (noch) nicht erhalten. Wir sind da aber mit NVIDIA dran.

Wie schräg ist das denn? Bei AMD wurde damals gemeckert das man die Vcore runterschauben musste und hier wird es gefeiert bei NV......
Diese 3000er Karten sind echt ein Witz und wenn es sich jetzt noch schön geredet wird ist das noch schlimmer

Ich denke wir haben den hohen Verbrauch und Betrieb der GPU an der Obergrenze des Sinnvollen und Machbaren mehr als ausreichend angemerkt.

Kleiner einwurf aus den Erfahrungswerten bei der Vega (evtl. übertragbar?)

Dort habe ich die Spannungen reduziert, aber das PL auf max gesetzt - so dass die Karte regeln konnte, wie sie wollte. Der Verbrauch ist primär durch die Absenkung der Spannungen runtergegangen, aber das PL hab ich bis zum Ende auf max gelassen, damit da nix künstlich deckelt. Evtl. haut das die 1% low nach unten?

Das kannst du hier auch so machen und haben wir auch getan, einfach um nicht in ein Limit zu laufen. Per GPU-Z haben sieht man ja sehr schön, was gerade der limitierende Faktor ist.
 
sieht doch so nach einer vernünftigen lösung aus. kaum leistungsverlust, verbraucht deutlich weniger strom und wird weniger warm.
vielleicht so wie sie ohne "kotzgrenzen" maximierung gekommen wäre.
 
Ich sehe keine Kotzgrenze, speziell die TUF RTX 3080 scheint gut anzukommen und bietet noch Luft nach oben. Undervolten macht hin und wieder tatsächlich für einige Chips Sinn, da auch der GPU-Boost Stufen hat bzw. feste Mhz Werte. Da kann der Fuchs etwas an Effizienz rausquetschen für seine Karte.

Die Spiele laufen ja alle - bis auf Doom Eternal - üblicherweise nicht ins Stromlimit.
Bei Doom gibt es deshalb sogar mehr FPS.

Kann es sein dass ohne undervolting, also wenn sich die Karte 330 W genehmigt, es einfach x Szenen gibt wo für Millisekunden die GPU-Auslastung halt so stark ansteigt, sich die GPU dann kurze Spikes von über 450 W genehmigt, und somit dann die Minimum-Fps in diesen Szenen deutlich besser ist?

Diese Verbrauchs-Spikes fallen mit undervolting dann halt weg, und somit sinken die min.fps?
Sinken auch die Spikes um 50 - 80 W oder mehr?
Du hast als Tester doch das nvidia PCAT Toolkit erhalten. Hast du dieses noch und könntest da in der nächsten Zeit mal testen?
Auch Igor hat da noch nicht mit undervolting getestet.
Doom Eternal stresst einfach brutal denke ich, glaube schon das die Karte kurzzeitig dann ihr Limit deutlich verlässt, sieht man ja in etlichen Videos. Die Watt Werte sind aber alles durchschnittliche Sensor Reads die hochgerechnet sind von der Telemetrie.
 
Ist doch eine gute Lösung für Benutzer, die aufzeigt wie man dem Verbrauchsmonster Einhalt gebietet :haha:
Von daher sehe ich hier nichts zu meckern, im Gegenteil.
Als erfahrener Benutzer macht man dies natürlich schon viele Jahre.

Vergleich vorheriger und neuer 465.xx Treiber hat Igor den neuen Treiber auch getestet, und kommt auf gleiche Ergebnisse von ~ 1 % weniger Durschnitt-Fps.
Jedenfalls schreibt er von Senkung der Verbrauchsspitzen von 50 - 70 W.
Ich vermute mal mit Undervolting sind es weit über 100 W weniger. Vllt. erklärt dies die deutlich geringere Minimum-Bildrate,

Jedenfalls sieht es so aus als wüssten die Beschäftigten bei nvidia, warum sie den Vebrauch so hochprügeln.
Andere Tester testen nur halbherzig und schreiben dann von nur +5 % Durschnitt-FPS.
Wir wissen es nun besser warum und weshalb :bigok:
 
Schöner Test!
Allerdings nichts wirklich neues das geht bereits seit Pascal und habe ich damals mit meiner 1080 ti genutzt. Nutze ich momentan auch mit meiner RTX 2080 ti wo ich mit 0,9 Volt 1920 MHz stabil seit über einem Jahr betreibe. Wie im Artikel geschrieben habe ich dann wohl den Jackpot mit der Karte denn Stock läuft die Karte sogar mit 13 megahertz weniger bei deutlich höherer Spannung.

Bin daher ein absoluter Fan von undervolting!
 
Danke für diesen tollen Test. Eigentlich schafft man fast mit jeder Karte gute Undervolting Ergebnisse und Strom sparen ist doch immer gut.
 
Seit Jahren gehören OC-Testergebnisse zum Test einer GPU bzw. Eines spezifischen Modells dazu. Ich wünsche mir, dass zumindest in GPU-Test UV-Test zum Standard gemacht werden. Da dürften es anstatt 12 getestete Games dann nur 10 sein. UV egalisiert so manche Kühlerkomstruktion, die an die auf Kante genäht wurde, weshalb ich mich bewusst für eine der günstigsten 3080 entschieden ob habe (nur geliefert werden müsste sie noch).
 
Die Leistungsaufnahme ist zu viel für 0.8mV. Unglaublich wie man sich so feiern kann, für die lacherlich hohe Leistungsaufnahme. Bei Pascal ging man damit auf 120-130W runter (1080), meine 2070 hat mit 0.85mV 130W aufgenommen und meine 2080 Ti 160W mit 0.8mV.

Da kann sich Nvidia die Karte schön in den Ofen schieben 👍🏼
 
Ziemlicher Käse den du vorrechnest, was sollte an 0.8mV bedenklich sein. Am Ende stehen an Tag 1 bei der 3080 25% Effizienter pro Frame bei 270W als eine 2080ti, und fast doppelt so schnell wie ne Radeon 7 und ne 2070, ohne DLSS und so Späße deutlich besserer Kauf als High-End Turing. Die 3090 soll sogar noch besser skalieren da sie nicht so hohen GPU-Clock fahren muss.
 
Wie schräg ist das denn? Bei AMD wurde damals gemeckert das man die Vcore runterschauben musste und hier wird es gefeiert bei NV......
Diese 3000er Karten sind echt ein Witz und wenn es sich jetzt noch schön geredet wird ist das noch schlimmer
Hier wird's gefeiert, weil die 3000er trotz Undervoltings noch deutlich schneller sind als Alles was AMD gerade zu bieten hat..
Bei AMD und den diversen Fails von Vega bis hin zu Radeon VII usw war es umgekehrt.. man musste sie tunen um den Abstand nach oben halbwegs zu verkürzen..
Hoher Stromverbrauch ist zwar störend, aber sekundär: Fast Jeder nimmt ihn gerne in Kauf, wenn man dafür auch ordentliche Leistung bekommt.

Die Idee man es sei doch wirtschaftlicher das HighEnd-Segment gar nicht mehr bedienen hat AMD nur erreicht, dass sie dort wo sie mal stark waren, nämlich beim guten P/L, irrelevant geworden sind, weil man mit zu gering gesteckten Zielen offensichtlich immer zwei Generationen hinterherhinkt.

Die RTX 3080 (ca. 330Watt) braucht circa 50% mehr Energie als die RX 5700XT (ca 222Watt), ist dabei aber fast um 80% schneller. Deine deutlich höhere Effizienz schon Stock, also.

So scheiße ich das nvidia Quasimononpol auch finde: Sie sind gerade nahezu völlig konkurrenzlos.
 
Zuletzt bearbeitet:
Wow. Schon schräg dass NV für die paar Prozent Leistung, extra diese neue Stromverbrauchsklasse, den neuen Anschluss usw. eingeführt hat.
Langsam glaube ich auch daran dass sie AMD fürchten, denn die Karte wäre als Efizienzkracher mit "massig" OC Potential mindestens genau so gefeiert/gehypt worden, hätten sie sie "undervoltet" rausgebracht.
 
Wow. Schon schräg dass NV für die paar Prozent Leistung

genau das denk ich auch - karte mal wieder zu sehr an die spitze getrieben, für was, n paar fps, umgekehrt, ne kältere karte, lebt länger, mehr zufriedene kunden, weniger retour, lebt länger, weniger stromverbrauch.

Warum nicht gleich so, nvidia kann ja imemrnoch in 6 monaten dann die neue "power" karte rausbringen wo sie das alles n bisshcne pushen, besser unter kontrolle haben...nicht das das eh passieren wird
 
Hier wird's gefeiert, weil die 3000er trotz Undervoltings noch deutlich schneller sind als Alles was AMD gerade zu bieten hat..
Ach hör doch endlich auf mit diesem peinlichen Kindergarten. Wenn du die 3 Affen spielen willst, bewirbt dich im Theater. RDNA2 steht vor der Tür und weil AMD das Teil nicht rusht wie Nvidia kommt ein "AMD hat derzeit nix". Würde AMD es rushen wie Nvidia hätten sie jetzt die gleiche Grütze wie beim Vega-Launch.

Bei AMD und den diversen Fails von Vega bis hin zu Radeon VII usw war es umgekehrt.. man musste sie tunen um den Abstand nach oben halbwegs zu verkürzen..
Richtig, genau deswegen nehmen sie sich jetzt Zeit damit diese Grütze eben nicht passiert. *auf die Klingel drückt* Hörst du sie?

Hoher Stromverbrauch ist zwar störend, aber sekundär: Fast Jeder nimmt ihn gerne in Kauf, wenn man dafür auch ordentliche Leistung bekommt.
Hallo liebe Mini-PC Enthusiasten - möchte einer von euch das kommentieren?

Die Idee man es sei doch wirtschaftlicher das HighEnd-Segment gar nicht mehr bedienen hat AMD nur erreicht, dass sie dort wo sie mal stark waren, nämlich beim guten P/L, irrelevant geworden sind, weil man mit zu gering gesteckten Zielen offensichtlich immer zwei Generationen hinterherhinkt.
Auch totaler Quatsch, weil Navi10 praktisch die gleiche Effizienz wie Turing hatte. Und was high-end angeht, kam AMD mit der bis zur 2070S. Die kostete >500€ und liegt damit über dem, was average joe bereit ist auszugeben und du redest hier von "Aber ist nur Mittelklasse". Es ist viel mehr das, was der Großteil der Kunden maximal bereit ist auszugeben. Dort hat AMD den Fokus hingelegt und entsprechend hat sich Navi auch gut verkauft. Was der einzelne Forenenthusiast möchte, muss auch finanziell rentabel sein. Kurz: Wenn AMD was dickes rausbringt und mit Nvidia mithalten kann, muss es auch gekauft werden. Ansonsten wird Big Navi die erste, einzige und letzte High End Lösung von AMD seit der 290X gewesen sein und die ganzen Unkenrufe auf Reddit - denen sie dieses Mal Tribut gezollt haben - für immer ignorieren.

Die RTX 3080 (ca. 330Watt) braucht circa 50% mehr Energie als die RX 5700XT (ca 222Watt), ist dabei aber fast um 80% schneller. Deine deutlich höhere Effizienz schon Stock, also.
Aha:
https://www.phoronix.com/scan.php?page=article&item=linux-pre-ampere&num=1
Die 2080 ist im Durchschnitt nur 10% schneller als die 5700XT und verbraucht 50% mehr. Und das, obwohl die 5700XT schon weit hinter dem Sweet-Spot getreten worden ist. Bei 3 Titeln erreicht sie sogar Parität zur 2080.
 
Zuletzt bearbeitet:
Seit Jahren gehören OC-Testergebnisse zum Test einer GPU bzw. Eines spezifischen Modells dazu. Ich wünsche mir, dass zumindest in GPU-Test UV-Test zum Standard gemacht werden. Da dürften es anstatt 12 getestete Games dann nur 10 sein. UV egalisiert so manche Kühlerkomstruktion, die an die auf Kante genäht wurde, weshalb ich mich bewusst für eine der günstigsten 3080 entschieden ob habe (nur geliefert werden müsste sie noch).

Solche Tests können wir nicht mit jeder Karte machen. Das grundsätzliche Potential aber werden wir mit jeder neuen Generation ausloten. So haben wir das für Vega getan, Vega 20, Navi, aber ebenso für Turing und nun Ampere.
 
Danke, für den Test! UV+ OC ist seit Pascal das Mittel der Wahl

Mit der von Euch gewählten Methode die Kurve zu gestalten und UV zubetreiben, verliert Ihr Leistung bei gleichen MHz.

Eure Kurve fällt vor dem gewählten Punkt viel zu stark ab.
(Schätzung ca. 2-3 Mhz Stufen, bei Pascal damals hatte ich sogar 8% gemessen, seither habe ich keine Messung mehr gemacht)


Schritte in Kurzfassung:
1. Wunsch Mhz eingeben (Am besten Heaven im Hintergrund auf Wunschtemperatur vorwärmen)
2. Wunsch Spannungspunkt heraussuchen
3. Alle Punkte hinter dem Wunschpunkt nach unten ziehen
4. Auf Apply drücken
5. !!!! NIEMALS den Wunschspannungspunkt oder einen davor verschieben !!!!
Gerne könnt Ihr dies selber nachmessen! Die vermeintliche 1850 Mhz Leistung ist nicht gleich die 1850 Mhz Leistung.

Ich denke dass sich einige Fragen, warum Sie mit Curve Punkte/Leistung verlieren obwohl die Mhz gleich sind?!

Damals hatten Webmi und ich das in Divison 1 und einer GTX 1080 ausgiebig getestet und die o.g. Erklärung Lösung gefunden.
Webmi hat hierzu damals auch noch ein Video mit der 1080 aufgenommen. Gleiches Prinzip wie bei Turing oder Ampere. Leider habe ich aktuell keine 3080 mehr im Rechner, sonst würde ich ein Video machen.


Gerne @rv112 fragen, wir sind die Methode anhand seiner 3080 FE durchgegangen. Er kann Screenshots senden
 
Ich kann das bestätigen. Ich hatte zuvor einfach immer den gewünschten Spannungspunkt auf die gewünschte Frequenz hoch gezogen, alles dahinter was höher lag runter gezogen und dann Apply gedrückt. @CompuChecker hat mir dann den Tipp gegeben, erst einen Offset einzustellen, bis Spannung/Takt auf gewünschtem Punkt zusammentreffen und dann alles dahinter runter zu ziehen.
Dadurch habe ich in 3D Mark noch mal mehr Punkte erhalten, bei gleicher Frequenz und Spannung. Da Boost ja extrem schnell hin und her taktet, liegt der Verdacht nahe, dass hier die Auswirkung der etwas flacher abfallenden Taktkurve sich positiv im Ergebnis bemerkbar macht.

Ich lasse meine FE aktuell so laufen, auch wenn ich sicher noch ein paar Spannungspunkte runter könnte. Aktuell fehlt mir da aber einfach die Zeit zu, das auf Stabilität zu testen.

Unbenannt.PNG
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh