Weniger ist manchmal mehr: GeForce RTX 3080 im Undervolting-Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich kann das bestätigen. Ich hatte zuvor einfach immer den gewünschten Spannungspunkt auf die gewünschte Frequenz hoch gezogen, alles dahinter was höher lag runter gezogen und dann Apply gedrückt. @CompuChecker hat mir dann den Tipp gegeben, erst einen Offset einzustellen, bis Spannung/Takt auf gewünschtem Punkt zusammentreffen und dann alles dahinter runter zu ziehen.
Dadurch habe ich in 3D Mark noch mal mehr Punkte erhalten, bei gleicher Frequenz und Spannung. Da Boost ja extrem schnell hin und her taktet, liegt der Verdacht nahe, dass hier die Auswirkung der etwas flacher abfallenden Taktkurve sich positiv im Ergebnis bemerkbar macht.

Ich lasse meine FE aktuell so laufen, auch wenn ich sicher noch ein paar Spannungspunkte runter könnte. Aktuell fehlt mir da aber einfach die Zeit zu, das auf Stabilität zu testen.

Anhang anzeigen 535700
Welchen Punkt hast du genau genommen?
 
Ich kann das bestätigen. Ich hatte zuvor einfach immer den gewünschten Spannungspunkt auf die gewünschte Frequenz hoch gezogen, alles dahinter was höher lag runter gezogen und dann Apply gedrückt. @CompuChecker hat mir dann den Tipp gegeben, erst einen Offset einzustellen, bis Spannung/Takt auf gewünschtem Punkt zusammentreffen und dann alles dahinter runter zu ziehen

Sorry, nochmal für Langsam-Checker wie mich: du hast erst den Kerntakt erhöht (dabei bereits das Powerlimit erhöht?) und anschließend erst das UV durchgeführt?
 
Hier wird's gefeiert, weil die 3000er trotz Undervoltings noch deutlich schneller sind als Alles was AMD gerade zu bieten hat..
Bei AMD und den diversen Fails von Vega bis hin zu Radeon VII usw war es umgekehrt.. man musste sie tunen um den Abstand nach oben halbwegs zu verkürzen..
Hoher Stromverbrauch ist zwar störend, aber sekundär: Fast Jeder nimmt ihn gerne in Kauf, wenn man dafür auch ordentliche Leistung bekommt.

Die Idee man es sei doch wirtschaftlicher das HighEnd-Segment gar nicht mehr bedienen hat AMD nur erreicht, dass sie dort wo sie mal stark waren, nämlich beim guten P/L, irrelevant geworden sind, weil man mit zu gering gesteckten Zielen offensichtlich immer zwei Generationen hinterherhinkt.

Die RTX 3080 (ca. 330Watt) braucht circa 50% mehr Energie als die RX 5700XT (ca 222Watt), ist dabei aber fast um 80% schneller. Deine deutlich höhere Effizienz schon Stock, also.

So scheiße ich das nvidia Quasimononpol auch finde: Sie sind gerade nahezu völlig konkurrenzlos.

Ups, habe ganz vergessen das AMD ja gar keine High End Karte hat oder bist du das jetzt? Als es bei AMD darum ging das die Vcore überdurchschnittlich zu hoch war und man UV machen sollte, hieß es
"Was für ein Schei** produkt" bei NV wird es gerade gehypt, das man ja UV machen kann. Darum geht es. Wenn du eine 5700xt mit einer 3080 vergleichst ist das echt schräg.
Mid Range vs High End, das die 3080 deutlich mehr Leistung hat sollte also klar sein.
 
Wie schräg ist das denn? Bei AMD wurde damals gemeckert das man die Vcore runterschauben musste und hier wird es gefeiert bei NV......
Diese 3000er Karten sind echt ein Witz und wenn es sich jetzt noch schön geredet wird ist das noch schlimmer
Vielleicht kannst du mir mal erklären was deine Kritik an Ampere ist?

Ampere:
-schnellste GPU
-effizienteste GPU
-ähnliches P/L Verhältnis wie ne 5700XT
-220W Version und auch weiter darunter werden folgen (wayne wenn man über die Architektur spricht?)
-wie jede GPU kann man auch Ampere undervolten (wayne?)

Wie heftig muss die AMD Brille sein, um hier irgendwas (was denn genau ist noch mal dein Problem?) aussetzen zu wollen?

Da muss sich niemand mehr wundern dass AMDler nicht für voll genommen werden können.
 
Ach hör doch endlich auf mit diesem peinlichen Kindergarten. Wenn du die 3 Affen spielen willst, bewirbt dich im Theater. RDNA2 steht vor der Tür und weil AMD das Teil nicht rusht wie Nvidia kommt ein "AMD hat derzeit nix". Würde AMD es rushen wie Nvidia hätten sie jetzt die gleiche Grütze wie beim Vega-Launch.


Richtig, genau deswegen nehmen sie sich jetzt Zeit damit diese Grütze eben nicht passiert. *auf die Klingel drückt* Hörst du sie?


Hallo liebe Mini-PC Enthusiasten - möchte einer von euch das kommentieren?


Auch totaler Quatsch, weil Navi10 praktisch die gleiche Effizienz wie Turing hatte. Und was high-end angeht, kam AMD mit der bis zur 2070S. Die kostete >500€ und liegt damit über dem, was average joe bereit ist auszugeben und du redest hier von "Aber ist nur Mittelklasse". Es ist viel mehr das, was der Großteil der Kunden maximal bereit ist auszugeben. Dort hat AMD den Fokus hingelegt und entsprechend hat sich Navi auch gut verkauft. Was der einzelne Forenenthusiast möchte, muss auch finanziell rentabel sein. Kurz: Wenn AMD was dickes rausbringt und mit Nvidia mithalten kann, muss es auch gekauft werden. Ansonsten wird Big Navi die erste, einzige und letzte High End Lösung von AMD seit der 290X gewesen sein und die ganzen Unkenrufe auf Reddit - denen sie dieses Mal Tribut gezollt haben - für immer ignorieren.


Aha:
https://www.phoronix.com/scan.php?page=article&item=linux-pre-ampere&num=1
Die 2080 ist im Durchschnitt nur 10% schneller als die 5700XT und verbraucht 50% mehr. Und das, obwohl die 5700XT schon weit hinter dem Sweet-Spot getreten worden ist. Bei 3 Titeln erreicht sie sogar Parität zur 2080.
Auch wenn ich Michael's Reviews sehr schätze, sind die gerade im Gaming nicht angebracht, weil,...wieviele Leute spielen nochmal unter Linux ?
Von diesen Leuten die unter Linux spielen, wieviele kompilieren sich da nochmal immer den aktuellsten Kernel selbst ?
Und wo liest du da bitte die Effizienz raus ?
 
Ich glaube es sind real eher 20 % zur 5700 XT, wobei auch das nicht so viel ist. In manchen Spielen kommt sie tatsächlich an die 2080S heran: BF V zum Beispiel. Die XT ist nicht schlecht, der Knackpunkt bei ihr ist aber der Preis: Kostete die Hälfte für fast die gleiche Leistung und sie kam sogar nahe an die gute alte 1080 Ti heran. Darum hatte ich die Karte auch als günstigen Übergang. Der Werterhalt war super und ich konnte derweil ein nagelneues Spielzeug bespielen, so eine Sapphire Nitro wollte ich nämlich schon ewig mal haben. Danke AMD dafür, aber jetzt bitte in groß. Dann kann die Karte auch gern mal zwei oder drei Jahre in meinem PC verweilen.
 
Ups, habe ganz vergessen das AMD ja gar keine High End Karte hat oder bist du das jetzt? Als es bei AMD darum ging das die Vcore überdurchschnittlich zu hoch war und man UV machen sollte, hieß es
"Was für ein Schei** produkt" bei NV wird es gerade gehypt, das man ja UV machen kann. Darum geht es. Wenn du eine 5700xt mit einer 3080 vergleichst ist das echt schräg.
Mid Range vs High End, das die 3080 deutlich mehr Leistung hat sollte also klar sein.

Den Vergleich hast du selbst initiiert :rolleyes2:
Und, ja: Es gibt triftige Gründe, aus denen sich die 5700XT (egal wie an sie klassifizieren möchte) dem Vergleich zu einer RTX 3080 stellen muss. Nämlich vor Allem, dass die 5700 als deutlich schwächere Karte eine wesentlich schlechtere Effizienz hat, was einfach niemals passieren darf, da die Verhältnisse auf Grund physikalischer Gesetze grundsätzlich zu Ungunsten von HighEnd-Hardware gesetzt sind, was bei bisheriger Hardware, abseits vielleicht von den wenigen bekannten großen Fails, auch immer der Fall war.

Du hast nach einer Erklärung gefragt, weshalb das Undervolting bei der 3080 als willkommener Bonus betrachtet wird und bei den vergangenen AMD-GPUs als hilflose Makulatur..
Weil der Ausgangspunkt ein ganz Anderer ist.
 
Zuletzt bearbeitet:
0,85 V1.935 MHz69 °C277,2 W


@Don

Ich habe mal versucht die Werte mit meiner Karte zu reproduzieren, es ist einfach nicht möglich.

Mit 850mV und 1920Mhz Kurve bin ich im Spiel "Control" durchgehend oberhalb von 95% vom Powerlimit Verbrauch 310-320W. Hat zur Folge dass die Karte hin und wieder runtertakten muss...

Edit: Screenshot eingefügt:

 
Zuletzt bearbeitet:
VGA's, CPUs..
Die Hersteller sind mittlerweile allesamt recht auf Kante. Egal ob neueste Intel oder AMD Prozessoren oder Grafikkarten.
Ja, wobei das unterm Strich auch gut so ist. So haben alle Leute die bestmögliche Leistung und nicht nur die Übertakter. Klar, wenn man OC als Hobby betrachtet ist es natürlich doof :(

Undervolting bedeutet das Verlassen der Herstellerspezifikationen, d.h. weniger Spannung als vorgesehen (wie der Name schon sagt...).
Inwiefern beantwortet das seine Frage? Das selbe gilt ja auch für "Werks OC" der Partner. Theoretisch könnte ein Hersteller also auch die Spannungskurve so anpassen.
Das könnte ja tatsächlich eine lukrative Nische sein: 3080 Eco eddition die damit wirbt dass man kein neues Netzteil braucht :d
 
Vielleicht kannst du mir mal erklären was deine Kritik an Ampere ist?

Ampere:
-schnellste GPU
-effizienteste GPU
-ähnliches P/L Verhältnis wie ne 5700XT
-220W Version und auch weiter darunter werden folgen (wayne wenn man über die Architektur spricht?)
-wie jede GPU kann man auch Ampere undervolten (wayne?)

Wie heftig muss die AMD Brille sein, um hier irgendwas (was denn genau ist noch mal dein Problem?) aussetzen zu wollen?

Da muss sich niemand mehr wundern dass AMDler nicht für voll genommen werden können.
Brille? Schaue mal was ich für eine Karte im Rechner habe und dann noch mal von vorne :)
Ich beziehe mich auf die NV Jünger von damals. Dort meckern und jetzt oh Super.

Das finde ich schräg. Wenn man durch UV etwas erreicht ist das für mich völlig i.O. aber dann bitte fair und nicht auf den einen rumhacken und beim andern streicheln.
 
Zuletzt bearbeitet:
PaulPanzer hat im Prinzip schon Recht. Denke allerdings das wurde bei AMD vorallem bemängelt weil trotz der hohen Spannung, die Leistung der Karten eher enttäuscht hatte (und mit UV konnte man immerhin die Leistung pro Watt retten). Ampere hat dagegen schon die erwartete/gehypte Leistung geliefert und es ist jetzt halt ein Bonus dass dies auch mit geringerem Verbrauch nahezu erreichbar ist.

Wobei man schon noch sehen muss wie reproduzierbar Don's Ergebnisse sind. Nicht dass die Redaktion zufällig (oder auch nicht zufällig) einen chip besonders hoher Güte erhalten hat.
 
Den Vergleich hast du selbst initiiert :rolleyes2:
Und, ja: Es gibt triftige Gründe, aus denen sich die 5700XT (egal wie an sie klassifizieren möchte) dem Vergleich zu einer RTX 3080 stellen muss. Nämlich vor Allem, dass die 5700 als deutlich schwächere Karte eine wesentlich schlechtere Effizienz hat, was einfach niemals passieren darf, da die Verhältnisse auf Grund physikalischer Gesetze grundsätzlich zu Ungunsten von HighEnd-Hardware gesetzt sind, was bei bisheriger Hardware, abseits vielleicht von den wenigen bekannten großen Fails, auch immer der Fall war.

Du hast nach einer Erklärung gefragt, weshalb das Undervolting bei der 3080 als willkommener Bonus betrachtet wird und bei den vergangenen AMD-GPUs als hilflose Makulatur..
Weil der Ausgangspunkt ein ganz Anderer ist.
Jetzt musst du mich abholen. Der Ausgangspunkt ist doch der gleiche, beide haben zu viel Vcore im Bios gespeichert weil die Chips zu unterschiedlich sind und das kann mit Feintuning verbessern.
Sonst war es wichtig was sie Max leistet und nun gerade was sie noch leisten kann mit weniger Vcore.
Ich muss diesmal echt sagen, NV hat diesmal genauso ins Klo gegriffen wie vorher AMD.
Beitrag automatisch zusammengeführt:

PaulPanzer hat im Prinzip schon Recht. Denke allerdings das wurde bei AMD vorallem bemängelt weil trotz der hohen Spannung, die Leistung der Karten eher enttäuscht hatte (und mit UV konnte man immerhin die Leistung pro Watt retten). Ampere hat dagegen schon die erwartete/gehypte Leistung geliefert und es ist jetzt halt ein Bonus dass dies auch mit geringerem Verbrauch nahezu erreichbar ist.

Wobei man schon noch sehen muss wie reproduzierbar Don's Ergebnisse sind. Nicht dass die Redaktion zufällig (oder auch nicht zufällig) einen chip besonders hoher Güte erhalten hat.
+1

Denke aber das der Hype von AMD damals dran Schuld war oder die Gerüchte, weil die 56er hat schon ordentlich geliefert aber halt nur mit UV weil sie dann kühler blieb.
Jetzt muss man bei NV die Vcore runtersetzen um nicht zu Starke Stromspitzen zu haben, die Leistung bleibt gleich das ist super aber der beigeschmack eines halb garren Produktes bleibt.
 
Sonst war es wichtig was sie Max leistet und nun gerade was sie noch leisten kann mit weniger Vcore.
Ich muss diesmal echt sagen, NV hat diesmal genauso ins Klo gegriffen wie vorher AMD.
Naja, es ist jetzt nicht so dass man durch das UV von Ampere in solchen Maßen dass der Stromverbrauch signifikant sinkt, garkeine Leistung verliert.
Denke daher NV hat dies sehr bewusst gemacht um das Maximum aus dem Chip zu holen.
Die große Frage ist nun warum?
Weil sie fürchten AMD kommt sonst zu nah ran? Oder weil sie sich stärker von ihrer eigenen Vorgängergeneration mussten um die Kunden die große Sprünge mit jeder Generation erwarten, nicht (wieder) zu enttäuschen?
 
Auch wenn ich Michael's Reviews sehr schätze, sind die gerade im Gaming nicht angebracht, weil,...wieviele Leute spielen nochmal unter Linux ?
Von diesen Leuten die unter Linux spielen, wieviele kompilieren sich da nochmal immer den aktuellsten Kernel selbst ?
Und wo liest du da bitte die Effizienz raus ?
Na ja, ICH zocke unter Linux - von daher sind diese Zahlen durchaus für mich interessant. Und entsprechend beeinflusst das natürlich auch meine Sichtweise auf die Bewertung von Performance und Preis. Aber auch unter Windows steht die 5700XT besser da als die behaupteten "80% schneller" einer 2080. ;)

Effizienz haben wir ja schon mal besprochen - welche durch undervolting bzw. Treten einer Karte in den roten Bereich mal eben um +/-40% schwanken kann. Wenn ich die Karten aber unter ihrer Stock-Konfig betrachte, dann hat die 5700XT eine Leistungaufnahme von 219W - die 2070S eine von 211W und beide liegen (unter Windows) auf gleichem Niveau, was ihre Performance angeht. Sieht für mich so ziemlich nach der gleichen Effizienz aus.

Ich glaube es sind real eher 20 % zur 5700 XT
Yo, unter Windows. Linux packt da nochmal 10% Leistung auf AMD Karten für lau oben drauf. Da kann man sich dann entscheiden: 10% gratis Performance oben drauf (das ist mehr als von der 3080 als zur 3090 und das ist den Leuten nochmal wie viel wert?) oder man bleibt bei seinem "bekannten System" und verzichtet auf die Performance. Und bevor hier jemand mit "Unter Linux laufen keine Spiele" kommt: Wir haben 2020, nicht 1998.
 
Zuletzt bearbeitet:
Den Vergleich hast du selbst initiiert :rolleyes2:
Und, ja: Es gibt triftige Gründe, aus denen sich die 5700XT (egal wie an sie klassifizieren möchte) dem Vergleich zu einer RTX 3080 stellen muss. Nämlich vor Allem, dass die 5700 als deutlich schwächere Karte eine wesentlich schlechtere Effizienz hat, was einfach niemals passieren darf
Holy sh...

performance-per-watt_2560-1440.png


Ich hoffe für dich einfach mal, du meintest "besser" und nicht "schlechter", aber ich fürchte du meintest das wirklich.
(btw - das sind Release-Daten, die Werte sind heute nochmals ein paar Prozentpunkte besser für AMD)

Vllt in irgendwelchen Sonderszenarien, aber nicht overall. Overall ist Linux bei Spielen sogar langsamer als Windows. Aber das hatten wir ja schon...
Ja, das hatten wir schon diskutiert und sind zu keiner Übereinkunft gekommen. Ich denke, das werden wir auch heute nicht, von daher belasse ich es dabei.
 
Schon bitter wenn man auf Krampf sich eine nicht vorhandene Realität schaffen muss :LOL:.
 
Sagt der Richtige.
 
Holy sh...

performance-per-watt_2560-1440.png


Ich hoffe für dich einfach mal, du meintest "besser" und nicht "schlechter", aber ich fürchte du meintest das wirklich.
(btw - das sind Release-Daten, die Werte sind heute nochmals ein paar Prozentpunkte besser für AMD)


Ja, das hatten wir schon diskutiert und sind zu keiner Übereinkunft gekommen. Ich denke, das werden wir auch heute nicht, von daher belasse ich es dabei.



Holy sh..


Holy holy sh.. bei 270W nochmal +12% P/W

 
Na ja, ICH zocke unter Linux - von daher sind diese Zahlen durchaus für mich interessant. Und entsprechend beeinflusst das natürlich auch meine Sichtweise auf die Bewertung von Performance und Preis. Aber auch unter Windows steht die 5700XT besser da als die behaupteten "80% schneller" einer 2080. ;)

Effizienz haben wir ja schon mal besprochen - welche durch undervolting bzw. Treten einer Karte in den roten Bereich mal eben um +/-40% schwanken kann. Wenn ich die Karten aber unter ihrer Stock-Konfig betrachte, dann hat die 5700XT eine Leistungaufnahme von 219W - die 2070S eine von 211W und beide liegen (unter Windows) auf gleichem Niveau, was ihre Performance angeht. Sieht für mich so ziemlich nach der gleichen Effizienz aus.


Yo, unter Windows. Linux packt da nochmal 10% Leistung auf AMD Karten für lau oben drauf. Da kann man sich dann entscheiden: 10% gratis Performance oben drauf (das ist mehr als von der 3080 als zur 3090 und das ist den Leuten nochmal wie viel wert?) oder man bleibt bei seinem "bekannten System" und verzichtet auf die Performance. Und bevor hier jemand mit "Unter Linux laufen keine Spiele" kommt: Wir haben 2020, nicht 1998.
Dann nimm das aber bitte nicht als allgemeingültige Aussage. Windows ist für Gamer immer noch die Hauptplattform, ergo juckt das 99 % der Gamer nicht, ob AMD unter Linux gut performt.
 
@Aiphaton Nochmal lesen, Kontext verinnerlichen und dieses Mal nicht komplett das Thema verfehlen

PS: Bei 1080p hat die 5700 mehr Perf/W als die 3080 - nur so nebenbei.

@sch4kal Richtig. Mich aber schon. Ich bin natürlich nicht 99% des Marktes - völlig klar. Die relevante Datenlage verschiebt sich für meine Kaufentscheidungen dann aber trotzdem. Für Windows-Zocker sind dann auch AMD-Treiberprobleme oder blackscreens oder was auch immer dann ein relevantes Problem - von dem ich völlig entkoppelt und befreit bin. Da könnte ich an der Stelle natürlich Werbung für Linux machen - aber wozu? Es liegt frei verfügbar für jeden zum aufsammeln auf der Straße und trotzdem nutzen es nur 1,5%. Daran würde sich auch nix mit 15% oder 20% Mehrleistung unter Linux ändern.

PS: Ich bin was Linux angeht auch kein Crack - ich bin nur ein 0815-Gamer, der sich mal mit Hilfe einer Wiki da durchgewurschtelt hat.
 
Zuletzt bearbeitet:
Holy sh...

performance-per-watt_2560-1440.png


Ich hoffe für dich einfach mal, du meintest "besser" und nicht "schlechter", aber ich fürchte du meintest das wirklich.
(btw - das sind Release-Daten, die Werte sind heute nochmals ein paar Prozentpunkte besser für AMD)


Ja, das hatten wir schon diskutiert und sind zu keiner Übereinkunft gekommen. Ich denke, das werden wir auch heute nicht, von daher belasse ich es dabei.
Erstens ist in deinem Vergleich RTX 3000 gar nicht vertreten, und davon ist die Rede.
Und Zweitens steht die XT sogar auch da schon schlechter da als die RTX 2000er...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh