Analyse zum Stromverbrauch der Radeon RX 480

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.054
<p><img src="/images/stories/galleries/reviews/2016/radeon-rx480/radeon-rx480-reference-logo.jpg" style="margin: 10px; float: left;" />Das Thema rund um die erhöhte Stromaufnahme der Radeon RX 480 über den PCI-Express-Steckplatz soll mit der Radeon Software 16.7.1 nun ein Ende finden. AMD hat den entsprechenden Treiber gestern Abend veröffentlicht und wir haben uns die Analysen der Kollegen, die in der Lage sind dies genauer nachzumessen, einmal angeschaut. Ergänzen wollen wir dies mit eigenen Messungen zur Leistung, denn auch hier soll es kleinere Änderungen geben, die sich auch aufgrund der etwas anderen Zuteilung der Leistungsaufnahme auf der Radeon RX 480 ergeben.</p>
<p>Doch zunächst noch einmal zum eigentlichen Problem. AMD spezifiziert die Radeon RX 480 mit einer typischen...<br /><br /><a href="/index.php/artikel/hardware/grafikkarten/39727-analyse-zum-stromverbrauch-der-radeon-rx-480.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Super Artikel!
Gut dass es behoben wurde.
Schade, dass der Start so schlecht gelungen ist. Hat sicher einige Käufer abgeschreckt, ich gönne es AMD, die haben echt so zu kämpfen, dachte das hätte ein kleines Comeback werden können, so ist es aber wieder alles in allem eher negativ fürs Image.
Werde trotzdem schauen ob ich beim nächsten System komplett auf AMD setzen kann, mach ich aber nur wenn die Produkte wenigstens größtenteils Konkurrenzfähig sind.

Edit: @Performer: die Leistungsaufnahme wurde vom MB auf die 12V PCIe schiene verlagert, somit hat sich schon was geändert, sieht man gut bei den TomsHardware screenshots.
 
Zuletzt bearbeitet:
Also war die ganze Aufregung umsonst ? :hmm:

Der Compatibility Mode dient ja nur dazu, den PCIe 6-Pin Stecker in den Spezifikationen zu halten, was aber wumpe ist, da die Spezifikationen der einzelnen Leitungen eh weitaus mehr zulassen.

Der Fix für die Überlastung des PEGs scheint standardmäßig aktiviert zu sein. Schade, dass der nun doch ein paar FPS kostet.
 
Reference 750 Ti - No power conenctor
92 watts - Core Clock: 1155 / 1376 Boost / Memory Clock: 6696 MHz

Windforce 750 Ti - w/ power Conenctor
90 watts - Core Clock: 1168 / 1293 Boost / Memory Clock: 6712 MHz

So sah es bei Toms Hardware damals mit der 750er aus. Aber wurde da viel Wind drumherum gemacht? Nö.
 
Hier wohlgemerkt ohne jeglichen zusätzlichen Stromanschluss. Schien Toms Hardware damals nicht besonders zu kümmern. Heute macht man hingegen eine große Kampagne draus. Da hat Nvidia wohl nen guten TKP bezahlt.

01-GTX-750-Ti-Complete-Gaming-Loop-170-seconds.png
 
@resonic Der Hype und der Fakt, dass dies die "Top" Karte aus Polaris Reihe ist, sorgt dafür, dass die weit stärker ausfällt und gewisse Fanboys halt immer ihre Karten vorne sehen müssen. Auch wenn ich der Meinung bin wie bei der GTX 970, dass man dies hätte vermeiden oder es hätte besser vermarktet werden müssen, um diesen """Skandal""" zuvermeiden!
 
Zuletzt bearbeitet:
Also war die ganze Aufregung umsonst ? :hmm:

Die Formulierung ist eigentlich direkt falsch. Das hat mich auch sehr gewundert, wie man schreiben kann, dass es "beim Alten" bleibt, wenn dann im nächsten Abschnitt schon steht, dass eigentlich nur die Stromaufnahme/Leistung gleich geblieben ist, aber die der Stromfluss vom PCIe- Slot auf den Stecker umgelagert wurde... Da bleibt also nicht alles beim Alten(wäre auch hirnrissig, weil man es dann gleich hätte lassen können).
 
Ich verstehe nur nicht warum der Compatibility Mode in den Standardeinstellungen deaktiviert ist :confused:
 
@resonic Der Hype und der Fakt, dass dies die "Top" Karte aus Polaris ist, sorgt dafür, dass die weit stärker ausfällt und gewisse Fanboys halt immer ihre Karten vorne sehen müssen. Auch wenn ich der Meinung bin wie bei der GTX 970, dass man dies hätte vermeiden oder es hätte besser vermarktet werden müssen, um diesen """Skandal""" zuvermeiden!
Naja es ist keine "Top" karte, sondern Mid-Range Segment. Ein Blick auf den Preis hilft.
 
Ich verstehe nur nicht warum der Compatibility Mode in den Standardeinstellungen deaktiviert ist :confused:

Weil der Leistung kostet und es ohne Kompatibilitätsmodus definitiv keine Gefahr mehr gibt.
Der Kompatibilitätsmodus ist einfach ein nun vorhandener Schalter damit die Kritiker nicht rum meckern.
 
@resonic Es ist derzeit derren "Top" karte auf Polaris bezogen und setze es ja in "" damit dies nicht so wirkt als sei es die wirklich Top Karte von der Performance her.
 
Weil es den 6 pin mit 3 srtromfasen null ineressiert ob da 10 watt mehr oder weniger anliegen.;)

das ist mir schon klar, aber was ist mit dem pci Slot, da wird doch dann immer noch über die Norm belastet, wenn der Schalter deaktiviert ist, oder hab ich was nicht verstanden ?


edit:
"Der Kompatibilitätsmodus ist einfach ein nun vorhandener Schalter damit die Kritiker nicht rum meckern."

Damit hab ich überhaupt kein Problem, nur könnten das andere wieder als Aufhänger nehmen oder nicht?

Es ist die Default Einstellung die mir Sorgen macht ....
 
Zuletzt bearbeitet:
das ist mir schon klar, aber was ist mit dem pci Slot, da wird doch dann immer noch über die Norm belastet, wenn der Schalter deaktiviert ist, oder hab ich was nicht verstanden ?

Der 6-Pin Stecker wird über der Norm belastet und damit stellt die RX 480 keine Ausnahme dar, ist auch völlig egal, weil er viel mehr verkraftet als in der Norm aufgeführt ist und die Mehrbelastung zu 100% unbedenklich ist.
Der Schalter ist nur da, damit selbst da die Norm eingehalten wird, somit kein Aufhänger, sondern eher eine Sicherheitsmaßnahme, weil ja der Fokus bereits auf der Karte lag und man somit wirklich keinen Zweifel daran lassen wollte, dass die Karte in den Spezifikationen betreibbar ist.
 
@Anon Naja die 750(Ti) war seinerzeit auch die erste und einzige Maxwell Karte. Damit zu dem Zeitpunkt eigentlich auch die stärkste der Generation, sowie jetzt die 480 bis Vega.

@Freak Nein der PCI wird jetzt in Spezifikationen auch ohne "compability mode" betrieben. Jezt wird eben mehr vom 6-Pin gezogen.
Edit: Ach da war die Antwort ja schon von overclocker, nicht neu geladen. ;)
 
Zuletzt bearbeitet:
Habt ihr auch getestet, wie sich das update auf das OC und UV Verhalten auswirkt?
 
Wollen wir wir wetten wenn Tomshard.. das review zur 1060 rausbringt wird die schlagzeile in etwas so lauten: Das Imperium schlägt zurück ....
 
Zuletzt bearbeitet:
Warum gibt AMD die Karte bitte mit 150W TDP an? Nichtmal mit reduzierten Taktraten und Nachbesserung schafft es AMD die 150W einzuhalten. Gratz!
 
TBP ist nicht TDP. Und selbst die kann jeder so oder so auslegen.

Schau mal in deine eigene Sig, und da interessieren dich 5-10W? :fresse2:
 
Zuletzt bearbeitet:
Leistungsaufnahme: 150W (TDP)

heißt für mich, dass die maximale Abwärme der Karte 150W beträgt. Das wird aber in keinem Game eingehalten, nicht mal im Compatib. Mode.
Hingegen werden von nVidia die TDP Angaben meist nicht mal erreicht.

Einfach die Karte mit 170W angeben oder gar 180W, aber wenn man nicht mogeln würde, würde die Karte von noch wenigeren Menschen gekauft werden... (Vergleichbar mit VW-Skandal)

Irgendwie habe ich das Gefühl AMD steht bei allen unter Welpenschutz :d Bei nVidia kommt direkt immer eine Keule!
 
Zuletzt bearbeitet:
Schau dir die Benchmarks im Luxx-Artikel an, da ist die 480 mit dem 16.7.1 noch langsamer als sie es mit dem 16.6.2 ohnehin schon war.

Was allerdings merkwürdig ist, fährt sie mit dem 16.7.1 doch durchschnittlich einen, wenn auch marginal, höheren Boosttakt!?

Edit: Bei Pcp profitiert sie davon anscheinend auch, was hier nicht der Fall ist...
Witcher3_1920x1080_OFPS.png

Quelle
 
Zuletzt bearbeitet:
Irgendwie habe ich das Gefühl AMD steht bei allen unter Welpenschutz :d Bei nVidia kommt direkt immer eine Keule!

AMD hat sich in der Vergangenheit, so zumindest meine Erinnerung weniger geleistet als Nvidia.
Bei NV bspw. die Geschichten mit den AF Filter Optimierungen bei der 7xxxer Serie
Das Fehlerhafte Silizium-Substrat das zu dem umfangreichen Rückruf und quasi garantierten Ableben der Mobile Chips M8600 und Co. geführt hat. Meine Karte ist auch genauso gestorben.
Dann die Geschichte mit 3,5+x GB Ram bei der GTX 970, mit der man kommunikativ mehr schlecht als recht umgegangen ist.

Dann kommt noch hinzu, dass Nvidia für dedizierte Grafikkarten der Marktführer ist und wenn AMD jetzt noch wegbrechen würde, vmtl. schon eine GTX 1060 bei 1000€ angesetzt werden würde um es mal provokant auszudrücken.

Golem war es glaub, die haben es schön geschrieben. AMD hat sich an die Test-Seiten gewandt direkt nach dem Test, eine öffentliche Mitteilung rausgegeben und eine Lösung gefunden für die Referenz-Karten. Das die ganze Geschichte von vornherein auch mehr überflüssig als sinnvoll war ist auch klar.
 
TDP halt... die definiert NV bei ihren gemachten Tests wie viel diese Verbraucht.
AMD hingegen wie viel gekühlt werden muss.

Beide lügen nicht ;)
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh