Analyse zum Stromverbrauch der Radeon RX 480

Weil eine HP Workstation auch DAS Standard-Gaming-System ist,...

Zum Glück nicht..., denn die Technik muss 24/7 funktionieren unter Volllast, wenn es sein muss.

Ich wollte damit nur sagen, das nicht alles so heiß gegessen wird, wie es gekocht wird, auch sind die "Messungen" sehr mit Vorsicht zu genießen, diese "overloads" liegen im kleinen nanosekunden Bereich, wenn man es richtig hätte machen wollen, müsste man die Spannung im gleichen Umfang abtasten, nur eine Größe bei dieser Beurteilung kann fatal sein, wie wir wissen ist die Leistung ein Produkt, um es wirklich genau zu beurteilen müsste man an viel mehr punkten messen.

Ich finde es immer recht amüsant wenn Leute der Meinung sind, wenn man ein oszi mit hoher Bandbreite und Speichertiefe einsetzt, ist man gewaschen und gekämmt, nur die Praxis spricht da eine andere Sprache...

Nun könnt ihr euch weiter wund machen, ich finde die Karte gelungen und NV ist diesbezüglich kein deut besser...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der 6-Pin Stromanschluss war ja auch nie das Problem. Mit geeigneten Steckern kannst du sogar 288 Watt durch den Anschluss jagen, ohne die technischen Spezifikationen zu verletzen:



Das Problem waren die 5 Pins im PEG.



Richtig.

Insbesondere wenn verschiedenen Unternehmen verschiedene Komponenten eines Systems bauen und sich darauf verlassen, dass die anderen Komponenten innerhalb der Spezifikationen arbeiten.



+1

Und seht es positiv: Ist doch nun alles gut. Fehler passiern, weil dort Menschen arbeiten. Interessant ist es, wie mit Fehlern umgegangen wird. AMD hat das Problem erkannt, AMD hat es nicht vertuscht, AMD hat sogar extra Schichten über das Wochenende gefahren, um es zu beheben. Alles wieder gut.

Ja besser konnte manns nicht formulieren wenn man die behandlung des fehlers von AMD betrachtet sieht man deutlich den untershied zum 4GB GTX 970 thema von NV.
 
Zuletzt bearbeitet:
Wobei der Vorteil für AMD der war, dass es möglich war das Problem softwareseitig zu lösen. ;)
 
Wobei der Vorteil für AMD der war, dass es möglich war das Problem softwareseitig zu lösen. ;)

ja sicher aber wenn man sich das verhalten von dem huang mal anschaut Holzkarten kommunikationsprobleme G sync Fouders edition und so weiter.
Dann merkt man schon einen unterschied. ;)
 
Zuletzt bearbeitet:
Nvidia ist drollig, die können doch nicht ernsthaft glauben, dass sie dx12 bis Volta erscheint bekämpfen können :d
 
Was ja klar, dass sich wieder ein Paar an den 50-149 mA aufgeilen, sowas liegt noch in der Messtoleranz (1-3%)...
Die bei TomsHardware eingesetzten R&S HZO50, haben einen Meßfehler von 1% von Meßwert bzw. mindestens 1mA. Das heißt selbst bei 5,5A liegt der Fehler nur bei 55mA, 100mA sind damit ausreichend oberhalb des Meßfehlers. Daß Multimeter schafft noch deutlich bessere Meßwerte allerdings nur 200 pro Sekunde. Es gibt noch deutlich bessere Labormeßgeräte, sprich mit Geld kann man da noch deutlich exaktere Meßwerte herausholen.
 
Die bei TomsHardware eingesetzten R&S HZO50, haben einen Meßfehler von 1% von Meßwert bzw. mindestens 1mA. Das heißt selbst bei 5,5A liegt der Fehler nur bei 55mA, 100mA sind damit ausreichend oberhalb des Meßfehlers.
Es wurde auf eine Stelle hinter dem Komma gerundet, was 100mA entspricht, folglich sind die 51-55mA(=>0,1A) innerhalb der Messtoleranz.
 
Dazu kommen ja auch noch die Toleranzen des Oszilloskops mit ein paar Prozent, ist ja nicht nur der Tastkopf. Also wegen 1-2 Prozent rumpienzen ist einfach nur dämlich... :shake:
 
Die bei TomsHardware eingesetzten R&S HZO50, haben einen Meßfehler von 1% von Meßwert bzw. mindestens 1mA. Das heißt selbst bei 5,5A liegt der Fehler nur bei 55mA, 100mA sind damit ausreichend oberhalb des Meßfehlers. Daß Multimeter schafft noch deutlich bessere Meßwerte allerdings nur 200 pro Sekunde. Es gibt noch deutlich bessere Labormeßgeräte, sprich mit Geld kann man da noch deutlich exaktere Meßwerte herausholen.

Und wie weit weicht der Meßwert vom realwert ab?
Wann wurden die Geräte das letzte mal kalibriert usw.

Das ist krümmelkackerei und nicht praxisrelevant, HS sampelnde bench multimeter kosten schon mehr wie der ganze messpark bei den Jungs, ein oszi ist auch nicht zur absolutmessung mit hoher reproduzierbarer Genauigkeit gedacht, sondern für signalverläufe, das sollte mal nicht vergessen werden.
 
Nvidia ist drollig, die können doch nicht ernsthaft glauben, dass sie dx12 bis Volta erscheint bekämpfen können :d

Brauchen sie aber wohl auch nicht. Bisher war ATI/AMD bezüglich DirectX-Support doch fast immer eine Generation vorraus, aber gebracht hat's ihnen Nichts.
OK, im Unterschied zu den älteren DirectX Generationen sind DX12-Spiele auf den ersten Karten mit entsprechender Unterstützung immerhin spielbar, wo es ja früher erst die 2. bis 3. Generation von Karten war die überhaupt fähig war ihre DX-Features überhaupt bei brauchbaren FPS zu nutzen; insofern könnte das Resultat nun vielleicht etwas aussehen.
 
Zuletzt bearbeitet:
DX12 ist noch kein Argument. In einem Jahr sieht die Sache ganz anders.

Das sehe ich nicht so. DX12 ist die Zukunft und viele die gerade in dieser Performanceklasse kaufen behalten ihre Karten länger als die Leute im HighEnd-Bereich, wo man immer auf das neuste und schnellste wechselt, sobald verfügbar.
 
Jep, alle Leute aus meinem Bekanntenkreis, die Karten um oder unter 200€ haben, haben ihre Karten ca. 5 Jahre lang. Die interessiert nicht, ob die Karte im ersten Jahr 5FPS weniger liefert, sondern da kommt es drauf an, dass sie die in 4-5Jahren noch benutzen können auf mittel oder so.
 
DX12 ist noch kein Argument. In einem Jahr sieht die Sache ganz anders.

Nur, dass die meisten ihre Karte eben ein paar Jahre benutzen wollen, und dann ist es wichtig, welche Karte wie in ein paar Jahren läuft. Deswegen ist DX12 jetzt durchaus ein Argument.


Sent from my iPhone using Tapatalk
 
Nvidia ist drollig, die können doch nicht ernsthaft glauben, dass sie dx12 bis Volta erscheint bekämpfen können :d

Was hat DX12 denn mit dem Thema des Threads zu tun?

Und wo bekämpft Nvidia denn DX12? Deren Karten beherrschen auch DX12 - sie sind dort vergleichsweise mit den AMD Karten nur etwas langsamer als in DX11 spielen.

Nach den ersten AotS Benchmark Leaks der GTX 1060, ist die GTX 1060 in diesem DX12 AMD Showcase Spiel zwar deutlich langsamer als in DX11 Spielen, aber immer noch so schnell wie eine RX 480.

Wo ist also bzgl. DX12 das Drama? Hier wird ja so getan als könnten die Nvidia Karten gar kein DX12, was Käse ist. Und ich verstehe immer noch nicht, was es mit dem Thread zu tun hat.

- - - Updated - - -

Es wurde auf eine Stelle hinter dem Komma gerundet, was 100mA entspricht, folglich sind die 51-55mA(=>0,1A) innerhalb der Messtoleranz.

Das bezieht sich allerdings nur auf den Kompatibilitätsmodus, der Leistung kostet und standardmäßig nicht eingestellt ist. In den Standardeinstellungen würden 5,9A gemessen, d.h. genaugenommen liegt AMD dort immer noch 0,4A drüber.

Aber egal, wozu ein totes Pferd schlagen.
 
Zuletzt bearbeitet:
Geziehltes Overclocking hat AMD betrieben. Nie und nimmer ist den Entwicklern entgangen dass die Karte mehr als 150 Watt konsumiert. Die Karte wurde für 150 Watt entwickelt. Nachdem klar wurde, das die neuen Nvidia Karten viel leistungsfähiger als gedacht werden hat AMD nachträglich die Leistung angehoben, um den Leistungsabstand zu verringern. Dies war letztlich nur über die PCIE Versorgung möglich.
So ist es auch klar warum, AMD den "Fehler" so schnell behoben hat. Der alte Treiber stellt einfach den Compatibility Mode dar, der bisherige Modus ist einfach eine Übertaktung.
Trotz kleinerer Fertigungsstruktur scheint die Performance pro Watt leider deutlich schlechter als bei der Konkurrenz zu sein. Schade....
 
So ist es auch klar warum, AMD den "Fehler" so schnell behoben hat. Der alte Treiber stellt einfach den Compatibility Mode dar, der bisherige Modus ist einfach eine Übertaktung.
Wieso hat die Karte dadurch nicht weniger Leistung?
Und außerdem scheint der Bruch der Spezifikationen weder irgendwelche Auswirkungen zu haben, noch ist er etwas neues.
Trotz kleinerer Fertigungsstruktur scheint die Performance pro Watt leider deutlich schlechter als bei der Konkurrenz zu sein. Schade....
Wenn man nach Rohleistung geht nicht, alles andere ist noch ziemliche Spekulation.
 
Nachdem klar wurde, das die neuen Nvidia Karten viel leistungsfähiger als gedacht werden hat AMD nachträglich die Leistung angehoben, um den Leistungsabstand zu verringern.

Ich glaube auch, dass AMD anhand der bestehenden Chips die Taktraten nach oben korrigiert hat. Aber ich glaube auch, dass das bereits voll eingeplant war, die Taktraten anhand der größeren Nvidia- Modelle zu skalieren. Ich denke, dass der Grafikchip auf 1,1GHz ausgelegt war, wo die Effizienz beider ziemlich gleich sein müsste. Bei 40W Mehrverbrauch wird das sicherlich kaum jemanden interessieren... Somit könnte ich die Entscheidung nachvollziehen -> Die Effizienz ist ja nur relativ betrachtet deutlich schlechter.
Dennoch: Die RX 480 hat mehr VRAM, mehr Potential(Rohleistung -> DX12/Vulkan, OpenCL/Heterogeneous Computing), die Übertaktungsmöglichkeiten sind ähnlich, sie kann FreeSync nutzen, während für G-Sync weitere Kosten auf einen zukommen und preislich liegen die Karten selbst gleich.
Da müsste die GTX 1060 jetzt wirklich ein richtiges Feuerwerk an Leistung zünden, um für sich richtige Werbung zu machen.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh