AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

@Igor: Glaube wegen den Link wäre dir niemand böse ;)

Das was ihr da drüben bei THG macht ist mMn. mit Kanonen auf Spatzen geschossen. Klar sind es die genausten Messungen unter allen Hardware Seiten. Die Werte sind klasse und zeigen auch die ein oder andere Auffälligkeit bei manch einer Karte, keine Frage. Aber ist so ein Aufwand wirklich notwendig?
Mit den vielen Werten die ihr da liefert, können die Wenigsten etwas anfangen und sie werden immer wieder falsch gedeutet (peak Verbrauch).

Für eine grobe Vergleichbarkeit zwischen den Karten reicht es mMn. aus, eine Stromzange um alle +12V Leistungen von Sockel und PCIe Stecker und einmal die Spannung der 12V Schiene zu messen. Und dann das ganze Mal nehmen.
Das Multirail Problem kann man ja von Anfang an umgehen indem man das richtige Netzteil im Testsystem verbaut.

Letzen Endes haben ja alle Messungen einen gewissen Fehler und die große Frage ist, wie genau müssen sie sein um eine Vergleichbarkeit herzustellen. Und aufs letzte Watt kommt es da nicht wirklich an.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Letzen Endes haben ja alle Messungen einen gewissen Fehler und die große Frage ist, wie genau müssen sie sein um eine Vergleichbarkeit herzustellen. Und aufs letzte Watt kommt es da nicht wirklich an.
Naja, beim Strom bezahlen kommt es wirklich aufs Watt an, oder steht in deiner Rechnung ~ 100KWh.
Zumindest der Abfrageintervall sollte unter 100ms sein, sonst lässt man einfach Spiel für Tricksereien.
Wenn man den Aufwand schon betreibt, dann doch gleich Richtig und nicht "ja ungefähr ist die GPU xyz sparsamer"
 
Wurd beim Firestrike schon 93 warm :/
Wie viel OC kann man dem HBM denn so antun? Standard ist ja 800

Nun, der wird ja mit dem Lüfter gekühlt, würde hier eine Drehzahl um 4000rpm wählen, dann sollten die Temps. im Limit bleiben, was Oc angeht, sollten so 1100 schon gehen, also von der 64er ausgehend... ;)
 
Erstmal braucht es "vernünftige" Treiber, damit der Takt (GPU & HBM) richtig angezeigt werden :p
 
Erstmal braucht es "vernünftige" Treiber, damit der Takt (GPU & HBM) richtig angezeigt werden :p
Ja, das wünsche ich mir auch.
Aber ein Hersteller braucht sowas nicht intern, das verlässt man sich eher auf externe Messmittel die kalibriert sind im Zyklus der ISO.
 
@Igor: Glaube wegen den Link wäre dir niemand böse ;)
Das was ihr da drüben bei THG macht ist mMn. mit Kanonen auf Spatzen geschossen ... Mit den vielen Werten die ihr da liefert, können die Wenigsten etwas anfangen und sie werden immer wieder falsch gedeutet (peak Verbrauch)....
Und aufs letzte Watt kommt es da nicht wirklich an.

Hier wären mal die Grundlagen, aber mittlerweile bin ich durchaus schlauer als noch vor drei Jahren und deutlich besser ausgerüstet. Falsch ist es nicht, aber noch deutlich komplexer. Zeit für ein Follow-Up :)

Sicher, es überfordert viele, deshalb stelle ich jetzt immer am Anfang eine Balkengrafik voran, die das Ablesen erleichtert und die dann folgenden Details auch für Nichtinteressierte überflüssig macht. Aber: man würde solche Dinge wie Normverletzungen und die gar zu nonchalante Auslegung bestehender Industriestandards entweder nicht mal erkennen, oder zumindest nicht sicher und belastbar belegen können. Und etwas behaupten, was man nicht auch beweisen kann... naja, nee.

Kanonen und Spatzen? Das Problem ist, dass viel zu vieles in den Medien als Illusion verkauft wird. Equipment kann nie gut genug sein, wobei der Bedienende sehr oft das schwächste Glied in der Kette ist. Das darf man natürlich nicht außer Acht lassen. Doch wenn man Fakten in die Umwelt entlässt, sollten die schon so wasserdicht wie möglich auch belegt werden können. Sonst sind es am Ende auch nur Schätzungen. Ein wirklich gutes Beispiel sind auch Infrarot-Messungen, denn die Werte der teuren Technik werden stets für bare Münze genommen, obwohl so viele Fehler gemacht werden können, dass man nur oft genug mit dem nassen Finger noch genauer schätzen könnte. Auch dafür haben ich einen Grundlagenartikel, der wunderschön zeigt, dass man bestimmte Dinge (a) entweder richtig angehen oder doch lassen sollte und (b) vor allem erst einmal wissen muss, was man damit überhaupt anstellt. Und wenn die Technik da ist, dann nutze ich sie halt. Schließlich ist es ja mein Labor und TH am Ende ein Kunde wie jeder andere auch. Wenn ich den Sinn in einer Anschaffung sehe, dann mache ich sie eben. Man muss Prioritäten setzen :)
 
@Igor THG
:bigok:
Ich finde jede Info hilfreich, je mehr Daten desto akkurater :)

Bsp. trotz aktivem HPET auf dem Mainboard, zeigt mir die AI Suite einen Peak von über 110°C bei USB 3.0 an: http://abload.de/img/usb3.1_boinc_peak79rjr.jpg
Wie schreit sich die Schnittstelle für Sensoren nochmal?
 
Asus und Sensorwerte in der eigenen Software, nun ja... Nimm mal HWInfo64 und suche nach dem Wert, ob Asus nicht bloß beim Monitoring das falsche Register ausliest. Ich habe hier ein Sabertooth im Archiv aber die AI Suite noch nie wirklich genutzt. Die ist echt entertaining... :)
Allerdings: was hat der High-Precision-Timer damit zu tun?

Ich habe aktuell ein ganz anderes Phänomen. Laut AMD ist der Threadripper bei 180 Watt Package Power (Tctl und Tdie) heißer als bei 310 Watt. Da ich mit dem großen Chiller immer konstant niedrige 20°C auf dem IHS habe, kann ich die Tctl-Werte sogar über die Spannungsvorgaben im Mainboard beeinflussen. Hier kalkuliert AMD sichbar falsch, will sich aber nicht äußern. 57°C Kerntemperatur bei 310 Watt sind definitiv nicht drin. :d
Soviel zum blinden Glauben an Sensorwerte & Co.
 
Zuletzt bearbeitet:
Asus und Sensorwerte in der eigenen Software, nun ja... Nimm mal HWInfo64 und suche nach dem Wert, ob Asus nicht bloß beim Monitoring das falsche Register ausliest. Ich habe hier ein Sabertooth im Archiv aber die AI Suite noch nie wirklich genutzt. Die ist echt entertaining... :)
Allerdings: was hat der High-Precision-Timer damit zu tun?

Ich habe aktuell ein ganz anderes Phänomen. Laut AMD ist der Threadripper bei 180 Watt Package Power (Tctl und Tdie) heißer als bei 310 Watt. Da ich mit dem großen Chiller immer konstant niedrige 20°C auf dem IHS habe, kann ich die Tctl-Werte sogar über die Spannungsvorgaben im Mainboard beeinflussen. Hier kalkuliert AMD sichbar falsch, will sich aber nicht äußern. 57°C Kerntemperatur bei 310 Watt sind definitiv nicht drin. :d
Soviel zum blinden Glauben an Sensorwerte & Co.
Wie meinst das mit HWinfo64 ?
klar nutze ich auch, das klaut mir aber zuviel CPU Zeit: http://www.abload.de/img/unbenanntk4xj9.jpg
Wie viel H/s erreichen zwei RX Vega 64 ?

HPET = useplatformclock : Yes
Das synchronisieren der Takt-Geber.
 
Zuletzt bearbeitet:
Was der HPET macht, weiß ich, aber was hat das mit der AI Suite und dem komischen Rückgabewert zu tun? :)
Ich meinte, suche doch mal, ob HWInfo diesen Wert auch hat und was dort davor als Sensorname steht.

Über Vega zerbreche ich mir den Kopf erst mal nicht. Bevor das ganze Softwaregeraffel einschließlich Treiber nicht sauber läuft, ist das pure Zeitverschwendung.
 
Zuletzt bearbeitet:
Was der HPET macht, weiß ich, aber was hat das mit der AI Suite und dem komischen Rückgabewert zu tun? :)

Über Vega zerbreche ich mir den Kopf erst mal nicht. Bevor das ganze Softwaregeraffel einschließlich Treiber nicht sauber läuft, ist das pure Zeitverschwendung.
Wenn ich dich richtig verstanden habe, dann nutzt ASUS einen sehr CPU Lastigen Intervall.
Beim Sub-Woofer nennt man es Eigen-Resonanz ~

Als Admin kann man unter Windows den Intervall anpassen, aber ein neustart von Windows ist unumgänglich. :cool:
 
Hier mal meine Ergebnisse:
Undervolted Vega 56, Eingestellt 1700 Mhz Core, 900 Ram, 850mv Vcore, PT 50%
Generic VGA video card benchmark result - AMD Ryzen 7 1700X,Micro-Star International Co., Ltd B350 GAMING PRO CARBON (MS-7B00)



Max Temps 74 Core /75 HBM. Lüfter aber auf max und geht ab wie ne Turbine..
Kann das überhaupt sein, dass die Settings mit nur 850mVcore laufen? HWInfo sagt 1.15. Was ja auch in ordnung wäre. Die Frage ist halt, ließt dieses Tool richtig aus?
Zum Vergleich:
Hier OC mit 1100 mv Vcore @ 1612 Mhz. Der GPU Score ist niedriger aber der Kombinierte höher, wieso?


Und hier nochmal im Turbo Modus:
 
@salzCracker

sehr schön sieht es aus. Hier ein Test mit irgendeiner GTX1080 und 6950X, den ich einfach ausgesucht habe.

NVIDIA GeForce GTX 1080 video card benchmark result - Intel Core i7-6950X,ASUSTeK COMPUTER INC. RAMPAGE V EDITION 10

Mit 850 mV kann es die Spannung nicht halten. Sieht man am Screenshot, dass es auf 1650Mhz drosselt. Mit 1100mV drosselt es auch wegen der Hitzeentwicklung. Man muss bedenken, dass es ein Hotspot gibt, da Speicherchip und CPU in einem Frame sind. Die Speicherchips und CPU drosseln sich gegenseitig anscheinend. Eine Gute Wakü oder eine Custom-Lüftkühlung wird eine "Monsterkarte" ermöglichen.
 
Zuletzt bearbeitet:
Die 0.850 V in Wattman sind natürlich Murks. Die Karte wäre längst abgeschmiert. Die RX Vega 56 scheint mit knapp 23000 Punkten im Grafikbench ca. 10% hinter einer RX Vega 64 und einer GTX1080 zu sein. Die Anderen laufen aber bereits an der Kotzgrenze mit Customkühlern oder Wakü.
 
Zuletzt bearbeitet:
Ok,
Scheint so, als ob die 850 nicht gehen. PUBG ist abgestürtzt.
mit 1000 mVCore lief es aber jetzt 30 minuten ohne Absturz:

 
Ok,
Scheint so, als ob die 850 nicht gehen. PUBG ist abgestürtzt.
mit 1000 mVCore lief es aber jetzt 30 minuten ohne Absturz:


Läuft nicht auf der eingestellten Frequenz von 1612 Mhz, sondern anscheinend auf 1570 Mhz nach HWInfo. Das Tool zeigt für die Vcore 1.08 Volt an. Wattman scheint ziemlich verbuggt zu sein. Wie man so einen Müll programmieren kann zu Release, verstehe ich nicht. Es muss jemand mächtig Druck gemacht haben von den Investoren oder obersten Management-Etage. Kein Ingenieur würde sowas ohne Pistole auf der Brust durchwinken.

Ich würde bevor du neue Werte ausprobierst den Treiber immer zurücksetzen oder sogar einen Reboot machen.
 
Zuletzt bearbeitet:
Ok,
Scheint so, als ob die 850 nicht gehen. PUBG ist abgestürtzt.
mit 1000 mVCore lief es aber jetzt 30 minuten ohne Absturz:

 
Zuletzt bearbeitet:
@salzCracker
Die 1.00 Volt von Wattman werden nicht stimmen, wenn die Karte bis 1650 Mhz boostet. Default sinds ab Werk 1.2 Volt Spannung. Die Werte von HWInfo scheinen plausibler, können aber ebenso falsch sein. Die Leistung bewegt sich auf dem Niveau der GTX 1080 Custom Versionen. Das Geräusch bei knapp 5000 Touren muss speziell sein? Für 65 Euro gibts einen Morpheus, zwei Silentlüfter drauf und Ruhe in der Bude.

Anscheinend ist die Karte bereits Bandbreiten limitiert: Ein niedriger GPU-Takt (1650 Mhz) und höherer HMB2-Takt (925 Mhz) kommen zu einem nahzu identischen Ergebnis in Firestrike, wie GPU-Takt (1700 Mhz) und HBM2 (900 Mhz). Interessant wäre zu sehen wie der kleine Vega-Chip mit dem schnelleren Speicher performt. Womöglich wäre die Karte von der Performance auf gleichen Level wie der größere Bruder bei deutlich weniger Verbrauch.
 
Zuletzt bearbeitet:
Also Scheinbar ist bei meinem Ram 900 MHZ das Maximum. Jetzt irgendwie läuft PUBG nicht mehr stabil. Teste jetzt schon bei 1,1 mVcore

An sich gefällt mir die Leistung schon sehr gut. Ich denke ich werde mal in so nem Monat schauen, obs irgendeinen günstig guten Lükü zum Nachrüsten gibt
 
also die beste 1080 gtx hat im firestrike knappe 24k punkte, ist aber im 3d mark firestrike auf Platz1 der liste....

Also ich würde sagen über kurz oder lang zieht die RX64 ein gutes Stück an der 1080 vorbei und die 56 wird sich auf 1080 Niveau steigern.
 
Wieviel hast du mit deinen 2075Mhz?
Vielleicht irgendein Game-Bench machen, damit man es vergleichen kann, falls 3D Mark kostet.
 
Zuletzt bearbeitet:
Unsinn..

drei sekunde gegoogled und eine mit über 25k gefunden

Ist das absolute Maximum was aus der GTX 1080 herauszuholen ist. Mehr schafft eine RX Vega 64 derzeit auch nicht. Mit einem Score von 23k ist die RX Vega 56 für 400 Euro (falls man eine bekommt) gut dabei. Eine GTX 1070 FE kommt auf 18.25K. Ist eine Differenz von +26% zu Gunsten der AMD Karte. Selbst mit max OC kommt die 1070 nicht auf die Werte des Gegenspielers.
 
Zuletzt bearbeitet:
Ist das absolute Maximum was aus der GTX 1080 herauszuholen ist. Mehr schafft eine RX Vega 64 derzeit auch nicht. Mit einem Score von 23k ist die RX Vega 56 für 400 Euro gut dabei. Eine GTX 1070 FE kommt auf 18.25K. Ist eine Differenz von +26% zu Gunsten der AMD Karte. Selbst mit max OC kommt die 1070 nicht auf dies Werte.

Dezeit ja, aber für Vega kann man davon ausgehen, dass mit zukünftigen Treibern noch Potential freigesetzt wird ;)
 
Dezeit ja, aber für Vega kann man davon ausgehen, dass mit zukünftigen Treibern noch Potential freigesetzt wird ;)

Ich hoffe es mal, wobei ich vermute das der HBM2 Speicher bereits jetzt limitiert (die Frequenzen sind zu niedrig). Selbst wenn dies der Fall ist, kann die Karte so angepasst werden, dass sie deutlich weniger verbraucht. Es kommen noch inaktive Feature hinzu, die für den ein oder anderen Sprung sorgen könnten.
 
Bunghole Beavis schrieb:
Anscheinend ist die Karte bereits Bandbreiten limitiert: Ein niedriger GPU-Takt (1650 Mhz) und höherer HMB2-Takt (925 Mhz) kommen zu einem nahzu identischen Ergebnis in Firestrike, wie GPU-Takt (1700 Mhz) und HBM2 (900 Mhz). Interessant wäre zu sehen wie der kleine Vega-Chip mit dem schnelleren Speicher performt. Womöglich wäre die Karte von der Performance auf gleichen Level wie der größere Bruder bei deutlich weniger Verbrauch.

Da scheinst du recht zu haben...
Gemäss videocardz ist eine 56 mit 64er bios nur gerade 2% langsamer als die entsprechende 64er... [emoji33]
 
Da scheinst du recht zu haben...
Gemäss videocardz ist eine 56 mit 64er bios nur gerade 2% langsamer als die entsprechende 64er... [emoji33]

So wie es aussieht, scheint RX Vega 64 vollkommen beschnitten zu sein. Müsste irgendeine Fachredaktion einmal untersuchen. Bisher fand ich fast alle Redaktonstests mehr oder weniger enttäuschend, da wird mir zuviel 0815 gebencht und zuwenig hinterfragt. Den Test mit dem Undervolting und die Userbenches hier im Luxx fand ich interessant. AMD scheint es mit der Bandbreite nicht so zu haben. Die Polarisgrafikkarten skalieren ebenfalls überdurchschnittlich mit höheren Speichertakt, zumindest die RX 560 die derzeit in meinem Rechner werkelt (auf Herz und Nieren geprüft).
 
Mit einem Score von 23k ist die RX Vega 56 für 400 Euro (falls man eine bekommt) gut dabei. Eine GTX 1070 FE kommt auf 18.25K. Ist eine Differenz von +26% zu Gunsten der AMD Karte.

was sollen eigentlich diese oc vs stock vergleiche?

eine 1070 schafft mit oc 21-22k
NVIDIA GeForce GTX 1070 video card benchmark result - Intel Core i7-6700K,MSI Z170A SLI PLUS (MS-7998)

400€ sind in Anbetracht der aktuellen Marktlage für die vega 56 sind schon ok, wenn man sie wenn zu dem preis bekommt.

hätte es den mining-Hype nicht gegeben, dann würde man vega 56 und 1070 wohl heute für 300€ bekommen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh