AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für die Preisdiskussion haben wir ein eigenes Thema: Die Preissituation um die Radeon RX Vega 64 (4. Update)

Also Don, ich würde mir wünschen, wen ihr den Test mit dem Undervolting nochmal macht und eure Systematik dabei ändert. Das würde ich schön finden. Vielleicht bekommt man ja ein paar neue Erkenntnisse. Die manuellen Werte in der Vorconfig liegen aber auf jeden Fall nicht bei den Profilen an. Vielleicht wurden Sie zum Overclocking so hoch voreingestellt. Das müsste dann AMD selbst mal erklären. Dies würde dann auch die vermeintlichen super tollen Undervolting Ergebnisse erklären, bei denen Amateure systematischen Messfehler unterlegen sind. Eine Messung und die Interpretation ist der der Regel ein absolut nicht trivialer Vorgang!
 
Zuletzt bearbeitet:
Wir bekommen die Tage auch neues Messequipment, womit wir den Stromverbrauch der Karte selbst messen können - ohne Gesamtsystem und ohne uns wie in deinem Fall auf irgendwelche Software verlassen zu müssen.
 
Also Don, ich würde mir wünschen, wen ihr den Test mit dem Undervolting nochmal macht und eure Systematik dabei ändert. Das würde ich schön finden. Vielleicht bekommt man ja ein paar neue Erkenntnisse. Die manuellen Werte in der Vorconfig liegen aber auf jeden Fall nicht bei den Profilen an. Vielleicht wurden Sie zum Overclocking so hoch voreingestellt, dass müsste dann AMD selbst mal erklären. Dies würde dann auch die vermeintlichen super tollen Undervolting Ergebnisse erklären.
:)
An sich sollte die Sache nicht so einfach sein.
Fixe Spannungen und Taktraten sind schon lange nicht mehr der Fall.
Da wird alles dynamisch geregelt, je nach dem was die Sensoren Auswertung errechnet.
Das wird sogar ein Stück weit AI sein, da die GPUs nie die selbe Spannung benötigen werden. :cool:
 
:)
An sich sollte die Sache nicht so einfach sein.
Fixe Spannungen und Taktraten sind schon lange nicht mehr der Fall.
Da wird alles dynamisch geregelt, je nach dem was die Sensoren Auswertung errechnet.
Das wird sogar ein Stück weit AI sein, da die GPUs nie die selbe Spannung benötigen werden. :cool:

Ich würde noch weiter gehen, dass Verhalten des Treibers wurde ja öffentlich als Bug angesehen. Es wurde aber eindeutig genau so programmiert. D.h. AMD wird das nun ändern, weil sie sowas ja gar nicht brauchen können, wenn sie die Karten verkaufen wollen. Da hört man ungern Bug und man kann wieder ohne viel Aufwand die Spannungen manuell finden. Meine Behauptung nach dem Video test ist aber, dass der Treiber die Spannungen schon ziemlich gut so einstellt und man Undervolting nicht braucht.
 
Zuletzt bearbeitet:
Wir sind aber noch weit davon entfernt, dass ein Treiber für jede GPU den wirklich idealen Betriebsbereich findet. Gamers Nexus hat die Spannugen der GPU direkt ausgelesen. Da liegen im P6 und P7 die 1.150 und 1.200 mV an, egal was optimal wäre.

NVIDIA hat ja mal versucht für Boost 3.0 einen Automatisus für das Overclocking einzubauen. Dabei wird für die Spannungsebenen getestet, bis das System instabil wird und dann gehts weiter. Aber selbst dieser Mechanismus lässt noch Spielraum.
 
Hat eigentlich schon jemand ausprobiert ob 64 und 56 mit dem Radeon Vega Frontier Edition Beta Treiber laufen ?
 
Wir bekommen die Tage auch neues Messequipment, womit wir den Stromverbrauch der Karte selbst messen können - ohne Gesamtsystem und ohne uns wie in deinem Fall auf irgendwelche Software verlassen zu müssen.

Nur das was vom NT (PCIe 6+2pol.) oder auch was (wirklich) über den PCIe x16 "gezogen" wird?
 
Externe Messinstrumente sind auf auf jeden Fall den internen vorzuziehen, da ein Interessenkonflikt von Produzent und Käufer bestehen kann. Das wird aber bei Taktraten, Spannunge schon sehr schwierig. Ich denke aber, dass man sich auf die Internen sehr gut verlassen kann, da AMD sie wohl selber nutzt.

- - - Updated - - -

Wir sind aber noch weit davon entfernt, dass ein Treiber für jede GPU den wirklich idealen Betriebsbereich findet. Gamers Nexus hat die Spannugen der GPU direkt ausgelesen. Da liegen im P6 und P7 die 1.150 und 1.200 mV an, egal was optimal wäre.

NVIDIA hat ja mal versucht für Boost 3.0 einen Automatisus für das Overclocking einzubauen. Dabei wird für die Spannungsebenen getestet, bis das System instabil wird und dann gehts weiter. Aber selbst dieser Mechanismus lässt noch Spielraum.

Der Treiber merkt auf jeden Fall, dass die 970mV im Video nicht ausreichend sind. Ob das nun intelligent ist oder eine schlichte manuelle Vorgabe, ist eine andere Sache.
 
Zuletzt bearbeitet:
Wir sind aber noch weit davon entfernt, dass ein Treiber für jede GPU den wirklich idealen Betriebsbereich findet. Gamers Nexus hat die Spannugen der GPU direkt ausgelesen. Da liegen im P6 und P7 die 1.150 und 1.200 mV an, egal was optimal wäre.

NVIDIA hat ja mal versucht für Boost 3.0 einen Automatisus für das Overclocking einzubauen. Dabei wird für die Spannungsebenen getestet, bis das System instabil wird und dann gehts weiter. Aber selbst dieser Mechanismus lässt noch Spielraum.
Weist du zufällig womit sie ausgelesen haben, mit einem Multimeter?
Das wäre Schade, ein Multimeter oder Voltmeter ist für solche Arten der Spannung nicht ausgelegt, nur ein Oszilloskop liefert hier korrekte Werte.
Ich persönlich nehme das nicht so ernst, aber ich weiß was für Messmittel laut ISO genutzt werden müssen in einem Labor.
Da bist mit allen Messmitteln im Nachteil ohne ISO Kalibrierung, die jährlich stattfinden Muss! :fresse:
 
Du sprichst also von der zeitlichen Auflösung? Ich weiß nicht was man bei diesen Karten braucht -ein Grund sich auf die internen Sensoren zu verlassen ^^ Ein Multimeter aus dem Baumarkt wird es wohl nicht tun (reine Spekulation ;) )
 
Zuletzt bearbeitet:
Du sprichst also von der zeitlichen Auflösung?
Ja und die Nachkommastellen, also z.B. 1.12345 Volt.
An den Frame Times kann man Spannungsänderung erkennen, das wäre eine gute Möglichkeit die Auflösung zu verfeinern.
Eine Stelle mit sehr Gleichmäßigen Frame Times und dann untervolten bis die Linie einknickt. (Bsp.)
 
Ja und die Nachkommastellen, also z.B. 1.12345 Volt.
An den Frame Times kann man Spannungsänderung erkennen, das wäre eine gute Möglichkeit die Auflösung zu verfeinern.
Eine Stelle mit sehr Gleichmäßigen Frame Times und dann untervolten bis die Linie einknickt. (Bsp.)

Ja, ich würde es auch eher indirekt messen wollen. Sich schnell ändernde Spannungen genau zu messen -naja. Wenn man es gut machen kann, wird es teuer. Ich gehe aber davon aus, dass die internen Sensoren dafür ausgelegt sind. Das Baumarkt Multimeter wird blind sein für sich schnell ändernde Spannungen. Auch die Mittelung die z.B. HWinfo macht, ist mit Vorsicht zu genießen. Wenn einmal in der Sekunde gemittelt und abgelesen wird, fällt vieles raus. Wenn es dann überproportional Drops sind, hat man systematisch einen höheren Wert oder analog anders herum einen niedrigeren. Im allgemeinen hofft man ja, dass sich alles rausmittelt ;)
 
Zuletzt bearbeitet:
Ja, ich würde es auch eher indirekt messen wollen. Sich schnell ändernde Spannungen genau zu messen -naja. Wenn man es gut machen kann, wird es teuer. Ich gehe aber davon aus, dass die internen Sensoren dafür ausgelegt sind. Das Baumarkt Multimeter wird blind sein für sich schnell ändernde Spannungen. Auch die Mittelung die z.B. HWinfo macht, ist mit Vorsicht zu genießen. Wenn einmal in der Sekunde gemittelt und abgelesen wird, fällt vieles raus. Wenn es dann überproportional Drops sind, hat man systematisch einen höheren Wert oder analog anders herum einen niedrigeren. Im allgemeinen hofft man ja, dass sich alles rausmittelt ;)
Ja das hast du soweit richtig erkannt.

Mal sehen ob du das Diagramm, vor allem die Reihenfolge verstehst: http://www.abload.de/img/bf1_frametime_2560x143vsrc.jpg
 
Externe Messinstrumente sind auf auf jeden Fall den internen vorzuziehen, da ein Interessenkonflikt von Produzent und Käufer bestehen kann. Das wird aber bei Taktraten, Spannunge schon sehr schwierig. Ich denke aber, dass man sich auf die Internen sehr gut verlassen kann, da AMD sie wohl selber nutzt.

Der Treiber merkt auf jeden Fall, dass die 970mV im Video nicht ausreichend sind. Ob das nun intelligent ist oder eine schlichte manuelle Vorgabe, ist eine andere Sache.

Der Treiber merkt in jedem Fall, wenn man Unsinn eingibt der nicht funktionieren kann und legt bei der Spannung wieder etwas an, was stabil bleibt. Sozusagen ein eingebauter Failsave. Das gleiche Verhalten bei unter 1 V kann ich hier bestätigen.

Weist du zufällig womit sie ausgelesen haben, mit einem Multimeter?
Das wäre Schade, ein Multimeter oder Voltmeter ist für solche Arten der Spannung nicht ausgelegt, nur ein Oszilloskop liefert hier korrekte Werte.
Ich persönlich nehme das nicht so ernst, aber ich weiß was für Messmittel laut ISO genutzt werden müssen in einem Labor.
Da bist mit allen Messmitteln im Nachteil ohne ISO Kalibrierung, die jährlich stattfinden Muss! :fresse:

Games Nexus hat diese Werte mit einem Fluke 375 gemessen, etwas ähnliches haben wir uns auch angeschafft. Messequipment für einen vierstelligen oder gar fünfstelligen Betrag ist in jedem Fall nicht drin. Das müssen wir Igor von Toms Hardware überlassen ;)
 
Zuletzt bearbeitet:
Hat eigentlich schon jemand ausprobiert ob 64 und 56 mit dem Radeon Vega Frontier Edition Beta Treiber laufen ?

Lässt sich zwar installieren, man hat dann nur einen 17.1.1 Radeon Software Treiber ohne die Pro-Funktionen. Habe das gerade einmal mit einer Radeon RX Vega 64 ausprobiert.
 
Der Treiber merkt in jedem Fall, wenn man Unsinn eingibt der nicht funktionieren kann und legt bei der Spannung wieder etwas an, was stabil bleibt. Sozusagen ein eingebauter Failsave. Das gleiche Verhalten bei unter 1 V kann ich hier bestätigen.

Games Nexus hat diese Werte mit einem Fluke 375 gemessen, etwas ähnliches haben wir uns auch angeschafft. Messequipment für einen vierstelligen oder gar fünfstelligen Betrag ist in jedem Fall nicht drin. Das müssen wir Igor von Toms Hardware überlassen ;)
:) Sowas dachte ich mir schon.

Ok, evt. gibt es bei dir in der Nähe auch ein ETZ : etz Stuttgart - Elektroinstallationstechnik
Einfach mal Fragen ob man kurz ein Voltmeter abgleichen darf, mit einem kalibrierten Gerät.
 
Ja das hast du soweit richtig erkannt.

Mal sehen ob du das Diagramm, vor allem die Reihenfolge verstehst: http://www.abload.de/img/bf1_frametime_2560x143vsrc.jpg

Ich würde mir mehr Messungen in dieser Form wünschen, obwohl ich es anders darstellen würde. Obwohl ich sagen muss, dass sie meiner Darstellung durch die Überlappung in Form von Platz überlegen ist (ich denke an sowas: 2017.08.24-20.09.jpg)
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Hat tomshardware noch nichts gemessen? (bin gerade unterwegs) so viel ich weiß haben die zu Maxwell Zeiten extrem an mess Technik aufgerüstet und darüber auch mehrere Artikel /Berichte gebracht und grakas untersucht.

EDIT :
Ach schrieb Don ja eben bezüglich Igor :)

Gesendet von meinem S7 edge mit Tapatalk
 
Zuletzt bearbeitet von einem Moderator:
@DasUnding: Wie schauen deine Tests mit PT aus?

Es verhält sich ähnlich, kann ich aber aufgrund der immensen Abwärme nicht empfehlen. Was man vielleicht sage kann, ist dass die Automatik Spannung ähnlich zu 1050/1100mV sein muss. Was mein Postulat auch davor war. Ich lasse es nochmal mit längerer Messzeit laufen. Wenn das stimmt, könnte man Vega um wenige mV undervolten.

2017.08.24-22.33.jpg

Man beachte, dass an der gleichen Stelle mit PT=0% nun76FPS Peak statt 77FPS Peak auftreten, die mit 9°C für dieses Bild/s bezahlt werden. Bis jetzt kann ich nur Automatik mit PT=0% empfehlen. Das schlägt sich dann deutlich besser.
 
Zuletzt bearbeitet:
Neuer Radeon Software Crimson ReLive Edition 17.8.2 erscheint heute Nacht.

Behobenen Fehler:

Radeon WattMan may not reach applied overclock states on Radeon RX Vega series graphics.

Display may blank or go black after install upgrade with Radeon RX Vega Series graphics products.

Random corruption may appear in Microsoft desktop productivity applications on Radeon RX Vega series graphics products.

The “Reset” option in Radeon Settings Gaming tab may enable the “HBCC Memory Segment” feature instead of setting it to the default disabled state.
 
Und mir ist gerade noch aufgefallen, dass du die Watt-Werte von HWInfo vergessen kannst. Wie ich schon einmal angemerkt habe, ändert sich die Spannung in HWInfo nicht. Da man den Verbrauch nicht direkt messen kann, sondern nur Spannung und Strom, werden die Watt daraus berechnet. Da sich die Spannung nicht ändert, ist der Verbrauch, den HWInfo ausgibt falsch. :wink:
 
Und mir ist gerade noch aufgefallen, dass du die Watt-Werte von HWInfo vergessen kannst. Wie ich schon einmal angemerkt habe, ändert sich die Spannung in HWInfo nicht. Da man den Verbrauch nicht direkt messen kann, sondern nur Spannung und Strom, werden die Watt daraus berechnet. Da sich die Spannung nicht ändert, ist der Verbrauch, den HWInfo ausgibt falsch. :wink:

Ich bin mir da nicht sicher. Die Werte von HMB und GPU scheinen vertauscht zu sein, da ich aber die Summe bilde, ist es egal. Also eigentlich bin ich mir sicher ;) (das war nur Höflichkeit)
Das sollte man im Video sehen können.

Also

GPU Core Voltage = Spannung HBM2
GPU Memory Voltage= Spannung Chip

Das kann man erkennen, wenn man wusste, dass HBM2 mit 1.35V läuft um die 945Mhz zu packen. Bei der Nvidia Karte mit HBM hatten wir glaube ich irgendwas mit 800MHz und 1.2V


Ich habe mir nochmal die Spannung angeschaut: Die Automatikspannung ist schon sehr niedrig. Das 1050/1100 ist dann leicht höher, wodurch durch das Powertarget der letzte dann nicht immer angefahren wird. Das Ändert sich dann je nach Target, man kann also zwischen letztem und vorletztem Wert kippen. Also wie gesagt empfehlen kann ich nur Automatik PT=0%.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh