- Mitglied seit
- 15.11.2002
- Beiträge
- 27.220
Jat hat es nicht, was ist nun die Aussage?
Für die Preisdiskussion haben wir ein eigenes Thema: Die Preissituation um die Radeon RX Vega 64 (4. Update)
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Jat hat es nicht, was ist nun die Aussage?
Jat hat es nicht, was ist nun die Aussage?
Für die Preisdiskussion haben wir ein eigenes Thema: Die Preissituation um die Radeon RX Vega 64 (4. Update)
Also Don, ich würde mir wünschen, wen ihr den Test mit dem Undervolting nochmal macht und eure Systematik dabei ändert. Das würde ich schön finden. Vielleicht bekommt man ja ein paar neue Erkenntnisse. Die manuellen Werte in der Vorconfig liegen aber auf jeden Fall nicht bei den Profilen an. Vielleicht wurden Sie zum Overclocking so hoch voreingestellt, dass müsste dann AMD selbst mal erklären. Dies würde dann auch die vermeintlichen super tollen Undervolting Ergebnisse erklären.
An sich sollte die Sache nicht so einfach sein.
Fixe Spannungen und Taktraten sind schon lange nicht mehr der Fall.
Da wird alles dynamisch geregelt, je nach dem was die Sensoren Auswertung errechnet.
Das wird sogar ein Stück weit AI sein, da die GPUs nie die selbe Spannung benötigen werden.
Wir bekommen die Tage auch neues Messequipment, womit wir den Stromverbrauch der Karte selbst messen können - ohne Gesamtsystem und ohne uns wie in deinem Fall auf irgendwelche Software verlassen zu müssen.
Hat eigentlich schon jemand ausprobiert ob 64 und 56 mit dem Radeon Vega Frontier Edition Beta Treiber laufen ?
Nur das was vom NT (PCIe 6+2pol.) oder auch was (wirklich) über den PCIe x16 "gezogen" wird?
Wir sind aber noch weit davon entfernt, dass ein Treiber für jede GPU den wirklich idealen Betriebsbereich findet. Gamers Nexus hat die Spannugen der GPU direkt ausgelesen. Da liegen im P6 und P7 die 1.150 und 1.200 mV an, egal was optimal wäre.
NVIDIA hat ja mal versucht für Boost 3.0 einen Automatisus für das Overclocking einzubauen. Dabei wird für die Spannungsebenen getestet, bis das System instabil wird und dann gehts weiter. Aber selbst dieser Mechanismus lässt noch Spielraum.
Weist du zufällig womit sie ausgelesen haben, mit einem Multimeter?Wir sind aber noch weit davon entfernt, dass ein Treiber für jede GPU den wirklich idealen Betriebsbereich findet. Gamers Nexus hat die Spannugen der GPU direkt ausgelesen. Da liegen im P6 und P7 die 1.150 und 1.200 mV an, egal was optimal wäre.
NVIDIA hat ja mal versucht für Boost 3.0 einen Automatisus für das Overclocking einzubauen. Dabei wird für die Spannungsebenen getestet, bis das System instabil wird und dann gehts weiter. Aber selbst dieser Mechanismus lässt noch Spielraum.
Ja und die Nachkommastellen, also z.B. 1.12345 Volt.Du sprichst also von der zeitlichen Auflösung?
Ja und die Nachkommastellen, also z.B. 1.12345 Volt.
An den Frame Times kann man Spannungsänderung erkennen, das wäre eine gute Möglichkeit die Auflösung zu verfeinern.
Eine Stelle mit sehr Gleichmäßigen Frame Times und dann untervolten bis die Linie einknickt. (Bsp.)
Ja das hast du soweit richtig erkannt.Ja, ich würde es auch eher indirekt messen wollen. Sich schnell ändernde Spannungen genau zu messen -naja. Wenn man es gut machen kann, wird es teuer. Ich gehe aber davon aus, dass die internen Sensoren dafür ausgelegt sind. Das Baumarkt Multimeter wird blind sein für sich schnell ändernde Spannungen. Auch die Mittelung die z.B. HWinfo macht, ist mit Vorsicht zu genießen. Wenn einmal in der Sekunde gemittelt und abgelesen wird, fällt vieles raus. Wenn es dann überproportional Drops sind, hat man systematisch einen höheren Wert oder analog anders herum einen niedrigeren. Im allgemeinen hofft man ja, dass sich alles rausmittelt
Externe Messinstrumente sind auf auf jeden Fall den internen vorzuziehen, da ein Interessenkonflikt von Produzent und Käufer bestehen kann. Das wird aber bei Taktraten, Spannunge schon sehr schwierig. Ich denke aber, dass man sich auf die Internen sehr gut verlassen kann, da AMD sie wohl selber nutzt.
Der Treiber merkt auf jeden Fall, dass die 970mV im Video nicht ausreichend sind. Ob das nun intelligent ist oder eine schlichte manuelle Vorgabe, ist eine andere Sache.
Weist du zufällig womit sie ausgelesen haben, mit einem Multimeter?
Das wäre Schade, ein Multimeter oder Voltmeter ist für solche Arten der Spannung nicht ausgelegt, nur ein Oszilloskop liefert hier korrekte Werte.
Ich persönlich nehme das nicht so ernst, aber ich weiß was für Messmittel laut ISO genutzt werden müssen in einem Labor.
Da bist mit allen Messmitteln im Nachteil ohne ISO Kalibrierung, die jährlich stattfinden Muss!
Was hat das mit UV zu tun?Mal sehen ob du das Diagramm, vor allem die Reihenfolge verstehst: http://www.abload.de/img/bf1_frametime_2560x143vsrc.jpg
Hat eigentlich schon jemand ausprobiert ob 64 und 56 mit dem Radeon Vega Frontier Edition Beta Treiber laufen ?
Sowas dachte ich mir schon.Der Treiber merkt in jedem Fall, wenn man Unsinn eingibt der nicht funktionieren kann und legt bei der Spannung wieder etwas an, was stabil bleibt. Sozusagen ein eingebauter Failsave. Das gleiche Verhalten bei unter 1 V kann ich hier bestätigen.
Games Nexus hat diese Werte mit einem Fluke 375 gemessen, etwas ähnliches haben wir uns auch angeschafft. Messequipment für einen vierstelligen oder gar fünfstelligen Betrag ist in jedem Fall nicht drin. Das müssen wir Igor von Toms Hardware überlassen
Ja das hast du soweit richtig erkannt.
Mal sehen ob du das Diagramm, vor allem die Reihenfolge verstehst: http://www.abload.de/img/bf1_frametime_2560x143vsrc.jpg
Bilder sagen mehr...Ich würde mir mehr Messungen in dieser Form wünschen, obwohl ich es anders darstellen würde. Obwohl ich sagen muss, dass sie meiner Darstellung überlegen ist (ich denke an sowas:Anhang anzeigen 409999)
@DasUnding: Wie schauen deine Tests mit PT aus?
Und mir ist gerade noch aufgefallen, dass du die Watt-Werte von HWInfo vergessen kannst. Wie ich schon einmal angemerkt habe, ändert sich die Spannung in HWInfo nicht. Da man den Verbrauch nicht direkt messen kann, sondern nur Spannung und Strom, werden die Watt daraus berechnet. Da sich die Spannung nicht ändert, ist der Verbrauch, den HWInfo ausgibt falsch.
Nvidia und HBM?