AMD Radeon RX Vega 64 und RX Vega 56 im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
War schon gut, dass die Ferien irgendwann vorbei waren :shot:
 
ich persönlich finde es gar nicht so schlecht das hwluxx (als eine der wenige redaktionen) mit einem etwas betagteren system testet, so gesehen hebt man sich sogar von der konkurenz ab^^

zu wissen was eine graka in kombination mit einer aktuellen high-end cpu im stande ist, ist ja schön und gut - das bringt mir aber so viel erstmal nicht, wenn ich keine solche high-end cpu besitze.
Da ist durchaus etwas dran!
Andererseits sollte man ausschließen können, dass Highend nicht durch andere Komponenten ausgebremst wird.

Mal ganz theoretisch: Vega hat ja so eine schlechte Effizienz weil es im Takt grenzwertig gefahren wird. Mit etwas weniger Takt und undervolting (siehe GNs Review mit der Vega 56) sieht die Welt schon viel entspannter aus. Es könnte durchaus sein, dass die Vega Nano auf einmal HTPC fähig wird (wenn sie etwas Tuning bekommt). Ob sich das preislich lohnt ist dann eine andere Frage.
Dementsprechend langsam wird sie aber auch sein. Preislich würde ich unter 500€ auch nichts erwarten und damit wird sie genau unattraktiv wie die Fury Nano. Technisch natürlich sehr interessant, aber wenn P/L nicht stimmt, dann bringt das nichts.

Es muss ja niemals auf Vega bezogen gewesen sein. "Poor Volta" kann schon immer wegen Navi gemeint sein. Wenn Navi tatsächlich aus vielen kleinen Dice besteht, könnte AMD sowas bringen, wie mit Ryzen und dagegen könnte jede Ein-Die-Grafikkarte chancenlos sein, weil man eben fast unendlich Rechenleistung draufpacken kann, und am Ende in der Regel trotzdem weniger Kosten hat.

Edit: Dank HBM ist auf so einer Grafikkarte jetzt viel Platz und mit fast unendlich vielen Shadern kann man auch niedrigere Taktraten fahren, sodass das Teil kaum Strom braucht und sich auf eine große Fläche ausgewalzt auch gut kühlen lässt.
Dann warten wir mal auf Fury 3.0. Du weißt schon was deren Problem neben dem Speicher war?
 
Zuletzt bearbeitet:
Zu der Zeit war der 1. Eindruck noch entscheidend. Das ist heute was völlig anderes. R600 hatte massive Hardware-Probleme, das bezweifel ich bei Vega doch mittlerwiele stark.

Weisst du etwa mehr als wir? Bisher wären wir ja bei Bandbreitenproblem was auch die Übertaktung von HBC hindeutet.. Treiberprobleme sollte AMD ja in Griff bekommen.. die 300W sind aber eben immer noch erschreckend
 
Keine Ahnung, würde ich gerne mehr darüber wissen, erleuchte mich mal.
Hier: AMD explains Radeon RX 480 'image quality controversy' with AOTS Ich hab das nachher nicht mehr verfolgt.

Warum ihr eigentlich noch immer wegen den Minern jammert ist mir auch nicht bewusst, noch gibt es keine Indizien dass Miner auf Vega abfahren.
So ganz uninteressant scheint Vega mit undervolting und OC nicht zu sein: http://www.legitreviews.com/wp-content/uploads/2017/08/vega-64-hashrate-per-watt.png
 
LiveStream von Gamers Nexus mit UC und OC

 
Die Uvp von der 64 sind 509€ was nun offiziel 649€ ergeben bei den Händlern ( die 509€ hatte Mindfactory nur kurzzeitig aufgerufen ) das würde bei der 56 mit einer Uvp von 409€ satte 550€ ergeben :d das ist doch absolut lächerlich -.-
 
Gamers Nexus hat vor 2 Stunden noch ein Video hochgeladen. Die RX56 nutzt dasselbe PCB, dieselbe kranke Spannungsversorgung und den exakt selben Kühler wie der große Bruder. UND: der eingesetzte Fan verbraucht laut Steven 28W :d welche man vom Verbrauch der RX Vega unter Wasser schon Mal abziehen darf.
 
LiveStream von Gamers Nexus mit UC und OC


1590Mhz Target 1015 mV bei 50% und 80°C Target verbraucht sie 20A. Das sind 240Watt. Wobei Powertraget ist so ein Ding- je Kühler die Grafikkarte, desto weniger braucht man.

Wobei er behält die Augen auf dem Takt nicht. Klopft einfach 990 mV rein bei 1590 MHz Target und sieht nicht, dass der reale Takt auf 1430 Mhz dropt. Sinnverfehlung des Undervoltings.

Oh, nein. Er hats bemerkt, aber er sagt es ist ein Bug. Eine physikalische Eigenschaft des Siliziums wird auf einmal zum Bug.
 
Zuletzt bearbeitet:
Weisst du etwa mehr als wir? Bisher wären wir ja bei Bandbreitenproblem was auch die Übertaktung von HBC hindeutet.. Treiberprobleme sollte AMD ja in Griff bekommen.. die 300W sind aber eben immer noch erschreckend

Die Fury X hatte offizielle 275 Watt TDP. Da kommt es auf 20 Watt TDP mehr nun auch wieder nicht an.
Eine GTX1080Ti als Custom ziehen teils bis zu 384 Watt aus der Dose siehe GTX 1080 Ti AMP! Extreme. Beschwert sich auch keiner darüber.
Geforce GTX 1080 Ti: Custom-Designs in der Herstellerübersicht - Taktraten, Kühlung, Powerlimit [Update 16.06.]
 
Also wenn man nun lang genug dabei ist... irgendwie ist AMD gerade (mal wieder) in Schieflage. Das was man bei Threadripper zu viel gemacht hat ist bei Vega zu wenig geworden. Und kann man es AMD verübeln? Nein. - Kämpft man doch gleich an zwei Fronten gegen einen Prozessor- und einen Grafikkartenhersteller. Dankbar sollte man AMD aber auf jeden Fall sein (speziell als Intel und Nvidia-Käufer), regulieren sie doch nun wieder den Markt. Besonders Intel muss sich jetzt von seinen Wahnvorstellungen verabschieden und wer weiß, vielleicht hat man das nächste mal Nvidia im Visier.
Man kämpft aber nicht mit einem Produkt an zwei Fronten, die GPUs haben mit den CPUs erst mal wenig zu tun. Daher hatte man durchaus mehr erwarten können.

Man darf auch nicht vergessen, dass die GPU Sparte bei AMD im Aufbau ist und in der Radeon Technologie Group (RTG) aufgehen wird, das erste Produkt wird Navi sein.;)
Hat man davor abgebaut oder nichts gehabt? ;)

Wenn man als Gamedeveloper alles berücksichtigen möchte, was Vega kann, kann erst selbst auf die Primitiveshader optimieren, überall wo es geht FP16 und Int8/FP8 Daten packen, Optimierung für LL-APIs für HBCC durchführen, Shaderintrinsics benutzen, async compute konsequent nutzen (nicht nur contextswitching für NVs Preemtion wie Timespy) und das Ding geht ab wie ne Rakete.
Glückwunsch, du hast das Problem das Vega haben wird erkannt!
 
Zuletzt bearbeitet:
1590Mhz Target 1015 mV bei 50% und 80°C Target verbraucht sie 20A. Das sind 240Watt. Wobei Powertraget ist so ein Ding- je Kühler die Grafikkarte, desto weniger braucht man.

Vega 56 braucht vernünftige kühlung dann sollte das schon besser werden das das mit dem quirl ein witz ist wuste ich vorher.
War bei der NV FE verarsche die gleich nen 100er mehr gekoset hat auch nicht anders.
 
Zuletzt bearbeitet:
Man kämpft aber nicht mit einem Produkt an zwei Fronten, die GPUs haben mit den CPUs erst mal wenig zu tun. Daher hatte man durchaus mehr erwarten können.

Richtig. Wenn alle mit der CPU-Sparte beschäftigt sind, können die anderen alle im GPU-Teil fleißiger sein. Macht echt Sinn. ;)

- - - Updated - - -

Oh, nein. Er hats bemerkt, aber er sagt es ist ein Bug. Eine physikalische Eigenschaft des Siliziums wird auf einmal zum Bug.

Er meinte sicherlich das Ausleseprogramm für die Taktraten.
Hatte ich auch mal bei meiner GTX980Ti. Da wurde der Speichertakt nicht korrekt ausgelesen, erst nach ein paar Tagen, als es ein Update des Programms gab, wurde er wieder korrekt angezeigt.
 
Zuletzt bearbeitet:
Ich glaube, es zeigt schon richtig an. Weil der innere Widerstand auf Grund von Temperatur wächst, drosselt es. Würde man eine vernünftigen Kühler drauf haben und eine vernünftige Gehäuselüftung, würde der Takt nicht so stark droppen. Das hatte ich schon mit der RX480. Gehäuselüfter auf volle Drehzahl und der Takt sinkt nicht so stark beim Undervolting. Gehäuselüfter auf 50% dann fehlt der Takt wieder. Powertarget auf 5% anheben, steigt die Temperatur und der Verbrauch, aber der Takt droppt nicht.
 
Die Fury X hatte offizielle 275 Watt TDP. Da kommt es auf 20 Watt TDP mehr nun auch wieder nicht an.
Eine GTX1080Ti als Custom ziehen teils bis zu 384 Watt aus der Dose siehe GTX 1080 Ti AMP! Extreme. Beschwert sich auch keiner darüber.
Geforce GTX 1080 Ti: Custom-Designs in der Herstellerübersicht - Taktraten, Kühlung, Powerlimit [Update 16.06.]



Vielleicht weil die Karte auch etwas schneller ist? Wer würde sich denn aufregen wenn die Vega 64 an die 1080 Ti rankommen würde? Dann könnte man ja noch über den verbrauch hinweg sehen.

Nebenbei ist dort das Powerlimit angegeben. Die Aorus ist doch etwas weniger hungrig.

Gigabyte Aorus GeForce GTX 1080 Ti im Test (Seite 2) - ComputerBase
 
Zuletzt bearbeitet:

Ändert aber nichts daran, dass...
  • die Werte von Firestrike nicht 1:1 auf Spiele übertragbar sind
  • man die 1070 auch noch optimieren kann
  • die 1070 trotzdem weniger verbraucht bei gleicher Leistung

Und ob Treiberoptimierungen wirklich so viel bringen steht noch in den Sternen. Kann sein muss, aber nicht.

Und wenn man schon einen Monitor mit Freesync hat und dies auch nutzen möchte, dann ist sie durchaus die bessere Wahl. Auch wenn man die Anschaffung von einem neuen Monitor plant und der Adaptive-Sync haben soll, dann ist sie wahrscheinlich auch die bessere Wahl, da man bei Nvidia noch den G-Sync Aufschlag dazu rechnen muss. Ist ja keine schlechte Karte :wink:
 
Hab auch zugeschlagen:HIS Vega 64 air von Compuland, hat schon wer Erfahrung mit diesem Shop gemacht?
 
Ich glaube, es zeigt schon richtig an. Weil der innere Widerstand auf Grund von Temperatur wächst, drosselt es. Würde man eine vernünftigen Kühler drauf haben und eine vernünftige Gehäuselüftung, würde der Takt nicht so stark droppen. Das hatte ich schon mit der RX480. Gehäuselüfter auf volle Drehzahl und der Takt sinkt nicht so stark beim Undervolting. Gehäuselüfter auf 50% dann fehlt der Takt wieder. Powertarget auf 5% anheben, steigt die Temperatur und der Verbrauch, aber der Takt droppt nicht.

Nicht ganz. ;)
Der Takt droppt nicht, weil das Powertarget erhöht worden ist.

Das mit der Temperatur und Verbrauch funktioniert so:
Die Leistungsaufnahme (Watt) wird durch 3 Faktoren beeinflusst.
1. Die Spannung die anliegt.
2. Der Strom, der durch die Schaltung fließt, welcher vom inneren Widerstand abhängig ist.
3. Die Frequenz(Taktrate) der GPU.

Leistung(Watt) ist das Produkt aus Spannung(Volt) x Stromstärke(Ampere)
Also 1 Watt = 1 Volt x 1 Ampere

Soweit alles klar.
Jetzt kommt noch der innere Widerstand(Ohm) dazu, der den Stromfluss beeinflusst. Dieser ist bei Silizium temperaturabhängig da es zu der Familie der Heißleiter gehört und verringert sich, je heißer das Material wird. Also der innere Widerstand wird mit zunehmender Temperatur kleiner.

Der Stromfluss wiederum ist abhängig von der Spannung die anliegt und eben dem inneren Widerstand.
Da die Spannung in der Regel konstant bleibt, was zwar nicht wirklich der Fall ist aber in diesem Beispiel zur Vereinfachung angenommen wird, so steigt der Stromfluss mit zunehmender Temperatur an, da sich der innere Widerstand verringert.
Bei halben inneren Widerstand verdoppelt sich die Stromstärke. Also in diesem Beispiel:

1 Volt x 2 Ampere = 2 Watt

Ergo, wenn du die Grafikkarte schön kühl hältst, so erhöhst du den inneren Widerstand, verringerst die Stromstärke und die Leistungsaufnahme sinkt, was einen größeren Spielraum zur maximalen TDP-Grenze offeriert, sprich, die Karte hat nun mehr Reserven für eine höher Taktfrequenz - die Karte kann also höher und konstanter boosten. Wobei es sich mit der Taktrate und der Leistungsaufnahme 1:1 verhält, also doppelter Takt = doppelte Leistungsaufnahme.

Man könnte ja auf die Idee kommen statt die Stromstärke einfach die Spannung zu verringern(Undervolting).
Das Undervolting ist sehr effektiv, wenn es um Effizienzsteigerung geht, da die Spannung zusätzlich auch die Stromstärke beeinflusst.
Also bei 1/2 Spannung wird auch nur der 1/2 Strom erzeugt. Daraus ergibt sich nur noch 1/4 der Leistungsaufnahme wie zuvor.

0,5 Volt x 0,5 Ampere = 0,25 Watt

Die Grafikkarte wird dadurch noch kühler und die Leistungsaufnahme sinkt weiter.
Leider gibt es da auch seine Grenzen, denn mit zunehmender Verringerung der Spannung wird die Grafikkarte immer weniger taktfreudiger, bis sie schlussendlich komplett ihren Dienst einstellt.

Es ist also ein komplexer Vorgang den optimalen Sweetpunkt, zwischen Spannung, Temperatur und Taktfreudigkeit zu finden um das Optimum an Effizienz zu erreichen, welcher bei jeder GPU anders ist bzw. sich etwas anders verhält.
In der Regel ist jede GPU undervoltfähig und man kann sie so effizienter machen. Vorausgesetzt man kann die Spannung auf der Grafikkarte regulieren und das auch nach Unten. Ist leider nicht bei jeder Grafikkarte möglich und teilweise auch begrenzt

Desweiteren mögen es GPUs, wenn sie kühl gehalten werden. Dadurch werden sie taktfreudiger und können mit weniger Spannung die selbe Taktrate erreichen.
Ich hatte mal ein System so ausgetaktet, dass ich genau gewusst habe, wann es abstürzt. Ich hatte ein Anzeige der Wassertemperatur und solange sie bis 30 Grad war, so lief alles stabil. Ab 30,5 Grad stürzte der Rechner beim Zocken schlagartig ab und das reproduzierbar. :)

- - - Updated - - -

Das müssen ja richtige Genies sein wenn dieselben Leute erst eine CPU bauen und dann eine GPU. ;)

Mh...Ich will es mal anders formulieren.
Du hast 100 Personen die du aussuchen kannst, weil du nicht mehr Geld besitzt um mehr Leute zu bezahlen(Lohn/Steuer/Sozialversicherungen ect.). Jetzt hast du zwei Sparten zu versorgen, wobei eine Sparte deine Primärsparte ist. Folglich stellst du dort mehr Personal ein als in der anderen Sparte.
Sagen wir mal 75 Leute in der CPU-Sparte (Ryzen/Threadripper + Chipsätze und Speicherkonfiguartion). In der anderen Sparte, die GPU-Sparte arbeiten nur 25 Leute.
Jetzt die große Preisfrage, wo erreicht man mehr und vor allem schneller ?

Einen etwas anderen Blickwinkel vielleicht:
Bei NVIDIA können auch 100 Stellen besetzt werden. Wo arbeiten dann alle diese Leute primär ?...
 
Zuletzt bearbeitet:
Hab auch zugeschlagen:HIS Vega 64 air von Compuland, hat schon wer Erfahrung mit diesem Shop gemacht?
Ist ein Ableger von Mindfactory.

Mh...Ich will es mal anders formulieren.
Du hast 100 Personen die du aussuchen kannst, weil du nicht mehr Geld besitzt um mehr Leute zu bezahlen(Lohn/Steuer/Sozialversicherungen ect.). Jetzt hast du zwei Sparten zu versorgen, wobei eine Sparte deine Primärsparte ist. Folglich stellst du dort mehr Personal ein als in der anderen Sparte.
Sagen wir mal 75 Leute in der CPU-Sparte (Ryzen/Threadripper + Chipsätze und Speicherkonfiguartion). In der anderen Sparte, die GPU-Sparte arbeiten nur 25 Leute.
Jetzt die große Preisfrage, wo erreicht man mehr und vor allem schneller ?

Einen etwas anderen Blickwinkel vielleicht:
Bei NVIDIA können auch 100 Stellen besetzt werden. Wo arbeiten dann alle diese Leute primär ?...
Demnach würde AMD nun viele CPU-Leute wieder entlassen um welche für GPUs einzustellen. Müssen wir uns dann Sorgen um Zen 2 machen?
 
AMD kann erst wieder mehr Personal einstellen, wenn ihre Produkte auch gekauft werden. Und an Zen 2 wird schon jetzt gearbeitet und das vermutlich mehr als an VEGA, weil Zen das Kerngeschäft darstellt.
Bei weiteren Fragen die offensichtlich keinen ernsten Inhalt haben, empfehle ich den Ratschlag einfach selber auf die Antworten zu kommen. Ist ganz einfach. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh