AMD Radeon RX Vega 64 und RX Vega 56 im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Referenz Vega 56 für 350€ und Custom für 400€ = Profit für alle. Die Referenz könnte dann für Wasserfreunde atraktiv sein.

Genau darauf hoffe ich. 350€ wäre ein fairer Preis für ne Referrenz 56er.
Potential zum modden per Software/bios ist definitiv ne Menge da, die schreit nach Wasser :) Damit wäre man in Summe bei ~ 430-470€ für ne custom Wakü 56er.
Ich bin eigentlich sehr froh, dass sie mit der GTX1070 konkurriert, so hält sich der Preis in Grenzen. Hatte schon befürchtet, dass beide Karten jeweils etwas weiter oben mitspielen, damit wären sie dann ne ganze Ecke teurer gewesen. Ist schon ganz gut so.
Nur halt schade für diejenigen mit Freesync Panel, die auf ne tier 1 AMD Karte gewartet haben und jetzt blöd dastehen.
Nach "poor Volta" hätte man eigentlich erwarten können, dass sie nen Gegenspieler für die 1080TI bringen oder sogar noch etwas darüber.
 
Zuletzt bearbeitet:
Das wird schneller gehen als Du nun meinst.
id Software: Nchste id Tech setzt auf FP16-Berechnungen - Golem.de
DICE ist schon ne Weile dran mit ihrer Frostbite Engine und die wird u.a. alle künftige EA Games befeuern.

VEGA wird sein volles Potenzial erst noch zeigen, wie die meisten AMD Karten bisher.

Vor allem, weil die Geometrieengine noch quasi im Fiji-Modus läuft. AMD hat ausdrücklich klargestellt, dass die Primitiveshader derzeit noch nicht aktiviert sind und diese massiv den Polygondurchsatz erhöhen werden. Diese müssen auch nicht vom Spieleentwickler berücksichtigt werden, AMD will klassische Vertex- und Geometryshader mit Primitiveshadern per Treiber beschleunigen, was derzeit noch nicht geht - es gibt sogar einen beta-Treiber dafür, 17.320 (nicht öffentlich). AMD will damit den Polygondurchsatz massiv erhöhen (um bis zum 4-fachen). Damit kann man deutlich besser den Rasterizer füttern, der dann natürlich auch effizienter arbeiten kann, weil er mit einem deutlich höheren Durchsatz cullen kann und das Backend so deutlich schneller füttern kann. Die Bandbreite wiederum wird sicherlich mit mehr Optimierung des Rasterizers ebenfalls sinken, was wiederum dadurch zusätzlich verbessert wird, indem man den HBCC nutzt wie geplant... das ist wie ein Konzert, dass derzeit aufgrund des langsamen Dirigenten nur langsame Stücke spielen kann.
Wenn man als Gamedeveloper alles berücksichtigen möchte, was Vega kann, kann erst selbst auf die Primitiveshader optimieren, überall wo es geht FP16 und Int8/FP8 Daten packen, Optimierung für LL-APIs für HBCC durchführen, Shaderintrinsics benutzen, async compute konsequent nutzen (nicht nur contextswitching für NVs Preemtion wie Timespy) und das Ding geht ab wie ne Rakete.
 
Zuletzt bearbeitet:
Nicht einmal die Miner wollen den "heißen scheiß" haben.
Sorry, der musste sein.

Zu VEGA
Ja, jetzt ist er da, der High End Chip von AMD im Grafikbereich.
Die Performance ist durchwachsen, da geht sicher noch einiges mit den Treibern. Die ganzen Software Features sind noch deaktiviert und der Verbrauch ist, ich sage es mal so wie es ist lächerlich.
Jetzt muss man also auf die fertigen Treiber warten und weiter hoffen dass die Performance steigt und der Verbrauch bei besserer GPU Auslastung sinkt.

Wie war das Poor Volta?
Ich sage Poor VEGA, setzen 6. GCN endlich einstampfen und ganz von vorne anfangen.


@Hot

Ja, AMD will das und jenes.
Sowas gehört zum Launch und nicht paar Monate später, denn da schauen doch nur mehr die wenigsten. Was zählt ist der 1. Eindruck und der ist bei VEGA in Anbetracht der Konkurrenz einfach nur schlecht.
 
Zuletzt bearbeitet:
Das war mal so, der 1. Eindruck zählt schon lange nicht mehr wirklich.
 
Wird Zeit, dass da mal ein purer ASIC nur für Kryptozeug rausgebracht wird. So bekommt und behält man keine Kunden. Und btw, wenn die GPU innerhalb von 2 Jahren beim Miner abraucht, dann liegt die noch innerhalb der Garantie und die ganzen Händler dürfen den Minern neu neue frei Haus schicken.

Egal ob die 24/7 gelaufen ist oder nicht. Die "gebrauchte" hat dann nur noch Schrottwert. Aber hey, wenn die Händler/Hersteller glauben, dass das ne gute Idee ist...

Genau das wollen Ethhash und equihash verhindern, da dann die Leistung der Verschlüsselung im System nicht so schnell steigt.
Das ist aber der beste Schutz gegen Angriffe.

Und schrott sind Mining-Karten eher nicht.
Im Gegenteil, ich würde mir glaub lieber ne 3 Monate alte Mining-Karte als ne OC Karte eines Gamers kaufen, die Miningkarte hat nicht so viel Temperaturwechsel durch und lief wohl zu 99% im Sweetspot aus Leistung und verbrauch.
 
Hab den Thread nicht mitverfolgt... Wurde bei den Minern schon angekündigt, dass Patches o.ä. für die Vega kommen, wodurch diese für Mining interessanter wird? Bisjetzt liest man das Gegenteil, was eine Hoffnung für eine günstige RX 56 gibt, doch die Straßenpreise für die RX 64 sagen was anderes.
http://developer.amd.com/wordpress/media/2013/12/Vega_Shader_ISA_28July2017.pdf

Best Ethereum Mining GPUs - A Benchmark And Optimization Guide | HotHardware

Naja, ein SP zu DP Verhältnis von 1:2 klingt schon verlockend... :xmas:
 
Was ist eigentlich dabei rausgekommen, dass Nvidia in dem Spiel (oder überhaupt dbei DX12?) mit der Bildqualität schummeln?
Keine Ahnung, würde ich gerne mehr darüber wissen, erleuchte mich mal.
Aber bitte ordentlich mit Quellenangabe.)

Was hältst du vom DX12-Ergebnis bei BF1
Ja, in DX12 bei BF1 kommt Vega wirklich gut an eine Ti ran, wer weiß wie DX11 und DX12 auf NV-Karten bei BF1 läuft, der wird DX12 bei NV meiden weil bei DX11 mehr frames rauskommen bei gleicher Bildqualität.
BF1 ist in DX12 bei NV einfach nur sch.. (von NV)
In DX11 ist wieder das übliche Bild, also Ti ordentlich vor Vega welche gleichauf mit der 1080 ist.

Warum ihr eigentlich noch immer wegen den Minern jammert ist mir auch nicht bewusst, noch gibt es keine Indizien dass Miner auf Vega abfahren.

- - - Updated - - -

Naja, ein SP zu DP Verhältnis von 1:2 klingt schon verlockend... :xmas:
Und was hat das mit Mining zu tun?
 
Das war mal so, der 1. Eindruck zählt schon lange nicht mehr wirklich.

Weil?
Weil AMD immer was verspricht dass sie nie halten können?
Willst jetzt Monate warten bis AMD die Treiber halbwegs für VEGA optimiert hat?
Der Launch erinnert mich an die R600, die war auch ein Fail und das ist VEGA ebenso.
 
Deshalb hab ich auch geschrieben was drinnstecken kann.

Warum schaust du nicht auf das was nicht drinnsteckt? Das ist viel öfter präsent und relevant.
Dieses Kirschenpicken ist der Grund warum die Stimmung so vergiftet ist.
Vega ist einfach nicht gut geworden. Ganz oafoch.

Die RX56 ist Mist und die RX64er genauso.
MIST+ Freesync machts auch nicht unbedingt besser.

Muss man sich dann wirklich jede seite dreimal den müll antun den die leute posten die sich ihre NV karten schöner reden wollen als sie sind.

Ich kaufe selbst oft nur AMD. Da Thermi war damals n Running Gag. Vega hat Welpenschutz.

So, meine Liquid ist bestellt,ihr wisst schon, die Karte die hier nirgends getestet worden ist.
Zum Glück bin ich genügend liquide, wenn ihr versteht was ich meine. ;)

Schau mal bei Gamestar. 250 Watt mehr als ne GTX 1080 und dann auch noch nicht schneller.:haha:
Viel Spaß mit dem Schrott.

Bei dem Preis is dann auch n teurer G-sync Monit drinn.:hust:
 
Zuletzt bearbeitet:
Weil?
Weil AMD immer was verspricht dass sie nie halten können?
Willst jetzt Monate warten bis AMD die Treiber halbwegs für VEGA optimiert hat?
Der Launch erinnert mich an die R600, die war auch ein Fail und das ist VEGA ebenso.
Zu der Zeit war der 1. Eindruck noch entscheidend. Das ist heute was völlig anderes. R600 hatte massive Hardware-Probleme, das bezweifel ich bei Vega doch mittlerwiele stark.
 
Warum schaust du nicht auf das was nicht drinnsteckt? Das ist viel öfter präsent und relevant.
Dieses Kirschenpicken ist der Grund warum die Stimmung so vergiftet ist.
Vega ist einfach nicht gut geworden. Ganz oafoch.

Die RX56 ist Mist und die RX64er genauso.
MIST+ Freesync machts auch nicht unbedingt besser.



Ich kaufe selbst oft nur AMD. Da Thermi war damals n Running Gag. Vega hat Welpenschutz.



Schau mal bei Gamestar. 250 Watt mehr als ne GTX 1080 und dann auch noch nicht schneller.:haha:
Viel Spaß mit dem Schrott.

Bei dem Preis is dann auch n teurer G-sync Monit drinn.:hust:

Komm mal runter :(

@Picke

Viel Spass und berichte mal wie Kühlung so ist ;)
 
Ich fass' mir nur noch an den Kopp.
 
Dies bezieht sich aber auf den absoluten Stock-Modus. Wie es im MAX-Modus aussieht wurde hier nicht beschrieben.

Here’s a chart showing Vega 56 power as measured at the PCIe cables with a current clamp, running 12.3V. In absolute stock configuration and during a half-hour burn-in with FireStrike, the V56 consumes on average about 180W at the PCIe cables, not accounting for the other 28W or so at the PCIe slot. The PCIe slot is primarily responsible for fan power, at 2.4A and 12V – though this isn’t always true, it is on V56.

Wie sich das aber beim undervolten und übertakten des Speichers ändert, wurde in dem Artikel auch nicht erwähnt. Anhand des letzten Satzes lässt sich vermuten, dass es bei den ~28W bleibt.

Aber er schreibt davon, dass durch das undervolten gute 55W eingespart werden konnten. Wenn man das jetzt mit den Werten von Computerbase vergleicht, dann kommen die 75W ungefähr hin.

Bevor wieder irgendwelche Schlaumeier kommen, das folgende ist eine Milchmädchenrechnung.

Computerbase hat für den MAX-Modus durchschnittliche 342W Gesamtverbrauch gemessen.

342W - 55W = 287W laut Gamersnexus zieht die Karte undervolted nur aus den PCie-Kabeln ~210W, 287W - 210W = 77W, Zufall?

Ich weiß, dass man die Werte nicht quer vergleichen sollte, da es Abweichungen geben kann. Bist du zufrieden, wenn ich schreibe vermutlich können noch bis zu 75W aus dem PCie-Slot gezogen werden?


@audioslave

Oh wie süß, hast du etwa ein Problem mit mir? Du kommst dir auch ganz toll vor, wa?

Vielleicht solltest du Sachen nicht nicht aus dem Kontext reißen, dann ist es auch mit so kindisch oder idiotisch ;)

Und was Post 437 ist? Ja eine Antwort auf den lächerlichen Post von JtotheK. Eigentlich nicht so schwer zu verstehen...

Quervergleiche mit anderen Konfiguration (CPU, Netzteil...) bringen nichts. RX Vega 56 kann maximal 300 Watt ziehen. Bei Gamernexus entfallen 28 Watt auf den PCIe Port.

  • Stock: 180 (Watt) + 30 (Watt) = 210 Watt (TDP limitiert)
  • Undervolted + PW 50%: 210 (Watt) + 30 (Watt) = 240 Watt | GPU@ 1525, HBM2 @ 980 | Beste Leistung: ~ +20% | 60 Watt für zusätzliche OC Optimierungen
  • Default + PW 50%: 270 (Watt) + 30 (Watt) = 300 Watt (Bios limitiert)

Vermutlich so sicher wie das Amen in der Kirche. Eine GTX 1070 mit +20% Leistung wird keine 150 Watt mehr ziehen. Bedenkt man dass auf die RX Vega noch treiberseitig optimiert werden muss, Funktionen derzeit per Treiber deaktiviert sind, kann die Karte ja nicht schlechter werden. Von Pascal erwarte ich keine Verbesserungen mehr. Als Besitzer eines 4K Freesync Monitors (40-60 Hz) bleibt sowieso keine Wahl.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Wohl schon wenn vega schrott ist wie er schreibt bei enor höherer rohleistung zu NV und wenn er sieht wie vega in cerypicking benches sogar eine TI versägt wird ihm wohl auch angst. ;)

Angst? Wovor? Wird eine Geforce dann plötzlich langsamer, wenn Vega durch Updates doch zulegen sollte?
 

Auf was genau sollt i neidisch sein?:drool:
Vega schlägt noch ned mal ne GTX 1080 sondern is meistens leicht drunter.
Ocen kann ma beide, Pascal auch ohne 400 Watt zu ziehen.
Neidisch... also hier sind einige dabei de sind ned ganz koscher.

Das is doch kei Forum mehr, sondern nur noch nen Haufen voller Kinder ohne Hobbies.
 
Zuletzt bearbeitet:
Kurzer Test mit der Radeon RX Vega 64: DAG 190 Leistung stiegt minimal (30,3 auf 32,1 MH/s). DAG 120 macht einen Sprung von 19,1 auf 32,6 MH/s.

Radeon RX Vega 56: DAG 190 von 28,6 auf 30,8 MH/s. DAG 120 wieder mit Sprung von 18,4 auf 31,2 MH/s.

Mhh interessant da ist anscheinend noch potential. Schlecht für die Verfügbarkeit.
Danke für das kleine Update

und übertaktet? Was bringt Speicher OC ?

Da reicht man jemanden den kleinen Finger und ..... :lol: Spaß ;)
 
Keine Ahnung, würde ich gerne mehr darüber wissen, erleuchte mich mal.
Aber bitte ordentlich mit Quellenangabe.)

Das war wohl AotS, such msl bei youtube, gibts Videos zu. Aber von einem generellen Problem ist da nichts bekannt.

Zu der Zeit war der 1. Eindruck noch entscheidend. Das ist heute was völlig anderes. R600 hatte massive Hardware-Probleme, das bezweifel ich bei Vega doch mittlerwiele stark.

Das erste halte ich für ein Gerücht, in Zeiten in dehnen sich User immer mehr durch irgendwelche Hypes lenken und beeinflussen lassen, zählt gerade der erste Eindruck
Das Zweite ist ebenso komisch, vllt kannst ja benennen watum Vega trotz über 50% mehr Rohleistung sich nur um ca. 33% von Fiji absetzen kann? Oder warum der Effizienzvorteil durch den neuen Prozess samt neuer HBM Module bei 12% ggü. Fiji in UHD liegt?
Vllt ist ja doch mehr defekt als du annimmst?? Wobei defekt auch relativ ist. R600 hat Workarrounds bekommen und im Nachgang wusste man auch was und wo. Bei Vega könnte das ebenso sein.

Nimmt man es genau, pro Takt und ALU ist Vega im Moment weiter weg von NVs Maxwell Umsetzung (auch Pascal) als Tahiti es ist! Zumindest avg. Ich würde sowas Rückschritt nennen und es ist auch völlig klar warum AMD da absolut Null Infos vorher geben wollte. Erwartungen einfach verfehlt... kommts wie bei R600 darf man wenigstens auf eine auf Effizienzgetrimmte Neuauflage ala RV670 hoffen...
 
Auf was genau sollt i neidisch sein?:drool:
Vega schlägt noch ned mal ne GTX 1080 sondern is meistens leicht drunter.
Ocen kann ma beide, Pascal auch ohne 400 Watt zu ziehen.
Neidisch... also hier sind einige dabei de sind ned ganz koscher.

Das is doch kei Forum mehr, sondern nur noch nen Haufen voller Kinder ohne Hobbies.

Der drölfte Account von Fimbim?
 
Vermutlich. Aber jetzt kann ich ihn verstehen...Neid und so...schlechte Angewohnheit aber menschlich.
 
Was ist Fimbim ?
 
Ferien....... Das waren noch Zeiten [emoji87]

Gesendet von meinem FRD-L09 mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh