7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

@XTR³M³
Ja der doppelte verbrauch war etwas übertrieben aber es sind immerhin fast 100Watt hast es ja selbst geschrieben.
VII 295W vs. 2080 225W
V64 295W vs. 1080 180W
V56 210W vs. 1070 150W
RX580 185W vs. 1060 120W
RX560 75W vs. 1050 75W

Übrigens verbrauchen die meisten RX 580 mehr als 185Watt da die guten Modelle zwar auch bessere Kühler haben aber alle etwas schneller laufen. Und ich finde 100Watt mehr für die selbe oder sogar teils weniger Leistung nicht gerade wenig.

Ich bin sicher kein grüner Troll siehe mein Profil, besitze selbst eine RX Karte.

Hier steht es auch schwarz auf weiß doppelter verbrauch fast Idle Leerlauf, 2 Displays, Video und in Game.

Asus RX 580 ROG Strix 8G 12,4 Watt 34,6 Watt 18,6 Watt 196,7 Watt
Sapphire RX 580 Nitro+ 8G 11,9 Watt 34,3 Watt 17,8 Watt 197,9 Watt
MSI RX 570 Gaming X 4G 13,6 Watt 32,1 Watt 20,9 Watt 158,9 Watt
Geforce GTX 1060 Founder's Edition 7,1 Watt 8,1 Watt 12,0 Watt 103,3 Watt


Leerlauf runter, Last hoch - Radeon RX 580 und RX 570 im Test: AMDs Grafikkarten sind schneller und sparsamer - Golem.de

ich habe einfach nur die refferenz vorgaben gewählt, würde ich die customs nehmen, käme NV unterm schnitt auch nicht viel besser raus... siehe meine 1080Ti die sich 300W ohne OC genehmigt(standard wären 250W) oder meine alte 1070 xtreme gaming, die auch bei 200W anstelle der 150W referenz lag... und die 1060FE zieht ziemlich genau 120W aus dem netzteil, weil soeine hatte ich selber ;) meine 580er genehmigt sich ohne OC(und ohne PT erhöhen) 185W, mit max PT bis zu 206W(superposition 1080p extreme)... aber dank UV(+OC) sinds nur noch 129W(ebenfalls superposition 1080p extreme)... solch riesige sprünge, bekommt man mit pascal oder turing durch UV nicht zustande, spreche da aus erfahrung, im schnitt sinds bei pascal 15% weniger verbrauch bei gleichem takt, und bei turing 10%, wärend die meisten AMD karten mindestens 25% zulassen, die meisten aber sogar 30-40%...

darum gehe ich stark von aus, das AMD einfach keine kohle hat, die chips zu testen sondern einfach ne standard voltage draufpappt und fertig... leider.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dachte mal AMD haut einen raus, aber ich bin doch enttäuscht.
Für welchen Kunden ist die Karte denn gedacht? Bei dem Preis haut sie doch in keine Lücke. Weder durch Preis noch durch Leistung.
Ich sehe jetzt nur die noch überflüssigen 16GB die hervorstechen.

Gesendet von meinem VKY-L09 mit Tapatalk
 
Nen guter trippleslot Kühler hätte der Karte sicher gut getan.

Ich glaube sie ist wirklich nur ein hingeklatschter Platzhalter für die kommende Generation.

Irgendwie lieblos designed etc.
Einfach nur damit man irgendwas vor zuweisen hat.

Gesendet von meinem CLT-L29 mit Tapatalk
 
Zuletzt bearbeitet:
Bei 500Euro würde die nen Haufen Abnehmer finden denke ich.

Gesendet von meinem VKY-L09 mit Tapatalk
 
Nen guter trippleslot Kühler hätte der Karte sicher gut getan.

Ich glaube sie ist wirklich nur ein hingeklatschter Platzhalter für die kommende Generation.

Irgendwie lieblos designed etc.
Einfach nur damit man irgendwas vor zuweisen hat.

das design ist das mit abstand besten von allen grakas am markt der letzten 10 jahre... schnörkellos, dezent, hübsch.

und klar isses nur nen "platzhalter"... der langt aber ;)

- - - Updated - - -

Bei 500Euro würde die nen Haufen Abnehmer finden denke ich.

fand sie auch so schon, so ziemliche alle karten die im handel waren sind verkauft(weltweit).
 
XTR³M³
Da geb ich dir recht ich denke auch die pappen da überall eine Standartvoltage auf die Karten, die können ja deutlich untervoltet werden womit sie deutlich sparsamer und leiser sind und dann wieder fast auf Augenhöhe liegen zu einem deutlich billigeren Preis.
Aber zu der Karte im Test, ich finde die hätte AMD sich sparen können, da sollte man lieber auf die nächste Generation warten.

Aber jeder hat auch andere Ansichten und es gibt immer Leute die es kaufen da jeder andere Ansprüche hat.
 
Zuletzt bearbeitet:
das design ist das mit abstand besten von allen grakas am markt der letzten 10 jahre... schnörkellos, dezent, hübsch.

Schnörkellos ja, dezent ok, hübsch hm
Zum Glück Geschmackssache.

Aber die Lüfter machen in meinen Augen einen total billigen optischen Eindruck der das ganze Design wieder verschlechtert.

Einfach undurchdacht halt.

Gesendet von meinem CLT-L29 mit Tapatalk
 
XTR³M³
Da geb ich dir recht ich denke auch die pappen da überall eine Standartvoltage auf die Karten, die können ja deutlich untervoltet werden womit sie deutlich sparsamer und leiser sind und dann wieder fast auf Augenhöhe liegen zu einem deutlich billigeren Preis.

Zitat aus unserem Artikel:

Die Hersteller liefern ihre Prozessoren und GPUs mit einer vordefinierten Spannung aus, die über die Varianz in der Fertigung hinweg einen stabilen Betrieb aller Chips gewährleisten soll.

Jede Karte geht eben anders. Darauf einstellen kann sich ein Hersteller bei jeder Karte individuell nicht. Die von CB ließ sich ganz gut undervolten, unsere so mittelprächtig und Guru3D hatte wohl ein ganz schlechtes Sample.
 
Zitat aus unserem Artikel:



Jede Karte geht eben anders. Darauf einstellen kann sich ein Hersteller bei jeder Karte individuell nicht. Die von CB ließ sich ganz gut undervolten, unsere so mittelprächtig und Guru3D hatte wohl ein ganz schlechtes Sample.

was eher ungewöhnlich ist, die karte von G3D... kenne eigentlich keine vega die sich so schlecht UV liess wie deren... evtl. sind die ganzen chips garnicht wirklich defekt, sondern schaffen nur die 1800MHz unter compute nicht mit der standardspannung *mhhh* bei V64 wurden die karten einfach zur V56 degradiert... nebst karten mit kaputten einheiten.
 
Es hab aber auch gute und schlechte Vega-10-Karten. Wir haben eine extrem gute Vega 56
 
Es hab aber auch gute und schlechte Vega-10-Karten. Wir haben eine extrem gute Vega 56

wenn ich mir die ganzen UV fäden anschaue, sind die alle nicht sooo schlecht.... die meisten 64er liegen zwischen 200-230W, was sehr gut ist, einige goldexemplare schaffen 190W...

meine RX580 ist ja auch sonen goldstück, muss das WE mal weiter testen als die 1.025V derzeit... wenn die mit 1V noch mit 1366 laufen würde, wäre das der burner... aber habe ja meisten glück in der silizium lotterie... wenns mal beim richtigen lotto auch so wäre X-D
 
ein weiterer negativer Aspekt wäre für mich auch:
kein Raytraycing vorhanden.
noch kein Killerfeature aber in dem Preisbereich im grünen lager eben vorhanden.
 
Meine RX590 läuft bei 1580MHz mit 1080mV im P7-State - und das ist so ein Trend, den man durchaus mit zunehmendem Alter von Polaris beobachten kann. Meine erste RX470 die ich hatte lies sich quasi gar nicht undervolten, die RX470 8G eines Freundes nur sehr, sehr moderat ohne dann mit dem Takt massiv zurückfahren zu müssen.

Die schlimmste war mal 'ne Gigabyte RX480. Die erreichte ohne Spannungszugabe nicht mal annähernd ihren Boost-Takt und rannte dann natürlich prompt ins Power- und Temp-Limit.
 
ein weiterer negativer Aspekt wäre für mich auch:
kein Raytraycing vorhanden.
noch kein Killerfeature aber in dem Preisbereich im grünen lager eben vorhanden.

Ernsthaft? Das wird auch das restliche Jahr noch kein Killerfeature und auch nicht mit ordentlich FPS spielbar. Von daher ist es auch egal ob es vorhanden wäre oder eben nicht.
 
wenn also hin und wieder in einigen Grenzfällen eine Limitierung durch den Speicher vorliegt, so kann man dennoch nicht davon sprechen, dass 16 GB Grafikspeicher zukunftssicherer sind als 11 oder 8 GB. Sollten Spiele im nächsten Jahr mit praxisrelavanten Einstellungen mehr als 12 GB Grafikspeicher verlangen um vernünftig zu laufen, stellt sich dann die Frage, ob eine Radeon VII noch ausreichende FPS liefern kann.

Division2 mit DX12 .. Schon beim Intro-Video sind 16GB VRAM belegt^^
Und das in UHD mit "High" Settings.
Wo der Weg wohl hingeht?


 
Zuletzt bearbeitet:
Er ist belegt, aber wird er in der Form auch benötigt um die maximale Leistung zu erreichen?

Ich mache gerade ein paar Aufzeichnungen der Radeon VII gegen eine GeForce RTX 2080 und nehme die Speicherbelegung und FPS/Frametimes mit auf. Die Spieldauer beträgt jeweils 10 Minuten. Mal schauen ob man daraus etwas ablesen kann.
 
wenn also hin und wieder in einigen Grenzfällen eine Limitierung durch den Speicher vorliegt, so kann man dennoch nicht davon sprechen, dass 16 GB Grafikspeicher zukunftssicherer sind als 11 oder 8 GB. Sollten Spiele im nächsten Jahr mit praxisrelavanten Einstellungen mehr als 12 GB Grafikspeicher verlangen um vernünftig zu laufen, stellt sich dann die Frage, ob eine Radeon VII noch ausreichende FPS liefern kann.
[/Quote}

Division2 mit DX12 .. Schon beim Intro-Video sind 16GB VRAM belegt^^
Und das in UHD mit "High" Settings.
Wo der Weg wohl hingeht?


[/url]

Und es sieht trotzdem kacke aus. Wenn es wenigstens gut aussehen würde mit mehr Texturen, aber das Gras und die NPCs sehen total bescheiden aus. Weitsicht ist in dem Ausschnitt auch so gut wie keine vorhanden also frage ich mich woher die VRAM Gier kommt? Aja ist ja ein Port der kann nicht ordentlich optimiert werden.
 
Zuletzt bearbeitet:
Ja erst dann wenns AMD auch kann,ist schon klar...
und DLSS wird auch in 1440p gehen.Geht ja auch im normalen 3DBench Port Royal DLSS schon und zeigt auch ordentlich wie das aussieht.Nur weil es jetzt exklusiv bei FF UHD ist,heisst es nicht,dass es nur bei UHD geht.
Nur eine Sekunde Google und man findet dazu genug Material.Das Schöngelaber bzw. gegenseitige Niedermachen ist teils echt zum Fremdschämen.Bissi mehr Objektivität wäre echt toll.
 
Er ist belegt, aber wird er in der Form auch benötigt um die maximale Leistung zu erreichen?

Ich mache gerade ein paar Aufzeichnungen der Radeon VII gegen eine GeForce RTX 2080 und nehme die Speicherbelegung und FPS/Frametimes mit auf. Die Spieldauer beträgt jeweils 10 Minuten. Mal schauen ob man daraus etwas ablesen kann.

Glaub nicht Don, denn die 16GB sind schon bei Intro-Video belegt, also an einer Stelle an der weder das Game noch ein Level oder eine einzige Textur geladen ist. Unter DX11 gehts meistens nicht höher als bis zu 13GB.
 
Ja erst dann wenns AMD auch kann,ist schon klar...[...].

Wenn du dich damit auf RT beziehst: nein, es wird erst zum relevanten Feature, wenn es von mehr als einer Handvoll Spielen unterstützt wird.
 
Yes, das sind 7.5Ghz Effektiv-Takt, die Zahl davor ist der Gebrauch.

Yo danke habs eben gesehen.Ich hab irgendwie ne schwäche bei sehr kleinem orange :d
Ahjo bei Division 2 zeigt sich halt wieder Ubisoft.Ass Creed habense ja auch net hinbekommen zu optimieren.nicht mal ein bissi.Ob das nun ein Vorteil ist,wäre natürlich nen Test wert imho.
 
Glaub nicht Don, denn die 16GB sind schon bei Intro-Video belegt, also an einer Stelle an der weder das Game noch ein Level oder eine einzige Textur geladen ist. Unter DX11 gehts meistens nicht höher als bis zu 13GB.

Ist da eine Reservation (oder sowas wie ein Systemcheck) im Hintergrund programmiert? Ein Vorgerendertes Video das einfach so abläuft benötigt ja normalerweise keine GB an VRAM.
 
Ich hab nicht die geringste Ahnung. Eventuell ist es nur ein Beta-Bug, aufgrund der vorhandenen Speichermenge der Karte.
 
Update im Test zur Radeon VII:

Seite 27: 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test - Hardwareluxx

Wir haben noch weitere Tests bezüglich der Speicherauslastung gemacht. Dabei vergleichen wir die GeForce RTX 2080 mit 8 GB GDDR6 und die neue Radeon VII mit 16 GB HBM2. Für Far Cry 5 und Final Fantasy XV sehen wir dabei keine großen Auffälligkeiten.

Das Remake von Resident Evil 2 zeigt ein seltsames Verhalten bei Änderungen in der Belegung der Speicherbelegung. Spürbar sind die Lags nicht wirklich, aber wir können kurzzeitige Änderungen in den Frametimes feststellen. Hier verhalten sich die beiden Karten aber nahezu identisch. Auf der Radeon VII können aber eben mehr als 8 GB Grafikspeicher belegt werden. Ein echter Vorteil ergibt sich daraus zunächst einmal nicht.

Seite 28: 7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test - Hardwareluxx

Architektur und Speicherbandbreite im Einzeltest
 
Warum unterscheiden sich die Messungen der Grafikkarten-Leistungsaufnahme beim Undervolting, bei den verschiedenen Testern so stark?
Der Tester bei Computerbase senkte die gpu-Spannung auch auf 0,95 V (hier 0,955 V) und der Stromverbrauch sank auf 207 W Durchschnitt (189 - 225 W aus drei Spielen). Mit 1800 MHz gpu-Takt.
Der Tester hier gibt 262,8 W an. Ähnlich viel gpu-Takt.
Warum so arg viel?
Mit Undervolting ist die Karte so effiziener als eine rtx 2080 FE ohne Undervolting.
Als Vergleich eine gtx 1080 ti verbraucht z.B. bei 1750 MHz gpu-Takt und 800 mV ~ 125 W (100 % Auslatung im Benchmark).
Bei 0,9 V und 1930 MHzgpu-Takt sind es ~ 170 W.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh