7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

Ich finde die GPU gar nicht so schlecht. Nur geht es AMD falsch an. Warum 16GB HBM Speicher? Das treibt den Preis und den Stromverbrauch in die Höhe. Das wieder herum geht auf Kosten der Kühlung.
Wenn ich an AMD's Stelle wäre, hatte ich die Radeon 7 mit 8GB heraus gebracht.
Dann wäre Sie 100 - 150€ günstiger, bräuchte viel weniger Strom und wäre dadurch auch viel leiser.
Schade.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich finde die GPU gar nicht so schlecht. Nur geht es AMD falsch an. Warum 16GB HBM Speicher? Das treibt den Preis und den Stromverbrauch in die Höhe. Das wieder herum geht auf Kosten der Kühlung.
Wenn ich an AMD's Stelle wäre, hatte ich die Radeon 7 mit 8GB heraus gebracht.
Dann wäre Sie 100 - 150€ günstiger, bräuchte viel weniger Strom und wäre dadurch auch viel leiser.
Schade.
Weil die Karte ein MI50 Klon ist, der etwas beschnitten wurde. Die Speicherbandbreite von 1TB/s ist aber ein immenser Vorteil. Man hätte den Speicher aber nur auf 8GB reduzieren können, wenn man zwei statt vier Stacks genommen hätte (2GB HBM2 Stacks sind momentan scheinbar nicht verfügbar). Das wiederum hätte den Speicherbandbreitenvorteil vernichtet, weil der sich dann natürlich halbiert.
Noch dazu kann man die Synergieeffekte nutzen, wenn man eine bestehende Karte nur etwas beschneidet, aber keine eigene Produktion, Lagerhaltung, Lieferverträge für die kleinen HBM-Stacks und Logistik dafür aufziehen muss.
 
Zuletzt bearbeitet:
Mit nur 2 Stacks wäre aber sicher auch etwas langsamer, das sollte man schon auch noch berücksichtigen!
 
Mit nur 2 Stacks wäre aber sicher auch etwas langsamer, das sollte man schon auch noch berücksichtigen!

Aber 150 Euro langsamer?
Das ist die Frage, die ich mir stelle.
Die R7 ist, von Lautstärke abgesehen, ja ne gute GPU. Der Preis ist nur zu hoch für eine Empfehlung.

Wie viel langsamer wäre sie mit 2 Stacks? Sie würde dann bei bummelig 550 Euro liegen und mit der 2070 konkurrieren. Die schlägt sie aktuell mit 16gb ja fast immer (leider nicht ganz immer, was verwirrend ist).
Gegen die 2080 ist sie einfach die klar schlechtere Karte zu einem höheren Preis. Aber gegen die 2070 könnte das komplett anders aussehen. Außer natürlich die Reduzierung der Stacks würde zu viel Leistung abknabbern.
 
nö, bei 8GB karten zieht die AMD karte im schnitt 200-400MB weniger speicher als die NV karte...

quelle: ich selber 580 vs. 1070

Nett - aber hat doch nichts mit meiner Aussage zu tun.
Ich sprach von "technisch schlechter" - nicht von absolutem Platzbedarf. Technisch schlechter trifft es exakt dann, wenn eine Hardware mit der physikalisch selben Speichermenge Auffälligkeiten in Sachen Speicherlimitation zeigt, während eine andere dies nicht tut. Man muss dabei natürlich im Grenzbereich messen.

und finds erstaunlich, das viele(oder eigentlich fast alle) die bei erscheinen von turing rumgemault haben, warum ne 2080 keine 16GB und ne Ti keine 22GB hat, nun die ganze zeit rumquarken, das ja 8GB genug seien...
Ist das so? Ich sehe da eher Leute die sich daran stören, wie 16GB in den Himmel gelobt werden obwohl es effektiv aktuell keinen greifbaren Mehrwert bringt. Keine Ahnung wie man da darauf kommt, dass das bedeuten soll, dass 8GB genug seien :rolleyes:
Diese "ich dreh das Argument mal um und dann stimmt das Gegenteil" Argumentation ging noch nie sonderlich gut auf ;) Ließt man hier aber vorwurfsvoll immer wieder. Was auch immer der Zweck dieser Übung sein soll.
Ich würde mal behaupten der ansatzweise objektive Realist stört sich eher an an den Mehrkosten eines ihm aktuell vergleichsweise wenig bringenden 16GB Ausbau als daran, dass er Geld spart für den 8GB Ausbau. Was wie gesagt nicht bedeutet, dass 8GB auf Dauer ausreichend sein werden...

iund "6GB ist genug"... jeder der sich halbwegs mit NV beschäftigt weiss das die karten sobald der speicher knapp wird das LOD reduzieren... und nein, nicht wie manche meinen das es engine abhängig ist... weil sonst dürfte es ja auch keine änderung am speicherverbrauch geben wenn man im treiber das "LOD" von "qualität" auf "hohe qualität" ändert.

Belege? Das hast du nun schon 2x behauptet.
Mal davon ab, warum sollte sich der Speicherverbrauch nicht ändern, wenn du von HQ auf Q im Treiber drehst? Oder andersrum? Sind doch zwei völlig verschiedene paar Schuhe zu dem, was die Engine macht.

Dann wäre Sie 100 - 150€ günstiger, bräuchte viel weniger Strom und wäre dadurch auch viel leiser.

Und wäre damit wie viel langsamer??
Es gibt stand jetzt wohl keine 2Hi HBM Stacks. Das heist, um auf 1TB/sec Durchsatz zu kommen braucht man 4x HBM Stacks - die kleinste Größe am Markt sind 4Hi Stacks zu je 4GB das Stück.

Ein 8GB Ausbau ist nur möglich, wenn man die Hälfte der Speicherstacks einspart - und damit die Bandbreite halbiert. Was das für die Performance bedeutet ist aktuell nicht 100% bezifferbar. AKtuell lässt sich der HBM nur auf 800MHz untertakten - die Karte verliert damit aber schon fast 5-10% avg. im Schnitt. Bei 20% Bandbreitenverlust.
Wahrscheinlich wäre man mit 512GB/sec nur noch +- bisschen über Vega64 Nivau - wozu dann all den Aufwand?
 
Zuletzt bearbeitet:
Bei nur 2 Stacks würde sich der Datendurchsatz halbieren, ob sie dann noch mit der 2070 mithalten kann ist halt fraglich.
 
(...)dabei klammere ich das Experiment Raytracing gekonnt aus.

Warum? Ernstgemeinte Frage. Warum klammerst Du den einen Mehrwert aus, pochst aber unablaessig auf einen anderen, der heute noch genau so "viel" wert ist - naemlich fast nichts?

AMD weißt mit der Radeon7 technisch einige Vorteile aus, deren Nutzten noch nicht final bewerten werden kann aber zum Kauf der Karte rechtfertigt.

So wie Raytracing den Kauf einer RTX 20x0 rechtfertigen kann. Oder die leisere Kuehlung. Oder der out-of-the-box niedrigere Verbrauch.

(...)Freesync(...)

Dass es jetzt auch beim Grünzeug auch gibt. Weshalb die Apostel in der Kirche zum heiligen St. Radeon auch prompt neues Weihwasser mit "Speicherkrueppel!"-Aroma eingelassen haben.

(...)werden sich aber viele vorrangig die Frage stellen ob man sich mit 8GB Speicher und den Einschränkungen begnügen möchte(...)

Wie "viele" das sein werden, wird sich zeigen. Momentan ist das Angebot an VII´s so uebersichtlich, dass alleine schon deshalb mit einem signifikanten Marktanteil nicht zu rechnen ist (und irgendwie ahne ich auch, dass das dann die naechste Ausflucht von Team Red sein wird: haette es mehr gegeben, waeren auch mehr verkauft worden - an AMD´s "to meet gamer´s demand"-Versprechungen wird sich dagegen niemand mehr erinnern wollen).

Und was genau meinst Du mit "Einschraenkungen"? Etwa das hier:

(...)gibt es eine klare technische Aussage: Speichermangel senkt nicht nur die durchschnittlichen FPS ein wenig, sondern sorgt für wirklich fiese Hänger in einzelnen Szenen(...)

Mag sein. Nur Deine Projektion (auch wenn Du es wohlweislich unterlaesst, es auszusprechen), dass eine 2080 als lt. AMD direkter Gegenspieler zu wenig Speicher haette, um Spiele mindestens so fluessig darstellen zu koennen wie eine VII, ist trotzdem Kaese. Ausser ein paar fanatisierten AMD-Fanboys sind diese zweifelsfrei dem Speicher zuschreibbaren "wirklich fiesen Haenger" jedenfalls noch niemandem aufgefallen.

P.S. Ich habe eine 2080 und eine VII hier. Im Gegensatz zu den meisten kann ich also ganz gut vergleichen.
 
Letztlich könnte man es ja auch mal so beurteilen:
Gewöhnlich werden Unterschiede bei der Leistung erst ab ca. 15% wahrnehmbar, demnach währe eine 2080 und die R7 zumindest gefühlt gleich schnell. :hust:
 
Skyrim kommt dort nicht vor, aber wie man dort den Speicher füllen kann hat Paddy ja schon erwähnt.
Kommt ihr jetzt so klar oder fehlt noch etwas?

Edit:
Ruckler bedingt durch das Nachladen ist bei den 8-GiByte-GPUs in UHD hier schön dokumentiert:
The Division 2 Beta: Benchmarks und Fazit
Hm, bei Division 2 wird TAA genutzt [NVIDIA Filter] ob das wirklich so gut auf Radeon läuft mag ich mal bezweifeln, zumal beide Unterschiedliche Ansätze nutzen.
4K sollte gänzlich ohne AA getestet werden, es sei den man nutzt Multi-GPU dann kann man auch das Hochwertige SSAA nutzen.

Gibt es schon 4K Monitore und Anschlußleitungen mit über 60Hz?
Wenn nicht bringt das auch nicht viel mehr als 60FPS in 4K zu berechnen.

Gibt es bei der VII noch "Chill" in den Radeon Einstellungen?
 
Gibt es bei der VII noch "Chill" in den Radeon Einstellungen?

Positiv, ist sogar im Standard aktiv. :)

@extreme
Sehe die angesprochenen Punkte auch durchaus kritisch und möchte die VII nun auch nicht weiter über den Klee loben, als notwendig, sollte AMD kaum mehr Karten nachliefern, wäre das echt doof und kein gutes Bild.
 
Positiv, ist sogar im Standard aktiv. :)

@extreme
Sehe die angesprochenen Punkte auch durchaus kritisch und möchte die VII nun auch nicht weiter über den Klee loben, als notwendig, sollte AMD kaum mehr Karten nachliefern, wäre das echt doof und kein gutes Bild.
Echt jetzt? Stanard mäsig aktiv?

Ich muss noch ein paar Artikel zur VII lesen, mal sehen ob es irgendwo erwähnt wird.
Teste mal ein Benchmark der keine Maus und Tastatur benötigt und danach machst Chill aus und testest es nochmal.
Chill senkt die Leistung wenn keine Eingabe stattfindet, je mehr Eingaben bzw. je schneller desto mehr wird die GPU aufgedreht.

Skyrim unterstützt es jedenfalls auch im CrossfireX.
 
Gibt es schon 4K Monitore und Anschlußleitungen mit über 60Hz?
Wenn nicht bringt das auch nicht viel mehr als 60FPS in 4K zu berechnen.
Ja natürlich, 4k 144Hz Monitore starten bei knapp 1000€
Bis UHD @120Hz reicht auch ein DP1.4 Anschluss, für die 144Hz muss man den Monitor mit 2 DP1.4 Kabeln verbinden.

Und selbst wenn es nur ein 60Hz Monitor in 4k ist, es sind die Min-fps die zählen, die 60fps würde man dann eben cappen.
 
Ja natürlich, 4k 144Hz Monitore starten bei knapp 1000€
Bis UHD @120Hz reicht auch ein DP1.4 Anschluss, für die 144Hz muss man den Monitor mit 2 DP1.4 Kabeln verbinden.

Und selbst wenn es nur ein 60Hz Monitor in 4k ist, es sind die Min-fps die zählen, die 60fps würde man dann eben cappen.
Ok danke.
Gilt das mit HDR, also 10Bit Farbtiefe oder ohne HDR?
Wenn dann noch VR geht wird es bunt.
 
Ja chill steht bereit, man muss es aber per Hotkey zb F11 in der Anwendung aktivieren ...
Ok, bleibt die Karte dann leiser?
Warum wurde das nirgends erwähnt Seitens der Redakteure?
Chill gibt es doch nicht erst seit gestern.
Kopfschüttle...
 
Ich selber habs noch nicht getestet, warte noch auf den neuen Treiber und das die Tools wie AB und gpuz funktionieren.

Wenn ich mich recht entsinne muss chill auch von der Anwendung/Game unterstützt werden, oder?
 
Ich selber habs noch nicht getestet, warte noch auf den neuen Treiber und das die Tools wie AB und gpuz funktionieren.

Wenn ich mich recht entsinne muss chill auch von der Anwendung/Game unterstützt werden, oder?
ok, wie du Zeit findest ist kein muss.

Ja muss vom Spiel unterstützt werden, aber wie geschrieben gibt es das schon ein Weile.
Bei BF1 klappt es auch ebenso CfX.
 
Also,... ich bin ja durchaus für Inklusion von neuen Techs. Aber in Reviews doch bitte nur vergleichen, was man auch fair vergleichen kann.
Wenn dieses Feature (noch nie davon gehört!) nur in manchen Games ist und nicht rein Hardware / Treiber seitig läuft, dann hat es bestenfalls eine Erwähnung nebenbei verdient.
Ansonsten Benchen wir in Zukunft Games die DLSS supporten damit und wundern uns, wieso non RTX Karten auf einmal 50-80% hinterherhinken.

Das wäre in beide Richtungen schmarn denke. :-)
 
Letztlich könnte man es ja auch mal so beurteilen:

Letztlich könnte man auch sagen, dass du viel heiße Luft produzierst und dich keiner Diskussion stellst.

"Real men have 16 Gb HBM2." (Dr. Lisa Su)

Das ist genauso blödsinnig wie der Kult um Raytracing.
16GB benötigt aktuell niemand, genausowenig halbgare raytracing Umsetzungen mit viel zu wenigen FPS für das gebotene.
 
Zuletzt bearbeitet von einem Moderator:
Letztlich könnte man auch sagen, dass du viel heiße Luft produzierst und dich keiner Diskussion stellst.

Sorry das ist nicht meine Absicht.

Finde nur das die 16GB der 7 zu negativ beurteilt werden, die gehören einfach zum Konzept der Architektur, sonst hätte die Karte nicht die Leistung, die sie hat (Speicherbandbreite).

Das wird auch kaum berücksichtigt in der Beurteilung und Diskussion.
 
und finds erstaunlich, das viele(oder eigentlich fast alle) die bei erscheinen von turing rumgemault haben, warum ne 2080 keine 16GB und ne Ti keine 22GB hat, nun die ganze zeit rumquarken, das ja 8GB genug seien...

8GB VRAM sind in dem Sinne genug, dass man dadurch derzeit keine größeren Einschränkungen hat.

Wie schon zuvor erwähnt. Die 8GB VRAM der 2080 sind ok. Mehr wären schön gewesen, ein schönes Nive-To-Have. Ich glaube auch nicht, dass es Leuten hier wirklich darum geht die Entscheidung zu 8GB bei einer 2080 als "gut" darzustellen. Verglichen mit einer 1080ti, welche auf dem gleichen Leistungsniveau agiert, ist da schon irgendwie enttäuschend 3GB weniger an VRAM zu haben..


ich glaube nicht das er fehler gemacht hat, ggf. hat NV in den neueren treibern optimiert... bin ja eh kurz davor ne turing zu besorgen um mal BQ tests zu machen, aber raff(PCGH) arbeitet da wohl auch schon dran... heisst evtl. warte ich da noch ein wenig drauf, bevor ich "turing exposed" bzw. "NV30 2.0" mache und ne woche meines lebens verplämpere... X-D

und "6GB ist genug"... jeder der sich halbwegs mit NV beschäftigt weiss das die karten sobald der speicher knapp wird das LOD reduzieren... und nein, nicht wie manche meinen das es engine abhängig ist... weil sonst dürfte es ja auch keine änderung am speicherverbrauch geben wenn man im treiber das "LOD" von "qualität" auf "hohe qualität" ändert.

Ja, bitte mach es. Kläre uns alle auf.

Nur kann man deine "Aufklärung" wirklich für voll nehmen? Denn bei dir muss man nicht nur an der Objektivität zweifeln, sondern auch an der Kompetenz..

Also wenn du deine "Aufklärung" ausarbeitest, dann bitte so, dass es auch reproduzierbar ist.


Finde nur das die 16GB der 7 zu negativ beurteilt werden, die gehören einfach zum Konzept der Architektur, sonst hätte die Karte nicht die Leistung, die sie hat (Speicherbandbreite).

Es geht (den meisten) aber nicht darum die 16GB der VII negativ zu beurteilen, sondern wird hier eher gegen die neue Ansicht einiger - zufälligerweise fast ausschließlich dem roten Lager angehörigen - Experten argumentiert, welche aktuell alles Mögliche versuchen, um die 16GB irgendwie als essentiell darzustellen. Alles darunter sind neuerdings Speicherkrüppel, wie die ganzen Strohhalme ja beweisen. :hust:
Auch dich mit deinen zuvor getätigten leeren Behauptungen, welche du bis jetzt nicht glaubhaft belegt hast, muss man dazu zählen. Du brauchst jetzt auch nicht so scheinheilig zu versuchen die Opferrolle einzunehmen "mimimi ihr redet die Karte schlecht", obwohl ihr eigentlich die seid, die hier versuchen andere Karten schlecht zureden. Oder was sollen die ganzen Cherrypicks sonst bezwecken, wo eine Grafikkarte wohl aufgrund von 8GB VRAM irgendwie Auffälligkeiten zeigen könnte?

Ihr könnt ja eure Meinung gerne haben, dass 16GB VRAM so toll und so wichtig sind und 8GB VRAM zu wenig, aber versucht doch nicht anderen diese Meinung aufzudrücken mit irgendwelchen brüchigen Argumenten..
 
Also,... ich bin ja durchaus für Inklusion von neuen Techs. Aber in Reviews doch bitte nur vergleichen, was man auch fair vergleichen kann.
Wenn dieses Feature (noch nie davon gehört!) nur in manchen Games ist und nicht rein Hardware / Treiber seitig läuft, dann hat es bestenfalls eine Erwähnung nebenbei verdient.
Ansonsten Benchen wir in Zukunft Games die DLSS supporten damit und wundern uns, wieso non RTX Karten auf einmal 50-80% hinterherhinken.

Das wäre in beide Richtungen schmarn denke. :-)
AMD Radeonâ„¢ Chill | AMD
Wenn DLSS getestet wird dann aber Bitte auch VSR, wobei das wäre unfair, VSR sieht sehr viel besser aus. :)
 
Finde nur das die 16GB der 7 zu negativ beurteilt werden, die gehören einfach zum Konzept der Architektur, sonst hätte die Karte nicht die Leistung, die sie hat (Speicherbandbreite).
Das wird auch kaum berücksichtigt in der Beurteilung und Diskussion.
Die hohe Speicherbandbreite ist sicher ein großer Vorteil der Karte, vor allem für den eigentlich Anwendungszweck der Instincts.
Aber ob sie diese Speicherbandbreite für Gaming wirklich braucht wissen wir eigentlich nicht weil das in noch keinem Review angesehen wurde wie sich die Karte mit untertaktetem VRAM verhält. (wie weit lässt sich HBM aktuell untertakten?)
Eine RTX2080 hat eine Bandbreite von 448 GB/s, sagen wir mal mit VRAM-OC kommt man dann auf ~500GB/s, also ungefähr die Hälfte dessen was Radeon VII zur Verfügung stellt und die Karte ist von der Spieleleistung mindestens gleichwertig.
 
Dein Link funktioniert nicht.
Heißt das, mann kann so viel Watt durchjagen wie man will?
Wieder PowerPlayTable?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh