7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Puh hm joa...geht so ne?
Wie rechtfertigt man so einen abartigen Preis? Wie viele sich über Nvidia und dessen Preisgestaltung beschweren und AMD haut dann sowas raus.
16GB ist ja quasi das einzige Argument...und die braucht einfach niemand.

Dein Horizont ist so weit, wie meine Toleranz weitere Kommentare hier zu lesen...
 
ganz einfach: jede karte ist ein unikat.

das sample von guru3d lies sich zb fast gar nicht undervolten.

Es geht ihm um die Leistungsaufnahme. Ich messe das auch noch einmal nach, vielleicht habe ich bei der Messung auch einen Fehler gemacht.
 
Bin mal gespannt ob da noch Customs mit besserem Design der Lüfter kommen (Lautstärke).

Nur mal so aus Neugier (Tellerrand) geht das Undervolting bei nVidia auch so leicht wie bei AMD? Ist das bei nvidia überhaupt möglich oder eher weniger bis gar nicht? UV war ja mit der RX480 schon ne feine Sache :)
 
Ist gar kein Problem. Du bekommst die Karten auf Regionen um 0,8V runter und die laufen dann immer noch mit 1,8Ghz.



Du kannst mit dieser Kurve da genau genau einstellen wie viel Spannung jede mögliche Takt-Stufe bekommt. Eine gerade Linie bedeutet hier: Jede Taktstufe läuft mit 0,8V
 
Zuletzt bearbeitet:
Das sich jede Karte anders verhält ist verständlich.
Beim Test von guru3d heißt es
whilst saving 10 maybe 15 Watts
Also in klein wenig schlechter als das Modell hier.
Das Modell bei computerbase ist nach dem Untertakten im Durchschnitt gleich 25 % effizienter als das Modell hier bei hardwareluxx.
Das gleiche Modell gleich so viel effizienter.
 
Mach dich nicht lächerlich. Ich habe es mir angeschaut im Test zu Final Fantasy. Darauf beruhen erstmal meine Aussagen.

Dann solltest Du dazu sagen, dass Deine Aussagen zu einer kompletten GPU Generation und Technik, nur auf einem Spiel basieren, das diese Technik nur teilweise implementiert hat.
Das ändert natürlich die Aussage dramatisch! Wenn Du DLSSx2 ignorierst und auch die Tatsache, dass es in BFV in 1080p und 1440p läuft, hat das Ganze natürlich direkt einen sehr negativen Touch!

In Zukunft bewerten wir dann GPUs auch nur auf einem selektiv gewählten Spiel, mit einem Benchmark.
Ich schlage vor dafür GTAV zu nehmen. Und da man ja alles auf eine Teilimplementation bauen kann, nehmen wir nur 1440p Auflösung. Radeon 7, langsamer als eine RTX 2070!

Oder wir lassen das und machen weiterhin ausgewogene Tests und basieren Dinge nicht auf einer einzelnen, rudimentären Teilimplementation, obwohl wir wissen, dass es da deutlich mehr gibt.

- - - Updated - - -

Er ist belegt, aber wird er in der Form auch benötigt um die maximale Leistung zu erreichen?

Ich mache gerade ein paar Aufzeichnungen der Radeon VII gegen eine GeForce RTX 2080 und nehme die Speicherbelegung und FPS/Frametimes mit auf. Die Spieldauer beträgt jeweils 10 Minuten. Mal schauen ob man daraus etwas ablesen kann.

Bester Mann.
Nein, ernsthaft. Danke Don.
In letzter Zeit fällt mir massiv auf, wie viel Du auf die Kommentare eingehst und entsprechende Tests anstößt.
Freut mich ungemein und ich bin sehr gespannt auf Deine Tests zu dem VRAM.

Evtl. kannst Du in dem Zug dann auch noch tiefer eingehen auf die VRAM Daten in diesem Review.
Ich finde den Unterschied zwischen RTX und R7 wirklich auffällig. Beide Karten sind nicht an ihren persönlichen Limits in Resident Evil 2 z.B., aber die Karte mit weniger VRAM belegt prozentual weniger, als die mit mehr.
Also das Thema Kompression, Effizienz und so fände ich sehr spannend.
Erwartet hatte ich, dass HBM2 extrem effizient ist. Es ist ja mit Abstand der teuerste Speicher und von den Daten auf dem Papier auch der Beste. Gerade mit HBM2 dachte ich, dass 16gb viel, VIEL zu overkill sind.
Deine ersten Testdaten suggerieren aber, dass GDDR6 von NVidia, entgegen der Rohdaten des Speichers, effizienter zu sein scheint.

Nochmal danke für Deine Mühen. Mir ist bewusst, dass diese Tests nur einen sehr kleinen Teil der extremen Nerds interessiert. :-)

- - - Updated - - -

Und es sieht trotzdem kacke aus. Wenn es wenigstens gut aussehen würde mit mehr Texturen, aber das Gras und die NPCs sehen total bescheiden aus. Weitsicht ist in dem Ausschnitt auch so gut wie keine vorhanden also frage ich mich woher die VRAM Gier kommt? Aja ist ja ein Port der kann nicht ordentlich optimiert werden.

Manche Games machen den VRAM einfach so voll wie es halt geht.
Im Normalfall wird das codeseitig anders geregelt, aber eben nicht bei mangelhaften Programmierern.

Man sieht das sehr schön bei den Tests zu "Sind 6gb VRAM genug?" von Hardware Unboxed.
Wenn 8gb zur Verfügung stehen, werden teils 7,3 belegt. Sind nur 6gb zur Verfügung, werden aber nur 5,3 belegt.
Das liegt daran, dass etwas Spielraum ein Vorteil ist. Leerer Speicher kann fix befüllt werden bei Bedarf. Voller Speicher müsste erst geleert werden, was davor eine Berechnung auslöst, die entscheidet was genau gelöscht wird.

Davon abgesehen ist auch die Frage: Könnte eine GPU wie die Radeon 7 überhaupt 16gb an Texturen simultan in brauchbare FPS umsetzen? Also selbst WENN wirklich gleichzeitig 16g BENUTZT werden würden, nicht belegt.
Ich bin sogar skeptisch, ob eine 2080 ti das könnte. Dazu gibt es aber leider sehr wenig Tests, da die breite Masse das natürlich nicht juckt. Relevant ist ob die FPS stimmen. Und das verstehe ich auch durchaus.

- - - Updated - - -

Bin mal gespannt ob da noch Customs mit besserem Design der Lüfter kommen (Lautstärke).

Nur mal so aus Neugier (Tellerrand) geht das Undervolting bei nVidia auch so leicht wie bei AMD? Ist das bei nvidia überhaupt möglich oder eher weniger bis gar nicht? UV war ja mit der RX480 schon ne feine Sache :)

Wie @HisN im Detail schrieb, kannst Du eine sehr personalisierte Kurve machen.
Im Extremfall kannst Du für jeden mhz Takt zwischen 1200 und 2200 ne eigene Voltage einstellen. Was natürlich totaler Overkill und Schmarn ist.
Aber die Möglichkeit ist da.

Ich verstehe die Frage aber glaube auch etwas anders: "Warum wird nur bei AMD immer mit Undervolting Potential argumentiert?" - richtig?
Genau diese Frage stelle ich mir auch des Öfteren.

Meine 2080ti hat leider sehr starkes Spulenfiepen ab 1400 mhz. Während ich also auf ein Replacement warte, habe ich Voltage und Power reduziert um die 1400mz nicht zu hart zu überschreiten.
Mit einer geraden .08v Linie (siehe HisN Screen) und einem Powertarget von 55% ist die GPU nun passiv gekühlt. Sicher ist die Leistung durch ein 55% target reduziert, aber das Ziel war ja die 1400-1550 mhz nicht zu überschreiten.
Also ja, es geht und es geht sehr einfach und punktgenau. Davon abgesehen ist eine passiv gekühlte 2080ti, selbst kastriert, schon irgendwie cool. Reicht für 1440p auf maxed Settings auch aus. Droppe nie unter 60fps und meistens ist die GPU bei 65-85% Auslastung.

Würde also soweit gehen zu sagen: Undervolting und "damit rumspielen", wie Holzmann so gerne sagt, kann auch bei Turing zu sehr interessanten Ergebnissen führen.
 
Auf vielfachen Wunsch (vor dem Test der Radeon VII geäußert), hier einige Daten, die ich mit der Radeon VII aufgenommen habe. Es handelt sich um Logs zur GeForce RTX 2080 und Radeon VII mit dem MSI Afterburner aufgenommen. Verwendet wurde eine Abtastung mit 100 ms und aufgenommen wurden Speicherauslastung, FPS und Frametimes. Die Spielzeit in Far Cry 5, Resident Evil 2 und Final Fantasy XV betrugen jeweils 10 Minuten.

Dropbox-Link: Dropbox - Frametimes-HWL-RadeonVII.zip
 
Also das Thema Kompression, Effizienz und so fände ich sehr spannend.
Erwartet hatte ich, dass HBM2 extrem effizient ist. Es ist ja mit Abstand der teuerste Speicher und von den Daten auf dem Papier auch der Beste. Gerade mit HBM2 dachte ich, dass 16gb viel, VIEL zu overkill sind.
Deine ersten Testdaten suggerieren aber, dass GDDR6 von NVidia, entgegen der Rohdaten des Speichers, effizienter zu sein scheint.

Kompression hat nichts mit dem VRAM Speichertyp zu tun.
Die Implementationen seitens NV sind an der Stelle einfach anders (ich will jetzt nicht sagen besser - das gibt eh wieder Geheule).

Technisch gesehen ist die Kompression an der Stelle nicht nur ein Thema um absolute Menge an Datenbelegung zu verändern sondern es ist auch ein Mittel um die effektive Bandbreite zu erhöhen. Wer den gleichen Informationgehalt in ein Paket von Größe x gepackt bekommt wie der Konkurrent, der x*2 Größe benötigt, der benötigt am Ende auch nur noch die halbe Bandbreite um die selben Informationen zu lesen als die Konkurrenz. (Werte sind fiktiv)
Ob- und in wie weit die 1TB/sec Bandbreite bei AMD wirklich notwendig sind oder nicht wird sich über die Zeit zeigen, ggf. auch ob die GPU vllt gar nicht volle Bandbreite effektiv verfügbar hat (sowas wurde bei Vega10 mal behauptet - aber keine Ahnung was bei rausgekommen ist). Nur weil es HBM ist oder nur weil da nie vorher gesehener Durchsatz auf dem Papier für ne Gamer-Karte stehen heist das aber lange nicht, dass das auch wirklich irgendwo die bessere Umsetzung ist.
 
Auf vielfachen Wunsch (vor dem Test der Radeon VII geäußert), hier einige Daten, die ich mit der Radeon VII aufgenommen habe. Es handelt sich um Logs zur GeForce RTX 2080 und Radeon VII mit dem MSI Afterburner aufgenommen. Verwendet wurde eine Abtastung mit 100 ms und aufgenommen wurden Speicherauslastung, FPS und Frametimes. Die Spielzeit in Far Cry 5, Resident Evil 2 und Final Fantasy XV betrugen jeweils 10 Minuten.

Dropbox-Link: Dropbox - Frametimes-HWL-RadeonVII.zip

Vielen Dank!

Für R2 hab ich mir das mal angesehen, und mit großem Schrecken fest stellen müssen, dass 16GB V-Ram zu wenig sind, da muss AMD nochmal ran, so geht das nicht! ;)
 
Ja, laut den Daten (und wenn wir belegt = benötigt setzen), dann reichen 16gb ja hint und vorne nicht!
Gut, dass man das etwas differenzierter sehen kann. ;-)

Eine ernsthaftere Analyse:
Die Frametime Spikes sind selten, bis nie an den Stellen an denen der Speicher fast voll ist. Sowohl bei der Radeon 7, als auch bei der RTX 2080.
Kann man daraus folgern, dass die Frametime Spikes nichts mit dem VRAM zu tun haben, sondern andere Gründe dafür verantwortlich sind? Da sind ja teils gravierende Mengen an Speicher frei, wenn es zu Spikes kommt.

Anhand dieser Daten würde ich behaupten, dass nicht nur reine Durchschnitts FPS Benchmarks ungenügend sind (wie viele zu Recht bemängeln), sondern auch reine Frametime Graphen.
Was es wirklich braucht, ist eine Kombination aus FPS, Frametime und vor allem: verwendetem Grafikspeicher zum Zeitpunkt der Spikes. Gerne in Absolut, als auch prozentualen Angaben.
Das Thema VRAM ist auf jeden Fall in einem Aufschwung und sollte zurecht genau untersucht werden in meinen Augen.
Wieviel VRAM in einem Flagship steckt ist ja egal, aber bei allem das darunter angesiedelt ist sollten Preis und Nutzen schon genau betrachtet werden.

Auch auffällig für mich: Die Radeon 7 hat in der Tat bis zu 50% mehr Frametime Spikes als die RTX 2080. Dafür sind die Spikes selber etwas ausgeprägter bei der RTX 2080, zumindest im Mittel.
Banal ausgedrückt: Die Radeon 7 ruckelt öfter, die RTX 2080 stärker.

So oder so: Es wirkt nicht so, als ob hier ein Problem mit dem VRAM vorliegt bei den Frametimes. Und das RE2 einfach mal 15+ gb voll müllt ist hoffentlich nicht der "Beweis" den die breite Masse nun breit tritt, um das bei jeder Einsteigerkarte zu fordern. :-(

Danke nochmal Don.
 
Einfach nur Scheiße!
Es war Jahrzehnte lang üblich, dass so eine Karte die 30% schwächer als das Topmodell der Konkurrenz ist, verschämt für maximal 350€ angeboten wurde, in der Hoffnung dass den Müll überhaupt jemand kauft..
 
Zuletzt bearbeitet:
Elmario, wie viel Menschen kaufen sich den ein Topmodell, als müll würde ich es mal nicht beschreiben...
 
Also AMD hat wieder zu schnell ab geliefert. Die Karte kann mehr!
Man hätte sich Zeit nehmen müsse für Treiber und Bios.
Ich denk da kommt noch vieles nach und dann steht die R7 auch viel besser da. LG
 
Da bin ich total bei dir.. Aber bei AMD auch nichts neues.. die Watercooling Editions werden bestimmt kommen für nochmal 100-200€ Aufpreis, und die Customs werden dringend nötig sein.
Aber selbst Asus hat es mit der Strix bei der Vega64 nicht mehr wirklich in den Griff bekommen, die Karte war zwar leiser aber immer noch heiss.

seitwann zieht man auch asus als referenz für grakas, wenn sie leise UND kühl sein sollen? das schaffen sie ja weder bei NV noch bei AMD karten... kühl ja, leise nein, oder leise und heiss...

für AMD leise und kühl gibts nur einen hersteller ders wirklich gebacken bekommt, das ist sapphire(nitro serie), und bei NV sinds eigentlich nur gigabyte(xtreme serie) und MSI(gaming x serie) die beides zusammen können...

der rest kann entweder NUR leise, oder NUR kühl*

*wassergekühlte lösungen habe ich jetzt mal aussen vorgelassen, und mich rein auf die luküs bezogen.
 
Palit baut bei NV auch seit Jahren gute Kühllösungen, nur die letzte Version des Kühlers war nicht ideal.

Und bei der Radeon VII könnt ihr glaube ich lange auf Custom-Lösungen warten. Irgendwie kann ich mir kaum vorstellen dass die AiBs da grosse Lust haben.
Die Marge würde extrem gering sein, niedrige Stückzahlen sind eigentlich auch fix.
Die AiBs haben bisher noch keinen Mucks gemacht.
 
Palit baut bei NV auch seit Jahren gute Kühllösungen, nur die letzte Version des Kühlers war nicht ideal.

Und bei der Radeon VII könnt ihr glaube ich lange auf Custom-Lösungen warten. Irgendwie kann ich mir kaum vorstellen dass die AiBs da grosse Lust haben.
Die Marge würde extrem gering sein, niedrige Stückzahlen sind eigentlich auch fix.
Die AiBs haben bisher noch keinen Mucks gemacht.

ich könnte mir vorstellen das die hersteller der referenzplatine nen eigenen kühler verpassen, minimalster aufwand, grösste wirkung. :)
 
ich könnte mir vorstellen das die hersteller der referenzplatine nen eigenen kühler verpassen, minimalster aufwand, grösste wirkung. :)

Da der Aufwand echt gering wäre, man müsste ja nur das Layout auf den PCB anpassen, macht mir das Ganze etwas Sorgen.
Selbst bei so geringem Aufwand, scheint es keine Anzeichen zu geben dafür. Die Margen sind also so pervers gering, dass nicht mal das Sinn ergibt, oder die Stückzahlen sind so gering, dass es keinen Sinn ergibt.

Schon sehr auffällig, dass es da kein einziges Anzeichen gibt und die Boardpartner alle direkt das Referenzdesign mit nem eigenen Sticker auf den Lüftern verkauft haben.
Sie haben also ihren eh schon geringen Stock einfach durchgereicht, statt ihn anzupassen.

Wirkt immer mehr nach einem reinen Paper / PR Launch und immer weniger nach einer ernsthaft verfügbaren GPU.
 
Man kann es mit der Kritik auch übertreiben, die R7 ist im Grunde eine solide Karte, die das bringt was man erwartet hat, natürlich ist die Lautstärke ein wunder Punkt, nicht der Kühler an sich.

Das Lüfter-Setup stimmt einfach nicht, da hat der Treiber versagt, sollte aber in Kürze per Update was kommen.
 
Das Lüfter-Setup stimmt einfach nicht, da hat der Treiber versagt, sollte aber in Kürze per Update was kommen.
Definitiv, aber Igor von THW hat das eigentlich sehr gut beleuchtet das Thema.
AMD lässt die Karten jetzt im Radau-modus laufen, lt AMD ist die hohe Drehzahl Absicht um die maximale Performance zu erzielen.
Mit dem gleichen Kühler den Lüfter langsamer drehen lassen führt zu etwas schlechterer Kühlung => die Karte boostet nicht mehr so hoch und schon wird der Abstand zur 2080 grösser.

Deshalb bin ich mir nicht sicher ob die Lüfterperformance der VII wirklich ein Bug ist, vielleicht hat AMD abgewogen welche saure Gurke sie schlucken müssen und sich für Lautstärke entschieden und dafür kommen sie schön knapp an die 2080 ran
 
Da der Aufwand echt gering wäre, man müsste ja nur das Layout auf den PCB anpassen, macht mir das Ganze etwas Sorgen.
Selbst bei so geringem Aufwand, scheint es keine Anzeichen zu geben dafür. Die Margen sind also so pervers gering, dass nicht mal das Sinn ergibt, oder die Stückzahlen sind so gering, dass es keinen Sinn ergibt.

Schon sehr auffällig, dass es da kein einziges Anzeichen gibt und die Boardpartner alle direkt das Referenzdesign mit nem eigenen Sticker auf den Lüftern verkauft haben.
Sie haben also ihren eh schon geringen Stock einfach durchgereicht, statt ihn anzupassen.

Wirkt immer mehr nach einem reinen Paper / PR Launch und immer weniger nach einer ernsthaft verfügbaren GPU.

naja, aber ansonsten sehe ichs gelassen... referenz(maybe nitro+) dürfte um die $900 UVP liegen ohne märchensteuer, also 950€... dann lieber 729 für die referenz, nen 100er für nen morpheus und nochmal 40 für 2 schöne lüfter... komme ich billiger weg, und der morpheus ist garantiert kühler und leiser, oder viel kühler oder viel leiser... :)
 
seitwann zieht man auch asus als referenz für grakas, wenn sie leise UND kühl sein sollen? das schaffen sie ja weder bei NV noch bei AMD karten... kühl ja, leise nein

Selten so einen Quatsch gelesen, welche Tests liest du? Die aus der Bunten? Asus Strix Karten sind bei Nvidia mit MSI die besten wenn es um Lautstärke und Temps geht.
 
Wieso soll man eigentlich seit neuesten erwarten für 730€ ist es normal laute Grafikkarten zu bekommen?
Im professionellen Bereich vielleicht.

Das hat nichts mit Treiber zu tun, das sind schlichtweg Kühler die der Aufgabe nicht gewachsen sind. Die Lüfter bräuchten erst gar nicht so hoch und laut aufdrehen wenn weniger (silent) langen würde.

Für einige Modelle hatte man sich in der Vergangenheit ja lieber gleich für Wasserkühlung entschieden...Fury.

(Mir ist es übrigens egal, auf jede meiner Grafikkarten kommt eh direkt Wakü drauf, anders kann ich es mir nicht mehr vorstellen. Auf und ab gesäusel von Grafikkartenlüftern geht mir voll auf den Keks.)
 
Selten so einen Quatsch gelesen, welche Tests liest du? Die aus der Bunten? Asus Strix Karten sind bei Nvidia mit MSI die besten wenn es um Lautstärke und Temps geht.

Naja, gab schon ASUS Modelle die waren sehr mau.
Die 1070 und 1080 zB.

Dort kann man fast von einer Fehlkonstruktion des Kühlers sprechen.

Wieder rum war die 1080Ti von Asus eines der besten Modelle was Lautstärke und Temperatur betrifft.
 
naja, aber ansonsten sehe ichs gelassen... referenz(maybe nitro+) dürfte um die $900 UVP liegen ohne märchensteuer, also 950€... dann lieber 729 für die referenz, nen 100er für nen morpheus und nochmal 40 für 2 schöne lüfter... komme ich billiger weg, und der morpheus ist garantiert kühler und leiser, oder viel kühler oder viel leiser... :)
Seit wann kostet ein Morpheus denn 100€ und 2 lüfter dazu nochmal 40?
 
Lüfter kommt schon hin. Auf den Morpheus gehören gute Noctua oder eloop^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh