7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Woah!
Könnt Ihr Euch erklären wieso die R7 mal locker flockig die doppelte Speicherbelegung hat als die RTX Karten?
Die 2080ti belegt bei Resident Evil 2 nur 6,5gb und bei der R7 über 12gb!

Ist die Turing Architektur so viel effizienter mit Texturen, oder frisst Vega 7 die Texturen?

Vielleicht mal lesen bevor man tippt ?

steht doch sogar noch dabei.
Hier extra noch mal für dich:


Nun muss man aber auch wissen, dass jede Engine anders mit dem zur Verfügung stehenden Treiber umgeht. Manche Engines laden so viele Daten wie möglich in den zur Verfügung stehenden Grafikspeicher. Andere wiederum gehen etwas intelligenter damit um und laden nur die Daten und Texturen, die auch wirklich gebraucht werden
 
Nun kann ich beim Haare föhnen endlich nebenher Gamen ohne dass der Haarföhn negativ auffällt.
kann die aufregung gar nicht verstehen. 50dba +/- x

wenn schon haare föhnen, dann richtig ...


aber die jugend von heute ist halt verwöhnt ... ;)
 
Vielleicht mal lesen bevor man tippt ?

Du schon wieder,....
Nichts was Du zitiert hast beantwortet meine Frage. Nicht im Ansatz.
Engines machen auch nicht mal eben 12gb in eine AMD Karte und lassen eine NVidia Karte quasi idle stehen.
Lad Dir selber Unreal runter und schau selber nach, keine Lust wieder gegen ne Wand aus Fakten ignorierenden Aussagen zu schreiben.
 
Wie manche hier einen "Steifen" bekommen haben, weil die AMD Karte langsamer ist als erwartet.

Gesendet von meinem SM-G950F mit Tapatalk
 
naja, ich kenne das sogar mit meiner 1080Ti samt 11GB speicher das texturen auf einmal matschig wirken(FFXV) oder sachen am horizont aufploppen...

Was in aller Regel ein Bug im Spiel / der Engine ist. Und "aufploppen" ist ganz normal, bei jedem Spiel mit genug Sichtweise. Bestimmte Modelle werden halt erst ab Distanz X geladen, egal wie viel RAM usw. du hast. Das ist ein fixer wert (oder Dynamisch, abhängig davon, wie viel % das Model im Display einnimmt usw.).
Schau dir zB einmal Spiele wie Fallout 4 genauer an, da sieht man das aufploppen super. Dort haben viele 3D Modelle erst gar kein LOD, sprich die tauchen erst dann auf, wenn LOD0 dran ist und verschwinden dann, sobald die Engine sagt LOD1 (weil es kein LOD1 gibt).
Andere Engines (wie Unreal) blenden Modelle einfach langsam aus (sie werden stück für stück unsichtbar).

edit: für matschige Texturen: Witcher 3 zB nutzt für Texturen nur eine feste maximal Menge an vRam (kann man Manuel in der Configdatei erhöhen - was man auch unbedingt machen sollte, wenn man 4GB oder mehr vRam hat).
 
Zuletzt bearbeitet:
Die Auslastung/Belegung vom Grafikkartenspeicher lässt sich erst als vernünftigen Hinweis nutzen, wenn man weiß, wie das Spiel/Anwendung/Engine damit umgeht. Wenn z.B. eine Engine so arbeitet, dass sie ungenutzte Texturen erst entlädt, wenn kein Platz mehr für neue Texturen vorhanden ist, wird der Grafikkartenspeicher immer voll laufen.

Man bräuchte ein Programm, welches zwischen Treiber und Spiel sitzt und sämtliche Funktionsaufrufe bezüglich Texturen protokolliert. Damit könnte man dann wirklich analysieren und gucken, inwiefern mehr VRAM tatsächlich nützlich ist.

Eine vielleicht einfachere Methode wäre es, wenn man den Speicher einer Grafikkarte „künstlich“ reduziert. Vielleicht ginge das per Grafikkarten-BIOS, oder einem Programm zwischen Treiber und Spiel oder einem Programm, das es schafft, eine bestimmte Menge vom VRAM zu belegen. Damit könnte man dann z.B. mal testen/vergleichen, wie eine Radeon VII mit 16 GB zu einer mit „nur“ 8 GB arbeitet.
 
Negative Aspekte der Radeon VII:

etwas zu hoher Preis
zu laut unter Last
zu hohe Leistungsaufnahme


Ich sehe das nicht als das Problem an worrauf man beim Kauf achten soll.
Jede Neuerung braucht seine gewisse Reifezeit um auch entsprechend für die Kundschaft Interessant zu sein.
Und elbst wenn sich so eine Grafikakrte wie ein Staubsauger anhären würde und 500 Watt Verbraucht, wäre das auch kein Kaufhindernis für mich.
Endlich mal Hardware die der Nvidia Gleichwertig und teilweise sogar überlegen ist. In ein paar Monaten wird so oder so Nvidia gegen den neuen Grafikchip von AMD kein Land mehr sehen da die AMD Vega nur übergangslösungen sind. Wenn das Eintrifft haben sie endlich auch fast Monopolstatus im CPU und GPU Bereich. Stellt sich dann nur die Frage wann die Chinesen mit Ihren Eigenlösugnen kommen ?
 
Zuletzt bearbeitet:
edit: für matschige Texturen: Witcher 3 zB nutzt für Texturen nur eine feste maximal Menge an vRam (kann man Manuel in der Configdatei erhöhen - was man auch unbedingt machen sollte, wenn man 4GB oder mehr vRam hat).

Komplett offtopic eigentlich und doch so hilfreich. Danke.
Spiele gerade Witcher 3 mit den XPacs und erfreue mich an der neuen GPU. Schon gewundert wieso der VRAM so idle wirkt. ;-)

@Don
Andere Reviews melden Temperaturen am Hotspot von 110 Grad, wie ihr auch. Behaupten aber teilweise, dass die "GPU-TEMP" nicht wirklich der Sensor an der GPU ist.
JaysTwoCent hat sich da z.B. drüber ausgelassen. Jay ist da normal etwas,... sagen wir,... einfach gestrickt. Sprich: Ich vertraue seinen Aussagen zu sowas nicht wirklich.
Könnt ihr sicher bestätigen ob die Angabe "GPU TEMP" auch echt das Equivalent zu NVidia GPU Temp ist, oder evtl. doch ganz wo anders steckt?
 
Zuletzt bearbeitet:
Woah!
Könnt Ihr Euch erklären wieso die R7 mal locker flockig die doppelte Speicherbelegung hat als die RTX Karten?
Die 2080ti belegt bei Resident Evil 2 nur 6,5gb und bei der R7 über 12gb!

Ist die Turing Architektur so viel effizienter mit Texturen, oder frisst Vega 7 die Texturen?

nVidia hatte doch mit Maxwell oder so (weiß ich nicht mehr genau, kann auch früher oder später gewesen sein) eine Komprimierung für den vRam eingeführt (AMD mit der Furry). Die aktuellen nVidia Karten sollen dahingegen ja noch einmal verbessert worden sein. Je nachdem wie so ein Spiel Texturen speichert, kann so eine Komprimierung schon einiges ausmachen (oder praktisch nutzlos sein).

PS: Freut mich das ich dir mit Witcher 3 helfen konnte :P.
 
Zuletzt bearbeitet:
kann die aufregung gar nicht verstehen. 50dba +/- x

wenn schon haare föhnen, dann richtig ...

[video=youtube;PFZ39nQ_k90]https://www.youtube.com/watch?v=PFZ39nQ_k90[/video

aber die jugend von heute ist halt verwöhnt ... ;)
... und deswegen muss man sie mit einem negativ-Beispiel an die Zeit 16 Jahre zurück erinnern? :confused:

Kann beim besten Willen nicht nachvollziehen, wenn man schon das single Lüfter DHE System aufgibt, wie man 2019 so eine (>700€) Grafikkarte ausliefern kann, seit wieviel Jahren zeigen Board Partner Designs das es selbst mit nur zwei Lüftern deutlich besser geht?!
 
Ich sehe das nicht als das Problem an worrauf man beim Kauf achten soll.
Jede Neuerung braucht seine gewisse Reifezeit um auch entsprechend für die Kundschaft Interessant zu sein.
Und elbst wenn sich so eine Grafikakrte wie ein Staubsauger anhären würde und 500 Watt Verbraucht, wäre das auch kein Kaufhindernis für mich.
Endlich mal Hardware die der Nvidia Gleichwertig und teilweise sogar überlegen ist. In ein paar Monaten wird so oder so Nvidia gegen den neuen Grafikchip von AMD kein Land mehr sehen da die AMD Vega nur übergangslösungen sind. Wenn das Eintrifft haben sie endlich auch fast Monopolstatus im CPU und GPU Bereich. Stellt sich dann nur die Frage wann die Chinesen mit Ihren Eigenlösugnen kommen ?

Diagnose: Realitätsverlust
 
Ich bin mal gespannt wann von AMD endlich schnelle und auch sparsame Karten kommen ohne Untervolting betreiben zu müssen, die RX Serie verbrauchte ja auch das doppelte einer GTX und das ist nicht mal leicht übertrieben sonder realität. Bei den CPUs finde ich hat es AMD endlich geschaft wieder gute günstige und schnelle und auch sparsame CPUs zu liefern aber bei den GPUs ist das ja immer noch alles andere als Optimal, da führt ja momentan fast kein Weg am grünen Lager vorbei wenn man bereit ist einen kleinen Aufpreis zu zahlen.

Die Karten sind einfach nur durch den Preis noch interessant aber diese Karte hier ist zu teuer und die Lautstärke zusammen mit dem Verbrauch sind schon böse :popcorn:
 
Zuletzt bearbeitet:
Schön ausführlicher Test, danke!
Bei der Kühlung (Graphitband, Kühlblock, vaporchamber) hat man nicht geckleckert. Nur die Lüfter fallen leider ab. Persönlich würde ich da einfach zwei ordentliche 120 mm Lüfter draufpacken; ob nun 730 oder 750 € würde für mich nicht mehr viel ausmachen. Somit wäre auch die Lautstärke nicht mehr problematisch.
Die Leistung finde ich angemessen für den Preis. Wem die Karte zusagt, sollte zugreifen.
 
Was in aller Regel ein Bug im Spiel / der Engine ist. Und "aufploppen" ist ganz normal, bei jedem Spiel mit genug Sichtweise. Bestimmte Modelle werden halt erst ab Distanz X geladen, egal wie viel RAM usw. du hast. Das ist ein fixer wert (oder Dynamisch, abhängig davon, wie viel % das Model im Display einnimmt usw.).
Schau dir zB einmal Spiele wie Fallout 4 genauer an, da sieht man das aufploppen super. Dort haben viele 3D Modelle erst gar kein LOD, sprich die tauchen erst dann auf, wenn LOD0 dran ist und verschwinden dann, sobald die Engine sagt LOD1 (weil es kein LOD1 gibt).
Andere Engines (wie Unreal) blenden Modelle einfach langsam aus (sie werden stück für stück unsichtbar).

edit: für matschige Texturen: Witcher 3 zB nutzt für Texturen nur eine feste maximal Menge an vRam (kann man Manuel in der Configdatei erhöhen - was man auch unbedingt machen sollte, wenn man 4GB oder mehr vRam hat).

nö, wenn ich DSR reduziere ist das problem nämlich weg... dann poppt nix auf, und die texturen sind durchweg scharf. :)

somit kann man davon ausgehen das der treiber das LOD runterdreht um ein ruckeln zu verhindern.... AMD ist da ehrlicher, da ruckelts halt schneller, trotz besseren speichermanagements, weil da wird nix am LOD gepfuscht, oder zumindest nicht in solchen ausmassen wie bei NV.
 
Woah!
Könnt Ihr Euch erklären wieso die R7 mal locker flockig die doppelte Speicherbelegung hat als die RTX Karten?
Die 2080ti belegt bei Resident Evil 2 nur 6,5gb und bei der R7 über 12gb!

Ist die Turing Architektur so viel effizienter mit Texturen, oder frisst Vega 7 die Texturen?
weder noch.

die AMD karte hat viel VRAM, also wird auch viel vram verwendet.
nur weil viel ram benutzt wird, heisst das nicht, dass auch viel benötigt wird. das ist ja das große problem, wenn ermittelt werden soll wie viel VRAM man jetzt eigentlich wirklich braucht.

nicht verwendeter RAM = verschwendeter RAM
 
Zuletzt bearbeitet:
Ich bin mal gespannt wann von AMD endlich schnelle und auch sparsame Karten kommen ohne Untervolting betreiben zu müssen, die RX Serie verbrauchte ja auch das doppelte einer GTX und das ist nicht mal leicht übertrieben sonder realität. Bei den CPUs finde ich hat es AMD endlich geschaft wieder gute günstige und schnelle und auch sparsame CPUs zu liefern aber bei den GPUs ist das ja immer noch alles andere als Optimal, da führt ja momentan fast kein Weg am grünen Lager vorbei wenn man bereit ist einen kleinen Aufpreis zu zahlen.

Die Karten sind einfach nur durch den Preis noch interessant aber diese Karte hier ist zu teuer und die Lautstärke zusammen mit dem Verbrauch sind schon böse :popcorn:

das doppelte... mhhh...


warte mal:
VII 295W vs. 2080 225W
V64 295W vs. 1080 180W
V56 210W vs. 1070 150W
RX580 185W vs. 1060 120W
RX560 75W vs. 1050 75W


also von doppelt sind sämtliche karten weit entfernt....

- - - Updated - - -

Kannst du deine Aussage mit Zahlen belegen?

kann er nicht, siehe weiter oben in meinen post :)
 
naja, er sagte RX serie und einer GTX.
es lässt sich mit sicherheit irgend eine GTX finden, welche nur die hälfte irgend einer karte aus der RX serie verbraucht.

dass das natürlich großer schwachsinn ist und auch umgekehrt zutrifft, weiss er sicherlich auch selbst.
aber wahrheit ist bei propaganda nicht unbedingt der springende punkt. :)
 
AMD ist da ehrlicher, da ruckelts halt schneller, trotz besseren speichermanagements, weil da wird nix am LOD gepfuscht, oder zumindest nicht in solchen ausmassen wie bei NV.

Also da hätte ich gerne mal einen Beleg für den Schwachfug. Ich wette der bleibt aus.
 
Aber das ist doch Realität!!!!

- - - Updated - - -



Dachte ich mir fast, dann ist das wohl eine andere Realität die er meint.


halt kleine grüne trolle... ich glaube es ist irgendwo ne brücke eingestürzt, soviele wie hier grad rumhuschen :d

- - - Updated - - -

naja, er sagte RX serie und einer GTX.
es lässt sich mit sicherheit irgend eine GTX finden, welche nur die hälfte irgend einer karte aus der RX serie verbraucht.

dass das natürlich großer schwachsinn ist und auch umgekehrt zutrifft, weiss er sicherlich auch selbst.
aber wahrheit ist bei propaganda nicht unbedingt der springende punkt. :)

kann ich auch umgedreht... RX550 vs. 1080Ti(man muss ja schon fair bleiben und die generationen vergleichen)... 50W vs. 250W... ups, 5x soviel :rofl:
 
nö, wenn ich DSR reduziere ist das problem nämlich weg... dann poppt nix auf, und die texturen sind durchweg scharf. :)

Das beweist nichts. Wenn du intern in einer höheren Auflösung rechnest, brauchst du natürlich mehr vRam. Wenn das Spiel jetzt aber "Hardlimits" (also feste Werte) wie Witcher 3 hat, dann läuft der Ram, den die Engine sich selbst erlaubt, natürlich schneller voll --> Die Engine macht dann etwas. Das was du beschreibst, kann man super bei Witcher 3 beobachten (da reicht schon FullHD gegen UHD, in UHD sind unscharfe Texturen usw. teils richtig eklig zu sehen - bis man das ganze in der Configdatei "fixt"). Auch viele andere Engines, haben feste Limits (in den Configfiles, nicht selten aber wirklich fest in der .exe).
Stell dir das ganze wie einen Consolen Port vor, wo du auf 30 FPS limitiert bist. Da sagt du doch auch nicht, das eine Vega VII nicht besser ist als eine 570, nur weil beide 30 FPS liefern.
 
somit kann man davon ausgehen das der treiber das LOD runterdreht um ein ruckeln zu verhindern.... AMD ist da ehrlicher, da ruckelts halt schneller, trotz besseren speichermanagements, weil da wird nix am LOD gepfuscht, oder zumindest nicht in solchen ausmassen wie bei NV.
Ich dachte immer LOD und Texturgrößen wären eine Sache, die einzig und allein von der Anwendung/Engine bestimmt werden. Als Programmierer fände ich das auch ziemlich lästig, wenn mein Befehl, einen Baum mit 6.000.000 Polygonen und einer 4 GB Textur zu rendern, einfach verändert wird, z.B. zu einem Baum mit 6.000 Polygonen und einer 400 MB Textur. So etwas habe ich auch noch nie beobachtet. Im Gegenteil. Wenn ich bei der Programmierung "Käse" mache, und das nicht selber vernünftig regel, z.B. über ein LOD-System (in der Engine, nicht im Treiber), dann geht die Performance ganz schnell in den Keller, weil der Treiber da eben nix ändert und fröhlich total sinnlos unzählige Bäume, von denen man nur 4 Pixel sieht, mit 6.000.000 Polygonen und einer 4 GB Textur rendert.
 
weder noch.

die AMD karte hat viel VRAM, also wird auch viel vram verwendet.
nur weil viel ram benutzt wird, heisst das nicht, dass auch viel benötigt wird. das ist ja das große problem, wenn ermittelt werden soll wie viel VRAM man jetzt eigentlich wirklich braucht.

nicht verwendeter RAM = verschwendeter RAM

Glaube das ist bei Dir falsch angekommen. Das belegt nicht gleich benutzt ist, ist mir durchaus bewusst.
Die Frage war, wieso bei den RTX Karten ca 55% des VRAMs belegt wird, bei der R7 hingegen sind es 75%, was bei 11 vs 16gb Speicher halt aufs Doppelte rauskommt.
Ich würde bei der Karte mit weniger Speicher eine höhere prozentuale Belegung erwarten und nicht bei der Karte mit mehr.

Wenn der VRAM nicht bei 100% ist, kann man davon ausgehen, dass weder Engine noch Entwickler der Überzeugung sind, es wäre nicht genug belegt für den maximalen Nutzen.
Man kann natürlich sinnlos den Speicher zumüllen, aber die wenigsten Games machen das. Warum also liegt der maximale Nutzen / Bedarf bei einer RTX 2080 TI bei 6,5gb und bei einer Radeon 7 bei 12,6gb?

Es wirkt so, als würde NVidia weniger VRAM benötigen, für dasselbe Ergebnis.
Im tieferen Sinne geht es bei meiner Frage um die Gründe für so ein Verhalten. 8gb Speicher sind halt nicht 8gb Speicher. Da spielen viele Faktoren mit rein. Sowohl Treiber, als auch Engine, als auch Speicherart, Speed,... usw.
Genau diese Gründe würden mich interessieren. Aber wohl eher ein Thema für Tech Jesus und einn richtigen Testaufbau, als hier in den Kommentaren. ;-)
 
Leider wieder eine AMD Karte, die überaus laut und heiß ist, und trotzdem keine Mehrleistung bietet.
Es scheint als würde die Architektur weit über dem Sweetspot betrieben werden. (Daher wohl auch die üppigen Undervolting Ergebnisse)

Irgendwie traurig. Denke ein "Gamer" wird nicht zu so einer Karte greifen, wenn er doch eine GTX2080 ums selbe Geld haben kann, die mal glatt ~75W weniger verbrät.
 
Die Karte ist dort wo es zu erwarten war. Die Karte ist noch immer Vega, war klar das sie nicht die sparsamste sein wird und nicht gerade leise.

Sie hält mit einer 2080 gut mit was will man mehr. Sie ist nur um 100.-€ zu teuer.
 
Irgendwie traurig. Denke ein "Gamer" wird nicht zu so einer Karte greifen, wenn er doch eine GTX2080 ums selbe Geld haben kann, die mal glatt ~75W weniger verbrät.

Glaube die 75 Watt werden eher selten die Entscheidung sein. Was viel schwerer wirken dürfte ist, dass die RTX 2080 darüber hinaus auch noch mehr Features bietet. RT- und Tensorkerne zusätzlich, zum selben Preis wie die Vega VII. Auch wenn das viele nicht einsehen wollen, aber von den RT- und Tensorkernen haben die meisten viel mehr als von den 16 GB vRam. Viel vRam braucht man beim Gamen bei hohen Auflösungen (und da hat die Vega VII jetzt schon probleme, mit UHD. Sprich, sobald man die 16 GB in ein paar Jahren wirklich braucht, ist die GPU selbst zu langsam).
Content Creation ist wieder stark von der verwendeten Software abhängig und was man da macht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh