7-nm-GPU und 16 GB HBM2: Die Radeon VII im Test

Ich hätte bei der RTX 2080 lieber mehr Ram und shader als diese kack RT Cores
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Karte ist dort wo es zu erwarten war. Die Karte ist noch immer Vega, war klar das sie nicht die sparsamste sein wird und nicht gerade leise.

Sie hält mit einer 2080 gut mit was will man mehr. Sie ist nur um 100.-€ zu teuer.

Und ein bis zwei Jahre zu spät auf dem Markt🤷*♂️
 
Hier noch der die ausgelesenen D3D12 Feature Options der Radeon VII:

Windows 10 version 1809 (build 17763.292 rs5_release) x64

ADAPTER 0
"AMD Radeon VII"
VEN_1002, DEV_66AF, SUBSYS_081E1002, REV_C1
Dedicated video memory : 16311.8 MB (17104207872 bytes)
Total video memory : 32632.5 MB (34217605120 bytes)
Video driver version : 25.20.15015.2003
Maximum feature level : D3D_FEATURE_LEVEL_12_1 (0xc100)
DoublePrecisionFloatShaderOps : 1
OutputMergerLogicOp : 1
MinPrecisionSupport : D3D12_SHADER_MIN_PRECISION_SUPPORT_16_BIT (2) (0b0000'0010)
TiledResourcesTier : D3D12_TILED_RESOURCES_TIER_3 (3)
ResourceBindingTier : D3D12_RESOURCE_BINDING_TIER_3 (3)
PSSpecifiedStencilRefSupported : 1
TypedUAVLoadAdditionalFormats : 1
ROVsSupported : 1
ConservativeRasterizationTier : D3D12_CONSERVATIVE_RASTERIZATION_TIER_3 (3)
StandardSwizzle64KBSupported : 0
CrossNodeSharingTier : D3D12_CROSS_NODE_SHARING_TIER_NOT_SUPPORTED (0)
CrossAdapterRowMajorTextureSupported : 0
VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation : 1
ResourceHeapTier : D3D12_RESOURCE_HEAP_TIER_2 (2)
MaxGPUVirtualAddressBitsPerResource : 44
MaxGPUVirtualAddressBitsPerProcess : 44
Adapter Node 0: TileBasedRenderer: 0, UMA: 0, CacheCoherentUMA: 0, IsolatedMMU: 1, HeapSerializationTier: 0, ProtectedResourceSession.Support: 0
HighestShaderModel : D3D12_SHADER_MODEL_6_3 (0x0063)
WaveOps : 1
WaveLaneCountMin : 64
WaveLaneCountMax : 64
TotalLaneCount : 3840
ExpandedComputeResourceStates : 1
Int64ShaderOps : 1
RootSignature.HighestVersion : D3D_ROOT_SIGNATURE_VERSION_1_1 (2)
DepthBoundsTestSupported : 1
ProgrammableSamplePositionsTier : D3D12_PROGRAMMABLE_SAMPLE_POSITIONS_TIER_2 (2)
ShaderCache.SupportFlags : D3D12_SHADER_CACHE_SUPPORT_SINGLE_PSO | LIBRARY | AUTOMATIC_INPROC_CACHE | AUTOMATIC_DISK_CACHE (15) (0b0000'1111)
CopyQueueTimestampQueriesSupported : 0
CastingFullyTypedFormatSupported : 1
WriteBufferImmediateSupportFlags : D3D12_COMMAND_LIST_SUPPORT_FLAG_DIRECT | BUNDLE | COMPUTE | COPY (15) (0b0000'1111)
ViewInstancingTier : D3D12_VIEW_INSTANCING_TIER_1 (1)
BarycentricsSupported : 0
ExistingHeaps.Supported : 1
MSAA64KBAlignedTextureSupported : 1
SharedResourceCompatibilityTier : D3D12_SHARED_RESOURCE_COMPATIBILITY_TIER_1 (1)
Native16BitShaderOpsSupported : 1
AtomicShaderInstructions : 0
SRVOnlyTiledResourceTier3 : 1
RenderPassesTier : D3D12_RENDER_PASS_TIER_0 (0)
RaytracingTier : D3D12_RAYTRACING_TIER_NOT_SUPPORTED (0)
 
Wenn es Nvidia schaffen sollte, DLSS in sämtlichen oder vielen Triple AAA spielen zu integrieren, kommt die RTX2060 auf Augenhöhe.
Nochmal 30% dank DLSS auf meine 2080ti oben drauf, wäre schon geil.
 
Mein Bauchgefühl sagt mir, djass wir nächste Woche drei Titel/Patches für DLSS und/oder DXR sehen werden ;)
 
Ja bin auch immer total traurig, dass ich meine 300PS nicht in der 30iger Zone ausfahren kann.

Bei einem 300 PS Auto schaut man aber nicht auf Preis / Leistung und kann sie auf jeder Autobahn frei nutzen.
Bei einer GPU wie der R7 macht man das wohl eher schon und kann nicht einfach auf Knopfdruck Spielen beibringen 16gb zu brauchen, wenn der Durchschnitt der Gamer noch mit 2gb rum gurkt. :-)
 
Wie hier Leute über den Stromverbrauch jammern aber dann übertaktete CPUs besitzen...

Die Karte ist da, wo sie erwartet wurde. Keine Ahnung was da manche für ein Problem habe. Vielleicht müssen die auch hier im Forum etwas kompensieren.

Ich schaue bei einem 300PS-Auto schon auf Preis/Leistung. Nur wer zuviel Geld hat oder seine Prioritäten anders legt interessiert das nicht. Ok,meiner hat nur 285PS.
 
Zuletzt bearbeitet:
Wie manche das einfach net so recht verstehen wollen mit dem Vram.Momentan ist die karte verfügbar für 829€ soll das ein Witz sein?Für 170€ mehr bekommt man ne 2080Ti.Was soll denn mit der Radeon 7 passieren wenn endlich mal DLSS verfügbar ist?Puh ne AMD...wirklich nicht.So geht meine Kohle weiter zu dem Leddermaffay.Kann er sich ohne Probleme mit 100ern seine Zigga anzünden,habe ich nichts dagegen.Die liefern wenigstens.
Das Ding kommt kaum über ne 2 Jahre alte 1080Ti raus.
Nächste Woche kommt wohl sottr mit DLSS...da wirds dann wohl eher still werden.
 
Zuletzt bearbeitet:
AMD setzt wohl leider immer die Prioritäten falsch.. 7nm ist zwar nett, aber deswegen kauf ich mir die Karte nicht wenn für mich beim Spielen dabei keine Mehrleistung rum kommt.
16GB sind auch nett, aber selbes Problem, solang die 2080 trotzdem schneller ist.. who cares? Klar werden Spiele mal 16GB Vram benötigen, aber bis dahin ist schon ne neue Nvidia verfügbar.
 
Ein wirklich toller Ständer da werden manche sicher wuschig ;)

Spaß bei Seite, danke für den Test. Schade das die Costummodelle erst wieder später kommen werden, eine gute Luftzufuhr und 3 Slot Design könnte die Karte wahrscheinlich auf eine annehmbare Lautstärke drücken.
 
Höherer Stromverbrauch geht bei einer GPU mit unverhältnismäßig höherer Abwärme und Lautstärke einher.

Auf eine CPU knallt man sich einen stärkeren CPU Kühler, Kühleraustausch/Upgrade ist bei einer CPU wesentlich einfacher, die Auswahl größer.

Der Kühler hätte einfach noch üppiger dimensioniert werden müssen, die Oberfläche zur Abführung der Wärme ist einfach zu klein.

Wirklich Laune macht das Teil dann erst unter Wakü.

Wenn man die Kosten für eine Wakü (so noch keine vorhanden) mit einbezieht, kann man für das Geld auch gleich eine RTX2080Ti Custom kaufen gehen.

Vermutlich tragen die Entwickler bei AMD alle ear plugs oder sind bereits von den vorherigen Gens Gehör-geschädigt. :fresse2:

Die meisten User wollen einfach eine Karte ins System stecken und daddeln, und nicht stundenlang tweaken, undervolten oder gar den Kühler umbauen.

Der Kühler sieht zwar nett aus, auch die Qualität der Verarbeitung ist auf einem hohen Niveau, aber die Kühlleistung/Lautstärke lässt zu wünschen übrig.
 
Wenn du mich schon zitierst kleiner Wicht, dann im Zusammenhang.

Beleidigungen bringen hier keinen weiter....

Die Radeon 7 ist eine Notlösung, man könnte sagen eine "Fanboy Edition" wenn sie noch ihren Reviewers Kristallständer irgendwann Retail verkaufen wo man dann seine 16GB Karte in der Vitrine präsentieren kann..
 
Zuletzt bearbeitet:
Bei jedem AMD Release das gleiche naive: Da kommen ja noch Treiber :rolleyes:
Das Ding ist Fritte, wieder mal. Das grüne Unheil kann weiterhin machen was es will.
 
Höherer Stromverbrauch geht bei einer GPU mit unverhältnismäßig höherer Abwärme und Lautstärke einher.

Auf eine CPU knallt man sich einen stärkeren CPU Kühler, Kühleraustausch/Upgrade ist bei einer CPU wesentlich einfacher, die Auswahl größer.

Der Kühler hätte einfach noch üppiger dimensioniert werden müssen, die Oberfläche zur Abführung der Wärme ist einfach zu klein.

Wirklich Laune macht das Teil dann erst unter Wakü.

Wenn man die Kosten für eine Wakü (so noch keine vorhanden) mit einbezieht, kann man für das Geld auch gleich eine RTX2080Ti Custom kaufen gehen.

Da bin ich total bei dir.. Aber bei AMD auch nichts neues.. die Watercooling Editions werden bestimmt kommen für nochmal 100-200€ Aufpreis, und die Customs werden dringend nötig sein.
Aber selbst Asus hat es mit der Strix bei der Vega64 nicht mehr wirklich in den Griff bekommen, die Karte war zwar leiser aber immer noch heiss.
 
Die meisten User wollen einfach eine Karte ins System stecken und daddeln, und nicht stundenlang tweaken, undervolten oder gar den Kühler umbauen.

Die meisten User geben aber auch nicht mehr als 250€ für eine GPU aus. Sowohl RTX 2070 und aufwärts als auch Vega 56 und aufwärts sind Enthusiastenklasse auch wenn das einige hier nicht für wahr haben wollen. Für Enthusiasten trifft aber: "Die meisten User wollen einfach eine Karte ins System stecken und daddeln, und nicht stundenlang tweaken, undervolten oder gar den Kühler umbauen." seltener zu. Bei allen anderen Punkten gebe ich dir jedoch recht. Man wird wohl wie bei Vega 56/64 nicht um eine Mod nicht herumkommen. Mit 20€ für zwei ordentlichen 120mm Lüfter und ein Adapter für den Anschluss wird man höchst wahrscheinlich sowohl Temperatur als auch die Lautstärke bändigen können. Macht aber imho erst Sinn wenn die AMD die Treiber Situation nachbessert.

...Aber selbst Asus hat es mit der Strix bei der Vega64 nicht mehr wirklich in den Griff bekommen, die Karte war zwar leiser aber immer noch heiss.

ASUS hat - aus leidiger eigener Erfahrung - überhaupt garnichts hinbekommen weil überall Konstruktionsmängel durch ASUS vorlagen. Das hat mit AMD nichts zu tun. Schon in der V1 der Strix Vega 64 wurde von ASUS einfach ein Speicher Bauteil nicht gekühlt weil der Kühler erst garnicht auf lag. Wurde dann mit der V2 provisorisch nachgebessert indem man das Profil über den Speicherstein gesetzt hat, anstatt den Kühlerbereich zu vergrößeren.
 
Zuletzt bearbeitet:
Bei Jayzs2cents konnte man ja sehen dass die Treiber noch ziemlicher Mist sind, erst mit dem Beta Treiber wurde es besser. Zum Glück kann man fast sagen kann ist die Karte noch nirgends zu kaufen.
Warum man sich allerdings mit diesen Voraussetzungen, mal wieder bei AMD, alles an Hate und Schadenfreude einfährt was hätte vermieden werden können, hätte man noch 1-2 Monate gewartet, bleibt deren Geheimnis.
Ich vermute mal der Radeon 7 - Navi Zeitplan hat die Chefs (mal wieder) mehr ins Schwitzen gebracht, als die 5 Entwickler die gebettelt haben - bitte tuts (noch) nicht...
 
Zuletzt bearbeitet:
Wenn es Nvidia schaffen sollte, DLSS in sämtlichen oder vielen Triple AAA spielen zu integrieren, kommt die RTX2060 auf Augenhöhe.
Nochmal 30% dank DLSS auf meine 2080ti oben drauf, wäre schon geil.

DLSS, das fake 4k was auch aktuell nur auf (achtung, hier bin ich mir nicht ganz sicher) nur auf UHD Monitoren funktioniert? Wahnsinn...

Ein wirklich toller Ständer da werden manche sicher wuschig ;)

Spaß bei Seite, danke für den Test. Schade das die Costummodelle erst wieder später kommen werden, eine gute Luftzufuhr und 3 Slot Design könnte die Karte wahrscheinlich auf eine annehmbare Lautstärke drücken.

Wird es wahrscheinlich nicht geben.

Wie manche das einfach net so recht verstehen wollen mit dem Vram.Momentan ist die karte verfügbar für 829€ soll das ein Witz sein?Für 170€ mehr bekommt man ne 2080Ti.Was soll denn mit der Radeon 7 passieren wenn endlich mal DLSS verfügbar ist?Puh ne AMD...wirklich nicht.So geht meine Kohle weiter zu dem Leddermaffay.Kann er sich ohne Probleme mit 100ern seine Zigga anzünden,habe ich nichts dagegen.Die liefern wenigstens.
Das Ding kommt kaum über ne 2 Jahre alte 1080Ti raus.
Nächste Woche kommt wohl sottr mit DLSS...da wirds dann wohl eher still werden.

Wo siehst du eine Verfügbarkeit? und vor allem wo siehst du 829€?
DLSS ist wieder so ein proprietärer Müll der einem was vorgaukelt und nur mit, wie oben schon geschrieben eine Vermutung, mit UHD Monitoren funktioniert.
 
DLSS, das fake 4k was auch aktuell nur auf (achtung, hier bin ich mir nicht ganz sicher) nur auf UHD Monitoren funktioniert? Wahnsinn...

Stimmt bisher für FFXV, mit Battlefield V wird es dann auch auf 1080p und 1440p funktionieren. Aber richtig ist, dass es hier noch einer größeren Unterstützung und vor allem mehr Flexibilität in der Ausgangsauflösung bedarf. Mal schauen was nächste Woche passiert.
 
DLSS, das fake 4k
Falsch, bzw. genauer: Du weißt offensichtlich nicht, was DLSS / DLSSx2 ist.

was auch aktuell nur auf (achtung, hier bin ich mir nicht ganz sicher) nur auf UHD Monitoren funktioniert?
Falsch. Geh bei jeder gängigen Auflösung.

Wo siehst du eine Verfügbarkeit? und vor allem wo siehst du 829€?
Alternate, Mindstar, Caseking. Also alle drei der großen Hardwarehändler in Deutschland. Zumindest gestern noch. Gibt aber sicher genug Prinzipienkäufer die trotzdem zugeschlagen haben.

DLSS ist wieder so ein proprietärer Müll
Falsch. Kann AMD genauso einbauen, sie müssen es nur anders nennen rechtlich.

der einem was vorgaukelt
Falsch. Siehe Antwort 1.

und nur mit, wie oben schon geschrieben eine Vermutung, mit UHD Monitoren funktioniert.
Falsch. Siehe Antwort 2.

Allgemein solltest Du ggf. recherchieren worüber Du versuchst herzuziehen, sonst wirkt das etwas unbeholfen / peinlich.
 
Ich würde mich schon auch als Enthusiasten sehen.

Wenn ich an den Einstellungen für ein GPU schraube, dann aber eher um mehr Leistung heraus zu holen, und nicht um einen Betrieb @ Stock bei erträglicher Lautstärke zu ermöglichen.

Meine persönliche Schmerzgrenze liegt dann bei 38 bis maximal 40 dB(A), im Test auf CB werden mit UV auf 0,95 vGPU, und weniger scheint stabil nicht möglich zu sein, noch immer 42 dB(A) erreicht.

Habe ich vor den Tests einen Kauf der Radeon VII noch ernsthaft in Erwägung gezogen ist das aufgrund des Kühlungs/Lautstärke Themas jetzt vom Tisch.

Und ähnlich wird es nicht wenigen gehen.
 
Zuletzt bearbeitet:
Leider bezahlt man das mit noch mehr Lärm, die 64er umgerüstet auf MorpheusII und zwei 120er Noctuas ist ein Segen gegenüber dem Ref-Design, gar kein Vergleich

Ich kenne die Lösung hatte den Morpheus II Core selbst im Einsatz, war ja lärmgeschädigt mit meiner ASUS ROG Matrix 290x vor meiner jetzigen GPU. Da war ein nicht passender nvidia Kühler mit nicht passenden Heatpipes und zwei Sorten schlechter WLP verbaut) :fresse2:.

Ich muss für den Radiallüfter auf meiner Vega 56 eine Lanze brechen, läuft super und wenn es auf Vollast geht, rauscht es leise. Da gingen mir Lüfter von 4870, 7870 und 290x vor Umrüstung mehr aufn Keks.

Daher... eine Vega 7 in "klein", ähnlich wie die 56er bitte, mit Radiallösung. Danke :d
 
Falsch, bzw. genauer: Du weißt offensichtlich nicht, was DLSS / DLSSx2 ist.
Falsch. Geh bei jeder gängigen Auflösung.

Nvidia DLSS in Final Fantasy XV im Test - ComputerBase

computerbase.de schrieb:
Während DLSS 2X die Bildqualität bei nativer Auflösung erhöhen soll, rendert DLSS in einer geringeren Auflösung und verbessert dann per KI-Algorithmus die Bildqualität. Dadurch soll die Performance bei vergleichbarer Bildqualität höher ausfallen.

computerbase.de schrieb:
Wer DLSS in Final Fantasy XV aktivieren möchte, findet die Option im Grafikmenü unter dem Punkt „Kantenglättung“. Neben den bekannten Modi FXAA und TAA ist dort nun auch DLSS vorhanden. Das gilt aber nur, wenn Final Fantasy XV auf einer Turing-GPU mit der Auflösung von 3.840 × 2.160 betrieben wird, weil nur für diese der KI-Algorithmus antrainiert worden ist. Dabei spielt es keine Rolle, ob der Monitor nativ Ultra HD unterstützt oder die Auflösung per DSR (Nvidias Downsampling) berechnet wird.

EDIT:
Final Fantasy XV: DLSS-Benchmarks und Bildvergleiche - Hardwareluxx
 
Zuletzt bearbeitet:
Daher... eine Vega 7 in "klein", ähnlich wie die 56er bitte, mit Radiallösung. Danke :d

joa.. das ganze dann in kombination mit "nur" 8gb ram für 500€ und man wäre wohl für die meisten deutlich attraktiver aufgestellt als man es aktuell ist.
 
@XTR³M³
Ja der doppelte verbrauch war etwas übertrieben aber es sind immerhin fast 100Watt hast es ja selbst geschrieben.
VII 295W vs. 2080 225W
V64 295W vs. 1080 180W
V56 210W vs. 1070 150W
RX580 185W vs. 1060 120W
RX560 75W vs. 1050 75W

Übrigens verbrauchen die meisten RX 580 mehr als 185Watt da die guten Modelle zwar auch bessere Kühler haben aber alle etwas schneller laufen. Und ich finde 100Watt mehr für die selbe oder sogar teils weniger Leistung nicht gerade wenig.

Ich bin sicher kein grüner Troll siehe mein Profil, besitze selbst eine RX Karte.

Hier steht es auch schwarz auf weiß doppelter verbrauch fast Idle Leerlauf, 2 Displays, Video und in Game.

Asus RX 580 ROG Strix 8G 12,4 Watt 34,6 Watt 18,6 Watt 196,7 Watt
Sapphire RX 580 Nitro+ 8G 11,9 Watt 34,3 Watt 17,8 Watt 197,9 Watt
MSI RX 570 Gaming X 4G 13,6 Watt 32,1 Watt 20,9 Watt 158,9 Watt
Geforce GTX 1060 Founder's Edition 7,1 Watt 8,1 Watt 12,0 Watt 103,3 Watt


Leerlauf runter, Last hoch - Radeon RX 580 und RX 570 im Test: AMDs Grafikkarten sind schneller und sparsamer - Golem.de
 
Zuletzt bearbeitet:
Wie hier Leute über den Stromverbrauch jammern aber dann übertaktete CPUs besitzen...

Die Karte ist da, wo sie erwartet wurde. Keine Ahnung was da manche für ein Problem habe. Vielleicht müssen die auch hier im Forum etwas kompensieren.

korrekt... nen getakteten 9900k im rechner, der genausoviel frisst wie die radeon aber mimimimi machen, das sind die besten :haha:

also mir isses ehrlich gesagt puppe ob die karte 300W frisst, das macht meine 1080Ti auch ohne OC schon, mit sinds dann deutlich über 400W :drool: :hail: und das ganz ohne shunt mod...

das einzige was mich an der karte effektiv stört ist das temp offset, und sie sich dadurch wohl eher mässig takten lässt, freue mich auf igors nachtest mit custom waküblock.
 
Falsch, bzw. genauer: Du weißt offensichtlich nicht, was DLSS / DLSSx2 ist.


Falsch. Geh bei jeder gängigen Auflösung.


Alternate, Mindstar, Caseking. Also alle drei der großen Hardwarehändler in Deutschland. Zumindest gestern noch. Gibt aber sicher genug Prinzipienkäufer die trotzdem zugeschlagen haben.


Falsch. Kann AMD genauso einbauen, sie müssen es nur anders nennen rechtlich.


Falsch. Siehe Antwort 1.


Falsch. Siehe Antwort 2.

Allgemein solltest Du ggf. recherchieren worüber Du versuchst herzuziehen, sonst wirkt das etwas unbeholfen / peinlich.

Mach dich nicht lächerlich. Ich habe es mir angeschaut im Test zu Final Fantasy. Darauf beruhen erstmal meine Aussagen. Da funktioniert es NUR in UHD und dann wird das ganze nur nur noch ein Fake UHD Bild mit DLSS.
Es hat auch seine Probleme mit manchen Kanten. Es ist also kein Wunderheilmittel gegen Aliasing.
Wie es in anderen Spielen läuft und wie diese dann aussehen, weiß man noch nicht.

Aktuell gibt es laut Geizhals.de keinen einzigen Händler, der eine Karte lagernd hat.


Genau das meinte ich!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh