AMD Radeon RX Vega 64 und RX Vega 56 im Test

Von der Vega64 den Chip und Speichertakt auf Vega56 Niveau senken und Undervolten und mit 50% Powertarget versehen, dann hat man den vollen Chip (nicht beschnitten) mit mehr Leistung als Vega56.:d In dem Treiber sind doch noch Energiesparmaßnahmen Techniken glaube mal gelesen zu haben implantiert, vielleicht noch nicht so aktiv.

AMD Radeon RX Vega 64 und RX Vega 56 im Test - Hardwareluxx

- - - Updated - - -

Mit der Zen- und Vega-Architektur führte AMD doch einen neuen Interconnect ein. An diesem Infinity Fabric hatte AMD seit 4 Jahren gearbeitet. Der Name Fabric legt im Grunde schon nahe, um welche Struktur es sich handelt, denn Fabric heißt übersetzt Stoff und eben so ist auch dieser Interconnect aufgebaut. Laut AMD ist der Infinity Fabric modular aufgebaut und kann beliebig komplex ausgeführt werden. Eben diese Skalierbarkeit sollte den Infinity Fabric in allen neuen Prozessoren und GPUs einsetzbar machen. ;)

Auch dazu weitere Informationen in unserem Artikel: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/43969-amd-radeon-rx-vega-64-und-rx-vega-56-im-test.html?start=3
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gebe mir ja alle Mühe die Vega Testergebnisse vielleicht noch schöner zu machen.:fresse2:
 
Zuletzt bearbeitet:
Performer schrieb:
Dein Profil ist aber ohne moderner Bildsynchronisationstechnik BETA und hast du mal ausgerecht was die tatsächlich unterschiedlichen IDLE Stromkosten wären ? 10€ pro Jahr ?
Hättest du gesagt, weil bereits ein G-Sync Monitor vorhanden ist wäre es logisch aber so ist deine Begründung für GTX1070 statt RX Vega 56 nicht wirklich nachvollziehbar. :angel:
Wie gesagt, ich bin nicht sehr anspruchsvoll. Die letzten Spiele habe ich auf einer 970 nur in HD gezockt. Wir hatten Spaß beim spielen und nein, F/G Sync ist mir nicht wichtig.
Ich schreibe dir die Punkte einzeln auf:

-420€ MSI Mini. HD 5770 TF MSI, GTX 760 MSI. Ich würde gerne bei MSI bleiben.
-etwas geringerer Idle Betrieb.
- Als Mini ist es besser weniger Leistungsaufnahme und Wärme abführen zu müssen.

Es ist nur meine Meinung, was ich machen würde, würde ich heute oder in der nächsten Zeit kaufen, würde ich mich so entscheiden.

Würde ich mir einen neuen Rechner basteln, dann mit dem 1600X und einer GTX 1060. Weil mir die Leistung einer 1060 reicht.
CPU seitig bin ich aktuell mit dem 4670K noch lange gut bedient. Zumindest für meine Ansprüche. Also würde eben, wenn es sein müsste, eine 1070 in den Rechner.
 
Zuletzt bearbeitet:
Wobei die RX580 der 1060 vorzuziehen wäre. ;)
 
Die Vega RX56 gewinnt extrem knapp das Leistungsduell gegen die GTX 1070.
Die RX Vega 64 verliert das Duell gegen die GTX 1080 und ordnet sich etwad dahinter ein.

Die RX56 könnt in meinen neuen Rechner wandern. Die Frage ist nur ob 1070 oder RX56.
Wenn es da nicht so viele Games gäbe wo die 1070 so viel schneller ist.
Schwierige Entscheidung.
 
Nein, der Interconnect bindet beispielsweise die Speichercontroller an oder das PCI-Express-Interface. Direkt sprechen CPU und Grafikkarte nur über PCI-Express - egal ob Intel- oder AMD-CPU.
Ok, aber PCI-E wecheslt doch die Version selbst je nach Last oder idle Zustand (P-State)
 
ich bin ja der meinung, dass man die wakü version absichtlich nicht nach de geliefert hat. bei den strompreisen hier...

auch merkwürdig erscheint, dass 50% mehr pt kaum leistung aber extrem mehr verbrauch bringt. man fragt sich wozu die enrgie da verpulvert wird.

auch interessant, nach der ewigen tdp diskussion, dass die karten ziemlich genau verbrauchen was sie laut tdp dürfen.
auch hier wieder, bei pcperspective verbraucht die liquid64er 550W. das ist wohl rekord. nichtmal die 295er hat sich das getraut.
auch dachte ich micht, dass die 290x (390x) in temperatur und verbrauch zu toppen sind.
die desaströsen leistungs/watt werte machen die karte in meinen augen unkaufbar. selbst als 99% bf1 spieler tausche ich im leben meine 1080 nicht gegen vega64.
die investition in das kuhlsystem wären viel zu hoch.
 
Storm, das lassen wir mal beiseite, das ist bei 1060 vs 580 eher nicht das Hauptthema. Die 580 ist etwas Stärker, overall.
Hier ist also das Verhältnis nicht mit Vega vergleichbar.
 

Ich vermute mal der Prozess ist schlichtweg nicht für solche Dinger ausgelegt.. Vllt wird Samsung noch Vega fertigen, dann kann man Quervergleichen.. Aber der GloFo Prozess scheint nicht GPU tauglich zu sein und damit wäre es eben 14nm LPE...
eine Vega 56 mit undervolting sieht wiederrum ganz ok aus.. Nicht Bahnbrechend aber eben auf dem Niveau wo man sie gerne hätte
Derzeit spricht nicht vieles für Vega und die Zeit wird zeigen was AMD da verbessern kann und was Hardwareseitig nicht klappt..
Würde ich gefragt werden, ich würde derzeit zur 1080 Raten oder maximal zur Vega 56, wenn sie unter 420€ liegt.. Sonst hat Nvidia mal das Rennen gemacht (und das sage ich als Kunde und AMD Enthusiast)
 
Zuletzt bearbeitet:
hat mal grad jemand nen test zur hand bei dem der verbrauch bei 3 verschiedenen monitoren getestet wurde?

der verhältnismäßig hohe idle verbrauch bei nutzung meiner 2 monitore + beamer ist so ziemlich das einzige was mich an meiner aktuellen karte etwas nervt, wäre interessant ob sich da was getan hat.
 
Man könnte aber die Tesselation Leistung rausnehmen oder Runterschrauben, denn grade die Gameworks Titel schmeißen mit Tess um sich und das ohne Sichtbare Effekte.
Wäre mal so ne Idee, grade Mass Effect Andromeda hat das sehr schön gezeigt wie die AMD Karten einbrechen:
Mass Effect Andromeda im Benchmark-Test - ComputerBase
Ich muss sagen bei mir war Tess bei GCN immer aus und bei Nv ist es das derzeit auch.. So nen Mist will ich nicht noch gutheißen.
Wäre mal ne Überlegung wert für einen Test, vermutlich wird dann die Vega 64 sich zwischen 1080 und Ti setzen und die kleinere etwas vor die 1070 Customs..
Da bliebe dann immer noch die teil bis zu 150W Differenz, da hilft dann nur noch Undervolting. Aber auch nur bis vllt 100W Differenz

Offenbar nutzt Mass Effect: Andromeda maximal den Tessellation-Faktor 16×. Darüber gibt es zumindest weder optische, noch leistungsmäßige Unterschiede. AMD scheint bei der optimierten Einstellung den achtfachen Faktor daraus zu machen. Optisch scheint Faktor 16× im Vergleich zu Faktor 8× nur etwas zu bringen, wenn man mit der Lupe nachschaut. In der Praxis sollte dies keinen Unterschied machen. Wer möchte, verliert auch mit Faktor 6× quasi keine Qualität. Erst mit Faktor 4× werden die Unterschiede größer. Ab Faktor 2× kann man Tessellation auch ganz deaktivieren

Hier das ist Spannend:
Mass Effect: Andromeda setzt allerdings auch auf Tessellation, wenn es keine grafischen Unterschiede ausmacht – oder diese einfach nicht zu sehen sind. In der zweiten Testszene (ohne Berge) spielt es bezüglich der Bildqualität keine Rolle, ob Tessellation wie vom Spiel vorgeschrieben genutzt oder völlig deaktiviert wird. Die Performance reagiert auf der Radeon RX 480 jedoch deutlich darauf. Zwischen abgeschalteter und maximaler Tessellation-Stufe liegen 15 Prozent Unterschied.
Leider ist auch CB beim Test hier nicht drauf eingegangen oder Vega ist noch nicht soweit im Treiber implementiert.. Das wäre dann noch schlimmer.

@STOrM41:
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/power_multimon.png
AMD Radeon RX Vega 56 8 GB Review | techPowerUp

Vega 17W , Nvidia 11W
Bei Idle frage ich mich heute wieso die 1080 6W braucht und meine Ti ganze 11 W.. Da wirken 14W von AMD auch nicht schlimm.Aber auch ne 1060 3Gig verbraucht Idle mehr als ne 6G? Why?. Hat da jemand nen Tipp?
 
Zuletzt bearbeitet:
Auf dem Test bei Golem stand doch, dass die Vielen neuen Features die Vega bekommen hat erst in neueren Spielen genutzt werden?
 
Wenn AMD die Tessalationsleistung immer noch nicht verbessert hat, ist das deren Problem. War genug Zeit da.
 
was ich krass finde ist, dass die 56er die gleiche 400w+-Stromversorgung wie die 64er hat. Das war schon bei der Ref-480 so, dass die Stromversorgung völlig overkill war und die Effizienz merklich verschlechtert hat. Die Ref480 hat für 1400mhz ~170w benötigt, währed beispielsweise eine Gigabyte Rx480 dafür nur 140w gebraucht hat.

Ich kann mir gut vorstellen, dass eine 56er mit einer adäquaten Versorgung noch eine Ecke effizienter wird.
 
Vega 56 sieht wirklich ganz gut aus wenn einem die Leistung zwischen 1070 + 1080 ausreicht.
Natürlich nicht das Referenzmodell, sondern als Custom Vega 56 mit ordentlicher Kühlung, dann muss nur noch der Preis passen.

Vega 64 ist leider genau das was zu erwarten war seit wir die Ergebnisse von Vega FE kannten. (soviel zum Thema keine Gaming-Karte und mit RX wird alles anders)
Auch die Geschichte mit "TBR nicht aktiviert" war eine Nebelgranate, AMD hat die Funktion sicher aktiv aber eben nicht so effektiv wie NV.

Die angebliche extreme Mining-Leistung ebenso ein Märchen, aber Gibbo konnte sicher ein paar Karten mehr vorab verkaufen.

Vermutlich wird wirklich Vega Nano die beste Karte aus dem ganzen Vega-Consumer Portfolio. (wie schon bei Fury)
Mit niedriger TBP im Sweetspot sicher eine nette kleine Karte.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Man könnte aber die Tesselation Leistung rausnehmen oder Runterschrauben, denn grade die Gameworks Titel schmeißen mit Tess um sich und das ohne Sichtbare Effekte.

Da sieht man schon. Musst nur genau hinschaun.

Wäre mal ne Überlegung wert für einen Test, vermutlich wird dann die Vega 64 sich zwischen 1080 und Ti setzen und die kleinere etwas vor die 1070 Customs..

Da wird die sich schwer tun. Tesselation wird eh kaum eingsetzt und nach den Jahrn hätt AMD wrkle mal schaun können dass sie das fixen.
Tess Performance is immernoch weit hinter ner 1080 bei hohen Faktors.

Da bliebe dann immer noch die teil bis zu 150W Differenz, da hilft dann nur noch Undervolting. Aber auch nur bis vllt 100W Differenz

Dann undervolt i auch die andere Kartn und dann sinds wieder 150 Watt.:drool:
 
Das ist wie Unix, das Betriebssystem der Zukunft, und das schon seit 30 Jahren.
 
Und jetzt?`Was hält dich davon ab eine GTX 1070 zukaufen? Du hattest vor einem Jahr die Chance, du hast es aber anscheinend nicht? Dafür ist nicht AMD verantwortlich sondern du alleine. Und ja es gibt noch keine Customs. Und wenn du unbedingt jetzt eine Karte brauchst, ja dann kauf dir doch Nvidia. Kein Grund hier rumzuheulen.

Und du kannst soviel lachen wie du magst. Es war die letzten Generationen immer so. Sei es die RX580, RX480, 390/x, 290/x oder whatever. Die haben im Laufe der Zeit in denen die Treiber verbessert wurden immer ein paar % gegenüber den Nvidias gebracht. Das ist nunmal eine Tatsache die man nicht verleugnen kann. Für Leute die in den nächsten Monaten eine neue Karte brauchen könnte das eine (kleine) Rolle spielen. Fertig.

Oh ich hab eine 1070 und bin auch froh nicht noch AMDs Versprechen gefolgt zu sein.

Und am rumheulen bist doch wieder du soabld der Marktanteil von AMD (welch Wunder) nicht wirklich stark im Highendbereich steigt, oder man sogar Verlust macht, weil man die Karte unter Wert verkauft.

Eine Tatsache war es für einige alten Karten, ob es bei der neuen Karte auch der Fall ist, wird sich noch heraus stellen. Und dann kann man sich ja die Karte kaufen wenn sie in der Leistung steigt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh