AMD Radeon RX Vega 64 und 56 offiziell vorgestellt – Preise, Details und mehr

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
falls du mich meinst - hab meine 1080 nur im Profil nicht eingetragen - war ja eigentlich nur als Übergang von Fury zu Vega gedacht aber so wie sich das jetzt abzeichnet ... :wut:
 
Zuletzt bearbeitet:
Diese Videocarz Benchmarks stimmen doch vorne und hinten nicht...

Grobe Einschätzung, GTX1070 100%, GTX1080 125%, GTX1080TI 150%.

Jetzt soll Vega64 die 1070mit 20-30% schlagen und dennoch 11,5-14,5% schneller sein als ne 1080non TI, das ist ja schonmal rein rechnerisch nicht vereinbar was PCGH da schreibt. Dann die Aussage, dass sie 30% langsamer ist als eine 1080TI... Wer säuft da eigentlich in der Redaktion und welcher Fusel ist das? o_O
 
Tipp: das war noch zu Analogzeiten, wenn du noch einen analogen Monitor hast, lebst du in der Vergangenheit.
Tip: Der ist Digital angeschlossen siehe Signatur, aber mit dem Tipp haste Recht das schreibt man jetzt mit doppel P nach der neuen Rechtschreibreform da lebe ich noch in der Vergangenheit.:fresse2:

CRT Monitore können eine bessere Bildqualität haben als TFT´s; so ein oller Sony Trinitron.
 
Diese Videocarz Benchmarks stimmen doch vorne und hinten nicht...

Grobe Einschätzung, GTX1070 100%, GTX1080 125%, GTX1080TI 150%.

Jetzt soll Vega64 die 1070mit 20-30% schlagen und dennoch 11,5-14,5% schneller sein als ne 1080non TI, das ist ja schonmal rein rechnerisch nicht vereinbar was PCGH da schreibt. Dann die Aussage, dass sie 30% langsamer ist als eine 1080TI... Wer säuft da eigentlich in der Redaktion und welcher Fusel ist das? o_O

Warum soll das nicht stimmen?

Man hat bei der 980 / 980 Ti -> Fury X schon gesehen, dass sich das große Speicherinterface des HBM bei hoher Auflösung bemerkbar macht.
Unter Full-HD war die 980 Ti nicht annähernd schlagbar, bei 4K kam die Fury X immer näher.
Vorausgesetzt, die mickrigen 4GB haben ausgereicht.

Nun mit 2 Stacks HBM2 ist das Interface noch größer. Somit kann ich mir schon vorstellen, dass die Karte erst bei hohen Auflösungen die Trümpfe ausspielen kann.
War in jüngster Vergangenheit immer so bei AMD, sei es Hawaii oder Fiji.

Ich glaube die Videocardz-Ergebnisse stimmen 1 zu 1.
Wobei ich auch glaube, dass die 1750Mhz schon mit das Maximum darstellen, sonst hätte man irgendwo schonmal etwas mehr gesehen bzw. gelesen.
1924Mhz bei der 1080 Ti sind dagegen eher "nett". 2000+ macht jede Ti bzw. 1080.
 
Zuletzt bearbeitet:
Ja lange ist es her:hail::fresse2: da gab es mal eine Zeit weit vor eurem Registrierungsdatum hier, Grafikchips wie Matrox G400, Parhelia, Savage 2000, Voodoo. Besonders bei den Matrox´s sah man eine bessere Bildqualität. Tip: lasse mal suchen unter Google Matrox G400 Bildqualität

Aber das war weit weit vor eurer Zeit:hust:

Da steckt in der AMD Radeon RX 56 aber noch viel Treiber Potential drinne, tausche evtl. gegen die Nvidia 1070GTX bei einem guten Verkaufspreis.

Schon alleine von den wenigen eine zu bekommen, und mal wieder eine Radeon drinne zu haben.

und wieso zitierst du mich dabei? da verteidigt man jemanden und kriegt dann von dem was zu hören :wut:
 
Diese Videocarz Benchmarks stimmen doch vorne und hinten nicht...

Grobe Einschätzung, GTX1070 100%, GTX1080 125%, GTX1080TI 150%.

Jetzt soll Vega64 die 1070mit 20-30% schlagen und dennoch 11,5-14,5% schneller sein als ne 1080non TI, das ist ja schonmal rein rechnerisch nicht vereinbar was PCGH da schreibt. Dann die Aussage, dass sie 30% langsamer ist als eine 1080TI... Wer säuft da eigentlich in der Redaktion und welcher Fusel ist das? o_O

Dann ließ nochmal genauer.
A) die 37% sind auf FSU, die 20-30% sind auf den Rest bezogen, stock 1070 auf Vega64
B) die 11-14% hingegen auf FSE/FSU zur OC 1080 bezogen, der Rest zeigt +-0 Unterschied
C) die 30% beziehen sich auf die OC 1080TI bei allem außer FSU mit 18%

Das ist so durchaus schlüssig und passt wie Arsch auf Eimer ins GCN bzw. AMD GPU Programm -> fahr die ALU Anforderungen hoch und das Teil legt zu (FSE/FSU), hier kommt die GPU Power wohl ansatzweise an. Um so weniger Last da ankommt um so mehr knickt das Ding ein/NVs Minidinger ziehen nach/gleich. Liegt warscheinlich wieder/noch am Treiber und der mauen DX11 Umsetzung und/oder weiterhin daran das AMDs FrontEnd immernoch zu schmal für derartige Titel ist.
Das bessert sich ggf. mit der Zeit. Ala 680/HD7970.

PS: die Benches stammen nicht von Videocarz, das sind wohl eingetragene Werte der Futurmark DB?? Stimmen wird das schon...

- - - Updated - - -

Man hat bei der 980 / 980 Ti -> Fury X schon gesehen, dass sich das große Speicherinterface des HBM bei hoher Auflösung bemerkbar macht.
Unter Full-HD war die 980 Ti nicht annähernd schlagbar, bei 4K kam die Fury X immer näher.
Vorausgesetzt, die mickrigen 4GB haben ausgereicht.

Nun mit 2 Stacks HBM2 ist das Interface noch größer. Somit kann ich mir schon vorstellen, dass die Karte erst bei hohen Auflösungen die Trümpfe ausspielen kann.

Die Ableitung der Aussage mag richtig sein, die Herleitung ist aber sachlich falsch.
Der Fiji GPU half HBM in erster Linie durch Durchsatz und Latenz.
ABER, das Interface der Vega GPU ist nur halb so breit, der Speicher "Takt" verdoppelt sich aber nur fast, die Bandbreite ist damit gar drunter, mittlerweile liegt sogar GDDR5X auf 384Bit da drüber!

Wie oben erwähnt, hohe Auflösung = hoher ALU-Powerbedarf. Genau das hat Vega. Nur kommts in popligem FHD wieder nicht auf dem Schirm an. Oder andersrum, der 1080er mit ihren ~20-30% geringerer ALU Power geht da oben dann die Puste aus... :wink:
 
Die ganzen synthetischen Benchmarks zeigen doch nur dass Vega RX 64 die gleiche Leistung zeigt wie Vega FE.
Vergleicht man die Firestrike-Werte die Videocards auflistet mit denen der Vega FE (Liquid), welche den gleichen Takt hält, kommen ungefähr die gleichen Werte raus
The AMD Radeon Vega Frontier Edition 16GB Liquid-Cooled Review | 3DMark, Unigine Heaven
Dabei muss man natürlich ehrlich ggü. Vega FE sein die durch die 16GB HMB2 mehr Strom braucht und somit eher die Werte bei 350W TBP heranziehen und nicht 300W.

Die Implementierung der ganzen "noch nicht aktivierten Features" ist nicht gekommen, oder aber zB tile based rasterization ist schon seit Release von Vega FE aktiv, aber nicht so effektiv wie bei NV
Dass da in Spielen noch signifikant mehr Leistung rüber kommt wie bei FE Liquid ist eigentlich nicht anzunehmen

Liegt warscheinlich wieder/noch am Treiber und der mauen DX11 Umsetzung und/oder weiterhin daran das AMDs FrontEnd immernoch zu schmal für derartige Titel ist.
Nur an der DX11-Umsetzung kann es nicht liegen, dann würde sie in Time Spy vor der 1080 liegen, dort ist sie aber gleichauf
Bei Fury X vs 980Ti war das noch anders, da war Fury X ein paar Prozent vorne.
 
Zuletzt bearbeitet:
und wieso zitierst du mich dabei? da verteidigt man jemanden und kriegt dann von dem was zu hören :wut:
Ohne den ganzen Thread hier durchzulesen zu müssen dürfte das Wort Matrox wohl nur einmal gefallen sein mit der näheren Zuordnung. Hab nichts gegen AMD ob CPU oder GPU:hail:, aber die GPU lag doch schon eine ganze Weile her (HD 5870) und Nvidia ist für mich immer das bessere Angebot gewesen.

Die Test werden es zeigen ob der Verbrauch etwa (da drücke ich mal ein Auge zu) in der Relevanz zur Leistung der GTX 1080 liegen.
 
Konnte das auf den letzten screens nicht erkennen, ist denn dort schon ein finaler Treiber verwendet worden?
 
wenn man kein erfahrener User ist oder nicht versteht das der andere User meint, ja dann liest sich das bestimmt wie Unsinn.
Schlimmer noch, wenn man eigentlich weiss worauf hier angespielt wurde und trotzdem so reagiert...


@Mustis: werden deiner Meinung nach also alle Vega64 zum Release mindestens 599€ kosten? Und du verlässt dich da auf nur VideoCardz?

Nochmal: WO behaupte ich das. Der Unterschied zwischen dem Preis UVP in USD und Preis HIS in € ist dir irgendwie klar? Wie kann man meine Aussage nur derart verdrehen? Oo

Zur Bildquali: Dann klär mich auf Mr. Erfahrener User...

Kleiner Protipp: Als MAtrox noch im Gamermarkt noch wirklich konkurrenzfähig war und Voodoo oder S3 groß dabei, waren Nvidia höchstens 4 Jahre im Geschäft (und das nicht in dem Markt...) und ATI ebenfalls nicht viel länger... die so formulierte Aussage hatte also auch damals nur sehr bedingt für kurze ZEit eine Bedeutung und ist seit mindestens 17 JAhren vollkommen obsolet. Das als Paradebesipiel angegebene Produkt G400 wurde 1999 releast und stand damit der allerersten Nvidia Geforce gegenüber, der 256. Und der allgemeinen Auffassung galt der 256er als das deutlich bessere Gesamtprodukt. Sorry, dass ich nicht in der Geschichte schwelgte in einem Thread der eines nagelneues Produkt aus dem Jahr 2017 behandelt und bei dem Hersteller wie MAtrox, Voodoo etc. null Bedeutung haben. Oo Bzw. auch damals war das an sich obsolet, den vielmehr als das hatte die G400 auch damals nicht zu bieten dank miserabler Treiber und großer Abhängigkeit von der CPU... Und die miserablen Treiber waren bei S3 ebenso vorhanden.
 
Zuletzt bearbeitet:
Diese Videocarz Benchmarks stimmen doch vorne und hinten nicht...

Grobe Einschätzung, GTX1070 100%, GTX1080 125%, GTX1080TI 150%.

Jetzt soll Vega64 die 1070mit 20-30% schlagen und dennoch 11,5-14,5% schneller sein als ne 1080non TI, das ist ja schonmal rein rechnerisch nicht vereinbar was PCGH da schreibt. Dann die Aussage, dass sie 30% langsamer ist als eine 1080TI... Wer säuft da eigentlich in der Redaktion und welcher Fusel ist das? o_O
die eröffnen da auch threads, weil AMD ein wallpaper rausgebracht hat. also nicht die user, sondern PCGH selbst. sehr viel wundert mich da nicht mehr ...
 
"Eine übertaktete Radeon mit 1.750 MHz statt 1.630 MHz setzt sich sogar über 10 Prozent von der Geforce GTX 1080 Gaming X ab. Im Timespy-Test ist das allerdings auch notwendig, um mit der MSI-Grafikkarte mithalten zu können. Ansonsten ist die Geforce GTX 1080 Gaming X hier rund 10 Prozent schneller im Vergleich zu einer Referenz-Version der Radeon RX Vega 64."

ne um 100MHz übertaktete Vega 64 ist um 10% schneller als ne 1080 Gaming X. und die 10% Vorsprung braucht Vega 64, um mithalten zu können. wie geht das gleichzeitig 10% schneller zu sein, um "mithalten zu können"???
und wo ist dieses "hier", wo die 1080 10% schneller ist? es wird doch nur vom timespy-Test gesprochen. sind da jetzt beide Karten 10% schneller, als die jeweils andere? und halten so beide mit? WTF? ich hol mir nochn Kaffee und sinniere etwas darüber ...
 
Naja sie braucht wohl 10% mehr Leistung (auf dem Papier) als die 1080 um in diesem Timespy Test gleichziehen zu können.
Ich weiß allerdings nicht was der Timespy Test ist und er ist mir auch völlig egal.

Die olle Matrox..ja, sowas hatte ich auch mal im Rechner. Danke für den Ausflug in die Vergangenheit. Was hatten wir da für eine Grafikpracht. Nur die hochkomplexesten Spiele. Alarmstufe Rot 2 in 1200*700 :O xD
 
Alles etwas verwirrend was ein gewisses Magazin da schreibt ^^
 
Naja sie braucht wohl 10% mehr Leistung (auf dem Papier) als die 1080 um in diesem Timespy Test gleichziehen zu können.
Ich weiß allerdings nicht was der Timespy Test ist und er ist mir auch völlig egal.

Das ist ein DX12 only benchmark
 
mein Fehler. Immer so schreiben, dass jeder dich verstehen kann.
Also ich weiß WAS das ist, ich weiß aber nicht wie es vorgeht und was es berechnet. Unterm Strich aber auch egal. Benchmarks und Statistiken haben für mich nämlich einen interessanten Stellenwert. Wenn ich nicht selber dran war: gar keinen :O
 
mein Fehler. Immer so schreiben, dass jeder dich verstehen kann.
Also ich weiß WAS das ist, ich weiß aber nicht wie es vorgeht und was es berechnet. Unterm Strich aber auch egal. Benchmarks und Statistiken haben für mich nämlich einen interessanten Stellenwert. Wenn ich nicht selber dran war: gar keinen :O

interessant wenn alle Benchmarks wo du nicht selbst drann warst gar keinen Stellenwert haben - dann kannst du dir ja auch gleich auswürfeln welche Hardware du kaufst :d
wie läuft das dann ab du kaufst dir alle in Frage kommende Hardware machst dann selber Benches um dann zu entscheiden was besser ist und für dich passt :lol:


@hamburger Jung
laut Aussagen von Amd anscheinend im September bzw. der Großteil wohl erst Anfang Oktober :(
 
Zuletzt bearbeitet:
Gibt's schon Abschätzungen wie sich die Karten zur 500er Serie von AMD orientieren werden?
 
Zuletzt bearbeitet:
interessant wenn alle Benchmarks wo du nicht selbst drann warst gar keinen Stellenwert haben - dann kannst du dir ja auch gleich auswürfeln welche Hardware du kaufst :d
wie läuft das dann ab du kaufst dir alle in Frage kommende Hardware machst dann selber Benches um dann zu entscheiden was besser ist und für dich passt :lol:

Da siehst du mal wie schwer ich das habe!
Jede Menge querlesen ist die Antwort. Es gibt eine Flut an Informationen. Aus dieser muss man sich die Informationen rauspicken, die für einen selbst eine Rolle spielen. Dann kann man kaufen und in realer Umgebung testen.
Aber so, wie hier in diesem Forum einige Leute auf Benches von KARL PETER dem SUPERSTREAMER abgehen..naja. Ich hab meine Meinung zu den Link-Schlachten (nicht zu verwechseln mit Links-Schlachten!) ja bereits kundgetan.
Selbst bei ein paar von den Predigern/Beitragsmaschinen hier kann man aus jedem 500sten Post mal einen interessanten (An)satz rauspulen.

Achso und ich hab hier noch ne Tube Senf zum Thema der letzten Seite:
Amd wird nicht dem Gaming Markt den Rücken kehren und sich auf Mining spezialisieren. Das wird mehr oder weniger Zufall sein, den man (hoffentlich) schamlos ausnutzt. Wenn sie ne gewisse Menge an Karten überteuert abgesetzt haben (eine budget Grenze erreichen oder bis die Nachfrage abflaut, egal) können sie ja von sich aus den UVP runtersetzen und die paar Gamer mit Interesse versorgen, die es dann noch gibt.
Und nachdem sich abzeichnet, dass kein poor Volta zu erwarten ist, ist das doch der way to go um aus diesem Produkt alles rauszuholen - mehr als erwartet sogar.
Fälschlicherweise habe ich Vega auch schon als Totgeburt abgestempelt. Technologisch gesehen ist dies aber völlig falsch. Entwickeln kostet Geld. Und trotz des Fokus auf den CPU Markt (was sich ja nun mal unabstreitbar gelohnt hat, für alle!) hat amd mit ihren begrenzten Mitteln eine brauchbare gpu so weit entwickelt bekommen, dass sie funktioniert und mit kräftigen Karten mitziehen kann (okok, das ist noch kein Fakt. Ich gehe jetzt davon aus, dass man auf 1080 Nivea kommt) (Absicht).
Die Kernentwickler bleiben an den cpus und sind vermutlich bereits auf dem Weg zu zen+ und es werden Kapazitäten frei um an ihrer GPU Technologie weiter zu schrauben. Und wenn jetzt die Leute unter euch, die sagen "jaja Rohleistung gut, aber performance schlecht" recht haben, dann dürfte man sich doch sehr freuen, wenn die es jetzt schaffen a) Noch Leistung drauf zu packen und b) diese auch freisetzen können.
Ist jetzt n bisschen ausgeartet der Text, aber es ist ein wünschenswertes Szenario. Auch die harten Markenfetischisten beider Lager werden das zugeben müssen. Klar, doof dann für nen Moment, weil oh nein wie konnte amd jetzt nvidia abhängen und dann kommen diese venedig_vurst Trolle raus und tanzen auf den Kadavern der ausgebrannten nvidia Trolle. Aber das hält ja nicht ewig an. Und vor allem geht es dann vorwärts, weil keins der Unternehmen klein beigeben wird. Guckt euch im Verhältnis mal Intel:amd und nvidia:amd an. Amd ist ne kleine Wurst, weigert sich aber aufzuhören mit Atmen.
Konkurrenz = gut!
 
Jede Menge querlesen ist die Antwort. Es gibt eine Flut an Informationen. Aus dieser muss man sich die Informationen rauspicken, die für einen selbst eine Rolle spielen. Dann kann man kaufen und in realer Umgebung testen.
Aber so, wie hier in diesem Forum einige Leute auf Benches von KARL PETER dem SUPERSTREAMER abgehen..naja. Ich hab meine Meinung zu den Link-Schlachten (nicht zu verwechseln mit Links-Schlachten!) ja bereits kundgetan.
Selbst bei ein paar von den Predigern/Beitragsmaschinen hier kann man aus jedem 500sten Post mal einen interessanten (An)satz rauspulen.

so wie es halt jeder macht der halbwegs vernüftig an die Sache rangeht, nur ohne Benchmarks von anderen aus dennen man sich die "Wahrheit" sozusagen herausfiltern muß geht es halt nicht :)

Amd wird nicht dem Gaming Markt den Rücken kehren und sich auf Mining spezialisieren. Das wird mehr oder weniger Zufall sein, den man (hoffentlich) schamlos ausnutzt. Wenn sie ne gewisse Menge an Karten überteuert abgesetzt haben (eine budget Grenze erreichen oder bis die Nachfrage abflaut, egal) können sie ja von sich aus den UVP runtersetzen und die paar Gamer mit Interesse versorgen, die es dann noch gibt.

mir ist schon klar das man sich bei Amd ab jetz nicht komplett auf das Mining konzentriert, aber man wird halt wie es ausschaut, da man jeden cent braucht auf Teufel komm raus die Miner melken wenn sich die Möglichkeit bietet, die Frage ist nur ob man sich damit einen Gefallen für die Zukunft tut, denn du sagst es ja selbst wenn man sich dann mal wieder den verbliebenen, immer noch wartenden Gamern zuwendet könnten das wirklich nur noch sehr wenige sein da man den Rest (der ohnehin schon nur noch sehr klein ist im Vergleich zu nvidia) auch noch vergrault mit überzogenen Preisen.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Es bleibt aber nichts anderes über. Sie haben aufs falsche Pferd gesetzt mit ihrem Speicher und können die Gamerwelt nicht im Sturm erobern.
Sie können nicht alle beschwichtigen mit brutal günstigen Preisen, weil sie sonst schlicht und ergreifend ohne Geld da stehen und schon wieder nicht weiter kommen.
Also alles auf eine Karte (lul) setzen und die Miner "melken" (die wie gesagt über so ein paar Euros lachen).
Dann streicht man dem Marketing noch ein paar Gelder und kündigt nicht die Sensation des Jahrtausends an, sondern bringt einfach in 2018 eine GPU auf den Markt die so weit entwickelt ist, dass sie an der Spitze mitspielt. Und das dann zu einem sauber kalkulierten Preis.
Damit könnten sie dann auch in dem Segment wieder Fuß fassen. Klar haben dann trotzdem schon viele ne 1080ti. Aber nicht alle. Wenn sie Volta in die Suppe pi***n und 10% (abrufbare) Leistung drauflegen aber 10% günstiger zu haben sind.. GG. Die fünf Leute, die ihre 1200 Euro gsync Monitore haben, die bleiben natürlich bei nvidia. Der Rest springt dann aber um, i guarantee it ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh