Kommentar: Hat AMD die Ziele mit Vega erreicht?

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
amd_radeon_rx_vega_64_56_test.jpg
Mit der Veröffentlichung der finalen technischen Spezifikationen und Leistungsdaten zur Radeon RX Vega 64 sowie Vega 56 kommen natürlich auch Fragen auf. Diese machen wir uns aber nicht erst seit heute, sondern stellen uns bereits seit einigen Wochen, spätestens aber ab dem Vega Tech Day zur Siggraph Ende Juli, die Frage, ob AMD mit der Vega-Architektur seine eigenen Ziele wirklich hat erfüllen können.Die Frage stellt sich aufgrund einiger
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hab ich schon von vorne rein gesagt, es ist Traurig das es nach über 2 Jahren zu nicht mehr als Quasi einer übertakteten Fury X mit 8GB gereicht hat.

Mich würde mal ein vergleich interessieren zwischen Vega und Fury X bei gleichem Takt und wenn dann die Fury schneller sein sollte schmeiß ich mich weg. ^^
 
Ja du hast es gesagt... besser als AMD hast es aber auch nicht gemacht. Steht jedem frei eine Firma zu gründen und es besser zu machen.
 
Eine weitere Erfolgsstory in Good old Germany...

Eine Halbleiter Firma in Deutschland gründen, Was machen sachen!
 
@Overroller

Dir kann geholfen werden! Gamers Nexus hat die Vega FE gegen die Fury X gehalten und bei gleichen Takt getestet. Ich habe leider nicht die Gamingleistung der Vega FE nicht im Kopf, aber ich glaube die war nur wenig schlechter als die RX Vega 64.
Hier der Link zu Youtube:
Vega FE vs. Fury X Clock-for-Clock: Tested - YouTube

Du darfst Dich jetzt gern kullern vor lachen! :-)

Betrachtet man aber die produktive Seite der Vega FE, nicht die Gaming Leistung, stellt man aber fest, dass es teilweise extreme Leistungssteigerungen bei Berechnungen und im Profi-Anwendungen gibt. Repräsentiert durch Specview Benchmarks

Mir deucht dass RX Vega und Vega FE eigentlich Fire Pro Karten sind, die sich eher in Workstations und bei Berechnungsaufgaben wohlfühlen, anstatt von Rendern von Bildern für Spiele. Aber wie Andreas in seinem Kommentar schon schrieb: Wir haben es hier mit einer Multifunktions GPU zu tun. Die kann mehr als nur schnell Bilder zeichnen. Leider aber mit hoher TDP :-(
 
Zuletzt bearbeitet:
Also eine FEGA X 64 =)
 
Ob AMD die eigenen Ziele erreicht hat? Wenn das Ziel "poor Volta" war, dann leider Nein, leider gar nicht. Am Ende resuemieren praktisch alle Tests dasselbe: zu spaet, zu durstig & keine Konkurrenz fuer eine 1080 Ti. Von einem spekulativen Volta-Derivat ganz zu schweigen.
 
Welche Ziele erreicht... ein Jahr zu spät, Leistungsaufnahme eines Backofens, Preise sind ~gleich auf und mit mühe und Note gerade mal eine GTX1080 Leistung.
Alles über der GTX1080 FE hat AMD nichts gegen zu setzen, was sollen den Partnerkarten noch herausholen, etwas mehr Takt mit noch viel höherer Leistungsaufnahme, der Witz war gut.
*Konkurrenzlos* GTX1080Ti und TitanXP *Konkurrenzlos* ... schon lange, wird auch noch lange so bleiben.
 
Und wie immer werden Treiber einfach verschwiegen? :rolleyes:

https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/8/

Über die letzten Tage hat sich damit nach Wochen der Spekulationen auch auf Basis handfester finaler Hardware und vorerst finaler Treiber der Eindruck gefestigt, dass Vega aktuell wirklich nicht das ist, mit dem AMD noch im letzten Jahr selbst gerechnet hat. Woran es genau liegt? Spekulation. Definitiv nicht fertig sind die Treiber. Der Draw Stream Binning Rasterizer (DSBR) ist zwar offenbar noch in letzter Sekunde fertig geworden, der High Bandwith Cache Controller (HBCC) ist aber immer noch standardmäßig abgeschaltet und Primitive Shader fehlen komplett. Und das sind Neuerungen, mit denen AMD schon vor Monaten groß geworben hat.

Vega 56 schaut auf jeden Fall schon jetzt recht gut aus. Die würde ich jeder GTX 1070 vorziehen bei maximal $400. Mit entsprechenden Partnerkarten und besseren Treibern gibt's dann womöglich auch für die GTX 1080 weniger Argumente.
 
Und wie immer werden Treiber einfach verschwiegen?

Nein, aber ich kann einem Produkt doch nicht zugute halten, dass es noch nicht fertig ist. Es ist eher ein Kritikpunkt in einem Augen das der Treiber noch nicht fertig ist.
 
@ Marfy, danke für den Test habs mir gerade mal anschaut, oh man kann man da nur sagen, gut die Karte wird im Mining bereich ihre Abnehmer finden von daher wird AMD da schon gute verkaufszahlen erziehlen, aber für den normalen Gamer Markt ist das Ding halt ein Reinfall auf ganzer Linie, leider.

@ Performer was soll mit meinen Karten sein, habe die jetzt 2,5 Jahre und ich glaube mit dem Kauf alles richtig gemacht zu haben, bisher hab ich noch keinen Grund aufzurüsten. Ich habe auch schon nen G-Sync Monitor getestet, ich sehe dabei aber keinen Unterschied für mich daher habe ich ihne wieder zurück geschickt da das 1300,- Euro sind die ich mir sparen kann.
 
Die Vega ist mit nem Augenzwinkern für gaming aber ansonsten ist sie in einem professionellen Umfeld Zuhause. Habe sie mir aber bestellt 😓 sie ist trotzdem das beste was AMD Bietet.
 
Und wie immer werden Treiber einfach verschwiegen? :rolleyes:

https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/8/

Vega 56 schaut auf jeden Fall schon jetzt recht gut aus. Die würde ich jeder GTX 1070 vorziehen bei maximal $400. Mit entsprechenden Partnerkarten und besseren Treibern gibt's dann womöglich auch für die GTX 1080 weniger Argumente.
Also ist die Rechtfertigung das die Vega Karten so 'schlecht' dastehen im Test, das es unreif/unfertig in Handel gebracht wird für den zahlenden Kunden, irgendwie also 'Beta-Status' der VGA Treiber?!
...soll das irgendwer positiv finden und AMD hoch anrechnen oder wie soll man das verstehen :rolleyes:
 
Zuletzt bearbeitet:
Solche Geschäftspraktiken und die Firma wäre quasi vom Markt getilgt worden.

Gilt für beide Firmen - nur 2 Hersteller Ping Pong
 
Nein, aber ich kann einem Produkt doch nicht zugute halten, dass es noch nicht fertig ist. Es ist eher ein Kritikpunkt in einem Augen das der Treiber noch nicht fertig ist.

Der Draw Stream Binning Rasterizer (DSBR) ist zwar offenbar noch in letzter Sekunde fertig geworden, der High Bandwith Cache Controller (HBCC) ist aber immer noch standardmäßig abgeschaltet und Primitive Shader fehlen komplett.

Muss man ja nicht zugute halten ist ja eher traurig von amd so nen treiber als final zu bezeichnen aber erwähnen kann mans ja trotzdem hat ja CB auch geschafft.
 
Zuletzt bearbeitet:
Der Draw Stream Binning Rasterizer (DSBR) ist zwar offenbar noch in letzter Sekunde fertig geworden, der High Bandwith Cache Controller (HBCC) ist aber immer noch standardmäßig abgeschaltet und Primitive Shader fehlen komplett.

Muss man ja nicht zugute halten aber erwähnen kann mans ja trotzdem hat ja CB auch geschafft.

Wir haben sehr oft erwähnt, dass die Karten aufgrund er unterschiedlichsten Techniken noch Potential haben. Nur weil nicht zu Ende gelesen wird, müssen wir uns nichts vorhalten lassen.
 
@ Marfy, danke für den Test habs mir gerade mal anschaut, oh man kann man da nur sagen, gut die Karte wird im Mining bereich ihre Abnehmer finden von daher wird AMD da schon gute verkaufszahlen erziehlen, aber für den normalen Gamer Markt ist das Ding halt ein Reinfall auf ganzer Linie, leider.

...

Ich habe mir gerade einige Youtube Videos zum Thema Vega angeschaut. Andreas sein Kommentar war ein guter Hinweis. So wie es aussieht, glänzen die RX Vega Karten in produktiven Tasks wie z.B. GPU beschleunigtes Video Rendering etc. OpenCL, CAD/SpecView und allgemein Berechnungen. Es sind wohl wirklich Fire Pro Karten, die leichte Verbesserungen fürs Gaming bekommen haben. (Frag mich nur was diese Vega FE dann bitte sein soll... egal!)

Worüber aber bisher Keiner so recht spricht sind die High-Tech Features den Vega implantiert wurde. HBCC, Rapid Packed Mathe und alle diese ganzen Features ... wie sie auch heißen mögen. Das ist ganz schöner Nerd-Stuff... Mir gefällt das... ja!... aber leider macht es das HEUTIGE spielen nicht schneller. Ich persönlich gehe davon aus, wer heute eine Vega Karte kauft, kann die 4 Jahre oder länger betreiben ohne in GPU- oder VRAM-Engpässe in den zu laufen. Allen voran wenn einige Game Studios wirklich diese High-End Features in ihren Engines einbauen. Dann... aber auch nur dann wird die Leistung der Vega Karten in den nächsten Jahren merklich steigen. Auch gehe ich davon aus, dass AMD (wie fast immer) die Treiber über die nächsten 2 Jahre tunen wird, um an das wirkliche Niveau der Karten zu kommen. Wie hieß das Zauberwort... Fine Wine Technology? ;-)
Erst dann sehen wir das wahre Potential der Karten...
Für mich Geduldigen ist das kein Problem. Ich warte bis Ende September, Anfang Oktober bis XFX eine anständig eingestellte Karte mit halbwegs brauchbaren Kühler rausbringt. Und falls der Cooler nix taugt, kommt mein Arctic Accelero IV Xtreme wieder drauf... irgendwie. Solange treibe ich noch meine XFX Radeon HD7970 ... ääähhh ich meine XFX R9 280x ;-)

Aber mit der RX VEga 64 werd ich irgendwie nicht warm... Ich bin auf mehr Undervolting Tests gespannt!
 
Natürlich sind die Ziele noch nicht erreicht, man kann nicht einfach den Markt mit Hardware Fluten und dann hoffen die Programmierer(in) hauen in die Tasten...
open Source klappt es schon mal. :)

33% im Treiber sind möglich, da sind noch nicht mal Bugs mit inbegriffen!?
 
Ob AMD die eigenen Ziele erreicht hat? Wenn das Ziel "poor Volta" war, dann leider Nein, leider gar nicht. Am Ende resuemieren praktisch alle Tests dasselbe: zu spaet, zu durstig & keine Konkurrenz fuer eine 1080 Ti. Von einem spekulativen Volta-Derivat ganz zu schweigen.
Vielleicht wird Volta langsamer als Pascal. Dann könnte es klappen. :shot:

Und wie immer werden Treiber einfach verschwiegen? :rolleyes:
Weil man auf die Versprechen wie "liefern wir nach"... vielleicht... also wenn wir Lust haben und es schaffen... aber ohne Garantie von Leistungssprüngen... einfach keinen Bock mehr hat. Vielleicht auch deshalb weil das hier immer wieder dieselbe Leier ist: "abwarten auf neue Treiber". Frei nach dem Motto "kaufe jetzt, erhalte in 1-2 Jahren vielleicht die volle Leistung". Vielleicht...
Wenn AMD für eine GPU die sich aufgrund von Lieferschwierigkeiten von Zulieferern massiv verspätet immer noch keinen vernünftigen Treiber hinbekommt, dann ist das eine Bankrotterklärung seitens AMD und keine Rechtfertigung für allenfalls durchschnittliche Leistung bei nahezu abartigem Verbrauch. Was wäre denn wenn die Karte mit GDDR5X gekommen wäre? Die wäre bereits Stock @350W und mit OC bei 450W+.

Worüber aber bisher Keiner so recht spricht sind die High-Tech Features den Vega implantiert wurde. HBCC, Rapid Packed Mathe und alle diese ganzen Features ... wie sie auch heißen mögen. Das ist ganz schöner Nerd-Stuff...
Wie sie bis dato entweder nicht funktionieren (HBCC) und wilde Spekulationen in einem Test keine Berechtigung haben oder weil sie heute und auch in Zukunft keine Rolle spielen werden (das Mathe Zeugs) weil sie nur von 1% der Karten unterstützt werden (nämlich Vega).
HBCC hört sich sehr interessant an, aber ohne unabhängige Praxistests existiert es einfach nicht. Genauso wie imaginäre "Wundertreiber".
 
Worüber aber bisher Keiner so recht spricht sind die High-Tech Features den Vega implantiert wurde. HBCC, Rapid Packed Mathe und alle diese ganzen Features ... wie sie auch heißen mögen. Das ist ganz schöner Nerd-Stuff... Mir gefällt das... ja

Mir/uns auch:

"Techniken wie FreeSync helfen sicherlich dabei die Leistung etwas zu relativieren – aber es ist eben genau das – nur eine Relativierung. Gleiches gilt für Techniken wie den High Bandwidth Cache Controller, der seine Stärken noch gar nicht ausspielen kann. Rapid Packed Math, Shader Intrinsics, Asyncronous Compute, DirectX 12 und Vulkan bieten ebenfalls interessante Ansätze und machen die Vega-Architektur stärker, dies nützt aber alles wenig, wenn die Einsatzmöglichkeiten in der Praxis fehlen."
 
Vega 56 schaut auf jeden Fall schon jetzt recht gut aus. Die würde ich jeder GTX 1070 vorziehen bei maximal $400. Mit entsprechenden Partnerkarten und besseren Treibern gibt's dann womöglich auch für die GTX 1080 weniger Argumente.

Du ziehst AMD Hardware immer vor, egal wie schlecht das P/L ist. Aber die Hoffnung auf den Wundertreiber wird den Stromverbrauch auch nicht senken.
 
Vega wird in die erfolgreichen Fußstapfen der 7970 tretten. Das Ding ist einfach zu früh auf dem Markt gekommen. Länger warten konnte man aber auch nicht. Da es die Architektur für die nächsten Jahre ist liegt noch viel Potenzial brach. Doof für AMD, gut für den Endkunden. Wer seine Hardware lange nutzt wird viel Spaß damit haben.
 
Genau und letztlich kann die Konkurrenz besonders nur eins, teuer sein + Gsync Monitore noch teuer.
Haben auch keine Bäume ausgerissen, wenn man bedenkt, dass eine 980 Ti übertaktet an der 1080 FE klebt.
AMD ist mir lieber! Wenigstens nicht so ein Melkverein^^

Ausserdem wissen wir ja, wie die Konkurrenz die Gameschmieden besticht etc. Man sieht ja in Games wo dies nicht zutrifft wie gut AMD ist, einfach nur link.
 
Zuletzt bearbeitet:
Du ziehst AMD Hardware immer vor, egal wie schlecht das P/L ist. Aber die Hoffnung auf den Wundertreiber wird den Stromverbrauch auch nicht senken.
Implizierst du an der Stelle, dass das P/L grundsätzlich schlecht ist? Wenn ich nicht ausschließlich an guter Gamingleistung interessiert bin, sondern die Karte auch halbwegs profesionell einsetzen will (Photoscan mit CL-Beschleunigung bspw.) sieht das Ganze schon wieder anders aus - dann hinken die nVidia-karten nunmal eindeutig hinterher was das P/L angeht. Für mich stellen die Karten da einen ausgezeichneten Kompromiss dar was Gaming- und Rechenleistung angeht - aus dem Grund kann ich persönlich auch mit dem höheren Stromverbauch leben.
 
Die Raven-Ridge-APUs folgen ja noch ;)
 
Nein, aber ich kann einem Produkt doch nicht zugute halten, dass es noch nicht fertig ist. Es ist eher ein Kritikpunkt in einem Augen das der Treiber noch nicht fertig ist.

Schau dir mal de Leistung in Path of Exile oder Playerun Unknowns Battlegrounds an.
Is zum davonlaufen weit unter ner 1070.
Schaut net gut aus.

Vega wird in die erfolgreichen Fußstapfen der 7970 tretten. Das Ding ist einfach zu früh auf dem Markt gekommen.

Die 7970er war damals geil zu ocen und brachte de selbe Leistung wie ne 680er und brauchte kaum mehr Strom.
Vega mit ner 7970er zu vergleichen is ne Beleidigung vor dem Herrn.

Wer seine Hardware lange nutzt wird viel Spaß damit haben.

Wenn i mei Nasn rümpf dann riacht des nach Bull-Shit.
 
Zuletzt bearbeitet:
Man man man... ich weiß schon warum ich mich so selten hier im Forum blicken lassen...

Hier herrschen ganz schön schlechte Schwingungen!

Lasst uns doch mal ehrlich sein... Die Verrückten Nerds bei AMD oder ATI waren immer ganz weit vorn mit lustigen Ideen welche erst 2-3 Jahre später in den Dev-Studios ankamen. Sehen wir doch bei Async. Compute, Mantle/Vulkan und was es da nicht alles gab. Wann wurde das Zeug vorgestellt? 2014? Erst jetzt gibt es Doom welches als einziges Spiel Vulkan wirklich integriert! Weitere Studios wie Egosoft und Cloud Imperium Games validieren DirectX12 zu skippen und direkt auf Vulkan zu gehen! Hätte AMD HBM1 nicht in die Fury X gepusht, hätte sich Nvidia dafür auch nie interessiert und hätten keine 7000$ teuren Pro Karten für das DataCenter gebaut.
Ich gehe davon aus, dass die Features der RX Vega Karten irgendwann auch in der Breiten Masse ankommen. Es wird vermutlich wirklich 3 Jahre oder so dauern. Aber AMD hat ja schon mit Bethesda nen Partner gefunden um das ganze etwas voranzutreiben. Wir brauchen auch Spinner und Träumer die sich mit was neuem beschäftigen! Stillstand heißt auf lange Sicht Rückschritt!

Noch einige Worte zur Langlebigkeit von AMD-Karten:

Ich persönlich kann mich über AMD Grafikkarten beklagen. Meine R9 280X schnurrt immer noch wie eine 1 und ich brauch eigentlich gar keine neue Karte... Ich kann also getrost die Partnerkarten abwarten und im Zweifelsfall sogar die Mainstream Vega Karten nächstes Jahr.

Warum werde ich mir trotzdem eine Vega 56 kaufen? Ich steh auf diese nerdige Technik! Ich mache mehr als nur Klickibunti-BängBäng mit meinem PC! Ich mach Virtualisierung und PCI-Passthrough, ich will OpenCL Programming ausprobieren und habe generell einen Fabel für die Phisolophie von AMD für Open Software und Hardware. Eine langlebige Allroundkarte die nicht 700€ oder gar 1000€ kostet spricht mich total an!

Auch wenn ich mit meinen Noobs spreche sind die nicht an extremen FPS interessiert. Die meisten haben eh nur einen 60 Hz Monitor. Meine Lieben wollen nicht alle 2 Jahre eine neue Karte kaufen, oder gar 400-500€ bezahlen! Die wollen am liebsten 5-6 Jahre eine Karte treiben! Und das geht mit AMD in meinen Beobachtungen deutlich besser und günstiger!

Aber es steht jedem frei das Produkt zu kaufen, welches er oder Sie am besten findet ;-)

- - - Updated - - -

AMD verfehlt ein Ziel nach dem Anderen und intel und nVidia sind immer noch die besseren Optionen.

Ja, Ryzen und Threadripper sind ganz schön, aber für die Masse völlig unbrauchbar aufgrund fehlender iGPU.

Wie kommst du denn bitte auf diese Schlussfolgereung?! 100% von meinen Noobs die mich nach einen PC-Build fragen wollen eine Dedizierte Grafikkarte! Zumeinst sogar eine deutlich überdimensionierte und ich muss die Leute erstmal ausbremsen! Selbst unsere Büromädels auf Arbeit haben eine dedizierte GPU bekommen weil die iGPU Drecksdinger von Intel nicht mit den Monitoren Klarkommen die Unsere Mädels brauchen um effektiv arbeiten zu können.

Über welche Geldbeträge reden wir? 30-40 Euro für eine GPU? Das ist ja fast schon der bei Ryzen mitgelieferte Wraith Cooler Wow! :-D Und wie Holzmann schon schrob, Raven-Ridge Kommt ja noch!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh