Erste belastbare Benchmarks: PCPerspective testet die Radeon Vega Frontier Edition (Update)

Einige Einwände von ihm sind ja korrekt.
Davon abgesehen, wenn man nur Nvidia als Alternative hat... und dann wünschen sich manche auch noch ein Monopol *facepalm*

Was meine Erwartungen angeht:
1080ti übertreffen wäre wohl best Case und würde mich freuen aber eher unrealistisch
Wenn Vega zwischen 1080 und Ti liegt mit einem attraktiven Preis bin ich schon absolut zufrieden.
Will endlich mein Freesync nutzen können und weg von Nvidia (970 ftw.) wo die Grafikkarten eher faulen als reifen :fresse2:
Wobei ich zugeben muss, dass sich die 970 auch heute noch recht ordentlich schlägt, da "muss" Nvidia wohl etwas mehr Treiberarbeit für so eine alte Karte leisten als ihnen Lieb ist um ihren Ruf zu erhalten :P
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein Treiberupdate auch für die Vega FE wäre toll und zwar am besten VOR Start der RX Vega. Mit irgendwas müssen die Redaktionen ja aber auch schon testen... Vll leakt der Treiber bei Station-Drivers etc. Alle mal bitte die Augen offenhalten. :)
 
@Fusseltuch Ja - aber ich fürchte, die Redaktionen bekommen die Treiber im letzten Moment, evtl. sogar wenn sie auch bestellbar sind - und somit "zu spät".

AMD hat imho noch ein halbes Jahr Schliff an den Treibern zu werkeln - es wird also ziemlich egal sein, ob da ein Tag oder ne Woche Unterschied ist. Wenn die bis zum Release der RX Vega aber nicht mindestens die 1080 schlucken, wird es düster. Was danach kommt, ist "fine Wine" - obwohl das in diesem Kontext schon fast sarkastisch klingt.
 
RX Vega und Pro scheinen wohl beide auf der Siggraph ihr Debüt zu feiern und da die FE ein "Hybrid" ist wirds wohl erst ab da die vollwertigen Gaming/Pro Treiber geben, das ist meine Einschätzung.
Sollten AMD eine 2te Fury produziert haben, ist mein Glaube an die Menschheit völlig dahin :fresse2:

ps. die Redaktionen/Reviewer werden wohl die RX Version zum Testen bekommen zumal die FE eine limitierte Version von Vega ist.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Wann die Review Samples rausgehen weiß wohl nur AMD
Denke aber nicht, dass die FE vor Siggrap die Treiber erhält.
 
Zuletzt bearbeitet:
Darum brauchen wir einen Leak. Hat einer der Boardpartner noch einen FTP-Server auf dem man sich mal umsehen kann? ASUS und ASrock haben ja schon oft recht früh Treiber online gehabt, aber ich wüsste auf die schnelle nicht, wie man die finden sollte. :(
 
Na ja, ich denke nicht, dass die Vega Architektur schlecht ist. Was wir an den gezeigten Folien gesehen haben, müsste (!) Vega halt mindestens Polaris IPC erreichen.

Aber dank der Software bekommt sie noch nicht einmal das hin. Das der Chip selbst ein defektes Design hat halte ich für unwahrscheinlich - denn sonst hätte AMD einfach Polaris mit 4096 Shader-Einheiten rausgebracht.
Per se ist sie sicher nicht schlecht. Letztendlich ist so ein Produkt am Ende immer nur so gut wie ihr schwächstes Glied. Momentan ist das die Software. Theoretisch kann sich auch irgendein Flaschenhals eingeschlichen haben, k.A. wie sicher man diese innerhalb der Planung vorhersehen kann. Ein großer Polaris wäre mMn grundsätzlich eher unwahrscheinlich, da AMD sicher die HBM-Geschichte vorantreiben wollte. Bei einem großen Polaris wäre dann auch die Frage gewesen wie man die nötige hohe Bandbreite realisiert. GDDR5X? 384/512bit? Da wären wir schnell wieder bei der Frage des Stromverbrauchs.
 
Naja wenn die Treiber noch nicht fertig sind, dann kann wohl schlecht etwas geleakt werden^^
Ich bezweifle auch stark, dass die so Treiber so viel rausreißen werden. Die größte Vega wird sich mit der 1080 messen oder leicht darüber sein, aber die 1080Ti @Stock und vor allem @OC wird sie nicht erreichen können. Vielleicht in DOOM :fresse:

Oh nein der arme AdoredTV, da lässt er seine Enttäuschung über seine Lieblingsfirma aus und sofort fangen die AMD Girls an ihn zu haten :rofl:


Ps: Es könnte sich hierbei um einen provokativen Spaß handeln.

Den Eindruck hat man aber nicht.

Ok, kann ich nichts dran ändern.
Ich werde auch nicht mehr versuchen diesen Eindruck zu ändern, da es ja scheinbar eh keinen Sinn hat, daher Wayne. ;)

Anstatt so gereizt zu reagieren, was mir doch recht unlogisch bei deiner angeblich nicht vorhandenen Markenbezogenheit erscheint :rolleyes:´

Das nennst du gereizt reagiert? lul ok.

was von "total belanglos" zu schreiben und mir fehlende Objektivität zu unterstellen, hättest du als Ergänzung zu meinem Beitrag auch einfach nur sowas wie "das Diagramm bezieht sich auf Passmark" dazuschreiben können. Damit hätten es auch die mitbekommen, die es vorher nicht gewusst hätten. So merkt man deiner Antwort an, dass du sehr wohl nicht gerade neutral gegenüber jeder Marke bist und Vorbehalte gegenüber AMD hast.

Oh, hätte ich das gemacht oder nach einer Quelle gefragt, hätte ich so etwas als Antwort bekommen:
Noch nie was von Reverse Image Search gehört? Zwei Klicks und jeder weiss woher das Bild stammt. Normalerweise gebe ich Quellen an. Und falls ich es doch mal vergesse, dann kann man auch nachfragen.

Deine haltlosen Unterstellungen kannst du dir jedenfalls sparen.

Nein, ich schreibe nur was mein Eindruck ist ;)
 
Per se ist sie sicher nicht schlecht. Letztendlich ist so ein Produkt am Ende immer nur so gut wie ihr schwächstes Glied. Momentan ist das die Software. Theoretisch kann sich auch irgendein Flaschenhals eingeschlichen haben, k.A. wie sicher man diese innerhalb der Planung vorhersehen kann. Ein großer Polaris wäre mMn grundsätzlich eher unwahrscheinlich, da AMD sicher die HBM-Geschichte vorantreiben wollte. Bei einem großen Polaris wäre dann auch die Frage gewesen wie man die nötige hohe Bandbreite realisiert. GDDR5X? 384/512bit? Da wären wir schnell wieder bei der Frage des Stromverbrauchs.

Na ja, die hypothetische große Polaris Chip hätte dann genauso die am Markt erhältliche Technik benutzt wie Nvidia - GDDR5X. Stromverbrauch hätte man auf 300 W mit dem Takt begrenzt (Sowas wie ~1.200 MHz) und dann hätte man das Ziel "1080 - 1080 Ti" auch so gepackt - knapp, aber es hätte geklappt.

Nur: Vega ist ja mehr als Polaris. Architekturmäßig sollte da ~ +30% oder mehr drin sein als Polaris selbst, derzeit hängen wir aber auf -30% im Vergleich zu Polaris.

Das sagt uns zwei Dinge: Obwohl GCN abwärtkompatibel ist, ist diese Architektur so speziell und so getrimmt, dass selbst der Kompatibilitätsmodus zu sichtbaren Verlusten führt. Es ist also keine generische Architektur wie GCN 1.0 bis 4.0 mehr. Der Umkehrschluss legt nahe, dass in diesem Monster eine Menge Rechenleistung versteckt ist.

Leider - und hier wirds nebulös - sind diese Verbesserungen wohl nicht nur vom Treiber abhängig, sondern wohl auch davon, in wie weit Spiele-Engines die Primitive-Shader ausnutzen. Nicht alle Shader werden im Primitiv-Modus laufen können - das ist utopisch. Aber wenn Spielestudio... sagen wir mal 1/3 ihrer Inhalte darauf laufen lassen könnten, würde dieses Drittel halt bis zu 2,6 Mal schneller laufen, was Ressourcen für andere Bereiche freischaufelt. Aber genauso wie bei Bulldozer, der damals ins Wasser gefallen ist, fürchte ich, dass wir lange Zeit keine "Primitive Shader" sehen werden - bis auf ein paar ganz wenige Ausnahmen von Studios, welche die Technik voran treten. (spontan: Star Citizen)
Wäre die Software von heute beim Launch von Bulldozer da gewesen, hätte sich Bulldozer gut verkauft. (Aber: Hätte, hätte Fahrradkette)


Das eine Fury X schneller als eine Vega FE in Sniper Elite 4 wäre (hätte GN es getestet - Adored TV hats zum Glück nachgelegt) muss doch auch den letzten Menschen klar machen, dass die Treiber die Architektur nicht mal ansatzweise benutzen.

Natürlich bleibt am Ende das Gesamtprodukt aus Hardware + Treiber. Egal wie gut die Hardware auch sein möge, wenn AMD keine ordentlichen Treiber liefert, nützt das alles nichts und das Gesamtprodukt ist kaputt. Die Rettung für AMD wäre hier, dass zu mindest 1080 Performance erreicht wird, die Leute sich damit zu Beginn zufrieden geben und später - Stück für Stück - die 1080 Ti eingeholt wird. Das wird dann zwar keinen Reviewer mehr interessieren, weil alle dann schon auf Volta gucken - aber zu mindest könnte AMD versuchen sich so über Wasser zu halten.
 
Zuletzt bearbeitet:
Ich tendiere momentan auch dazu, Spielebenchmarks erstmal Spielebenchmarks sein zu lassen und versuche mehr belastbare Zahlen zu OpenCL zu bekommen. Aktuell crunche ich ein bisschen in verschiedenen BOINC-GPU-Projekten, bräuchte aber jemanden "vom Fach", der die Zahlen bewertet.

Collatz:


Einstein@Home


MilkyWay@Home
 
Zuletzt bearbeitet:
Na ja, die hypothetische große Polaris Chip hätte dann genauso die am Markt erhältliche Technik benutzt wie Nvidia - GDDR5X. Stromverbrauch hätte man auf 300 W mit dem Takt begrenzt (Sowas wie ~1.200 MHz) und dann hätte man das Ziel "1080 - 1080 Ti" auch so gepackt - knapp, aber es hätte geklappt.

Nur: Vega ist ja mehr als Polaris. Architekturmäßig sollte da ~ +30% oder mehr drin sein als Polaris selbst, derzeit hängen wir aber auf -30% im Vergleich zu Polaris.

Das sagt uns zwei Dinge: Obwohl GCN abwärtkompatibel ist, ist diese Architektur so speziell und so getrimmt, dass selbst der Kompatibilitätsmodus zu sichtbaren Verlusten führt. Es ist also keine generische Architektur wie GCN 1.0 bis 4.0 mehr. Der Umkehrschluss legt nahe, dass in diesem Monster eine Menge Rechenleistung versteckt ist.
Naja, das wäre verdammt eng geworden, alleine schon vom Stromverbrauch her. Die 580 genehmigt sich ja bereits in der Standardausführung knapp 200W. Wenn man jetzt noch 80% Shader drauflegt und schnelleren RAM, dann müsste man froh sein, wenn die 300W nicht geknackt werden. Wobei sich auch die Frage stellt, ob 11Gbps (also ca. 350GB/s) da überhaupt reichen würden und ob die Verfügbarkeit des Speichers groß genug wäre, oder ob man nicht das SI aufbohren müsste.
Und dann stellt sich noch die Frage, ob man die ganzen Shader auch hätte gleichmäßig auslasten können. Ich denke da gibt es einige Fallstricke, die eine solche Karte überwinden müsste.

Natürlich ist Vega von der Architektur her ganz anders als Polaris. Allerdings hatten wir das auch mit Fiji, die Leistung teils nicht so richtig auf die Straße brachten. Woran es haperte kann man nur spekulieren, da wir keinen Vergleich haben. Die Überlegenheit eine Architektur ist das Eine, das andere ist es, sie auch in den Griff zu bekommen. Eine Möglichkeit wäre auch, dass der Fokus bei Vega zu sehr auf dem professionellen Bereich lag und man am Spielemarkt vorbeientwickelt hat. Das ist etwas, was man bei AMD schon länger beobachten kann. Dort setzt man seit Jahren voll auf Mantle/Vulkan/DX12, aber es gibt praktisch keine Titel die das wirklich nutzen. Und da ist auch nach 2 Jahren keine gravierende Änderung in Sicht.
Ein Bugatti Veyron bringt leider nichts wenn die Räder mangels Traktion durchdrehen oder die Handbremse angezogen ist. Wie AMD versucht das schnellstmöglich zu lösen, ist die Frage. Denn das Typische DX11/OGL Problem wird AMD auch mit Vega nicht lösen, da bin ich mir sicher. Nur machen genau diese APIs min. 95% des aktuellen Marktes aus.

Leider - und hier wirds nebulös - sind diese Verbesserungen wohl nicht nur vom Treiber abhängig, sondern wohl auch davon, in wie weit Spiele-Engines die Primitive-Shader ausnutzen. Nicht alle Shader werden im Primitiv-Modus laufen können - das ist utopisch. Aber wenn Spielestudio... sagen wir mal 1/3 ihrer Inhalte darauf laufen lassen könnten, würde dieses Drittel halt bis zu 2,6 Mal schneller laufen, was Ressourcen für andere Bereiche freischaufelt. Aber genauso wie bei Bulldozer, der damals ins Wasser gefallen ist, fürchte ich, dass wir lange Zeit keine "Primitive Shader" sehen werden - bis auf ein paar ganz wenige Ausnahmen von Studios, welche die Technik voran treten. (spontan: Star Citizen)
Wäre die Software von heute beim Launch von Bulldozer da gewesen, hätte sich Bulldozer gut verkauft. (Aber: Hätte, hätte Fahrradkette)
Solche ganz speziellen Optimierungen gehen halt meist in die Hose. Besonders dann, wenn der Marktanteil und somit auch die Zielgruppe eher gering ist. Vega selbst wird den gravierenden Nachteil haben, dass er im Spielemarkt vielleicht 1% Marktanteil haben wird. Mehr ist in dieser Preisklasse für AMD aktuell wohl kaum drin. Und da beginnt dann wieder der Teufelskreis: AMD muss die Entwickler bezahlen damit diese besondere Features von Vega nutzen. Nvidia hat hier den Vorteil, dass sich die Karten einer Generation praktisch nicht voneinander unterscheiden.

Interessant wird es ob die 8GB tatsächlich so effektiv sind wie 16GB und v.a. ob das grundsätzlich bei jedem Spiel ohne Nachteile funktioniert. Das ist eigentlich das interessanteste Feature, welches Nvidia sicher auch nicht schaden würde.

Natürlich bleibt am Ende das Gesamtprodukt aus Hardware + Treiber. Egal wie gut die Hardware auch sein möge, wenn AMD keine ordentlichen Treiber liefert, nützt das alles nichts und das Gesamtprodukt ist kaputt. Die Rettung für AMD wäre hier, dass zu mindest 1080 Performance erreicht wird, die Leute sich damit zu Beginn zufrieden geben und später - Stück für Stück - die 1080 Ti eingeholt wird. Das wird dann zwar keinen Reviewer mehr interessieren, weil alle dann schon auf Volta gucken - aber zu mindest könnte AMD versuchen sich so über Wasser zu halten.
Angenommen der große Vega kommt für 600€+. Dann kann man mit 1080er Leistung kaum jemanden hervorlocken. Besonders nicht mit Versprechen wie "die Leistung liefern wir nach". Das würde ich keinesfalls als Rettung ansehen, zumal das Image von AMD einen weiteren herben Schlag bekommen würde. Man darf auch nicht vergessen, dass sich für viele Leute ein Upgrade auf 1080er Leistung nicht mehr lohnen würde. Und selbst wenn AMD es noch schafft bis an die 1080Ti ranzukommen, dann schauen alle wie du sagst auf Volta. Und Volta wird auf die 1080Ti eine Schippe drauflegen müssen. Dann hat AMD wieder das alte Problem. Fraglich ist auch wie weit AMD später mit dem Preis runtergehen kann.
 
Preis wird wohl 499 bis 549 Euro werden bei Besserer Lesitung als GTX 1080 TI (Plus 15 bis 20 Prozent)
Die 16 GB HBM 2 Versionen dann wohl bei 650 bis 700 Euro, Wassergekühlt nochmals Teurer.
 
Preis wird wohl 499 bis 549 Euro werden bei Besserer Lesitung als GTX 1080 TI (Plus 15 bis 20 Prozent)
Die 16 GB HBM 2 Versionen dann wohl bei 650 bis 700 Euro, Wassergekühlt nochmals Teurer.
Oh man genau so Quark den du immer von dir gibst führt dazu, dass am Ende doch alle enttäuscht sind.

*Hust* wie war nochmal deine Prognose kurz vor launch der rx470? Ist mir gerade entfallen. Könntest du das nochmal wiederholen?

Gesendet von meinem SM-G901F mit Tapatalk
 
Der ganze Monitor/Graka Markt ist für mich als Gamer total unbefriedigend. Ich würde gern auf einen 27" WQHD umsteigen, aber die Preise\Qualität der Monitore mit GSync sind einfach unverschämt. Freesync ist günstiger, aber dort gibt es keine potenten Grafikkarten.
 
Naja, das wäre verdammt eng geworden, alleine schon vom Stromverbrauch her. Die 580 genehmigt sich ja bereits in der Standardausführung knapp 200W. Wenn man jetzt noch 80% Shader drauflegt und schnelleren RAM, dann müsste man froh sein, wenn die 300W nicht geknackt werden. Wobei sich auch die Frage stellt, ob 11Gbps (also ca. 350GB/s) da überhaupt reichen würden und ob die Verfügbarkeit des Speichers groß genug wäre, oder ob man nicht das SI aufbohren müsste.
Und dann stellt sich noch die Frage, ob man die ganzen Shader auch hätte gleichmäßig auslasten können. Ich denke da gibt es einige Fallstricke, die eine solche Karte überwinden müsste.

Ich sag ja "knapp". Was wir von der aktuellen Fertigungstechnologie wissen, ist dass sie sehr effizient bis zu einem Grenztakt skaliert und dann schlagartig nach oben schießt. Diese Grenze ist ungefähr ~1.300 MHz. Mit ordentlich knackigem undervolting wäre man da mit 4096 Shadern auf Polaris hingekommen - nur wäre es halt knapp gewesen.

AMD knallt die Chips seit der RX-Einführung am Limit. Die XTR-Versionen sind aus der Fabrik praktisch ans Limit getrimmt und overclocker bekommen da nicht mehr viel raus. Wo man früher noch 15% übertakten konnte, sinds heute eher sowas wie 3-4% - und das sind wohl auch nur die positiven Streuungen der Chip-Lotterie. Die negativen sind sofort XTX-Versionen.

Was ich aber sagen will: Hätte AMD es gewollt, hätten sie auch mit einem großen Polaris etwas hingedreht. Ob die Shaderanzahl nach 2304 bis 4096 auch linear skaliert hätte - zu mindest in Vulkan/DX12-Spielen. Für DX11 ist der Zug eh abgelaufen. Und ganz ehrlich interessiert mich DX11 auch nicht mehr. Die Graka soll die nächsten 4-5 Jahre halten und die Spielestudios haben breitbandig die euen APIs akzeptiert.

Dort wo die Leistung gebraucht wird (FPS Spiele) wird heftig dran gewerkelt, dort wo es egal sein kann (Aufbausimulationen etc) kanns egal sein, ob wir nun mit 300 FPS vs 200 antreten. Aber gut - das ist meine bescheidene Sicht darauf. Andere Leute haben da bestimmt ne andere Sichtweise zu. :)


Natürlich ist Vega von der Architektur her ganz anders als Polaris. Allerdings hatten wir das auch mit Fiji, die Leistung teils nicht so richtig auf die Straße brachten. Woran es haperte kann man nur spekulieren, da wir keinen Vergleich haben. Die Überlegenheit eine Architektur ist das Eine, das andere ist es, sie auch in den Griff zu bekommen. Eine Möglichkeit wäre auch, dass der Fokus bei Vega zu sehr auf dem professionellen Bereich lag und man am Spielemarkt vorbeientwickelt hat. Das ist etwas, was man bei AMD schon länger beobachten kann. Dort setzt man seit Jahren voll auf Mantle/Vulkan/DX12, aber es gibt praktisch keine Titel die das wirklich nutzen. Und da ist auch nach 2 Jahren keine gravierende Änderung in Sicht.
Ein Bugatti Veyron bringt leider nichts wenn die Räder mangels Traktion durchdrehen oder die Handbremse angezogen ist. Wie AMD versucht das schnellstmöglich zu lösen, ist die Frage. Denn das Typische DX11/OGL Problem wird AMD auch mit Vega nicht lösen, da bin ich mir sicher. Nur machen genau diese APIs min. 95% des aktuellen Marktes aus.
Bei Fiji sinds halt die 4 GB VRam gewesen. Die Rohleistung war da und hätte mit mehr als 4 GB auch ordentlich reingehauen. Viele Menschen haben sich aber einen 4k Monitor gekauft und die Grafikdetails so hoch gestellt, dass es der Shader-Leistung Rechnung trägt - dabei aber ins VRAM Limit gelaufen sind. Und schwupps wird aus ner theoretischen 1080-Leistung ne 1070 oder so. HBM1 gabs nur in 4 GB, während AMD damals schon 8 GB VRam an weniger performanten Karten drangehängt hat. (Oder die AiBs)

Zum Thema Vulkan braucht es halt ne Zeit, bis die Studios ihre Engines umgestellt haben. So ein Engine-Umbau dauert gerne Mal ein Jahr oder mehr und dass der Obermufti entscheidet, dass Vulkan benutzt wird dauert wohl auch etwas.

Bei Firmen wie Ubisoft/EA erwarte ich nicht, dass da Vulkan kommt. Allerdings kaufe ich auch kein Ubi/EA mehr. (Und ich vermisse absolut nix)
Ich wollte/will mir Vega für Star Citizen kaufen - für andere Spiele brauche ich so ne dicke Karte eigentlich nicht. Kaufe ich zu früh? Jupp - aber meine alte 7970 stirbt mir unter den Händen weg, hab also keine Wahl auf Navi/Volta etc zu warten.

Star Citizen macht Vulkan und Pascal hat Hardwaretechnisch ein paar Probleme damit (async compute ist bis heute nur in Software drin) und stark parallelisierte Spiele wie Star Citizen nutzen das, sobald deren Renderer auf Vulkan draussen ist. Die gesamte Vega Architektur schreit von den Features praktisch nach "nutz mich Star Citizen".

Nun bin ich mit dieser Ansicht natürlich eine ganz kleine Leuchte im Vergleich mit dem Gesamtmarkt. Meine Anforderungen sind speziell, die relevanten Spiele sind nicht repräsentativ und wenn ich jetzt noch anfange über Linux zu reden hört es ganz auf. ^^

Ich kann eben nur sagen, dass für mich persönlich Vega von der Hardware sehr gut aussieht. Die Treiber sind hingegen etwas, wo ich nur hoffen kann, dass AMD sie fixt.


Solche ganz speziellen Optimierungen gehen halt meist in die Hose. Besonders dann, wenn der Marktanteil und somit auch die Zielgruppe eher gering ist. Vega selbst wird den gravierenden Nachteil haben, dass er im Spielemarkt vielleicht 1% Marktanteil haben wird. Mehr ist in dieser Preisklasse für AMD aktuell wohl kaum drin. Und da beginnt dann wieder der Teufelskreis: AMD muss die Entwickler bezahlen damit diese besondere Features von Vega nutzen. Nvidia hat hier den Vorteil, dass sich die Karten einer Generation praktisch nicht voneinander unterscheiden.

Interessant wird es ob die 8GB tatsächlich so effektiv sind wie 16GB und v.a. ob das grundsätzlich bei jedem Spiel ohne Nachteile funktioniert. Das ist eigentlich das interessanteste Feature, welches Nvidia sicher auch nicht schaden würde.
Jupp, für den Gesamtmarkt ist es ein Desaster. Nicht viele werden sich davon angesprochen fühlen und die meisten, welche die Vega kaufen wollen die 16 GB Version, weil sie sich an der Fury verbrannt haben. Auch wenn ich 8 GB für "ausreichend" halte, wollen viele das risiko nicht mehr eingehen. Die zahlen lieber 150 € oben drauf für 16 GB und sind glücklich, anstatt wieder zu pokern und wieder zu verlieren. Aber nun ja, warten wir mal die Ergebnisse der RX Vega ab.


Angenommen der große Vega kommt für 600€+. Dann kann man mit 1080er Leistung kaum jemanden hervorlocken. Besonders nicht mit Versprechen wie "die Leistung liefern wir nach". Das würde ich keinesfalls als Rettung ansehen, zumal das Image von AMD einen weiteren herben Schlag bekommen würde. Man darf auch nicht vergessen, dass sich für viele Leute ein Upgrade auf 1080er Leistung nicht mehr lohnen würde. Und selbst wenn AMD es noch schafft bis an die 1080Ti ranzukommen, dann schauen alle wie du sagst auf Volta. Und Volta wird auf die 1080Ti eine Schippe drauflegen müssen. Dann hat AMD wieder das alte Problem. Fraglich ist auch wie weit AMD später mit dem Preis runtergehen kann.
Wenn sie 1080 Leistung für 1080 Preis schaffen, wird es ein paar Abnehmer finden. Einen echten Kaufgrund a la "wir haben ein besseres P/L Verhältnis" gäbe es dann aber nicht, sondern nur die Hoffnung, dass "fine wine" es schon richten wird.

edit: Es sind neue "Leaks" über die RX Vega draussen, welche die Leistung zwischen 1080 und 1080 Ti trägt.
Allein DAS kann man schon fast als "Wundertreiber" bezeichnen und wir sind da bestimmt noch nicht am Ende der Fahnenstange. So langsam fängt es an "gut" auszusehen.

Zum drüberlesen:
https://www.reddit.com/r/Amd/comments/6lbn99/videocardz_687fc1_1630_mhz/
Klo-Tech hat das mal visualisiert:
AMD-RX-Vega-GTX-1080-Ti-GTX-1080-GTX-1070-3DMark-11-performance-graphics-score-wccftech.jpg
 
Zuletzt bearbeitet:
Für DX11 ist der Zug eh abgelaufen.

Wie oft das jetzt schon die letzten Jahre behauptet wurde ^^
Leider wird es wohl noch ziemlich lange dauern bis sich Vulkan und DirectX 12 sich durchsetzten :(

Auch wenn die Spieleschmieden die Low-Level-APIs akzeptieren wird es erst so sein, dass Tröpfchenweise immer mehr große Tipple A Games diese spendiert bekommen und irgendwann wird dies dann bei "kleineren" Spielen adaptiert, auch auch das dauert. Wir haben immer noch Dx9 Spiele, zwar extreme wenige, aber es gibt sie noch :fresse:

List of games with DirectX 11 support - Wikipedia
List of games with DirectX 12 support - Wikipedia
List of games with Vulkan support - Wikipedia


Star Citizen macht Vulkan und Pascal hat Hardwaretechnisch ein paar Probleme damit (async compute ist bis heute nur in Software drin) und stark parallelisierte Spiele wie Star Citizen nutzen das, sobald deren Renderer auf Vulkan draussen ist. Die gesamte Vega Architektur schreit von den Features praktisch nach "nutz mich Star Citizen".

1. Probleme mach Async Compute bei Pascal nicht, bei AMD scheint die Implementierung einfach besser zu sein
2. Das Feature ist overhyped^^
3. Nvidia und AMD haben komplett unterschiedliche Implementierungen, Async Compute ist nur das Paradigma, AMD hat Async Shaders während Nvidia Dynamic-Load-Balancing (zumindest bei Pascal) nutzt.
4. AC ist wichtiger für AMD als für Nvidia, da AMD bekanntlich öfters Auslastungsprobleme hat
5. Asynchronität != Parallelität
6. Parallelität heißt, dass 2 Sachen (z.B. Graphics und Compute) gleichzeitig abgearbeitet werden
7. Asynchronität heißt, dass ein Task zeitunabhängig abgearbeitet werden kann, z.B. während ein Task Daten lädt, schiebst du einfach einen unabhängigen Task dazwischen um eine bessere Auslastung zu bekommen. Bei Spielen ist dies sehr kompliziert, da viele Sachen synchron und sequentiell ablaufen müssen, bei der mobile App Programmierung zum Beispiel ist asynchrone Programmierung relativ simpel, du oft im I/O Limit hängst, u.a. wenn was aus dem Netz geladen wird, dann lässt du den Download asynchrone ablaufen, sodass deine UI nicht blockiert.
8. AC hilft dir die Auslastung zu erhöhen
9. Ac bringt dir da Vorteile, wo Code nicht sequentiell abgearbeitet werden muss.
 
Zuletzt bearbeitet:
Was spricht bei dir dann gegen Nvidia, wenn du doch so sicher bist, dass Vega "zu langsam" ist/wird?
Schau, die 1080Ti hätte ich schon lange kaufen können, ich will einfach wissen was raus kommt bei AMD und dann entscheiden.
Und dass ich generell mitdiskutiere weil ich mich für das Thema interessiere ist einfach so, musst du akzeptieren.

So nebenbei, ich hab auch einen FreeSync-Monitor, also einen kleinen Vorteil hätte eine AMD-GraKa schon für mich, aber zuerst kommt die generelle Leistung, dann die Features ;)
 
Bei Fiji sinds halt die 4 GB VRam gewesen. Die Rohleistung war da und hätte mit mehr als 4 GB auch ordentlich reingehauen. Viele Menschen haben sich aber einen 4k Monitor gekauft und die Grafikdetails so hoch gestellt, dass es der Shader-Leistung Rechnung trägt - dabei aber ins VRAM Limit gelaufen sind. Und schwupps wird aus ner theoretischen 1080-Leistung ne 1070 oder so. HBM1 gabs nur in 4 GB, während AMD damals schon 8 GB VRam an weniger performanten Karten drangehängt hat. (Oder die AiBs)
Die Fiji war im Idealfall auf 980Ti/1070 Niveau, 1080er allenfalls in extremen Ausnahmefällen wie Doom @Vulkan. Dafür ist sie dann teils auf 980er Leistung eingebrochen und lag sogar unter der 390X.
Allein am RAM lag das nicht, denn gerade unter FullHD hatte sie die größte Schwäche bzw. da war der Abstand zur Konkurrenz besonders groß. Für 4K war sie aufgrund der 4GB natürlich auch nicht geeignet.
Für mich war die Karte immer nur eine Machbarkeitsstudie für HBM. Technisch sehr interessant, praktisch leider unbrauchbar. Da scheinen auch die Treiber eine Rolle gespielt zu haben. Vielleicht hat AMD gemerkt, dass sie mit den Furys nichts mehr reißen können und der Marktanteil so gering ist, dass sie nicht mehr weiter optimiert haben und sich dafür auf andere Architekturen konzentrierten. Hier sieht man auch den Vorteil von Nvidias einheitlicheren Architekturen. AMD hatte das bis zur Fury ja auch in etwa so gehandhabt.

Für DX11 ist der Zug eh abgelaufen. Und ganz ehrlich interessiert mich DX11 auch nicht mehr. Die Graka soll die nächsten 4-5 Jahre halten und die Spielestudios haben breitbandig die euen APIs akzeptiert.
Nun, das wird schon seit 2 Jahren immer wieder behauptet, eingetroffen ist bislang gar nichts. Die Spiele, die von DX12 wirklich profitieren, kannst du an einer Hand abzählen, trotz der großen Versprechen von MS an Leistungszuwachs. Daran wird sich in nächster Zeit auch nicht so viel ändern. Ein Grund ist die Exklusivität für Win10, womit man den Großteil der Spieler ausschließt. Der andere ist die aufwendige Implementierung, bei der die Spielehersteller die Verantwortung nicht einfach abgeben kann nach dem Motto "die GPU-Hersteller werden es mit Treibern schon richten". Die bekommen nicht einmal mehr halbwegs bugfreie Spiele hin. DX11 ist für Entwickler derzeit die mit Abstand angenehmste Lösung. Vulkan ist leider eine totale Randerscheinung, obwohl es die klar beste API auf dem Markt ist.

Vor einem Jahr hat 3D Center eine Prognose zu DX12 aufgestellt. Zwar ging es mehr um den Leistungszuwachs der 480 ggü. der 1060 in den nächsten Jahren, der basierte jedoch auf der Verbreitung von DX12/Vulkan. Für 2017 wurden 45% Anteil von DX12 prognostiziert. Ich denke, dass man bereits Mitte 2017 sagen kann, dass dies definitiv nicht ansatzweise eintreffen wird. Für die nächsten Jahre sieht es nicht anders aus.
AMD zieht unter DirectX 12 Vulkan an nVidia vorbei | 3DCenter.org
(auf der Grafik sind alle Infos)
Man sieht also, dass der DX11 Zug alles andere als abgelaufen ist, er ist weiterhin absolut aktuell. Wer das als Hardwarehersteller nicht begreift, hat bereits verloren und muss hoffen, dass er es mit mehr Rohleistung irgendwie kompensieren kann.

Vor 4 Jahren war es so, dass Aufgrund der neuen Konsolen zumindest bei Ports der Durchbruch für den Support von 8 Kernen prognostiziert wurde. Ebenso sollten AMDs damalige CPUs nun wesentlich besser dastehen. Bis heute merkt man nichts davon. Eben weil die Parallelisierung nicht so einfach und schon gar nicht immer möglich ist.

Nun bin ich mit dieser Ansicht natürlich eine ganz kleine Leuchte im Vergleich mit dem Gesamtmarkt. Meine Anforderungen sind speziell, die relevanten Spiele sind nicht repräsentativ und wenn ich jetzt noch anfange über Linux zu reden hört es ganz auf. ^^
Das ist nicht nur bei dir so, auch ich habe spezielle Anforderungen. Da geht es nicht nur darum, dass ich gar kein DX12 habe, sondern dass ich für ein Spiel auch eine gute OGL Leistung brauche. Auch dieses Spiel ist natürlich nicht repräsentativ, für mich aber sehr wichtig. Es wird zwar auch irgendwann Vulkan bekommen, aber die Umsetzung wird man sich erst ansehen müssen.

Wenn sie 1080 Leistung für 1080 Preis schaffen, wird es ein paar Abnehmer finden. Einen echten Kaufgrund a la "wir haben ein besseres P/L Verhältnis" gäbe es dann aber nicht, sondern nur die Hoffnung, dass "fine wine" es schon richten wird.
In diesem Fall ggf. ja. Man darf halt nur nicht vergessen, dass die 1080 bereits seit über einem Jahr im Laden steht und viele bereits gut eingedeckt sind. Daher würde ich die Betonung auch auf "ein paar" Abnehmer richten.
Einen 1080er Preis zu erreichen wird aber verdammt hart werden. Durch die Preissenkung von Nvidia (und natürlich der 1080Ti) ging deren Preis bevor die Miner alles weggekauft haben unter 500€. Und Vega für 500€? Kann AMD vielleicht machen, dann fällt die Marge aber auch entsprechend aus. Ich tippe auf min. 600€, ne gute Custom noch darüber. Bei der 1080 darf man auch nicht das gute OC Potential und Werksübertaktungen vergessen. Wie du schon sagst hat AMD zuletzt immer am Limit gearbeitet. Ich denke mehr als 1600MHz werden bei Vega nicht drin sein, also auch kein OC Potential. Das würde wahrscheinlich wieder zu Problemen mit der hohen Leistungsaufnahme führen.
 
Wie oft das jetzt schon die letzten Jahre behauptet wurde ^^
Leider wird es wohl noch ziemlich lange dauern bis sich Vulkan und DirectX 12 sich durchsetzten :(

Auch wenn die Spieleschmieden die Low-Level-APIs akzeptieren wird es erst so sein, dass Tröpfchenweise immer mehr große Tipple A Games diese spendiert bekommen und irgendwann wird dies dann bei "kleineren" Spielen adaptiert, auch auch das dauert. Wir haben immer noch Dx9 Spiele, zwar extreme wenige, aber es gibt sie noch :fresse:

Ja, es dauert, aber die APIs sind akzeptiert. Will heißen: Es ist nur noch ne Frage der Zeit und nicht "ob" es kommt.

1. Probleme mach Async Compute bei Pascal nicht, bei AMD scheint die Implementierung einfach besser zu sein
2. Das Feature ist overhyped^^
3. Nvidia und AMD haben komplett unterschiedliche Implementierungen, Async Compute ist nur das Paradigma, AMD hat Async Shaders während Nvidia Dynamic-Load-Balancing (zumindest bei Pascal) nutzt.
4. AC ist wichtiger für AMD als für Nvidia, da AMD bekanntlich öfters Auslastungsprobleme hat
5. Asynchronität != Parallelität
6. Parallelität heißt, dass 2 Sachen (z.B. Graphics und Compute) gleichzeitig abgearbeitet werden
7. Asynchronität heißt, dass ein Task zeitunabhängig abgearbeitet werden kann, z.B. während ein Task Daten lädt, schiebst du einfach einen unabhängigen Task dazwischen um eine bessere Auslastung zu bekommen. Bei Spielen ist dies sehr kompliziert, da viele Sachen synchron und sequentiell ablaufen müssen, bei der mobile App Programmierung zum Beispiel ist asynchrone Programmierung relativ simpel, du oft im I/O Limit hängst, u.a. wenn was aus dem Netz geladen wird, dann lässt du den Download asynchrone ablaufen, sodass deine UI nicht blockiert.
8. AC hilft dir die Auslastung zu erhöhen
9. Ac bringt dir da Vorteile, wo Code nicht sequentiell abgearbeitet werden muss.

Dann darf ich dir freudig mitteilen, dass Star Citizen genau hier punktet. ^^ Aber der Reihe nach:
1. Ja - aber AMD hat hier anscheinend so gute Vorteile, dass sie es im Marketing hochloben als gäbe es keinen Morgen
2. Wäre ich vorsichtig mit. Hype ist definitiv da, der mögliche Nutzen ist aber nicht zu unterschätzen
3. Jupp
4. Auch korrekt
5. Du kannst nicht asynchron arbeiten, wenn beide elemente noch hart miteinander verbunden sind. Es muss also schon mal parallel sein und dann musst du es noch async-fähig machen. Generell aber ja.
6. Ja und oben drauf kommt dann noch, dass sie unabhängig sein dürfen - das wäre dann async-Fähigkeit
7. Es ist nicht wirklich kompliziert, du musst nur die alten codestrukturen aufbrechen und umschreiben. Das ist, wenn eine Engine noch Altlasten von vor 10 Jahren mit sich trägt etwas, was an der Basis rüttelt und deswegen ungern angefasst wird. Wenn ich von Anfang an meine Berechnungen so designe, dass sie so wenig wie möglich mit anderen interferieren, ist der Rest schon fast wieder "normal" im Aufwand.
8. Jupp
9. Jupp - und genau hier arbeitet Star Citizen gerade sehr verbissen

Wie das bei anderen Spielen/Engines aussieht kann ich kaum beurteilen, da ich in anderen Spielen nicht so tief drin stecke wie bei Star Citizen. Dort wird aber alles drauf gesetzt so viel wie möglich unabhängig zu machen, zu parallelisieren, zu entkoppeln, zu entflechten und performant und effizient zu machen. Die Performance-Einsparung wird dabei aber nicht in höhere Leistung gesteckt, sondern in *noch mehr* assets. Endresultat wird also sein, dass die Mindestanforderung gleich bleiben, es dafür aber mehr "Inhalt" gibt.

Und das ist der Knackpunkt: Wenn die Mindestanforderung ne 1060 ist und "empfohlen" sowas wie ne 1080 Ti, dann werde ich - wenn es zu Optimierungen auf den GPUs kommt - dort um so mehr von profitieren. Aber mir ist klar, dass Star Citizen nicht repräsentativ ist. Hier sollte man sich keine Illusionen machen. ^^
 
1. Probleme mach Async Compute bei Pascal nicht, bei AMD scheint die Implementierung einfach besser zu sein
2. Das Feature ist overhyped^^
3. Nvidia und AMD haben komplett unterschiedliche Implementierungen, Async Compute ist nur das Paradigma, AMD hat Async Shaders während Nvidia Dynamic-Load-Balancing (zumindest bei Pascal) nutzt.
4. AC ist wichtiger für AMD als für Nvidia, da AMD bekanntlich öfters Auslastungsprobleme hat
5. Asynchronität != Parallelität
6. Parallelität heißt, dass 2 Sachen (z.B. Graphics und Compute) gleichzeitig abgearbeitet werden
7. Asynchronität heißt, dass ein Task zeitunabhängig abgearbeitet werden kann, z.B. während ein Task Daten lädt, schiebst du einfach einen unabhängigen Task dazwischen um eine bessere Auslastung zu bekommen. Bei Spielen ist dies sehr kompliziert, da viele Sachen synchron und sequentiell ablaufen müssen, bei der mobile App Programmierung zum Beispiel ist asynchrone Programmierung relativ simpel, du oft im I/O Limit hängst, u.a. wenn was aus dem Netz geladen wird, dann lässt du den Download asynchrone ablaufen, sodass deine UI nicht blockiert.
8. AC hilft dir die Auslastung zu erhöhen
9. Ac bringt dir da Vorteile, wo Code nicht sequentiell abgearbeitet werden muss.
1. Bei AMD ist die Implementierung in Hardware, bei Nvidia ist sie das nicht. Nvidia kann also nicht das volle Leistungspotenzial entfalten. Ein Problem kann das für Nvidia schon sein, je nach Szenario.
2. Nope.
3. Siehe 1.
4. Das eine hat mit dem anderen nichts zu tun. Shaderauslastung und asynchrone Verarbeitung von Grafik, Computing und Speicher Queues sind zwei verschiedene Sachen.
5. Das eine bedingt das andere aber.
6. Das können auch mehr als 2 Sachen sein.
7. Ich wüsste nicht, warum die Programmierung bei Spielen sooo kompliziert sein sollte. Oder warum es bei mobilen Apps weniger kompliziert sein sollte. Die Programmierung ist je nach API gleich.
8. Jap.
9. Also quasi immer bei Grafikanwendungen oder GPGPU. Diese sind von Natur aus parallel angelegt. Deshalb nutzt man dafür ja GPUs und nicht CPUs.
 
@Hardwareaner Die Fury X ist ja deswegen Gesprächsstoff, weil GN und Adored TV sie mit der Vega FE gleichsetzen können in Sniper Elite 4. Ansonsten würde sie gar nicht besprochen werden, da abgefertigt. Hier offenbart sich eben ein Treiber-Overhead, der noch nie dagewesen ist.

Ziehst du diesen ab (dank Vulkan und angeschalteter Hardware-Features) - wo würdest du schätzen würde die RX Vega dann landen? Meine Vermutung wäre 1080 Ti. Nur so lange die Benchmarks auf Nvidia DX11 Titel laufen, wird man davon wenig bis nichts sehen. Wie bei Bulldozer - die Technik war super, aber zu früh.

Zum Glück gibt es aber Spiele, die das heute schon können oder direkt dran arbeiten und *genau* diese Spiele interessieren mich.

Btw, OpenGL sieht auf Linux zur Zeit SEHR GUT aus. Die OS-Treiber treten den AMD-Treiber mit teilweise 40-60% besserer Leistung in den Schatten. Der OS-Vulkan Treiber ist zwar noch ein behütetes Kücken, aber bis die Vega offiziell in Linux eintrifft (4.14/4.15) sollte auch der Vulkan-Treiber ausgereift sein und dann kommen wir auch so langsam nahe an den Release von SQ42 für Star Citizen. Zeitlich passt das also für mich ungefähr hin. Für 99% des restlichen Marktes ist das aber kein Thema.
 
Dann darf ich dir freudig mitteilen, dass Star Citizen genau hier punktet. ^^ Aber der Reihe nach:

Nice^^

1. Ja - aber AMD hat hier anscheinend so gute Vorteile, dass sie es im Marketing hochloben als gäbe es keinen Morgen
5. Du kannst nicht asynchron arbeiten, wenn beide elemente noch hart miteinander verbunden sind. Es muss also schon mal parallel sein und dann musst du es noch async-fähig machen. Generell aber ja.
7. Es ist nicht wirklich kompliziert, du musst nur die alten codestrukturen aufbrechen und umschreiben. Das ist, wenn eine Engine noch Altlasten von vor 10 Jahren mit sich trägt etwas, was an der Basis rüttelt und deswegen ungern angefasst wird. Wenn ich von Anfang an meine Berechnungen so designe, dass sie so wenig wie möglich mit anderen interferieren, ist der Rest schon fast wieder "normal" im Aufwand.

1. Ach die im Marketing labbern oft viel, wenn der Tag lang ist ^^
5. Ja ist mir schon klar, ich wollte nur zum Ausdruck bringen, dass es nicht das genau gleiche ist, da viele nämlich genau dies annehmen ^^
7. Problem ist halt, da es bei Spielen leider viele Abhängigkeiten gibt, die synchron und sequentiell ablaufen müssen.

1. Bei AMD ist die Implementierung in Hardware, bei Nvidia ist sie das nicht. Nvidia kann also nicht das volle Leistungspotenzial entfalten. Ein Problem kann das für Nvidia schon sein, je nach Szenario.
3. Siehe 1.
4. Das eine hat mit dem anderen nichts zu tun. Shaderauslastung und asynchrone Verarbeitung von Grafik, Computing und Speicher Queues sind zwei verschiedene Sachen.
5. Das eine bedingt das andere aber.
6. Das können auch mehr als 2 Sachen sein.
7. Ich wüsste nicht, warum die Programmierung bei Spielen sooo kompliziert sein sollte. Oder warum es bei mobilen Apps weniger kompliziert sein sollte. Die Programmierung ist je nach API gleich.
9. Also quasi immer bei Grafikanwendungen oder GPGPU. Diese sind von Natur aus parallel angelegt. Deshalb nutzt man dafür ja GPUs und nicht CPUs.

1. Wie gesagt, AMDs Implementierung scheint besser und könnte mehr Leistung bringen.
3. Danke für die Ergänzung. War mir aber bewusst ^^
4. Durch AC wird versucht die Shaderauslastung hoch zu halten und die Idle Time zu reduzieren.
5. Ach was. Trotzdem ist es nicht dasselbe.
6. Sag Bloß.
7. Problem ist halt, da es bei Spielen leider viele Abhängigkeiten gibt, die synchron und sequentiell ablaufen müssen. Und die Programmierung ist definitiv je nach API nicht die selbe. Bei der APP-Programmierung stechen die Möglichkeiten, wo du Asynchronität nutzen kannst, viel stärker heraus.
9. Sie müssen parallel sein und gleichzeigt nicht sequentiell.
 
Zuletzt bearbeitet:
Ziehst du diesen ab (dank Vulkan und angeschalteter Hardware-Features) - wo würdest du schätzen würde die RX Vega dann landen? Meine Vermutung wäre 1080 Ti. Nur so lange die Benchmarks auf Nvidia DX11 Titel laufen, wird man davon wenig bis nichts sehen. Wie bei Bulldozer - die Technik war super, aber zu früh.
In diesem Fall würde ich dir bei deiner Leistungseinschätzung zustimmen. Aber da sind wir schon wieder beim Thema "hätte, hätte, Fahrradkette". Das ganze ist eine Theorie und hat mit der Realität wenig zu tun. DX11 hat auch nichts mit Nvidia zu tun, die Gründe liegen ganz woanders, wie bereits oben kurz angeschnitten.

Die Bulldozertechnik war mies, da es immer genug Fälle geben wird, wo man mit guter Singlecoreleistung deutlich besser dran ist. Multicoreausrichtung macht nur dann Sinn, wenn auch die Singlecoreleistung stimmt. Es sei denn man hat einen speziellen Einsatzzweck.

Zum Glück gibt es aber Spiele, die das heute schon können oder direkt dran arbeiten und *genau* diese Spiele interessieren mich.
Wenn dich natürlich ausgerechnet nur diese 5 Spiele interessieren, dann kannst du froh sein. Aber damit bist du garantiert ein Einzelfall.

Btw, OpenGL sieht auf Linux zur Zeit SEHR GUT aus. Die OS-Treiber treten den AMD-Treiber mit teilweise 40-60% besserer Leistung in den Schatten. Der OS-Vulkan Treiber ist zwar noch ein behütetes Kücken, aber bis die Vega offiziell in Linux eintrifft (4.14/4.15) sollte auch der Vulkan-Treiber ausgereift sein und dann kommen wir auch so langsam nahe an den Release von SQ42 für Star Citizen. Zeitlich passt das also für mich ungefähr hin. Für 99% des restlichen Marktes ist das aber kein Thema.
Das ist schön und gut, hilft mir als Windows User aber reichlich wenig. Ich zähle da halt zu den 99%. Grundsätzlich entwickelt AMD bei GPUs und CPUs an meinem Einsatzzweck leider seit Jahren konsequent vorbei. :d
Wenn wir gerade beim Thema sind: wie ist der aktuelle Stand Linux gegen Windows unter OGL? Wie schlägt sich AMD ggü. Nvidia?
 
Was wäre denn dein Einsattzweck wenn ich fragen darf?
Win7 und Leistungsfokus auf X-Plane. Spiele zwar noch andere Spiele und habe andere Anwendungsbereiche, aber X-Plane ist am leistungskritischsten und die ist Singlecoreleistung sehr wichtig, da bestimmte Berechnungen nicht parallelisiert werden können und mehr als 4 Kerne auch keinen wirklichen Vorteil bringen würden. X-Plane setzt zudem auf OGL, Vulkan ist angekündigt, wann es kommt jedoch unklar. Für mich und X-Plane sind daher sowohl GPUs als auch CPUs von AMD aktuell uninteressant. Hätte auch keinen regelmäßigen Anwendungszweck für mehr als 4 Kerne. Insgesamt Ryzen würde bei mir also keinerlei Sinn machen, die Vorgänger ohnehin nicht.
Zudem spiele ich auch sehr gerne alte Spiele oder Indietitel. Ich kenne Leute mit AMD Karte, die wechseln andauernd den Treiber, weil der jeweils aktuelle mit Spiel X nicht zurecht kommt. Auf sowas hab ich auch keinen Bock. Das schreckt halt auch ab, zumal ich keine topaktuellen Titel spiele.
 
Japp verständlich warum derzeit kein Produkt von AMD Sinn macht, wobei ich bei der GPU da nicht so sicher wäre.
Wobei ich "vorbeientwickeln" nicht treffend finde :P
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh