Das GPU-Limit muss nicht erst nach 4 Jahren eintreten, sondern dies kann auch bereits beim Release der Fall sein, nämlich in entsprechend hohen Eisntellungen. Je mehr die CPU in den Hintergrund und die GPU in den Vordergrund gerückt wird, desto mehr gewinnen die AMD Karten dazu. Also genau dann wenn man die Performance braucht. Ist ja auch logisch bedingt durch den Treiberoverhead.
Wieso sollte die AMD Karte "zulegen"? Woher soll das kommen?
Die Hardware ist doch fix, da wird also nix zugelegt...
Die gleiche Behauptung hattest du seinerzeit permanent über Kepler gesagt, nach dem Motto, Kepler verliert Leistung. Auch das war/ist doch quatsch...
Das gilt eben auch für DX12 Umsetzungen. Was bringt mir eine low-level-API umsetzung welche nichteinmal den CPU Overhead reduziert? Solche Titel muss man klar ausklammern und in die Beta Schublade stecken.
Gegenfrage, wer definiert was eine gute und was eine schlechte Umsetzung ist?
Sind gute Umsetzungen ausschließlich die, welche auf AMD Hardware skalieren? Und warum sollte das so sein?
-> einfach mal nüchtern ran gehen und nicht nur nach pro AMD Argumenten suchen
Ob ein Spiel im Treiberoverhead steckt sieht man häufig auch an der Fury. Wenn zwischen einer 390 und einer FuryX nur 5% liegen kann da etwas nicht stimmen. Da liegt einfach Leistung brach.
Bei der Fury kommt eher der Umstand zum tragen, dass diese (analog der Tahiti seinerzeit) mit 16x CUs pro Stück "FrontEnd" an den Start geht und damit (ebenso wie Tahiti seinerzeit bspw. ggü. PitCairn) in der Skalierung in so manchem Titel nicht nach oben streut. Das kann sonstwede Gründe haben -> aber ist keineswegs ausschließlich und sicher nur der Treiberoverhead. Bspw. Stichwort Tesselationleistung.
Viele vergessen einfach, dass die Karten von AMD eben auch bei Kauf preiswerter sind. Zusätzlich gewinnen diese ontop noch an Performance mit der Zeit.
Schon wieder so eine Behauptung... Da wird nix gewonnen. Die Karte liefert eine Leistung und die ist es dann.
PS: deine Gegenüberstellung halte ich weiterhin für wenig sinnvoll. Wie oben schonmal erwähnt, zwischen einer 1050MHz boostenden Tahiti im Vollausbau (aka 280X oder HD7970GHz) und einer von dir benannten HD7970 liegen gut ~10% Leistungsunterschied. Ziehst du aus dem aktuellen Rating von CB diese ~10% von der 280X ab, landest du ziemlich genau bei der 770er, welche wiederum ~4-6% über einer 680er von damals agiert. Ein Blick zum CB Rating des 770er Releaseartikels zeigt auch, dass du hier brachiale 3% propagierst, die zwischen dem damaligen Rating von 05/2013 und heute liegen.
Also ganz eherlich, so vehement, wie du diese angebliche Leistungssteigerung hier propagierst, ist es echt nervig...
(und wenn man dann ein 4GB Modell vom GK104 anstatt dem 2GB Modell ranziehen würde, wären es wohl nichtmal 3%, wie wir wissen -> hat CB jüngst ebenso nochmal schwarz auf weis geschrieben, dass 3GB heute teils weniger FPS und deutlich unruhigere Frametimes zeigen wie 4GB. Mit 2GB ist das also noch viel schlimmer der Fall.
Mal davon ab, das ganze Gesabbel über Preise und P/L ist sowieso für den Hintern, wenn man für diese Vergleiche sich nicht auf eine gemeinsame Basis verständigt, was "Leistung" alles beinhaltet. Für MICH! ist Leistung keineswegs und ausschließlich FPS in ein paar AAA-Titeln. Da zählen für JEDEN potentiellen Käufer andere Parameter mit rein, wie Verbrauch, Lautstärke, Featureset, Anschlüsse, Zusatzsoftware usw.
Mit einem hoch gezüchteten I7 hat man selten Probleme, wobei mir auch auffällt, das mache das Problem gar nicht erkennen, weil die es einfach noch nicht besser gesehen haben. Wieder andere haben einfach keine Empfindlichkeit dafür und könnten sogar mit 30-40Fps zocken...
Das ist eins der größten Probleme solcher Threads und läuft getreu dem Motto, was der Bauer nicht kennt das frisst er nicht.
Zu DX12, ich denke DX12 wird AMD etwas näher an Nvidia heran rücken lassen, aber mehr auch nicht. Das ergibt das Bild, der bisher getesteten DX12 Spiele für mich.
Die interessante Frage ist eher, um wie viel Potential reden wir überhaupt?
Eine 480er wird auch in DX12 und Vulcan, selbst wenn es perfekt funktioniert nicht deutlich über einer 1060er landen können. Woher soll das auch kommen? Der Rohleistungsunterschied ist viel zu gering, dass es da deutlich anders aussehen kann also es heute der Fall ist. Dafür ist die Pixelfüllrate deutlich höher beim GP106, die Texelfüllrate allerdings geringer, Tesselationleistung müsste man detailiert mal vergleichen. Möglicherweise wird auch Polaris deutlich Boden verlieren, wenn Games mehr Pixelfüllratenlastig werden? Wer weis das schon heute... Es kann in ALLE Richtungen gehen und hängt keineswegs nur an DX12/Vulcan.
Was dedizierte Optimierungen bei NV ausmachen, kennen wir ja zur genüge. Aber bei AMD findest sich das teils natürlich auch -> Hitman bspw. da kackt selbst in DX11 das NV Modell ggü. einem AMD Modell ab. Unter diesem Gesichtspunkt kann sich das Ruder auch rumreißen oder eben nicht.
Sind für mich viel zu viele offene Punkte um da Prognosen aufzustellen
@[HOT]
wie gesagt, bei DX12 müssen wir einfach abwarten, wie weit sich dort die Industrie drauf einschießen wird bzw. wie stark. Optimierungen seitens der Hardwarehersteller finden ja häufiger sowieso durch ganzes Austauschen von Shadern oder rumfingern/umbiegen von Instructions statt. Das geht auch weiterhin in DX12... Dort wird eher die viel spannendere Frage -> mehr Verantwortung für die Entwickler = mehr Bedarf in Sachen Zeit für Optimierungen. Dieser Umstand stimmt mich bei den teils desaströs schlechten Marktstarts so mancher Titel auch nicht sonderlich glücklich. Wir werden einfach sehen müssen, wie sich die Entwickler da "schlagen" werden. Im Moment glaube ich eher, für den Anfang wird das noch aufgehen... Wenn dann aber mal drei vier Generationen beider Hersteller zu "optimieren" sind?? Abwarten