Auch vergesse ich eben nicht gleich alles:
- (2008) DX10.1 Marktmanipulation (TWIMTBP)
- (2012) falsches DX11.1 level, mehre Monate im Verkauf ohne klare Aussage
- (2014) effektiv nutzbarer VRAM der GTX970, mehre Monate im Verkauf ohne klare Aussage
- (2015-heute) Maxwell + Asynchronous Shader, mehre Monate im Verkauf ohne klare Aussage
- (heute) Andere Effekte mit geringerer Last für höhere Performance unter DX12 Titeln.
Außerdem wie passt denn zusammen, dass ich AMD CPUs komplett nieder mache (was ich bereits auch beim Release tat) aber AMD GPUs nicht? Müsste ich als Fanboy nicht das gesamte Portfolio huldigen?
Siehst du und genau mit solchem Unsinn disqualifizierst du dich für eine sachliche Diskusion...
Was hat das Bitte mit dem Thema zu tun? Nichts... Gar nichts.
Hier gehts um Performace im CPU Limit in DX11 Titeln. Nicht mehr und nicht weniger... Wenn du da für eine sachliche Diskusion irgendwelchen Unsinn (den du dazu noch schön selektiv pro AMD rausgepickt hast -> oder wo sind die AMD Ausrutscher der Vergangenheit? Ich sag mal bspw. Barts AF Filter?) ranziehst um damit weis der Teufel was zu begründen, hast du irgendwie das Thema reichlich verfehlt.
Entweder du nimmst dich dem Thema an und sprichst über die Gegebenheiten oder du lässt es einfach. Kein Mensch brauch hier AMD oder NV Propaganda, wie du es gern bringst. Wen interessiert hier im Thread das VRAM Thema der 970er? Wen interessiert hier irgendwelches ASync Compute Zeug?
Das ist genau der Punkt... Bleibt doch einfach mal nüchtern beim Thema. Für den ganzen Senf nebenbei gibts genügend Threads um sich auszulassen. Aber muss das überall sein?
ob das Verbreiten solcher Gerüchte sachlich ist, bezweifle ich. er formuliert sich sachlich, aber das wars dann schon.
Wenn es denn wenigstens konsequent so wäre...
Erst kommt die Behauptung, dann kommt von irgendwem die Widerlegung und schon im zweiten Anlauf kommt die Fanboy Keule... Sachlich? Ja schön wäre es wenn...
Im Grunde macht dieser Thread hier gar kein Sinn mehr.
Da schon alles gesagt wurde, alles angeführt und ausdiskutiert wurde, und das Problem nachweislich vorhanden ist.
Dank immer mehr aufkommenden DX12 Titeln wird das Problem sich ohnehin von alleine in Wohlgefallen auflösen.
Neja, es komme ja immer neue Titel auf dem Markt. Und es gibt, wie du hier klar festststellen kannst, immer auch Leute, die nach wie vor glauben, das Thema wäre nicht gegeben...
Ich würde auch behaupten, mit DX12 ändert sich nur kurzzeitig an der Thematik etwas. Warum? Weil nach dem ersten Ruck von ein paar Monaten oder Jahren der Spaß genau so wieder an der CPU klammern wird... Die CPU Leistung ist mehr oder weniger endlich. Wir gehen aktuell primär in die Breite... Aber das hilft nicht zwingend den Spielen.
Wenn man mal in die Vergangenheit schaut, viele der damaligen Titel sind heute im DrawCall Limit, weil die CPU Leistung pro Thread nicht wirklich stark gestiegen ist.
Seit einem Crysis 1 bspw. hat sich die pro Thread Performance vielleicht im Schnitt ca. verdoppelt. Die GPU Leistung ist aber weit mehr als um Faktor 2 gestiegen. Eher um Faktor 10.
Wenn also heute ein Spiel kommt, was dank/durch DX12, Vulcan oder ähnliches eine heutige Mainstream CPU gut ansprechen kann und dies auch ausnutzt (hier fehlt es idR noch), dann hast du das gleiche Probleme wie mit DX11 in ein paar Jahren bei dem Titel.
Die Schwierigkeit hier im Thread ist dazu, avg. Balkendiagramme sind recht ungeeignet für einen sinnvollen Vergleich. Wenn dort ein großer Ausschlag zu sehen ist, ist das Problem schon wirklich sehr akut.
Zumeist sind es einzelne Stellen, wo die Leistung dropt, messen die Redaktionen diese Stellen nun gerade NICHT nach, sieht man das auch nicht.
Vielleicht müsste man den Titel generell mal umbenennen... Denn auch bei NV deckelt es da ja heute von Zeit zu Zeit. Vor allem dort, wo bei AMD die Skalierung nach lässt, wirds bei NV teils ebenso schon "schwer".
Weiter oben wurden bspw. ein paar Tomb Raider Szenen dargelegt. Wenn ich mit zwei 780TIs gut und gerne doppelt so viele FPS mit dem 4,2GHz Oktacore habe als sTOrM41 mit nem stock? Nehalem Hexacore und der 970er, obwohl in beiden Szenen die GPU(s) nicht annähernd auf 99% liefen, spricht das schon Bände...
Selbes konnte man früher auch schon mit anderen Titeln beobachten. Bspw. Crysis 1, da hatte ich Szenenweise beim Wechselm von 3,4GHz Core2Quad auf 4,5GHz Sandy 2600K annähernd doppelte FPS trotz gleicher GPU... Oder Gothic 3 mit massiv erhöhter Sichtweite. (das packt auch der Haswell-E nicht in UHD
)
Allerdings kann man dann einfach nur Abwinken, wenn Leute hier behaupten, mit einem 2500k würde das alles gut laufen.
Meist weis man ja gar nicht, dass es deckelt, wenn man nicht gesehen hat, dass es auch (deutlich) schneller geht...