wie man hier sehen kann ist die 970 deutlich flinker als die 780ti.
seltsam da die karte eigentlich ähnlich flink sind.
Also man muss natürlich klar aufpassen, WAS man dort vergleicht... Benches werden häufig mit alten Treibern, alten Spieleversionen oder gar ganz ohne Aktualisierung gefahren. (sprich alte Werte 1:1 übernommen, weil ist ja einfach)
Die Werte im neuen TR kann ich dahingehend nicht nachvollziehen... Es gab nämlich noch recht zeitnah nach Release nen Patch, der bei mir richtig gut geholfen hat. Ich reize beide 780TIs in FHD bei max. Details und "nur" SMAA sowie Texturen auf High anstatt Ultra (VRAM Limit) auf 95-99% Load aus. Die SLI Skalierung ist weit über 50% -> hatte es nur kurz mit einer aktiven GPU getestet. Nach den Werten im Bild ist das ein "alter" Run -> das 780(TI) 3GB SLI skaliert dort unterirdisch, das ist heute definitiv NICHT mehr der Fall. Zumindest nicht mit dem Game Ready für TR und seit dem ersten Patch (Steam Edition). Zwei Karten sollten in FHD mit SMAA und ohne VRAM Limit (Texturen müssen eine Stufe runter! Egal welche Auflösung, sonst bricht die FPS Rate zusammen!!) gut und gerne durchgängig 60-80 FPS halten. Meine Kiste fällt in keiner Situation bis dato unter 60 FPS... Streckenweise gibts 100 FPS+
Bei den Kepler GPUs kommt halt erschwerend hinzu, dass ihnen so langsam der VRAM ausgeht. Zumindest im realen Spielebetrieb. GTAV ist hart an der Grenze bei maximalen Details, TR ist ÜBER der Grenze, mit Ultra Texturen gibts streckenweise ne Ruckelorgie usw. Da reicht es offenbar schon, dass selbst die 3,5GB der 970er mehr abfedern. CoD:BO3 ist über der Grenze usw.
Das dann ne 780er langsamer wird kann ich mir eigentlich nicht vorstellen, aber sowas ganz auszuschließen kann man eigentlich nie, zumal NV schon öfters dreiste Aktionen gebracht hat, und wenn man sich nur anschaut wie die AMDs bei allen neueren Games (bzw Bechmarkszenen in Tests) teilweise kreise um Kepler drehen, wirkt das schon mehr als seltsam, besonders da bei direkten Treibertests die Karten oftmals kaum von den neusten Treiber mehr als 5% profitierten...
Was heist "Kreise" drehen... Die NV GPUs zeigen mehr FPS im CPU nahen Limit als die größeren AMD Modelle. Vor allem bei CPU fordernden Titeln oder lahmen CPUs. Je nachdem, wie und was man nun vergleicht, bricht natürlich die NV GPU stärker ein als die AMD GPU, die erstmal noch gewisse Anforderungen benötigt, damit die Performance erstmal auf die Straße kommt. Dazu kommt bspw. der VRAM, der mittlerweile knapp bis nicht mehr ausreichend ist -> ebenso ein Part, der den meisten Kepler GPUs das "Genick" bricht. Zumindest heute... Die Frage ist also, was wird verglichen? Wie realistisch ist das, was man dort vergleicht mit der Praxis?
Hinzu kommt dass die Änderungen an der Leistung zwischen Maxwell und Kepler recht gering waren.
Kann das alles Zufall sein? Klar. Sind andere Erklärungen möglich? Definitiv.
Das ist schlichtweg falsch!
Schon VOR! Release der Maxwell GPUs sprach NV von einer Optimierung im Bereich ~30% pro Maxwell ggü. Kepler, was die Shaderpower angeht.
Lass einfach mal das Milchmädchen rechnen.
Eine GTX 970 kommt auf 1664 ALUs und geht sagen wir als Custom Modell ca. 1300MHz im Schnitt.
Eine 780TI als "normales" Modell hat 2880 ALUs und läuft im Schnitt ohne OC um die 1000MHz.
-> die 970er erreicht damit ca. 4326 GFlop/sec
-> die 780TI erreicht damit ca. 5760 GFlop/sec
Was passiert nun, wenn man den "Faktor" 1,3 einfach mal auf die 970er Werte drauf rechnet? -> 5623,8
Passt doch wie Arsch auf Eimer...
Wer wundert sich bitte wirklich, dass eine 970er in etwa das leistet, was eine 780TI zu leisten im stande ist?
Natürlich wirkt das ggü. einer Hawaii/Fiji based AMD GPU "komisch". Aber bei AMD kommt halt hinzu, dass im CPU Limit die Performance schlecht ist. Eine AMD GPU bricht deutlich später bei steigender Leistungsanforderung als eine NV GPU. Kurzum, obenraus ist da einfach mehr "Luft" da... Gut zu sehen an den ganzen Fiji Benches, FHD ist idR die GM200 GPU vorn, 1440p wirds schon knapp und UHD schmeckt der Fiji erst so richtig. Aber auch das wundert doch eigentlich den eifrigen Hardwarebegeisterten in keinster Weise... Schaut in die Vergangenheit, schon dem R600 wurde nachgesagt, dass in größeren Auflösungen, mit viel AA und allgemein viel Leistungsbedarf dort mehr Luft obenraus ist als dem G80. Das ist nunmehr fast 10 Jahre her und es hat sich genau NICHTS geändert. Ist es nicht vielleicht denkbar, dass AMD bzw. ATI damals noch das CPU Overheadproblem schon seit Jahren mit sich rumschleppen?? Es ist zumindest eine mögliche Erklärung, warum die AMD GPUs ggü. den grünen Gegnern obenraus idR IMMER mehr Luft boten und damit idR auch etwas länger hielten im direkten Vergleich!
PS: Kepler ist definitiv nicht langsamer geworden. In keinem Spiel und mit keinem Treiber. Nur wird die Luft obenraus halt mit der Zeit immer dünner... Wäre das nicht so, würde man keine neuen Architekturen benötigen. Einfach mal drüber nachdenken, WARUM Maxwell erst mit der Zeit die bessere pro Takt Performance ausspielen kann und warum das in vielen älteren Titeln eben NICHT eingetreten ist
Es gibt viele viele Faktoren, die dort reinspielen. Bspw. dass auch Entwickler auf gewisse Märkte abzielen. Wenn heute vielleicht die gängige Performanceklasse im Bereich GTX 950-970 liegt, war das vor 2-3 Jahren noch ganz anders. Kommt dann noch so ein starker Effizienzsprung im Vergleich zum Vorgänger drauf, ist der Cut natürlich um so offensichtlicher, wenn die Entwickler nachziehen.