AMD und die bescheidene Performance im DX11 CPU Limit

sTOrM41

Admiral , HWLUXX Superstar
Thread Starter
Mitglied seit
13.10.2005
Beiträge
22.317
Nach 8 Jahren Team-Red ist mir die Tage beim Sidegrade von R9 290 auf GTX 970 in einigen Spielen etwas reichlich seltsames aufgefallen.

Einige Spiele laufen auf einmal bei CPU Limit deutlich besser, obwohl die R9 290 und GTX 970 prinzipiell ähnlich schnell sind.

GTA V (mit angepassten grafiksettings) mit meinem FX8320@4,5ghz und der GTX 970 problemlos mit stabilen 60 FPS, mit der R9 290 drops runter auf 45 (ohne das die Graka dabei voll ausgelastet ist! Ergo > CPU Limit)

d9amy6nidla6n1hxa.jpg

http://pclab.pl/art57777-24.html

Selbes Spiel in Dying Light, 40 statt 30 FPS im CPU Limit, das bedeutet immerhin 33% bessere FPS.

Enttäuscht wurde ich dann etwas in DayZ, das läuft immer noch genau so schlecht wie vorher. Warum auch immer..

NFS Rivals hat ja nun standardmäßig nen FPS Limit bei 30, lief mit der 290 95% der Zeit auch mit eben diesen 30 FPS, droppte aber immer wieder an der selben Stelle im Dorf auf 24 FPS.
Mit der 970 passierte das nun nicht mehr.
Dann war mir eingefallen das man das FPS Limit in dem Spiel ja auch irgendwie noch deaktivieren konnte ( [Update: 60 Fps möglich] Need for Speed: Rivals im Test mit Benchmarks )
Also dieses mal probiert, die FPS bis 60 unlocked, und dann bin ich bald vom Stuhl gefallen..
An der selben Stelle im Dorf lagen nun 60 FPS an,
das bedeutet 250% bessere FPS im CPU Limit.

Ich hatte das in meinem GTX 970 Review ( http://www.hardwareluxx.de/communit...-vs-powercolor-r9-290-pcs-review-1087784.html) letztens schon mal angesprochen,
Battlefield 4 läuft mit der 970 in DX11 so gut wie mit der 290 unter Mantle, Hardline läuft gar besser.
Genaue Zahlen habe ich dafür leider keine.

Erinnert sich noch jemand an Project Cars?
Das Spiel lief bei Release kurioserweise bei den grünen mit doppelt so vielen FPS als mit dem entsprechenden roten Gegenstück, völlig absurd eigentlich.
http://pclab.pl/art63572-7.html
Schuld ist vermutlich der DX11 CPU Overhead.
Mittlerweile läuft das Spiel auch auf AMD Karten besser, aber immer noch deutlich schlechter als eigentlich möglich.
http://www.3dcenter.org/news/die-grafikkarten-performance-unter-project-cars

Aufgrund der ganzen Thematik habe ich mal das Internet durchforstet, mit der Hoffnung Quellen zu finden die sich mit dem DX11 CPU Overhead beschäftigen.
Bei guru3d bin ich fündig geworden (Achtung: Englisch!)
High DX11 CPU overhead, very low performance. - Guru3D.com Forums

d60aj3vy1cyvliun7.gif

Rise of the Tomb Raider: PC graphics performance benchmark review - CPU core performance scaling

Ab und an bieten auch die Jungs bei gamegpu.ru CPU Benchmarks mit Nvidia und AMD Grafikkarten an die eben diesen DX11 CPU Overhead aufzeigen.
d2c6y5ljv0i9o6hqn.jpg
d2c6yd0a6deszn80f.jpg

Wie man hier schön sehen kann liefert die GTX980 in Advanced Warfare im CPU Limit etwa 50% bessere FPS als die r9 290X.

Auch bei eurogamer.net hat man sich dem CPU Limit mal angenommen.
Eine normal deutlich flinkere R9 270X produziert in Kombination mit einer schwachen CPU im CPU Limit auf einmal weniger FPS als die normal deutlich langsamere 750TI.
d2c7trmq0slt15qof.jpg

http://www.eurogamer.de/articles/20...-spieler-ein-game-changer-ist-digital-foundry

Auch den Leuten bei AMD ist dieses vor geraumer Zeit wohl schon mal aufgefallen, so das man sich entschied Mantle zu entwickeln.
Prinzipiell ist dieses ja zu begrüßen, Mantle funktioniert auch tadellos.

d61iulwc35kzmu531.jpg


Mantle hat aber den Nachteil das es nur in Spielen funktioniert die eben Mantle unterstützen, reine DX11 Spiele tun dieses nur eben nicht.
Die Anzahl an Spielen mit Mantle Support kann man auch Heute, über 1 Jahr nach Mantle Release noch an ein-zwei Händen abzählen.

Nvidia stand dann Anfang 2014 wohl reichlich unter Druck, die Roten hatten auf einmal ein Mittel gegen das CPU Limit, und die Green-IT nicht.
Was man dann machte war "leider" schlauer als bei AMD. Statt sich wie die Roten eine neue low-Level API auszudenken packte man das Problem bei der Wurzel und versuche den CPU Overhead, den DX11 produziert eben zu reduzieren.
Geglückt ist das ganze dann scheinbar im April 2014 mit dem Forceware 337.50
d2c6ng7ft6vpadutr.jpg



Aktuell schaut es so aus das bei AMD die DX12 Performance besser ausfallen könnte, Ashes of Singularity und der 3DMark API Test prognostizieren dieses jedenfalls.
Das ist wie ich finde begrüßenswert.
Man sollte dabei allerdings nicht vergessen das es vermutlich noch eine ganze Weile dauert bis es überhaupt eine breite Masse an Spielen mit DX12 Support gibt.
Bis dieses so weit ist zählen die meisten aktuellen Grafikkarten vermutlich schon wieder zum alten Eisen.


Meine Bitte an AMD: versucht das CPU Overhead in DX11 in den Griff zu bekommen.

Meine Bitte an Hardwareluxx, Computerbase, PCGH und wie ihr euch alle nennt: testet aktuelle Grafikkarten bitte nicht nur auf übertakteten i7, sondern auch mal auf einer CPU die deutlich massentauglicher ist, wie z.B. einem i3, i5, FX6300 oder 8350.
Wenn ihr CPU Benchmarks in Spielen veröffentlicht bitte auf beiden Plattformen, Rot und Grün.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also zuersteinmal, das prädige ich schon seit es die ersten Mantle Benches gibt :fresse: Wollte aber damals Keiner sehen und man geilte sich viel eher am tollen DX11 AMD Umsetzung zu Mantle Umsetzungssprung auf... Zurecht auf der einen Seite. Aber eben nur die halbe Wahrheit.
Betrachtet man es rückwirkend, ist es auch fast schon nachvollziehbar, warum man bei AMD den DX11 Part nicht dahingehend optimiert -> man will/wollte Mantle durchsetzen. Klappt aber nicht, wenn DX11 genau so schnell agiert hätte. Also wird man da sicher auch keine Ressourcen in eine Optimierung stecken, welche man durch Mantle ja eigentlich gar nicht braucht. ;)

Ne im Ernst, es hat sich schon damals klar abgezeichnet, dass die Messungen mit NV GPU im CPU Limit oder CPU nahen Limit drastisch anders ausfallen können als bei einer normal (im GPU Limit) gleich schnellen AMD GPU. Das Problem haben leider nur die aller wenigsten Redaktionen überhaupt auf dem Schirm, denn es gibt bei den aller wenigsten Redaktionen in Sachen CPU Spieletests oftmals keinen Vergleich zwischen AMD und NV GPUs... Es gibt vereinzelnt da nämlich ganz paar interessante Tests. Bspw. finden sich im Netz Messungen nur SMT Skalierung von i7 Intel CPUs -> bei NV GPU skaliert das mit ~20% in Watchdogs bspw. ziemlich gut. Bei AMD GPU gar nicht...

Was ich als viel problematischer an der ganzen Geschichte ansehe, die masse der Community hat bis heute nicht verstanden, dass es kein allumfassendes CPU Limit gibt. Es gibt mehrere Teile, welche limitieren. Das sind idR Softwareparts, die aber völlig unterschiedlichen Ursprungs sind. Im Endeffekt ist meist der Mangel an Multithreadingfähigkeit der Grund für das Problem. Aber es wirkt sich an verschiedenstens Stellen aus. -> Das Endresultat ist aber, dass die FPS nicht skalieren. (weswegen das die Leute idR in einen Topf schmeißen, wo es aber NICHT! hingehört)
- Es gibt bspw. ein CPU Limit, hervorgerufen durch Treiberoverhead und/oder mangelnde MT Fähigkeiten auf der API Seite -> das ist das, was NV mit den Treibern bspw. angegangen ist. Ein Teil davon ist, dass es mit dem NV Treibern möglich ist, deutlich mehr DrawCalls als bei AMD aus der CPU zu quetschen. Reine Messungen dieser DrawCall Performance bescheinigen ca. Faktor 2 pro NV ggü. AMDs Umsetzung!
- Es gibt auf der anderen Seite das ganz klassische CPU Limit durch zu komplexe Berechnungen -> das kann direkt von der Engine/dem Spiel kommen, oder von Zusatzeffekten. Für erstes wäre bspw. eine komplexe KI Berechnung zu nennen. Ein Beispiel für letztes wäre bspw. eine komplexe Physikberechnung.

Unterm Strich muss das Verständnis eigentlich dahingehend vorhanden sein, dass diese Trennung zwischen den Parts erstmal geblickt wird! Denn dann ist erstmal die Basis geschaffen über das Thema überhaupt zu debattieren ;)

Meine Bitte an Hardwareluxx, Computerbase, PCGH und wie ihr euch alle nennt: testet aktuelle Grafikkarten bitte nicht nur auf übertakteten i7, sondern auch mal auf einer CPU die deutlich massentauglicher ist, wie z.B. einem i3 oder FX6300.
Wenn ihr CPU Benchmarks in Spielen veröffentlicht bitte auf beiden Plattformen, Rot und Grün.

Das erste wird sich nicht durchsetzen können. Einfach aus dem Grund, man will ja nicht die CPU Limitation in GPU Reviews benennen, sondern die Leistungsfähigkeit der GPU. Das ist auch soweit OK, wie ich finde. Sowas gehört in meiner Welt eher zu CPU Reviews... Dort können Vergleiche geschaffen werden.
Der letztere Part ist aber genau das, was ich mir seit Monaten schon wünsche... Offenbar aber scheint der Aufwand die Redaktionen abzuschrecken ;)
 
An sich ist das ein sehr Umfangreiches Thema, welches uns öfter ein CPU Limit vorgaugelt.
Aber wenn es mit einer anderen GPU besser läuft, was soll das dann für ein CPU Limit sein?
Das sind meiner Meinung nach Software Limits, dir durch neue Programmiermöglichkeiten zur Zeit auftauchen können DX11 -> DX12.

DayZ ist sowas von Alpha, darauf würde ich überhaupt nichts geben: http://abload.de/img/dayz_2015_08_30_10_26cxsxq.png
Was mir mit Windows 10 auffält, ist das z.B. TombRaider vom Verbrauch her fast an Mantle ran kommt, also irgendwas ist anders.
Auch läuft der Energiesparmodus von Windows geschmeidiger, keine Lags mehr wie mit Win7 noch. ;)
 
An sich ist das ein sehr Umfangreiches Thema, welches uns öfter ein CPU Limit vorgaugelt.
Aber wenn es mit einer anderen GPU besser läuft, was soll das dann für ein CPU Limit sein?

Genau das ist das Problem... Du hast es nicht ganz verstanden... Es ist nicht so, dass es mit "einer anderen GPU besser läuft". Sondern die Software des anderen Hersteller scheint offenbar weniger in Limits zu laufen oder bestehende Ressourcen besser auszunutzen. Ein himmelweiter Unterschied in der Betrachtungsweise. Die GPU hat damit perse erstmal wenig bis nichts zu tun. Es ist rein Software. Und hier kommt es eben auf die Umsetzung an, die NV und auch AMD wie auch Intel da an den Tag legen. Unter DX11 scheint NV klar die Nase vorn zu haben.
Ob das nun auf legale Weise passiert oder man seitens NV eigenen Code über die Treiber einschleust um bspw. Teile der DX11 Implementation von Windows gegen eigene Implementationen mit dem gleichen Endergebnis auszutauschen, ist bspw. auch nochmal so ein Part. -> zumindest im OpenGL Umfeld ist bekannt, dass NV genau das tut. -> bewegt an sich auf dem Pfad, den die NV Entwickler vorsehen gehts schnell und auch gut. Geht man davon weg wirds holprig bis grottig.
 
@fdsonne
Kann gut sein das ich das nicht verstehe, ist ja auch nicht schlimm.
Nur wenn es das selbe Spiel das selbe System und nur die GPU getauscht wird und es läuft besser, dann zu meinen es sei ein CPU Limit ist doch irgendwie, nee?

Es wird zur Zeit einfach viel ausprobiert (Alpha & Beta Stadium) was ja nichts schlechtes ist, aber bei neuen Werkzeugen muss man zuerst mal lernen damit umzugehen, das betrifft auch Programmierer(innen).

Ich will die DX11 Umsetzung von nvidia nicht in Frage stellen, die meisten DX11 Titel laufen mit Windows 10 besser, zumindest was ich spüren und auslesen konnte. ;)

MfG
 
Ob das nun auf legale Weise passiert oder man seitens NV eigenen Code über die Treiber einschleust um bspw. Teile der DX11 Implementation von Windows gegen eigene Implementationen mit dem gleichen Endergebnis auszutauschen, ist bspw. auch nochmal so ein Part. -> zumindest im OpenGL Umfeld ist bekannt, dass NV genau das tut. -> bewegt an sich auf dem Pfad, den die NV Entwickler vorsehen gehts schnell und auch gut. Geht man davon weg wirds holprig bis grottig.

Würde es dich denn wirklich wundern, wenn sie das in DX11 auch tun würden? Ich würde sogar so weit gehen und behaupten, dass Nvidia irgendwelche Rückmeldungen ignoriert bzw auf Sicherheitsfeatures von DX11 verzichtet. Denn eigentlich ist DX11 auf die sequenzielle Abarbeitung ausgelegt und Nvidia schafft es, das ganze Multithreaded zu implementieren.

Nvidia ist ja auch nicht gerade dafür bekannt, sich an Standards zu halten ;)
 
Nur wenn es das selbe Spiel das selbe System und nur die GPU getauscht wird und es läuft besser, dann zu meinen es sei ein CPU Limit ist doch irgendwie, nee?

guck dir doch den den Advanced Warfare Bench oben mal genauer an,
je schneller die CPU , desto mehr FPS, bei den Roten wie auch den Grünen.

Also eindeutig ein CPU Limit, nur das die grünen mit eben diesem CPU Limit deutlich besser umgehen.
 
guck dir doch den den Advanced Warfare Bench oben mal genauer an,
je schneller die CPU , desto mehr FPS, bei den Roten wie auch den Grünen.

Also eindeutig ein CPU Limit, nur das die grünen mit eben diesem CPU Limit deutlich besser umgehen.
Nur schneller, nicht auch stärker?
Ich steig nicht mehr durch, ist auch egal bin zufrieden bisher.
Neu Hardware ist absolut nicht Notwendig, evt in 2-3 Jahren eine neue SSD. :)
 
Phantomias:

Einfache Sache: Nicht nur das Spiel selbst hat FPS (Cpu) Limits, sondern auch die Treiber.
Setzt du nun eine Gpu eines anderen Herstellers ein, wo der Treiberoverhead größer ist, so hast du geringere Fps. Für das Spiel bleibt ja weniger Rechenleistung der Cpu übrig ;)

Klar, stark vereinfacht gesprochen und diese Erklärung deckt auch sicher nicht alle von fdsonne genannten Aspekte ab, aber als Anfang sicher brauchbar.
 
mal weiter bei den russen gestöbert

d2ckilxb5wcq88nyn.jpg
d2ckj17jhj1knyfrj.jpg


d2cl0op42qo4im34f.jpg
d2cl0vz5e6sdceq1b.jpg
d2cl10eqins2m70b3.jpg


in garden warfare sieht man gut das man unter mantle gut mit der dx11 performance von nvidia im cpu limit mithalten kann, bzw man gar schneller unterwegs ist.
die dx11 performance fällt aber wiederum deutlich schlechter aus.
 
Zuletzt bearbeitet:
Ist doch nichts neues das AMD eine DX11 CPU-Schwäche hat.

Unter DX 12 ist diese Problem mehr oder weniger Geschichte und AMD kann endlich mal volle GPU Power liefern weil der Treiber-Overhead so gut wie weg ist.
 
Alles soweit bekannt und auch gut nochmal aufgefrischt zuwerden, bzw. angesprochen.
Aber zu BF4 und Nvidia und AMD,
mit der GTX970 musste ich auf 64Spieler Servern ( shanghai/ pearl market z.b.) meine CPU mit 4,5GHz laufen lassen und war selbst damit nicht so gut, wie mit Mantle und der selben CPU@Stock.

Das ganze unter Win7

Mantle hat in BF4 schon seine Vorteile, gab mal einen Test, da waren in 720p die min Fps, bei gleiche CPU, einmal mit Nvidia GPU unter DX11 und einmal mit AMD GPU unter Mantle knapp doppelt so hoch.
DX11 + Nvidia GPU 63min Fps
Mantle + AMD GPU 121min Fps

Generell wäre mehr Klarheit bei dem Thema schön!
CPU tests mit AMD und Nvidia GPU wären super!
 
Mantle hat in BF4 schon seine Vorteile, gab mal einen Test, da waren in 720p die min Fps, bei gleiche CPU, einmal mit Nvidia GPU unter DX11 und einmal mit AMD GPU unter Mantle knapp doppelt so hoch.
DX11 + Nvidia GPU 63min Fps
Mantle + AMD GPU 121min Fps

hast du mal einen link zu diesem test?
mich würde nicht wundern wenn dieser mit einem älteren treiber als dem forceware 337.50 gemacht wurde.

schau dir doch mal garden warfare oben an,
diesen benchmark kannst du prinzipiell 1:1 auf bf4 übernehmen.

edit:
hab hier was bezüglich bf4 gefunden
http://pclab.pl/art55953-4.html

FX8350 OC+ 290X (Mantle) = 80fps
FX8350 OC+ 290X (DX11) = 54fps
FX8350 OC+ GTX780 (DX11) = 74fps

das deckt sich mit meiner aussage aus dem startpost.
 
Zuletzt bearbeitet:
@storm41

Ich verstehe deine Aussage nicht, auf dem einen Test zeigt die 270X ein höheres Potential mit einer stärkeren CPU, dafür bringt Mantle deutlich was bei Preis/Lesitung-systemen.

Mal abgesehen das die AMD GPU's ja DX12 beherrschen.
 
Zuletzt bearbeitet:
@storm41

Ich verstehe deine Aussage nicht, auf dem einen Test zeigt die 270X ein höheres Potential mit einer stärkeren CPU, dafür bringt Mantle deutlich was bei Preis/Lesitung-systemen.

Mal abgesehen das die AMD GPU's ja DX12 beherrschen.

dann noch mal richtig lesen.

hier geht es prinzipiell weder um mantle, noch dx12, sondern um den dx11 cpu overhead.

klar bietet die 270x in kombination mit einer stärkeren cpu mehr potential als die billigere 750ti,
das erklärt aber nicht das überproportional starke einbrechen mit einer schwächeren cpu.

hier noch mal das selbe bild von oben

d2c7trmq0slt15qof.jpg


mit dem i7 ist alles schick, 60fps.

mit dem langsameren i3 passiert dann aber was seltsames,
die 270x ist auf einmal langsamer als die billigere 750ti (mit dem selben i3!),
und daran ist eben der dx11 cpu overhead schuld.
 
Zuletzt bearbeitet:
@fdsonne
Kann gut sein das ich das nicht verstehe, ist ja auch nicht schlimm.
Nur wenn es das selbe Spiel das selbe System und nur die GPU getauscht wird und es läuft besser, dann zu meinen es sei ein CPU Limit ist doch irgendwie, nee?

Nein, nicht "irgendwie"... Sondern definitiv so.

Stell dir das ganze mal bildlich vor.
Das Konstrukt ist eine Kette von Berechnungen, diese werden zwingend sequenziell abgearbeitet und laufen in einem gewissen Takt.
Ganz vorn in der Kette hast du die CPU Berechnungen vom Spiel/der Engine. Das sind bspw. KI Berechnungen, Soundberechnungen, allgemein also Spielgeometrie, Bewegungen usw. usf.
Das lässt sich in gewissen Teilen via MT erschlagen, nämlich wenn man die einzelnen Teile dieser Berechnungen auf mehrere CPU Threads verteilt. So lässt sich aus der Datenquelle gleichzeitig KI und Physik berechnen um mal ein Beispiel zu nennen.

Mit dem Ergebnis dieser Berechnungen geht man über die DX/Mantle API zum Treiber. Oder besser gesagt, man führt Funktionen aus, welche die APIs bereitstellen. Diese Funktionen sind quasi fix. Teile davon lassen sich aber offensichtlich so verdrehen, dass man mehr von MT profitiert als eigentlich mal geplant war. Durch diese API Funktionen gelangen die Daten dann zur GPU (über den Treiber) und werden dort abermals in MT ausgeführt. Letzteres ist quasi seit Jahr und Tag gang und gebe...
Bei ersterem (dem Spielepart) auf MT zu setzen ist mittlerweile auch häufig der Fall. Vor allem bei größeren, komplexeren Titeln (AAA) -> wo die Presse auch vermehrt auf die Optik schaut.


Das Problem hier ist nun folgendes:
der erste Teil ist fix (das Spiel ist ja immer das gleiche) und der letzte Teil ist ebenso quasi fix (zwar GPU unterschiedlicher Hersteller -> im nachweislichen GPU Limit aber ähnlich schnell)
Was bleibt also übrig? Der API Part... Und der ist Vollvariabel. Nämlich wenn die Hersteller die Funktionen dahingehend optimieren, dass am Ende mehr Power bei rum kommt...

Das Ganze lässt sich bspw. auch 1A belegen. Nämlich an der DrawCall Performance. Du kannst bspw. ein aktuelles 3DMark mal mit ner Fermi GF100/110 GPU und dem Fermi Releasetreiber durchlaufen lassen und dann einen Vergleich mit ner in etwa gleich schnellen Kepler/Maxwell GPU durchführen (aktueller Treiber) -> das extrem CPU Geschwindigkeitsabhängige Ergebnis wird sich trotz gleicher Roh-CPU-Power extrem unterscheiden... Einfach weil NV mit dem 337.50er aka "Wundertreiber" das erste mal public verbreitet hat, an diesem Problem aktiv zu optimieren... Zeitlich war das auffallenderweise kurz nach Mantlerelease. Das Ding hat es geschafft, die absolute Mehrleistung von Mantle mit einer vergleichbaren AMD GPU quasi vollständig aufzuwiegen (BF4 MP) sowie bei einigen Benches sogar zu übertrumpfen (Thief)

Würde es dich denn wirklich wundern, wenn sie das in DX11 auch tun würden? Ich würde sogar so weit gehen und behaupten, dass Nvidia irgendwelche Rückmeldungen ignoriert bzw auf Sicherheitsfeatures von DX11 verzichtet. Denn eigentlich ist DX11 auf die sequenzielle Abarbeitung ausgelegt und Nvidia schafft es, das ganze Multithreaded zu implementieren.

Nvidia ist ja auch nicht gerade dafür bekannt, sich an Standards zu halten ;)

Wie kommst du darauf, dass DX11 ausschließlich auf sequenzielle Abarbeitung ausgelegt sein soll?
Microsoft hat mit DX10 schon MT Support propagiert ;) Nur so nebenbei... Und nein, mich wundert es keineswegs. Ich sag dir aber auch, dass ich diesen Schritt definitiv als richtig ansehe. Nicht, weil sich NV hiermit einen Vorteil verschafft, nein, sondern weil ich genau sowas als wirkliche Optimierung FÜR den Endkunden ansehe. Damit wird niemand benachteiligt (auch nicht potentiell) und man muss sich nicht irgendwo einkaufen um sowas hinzubiegen. Das ist rein NVs eigene Seite der Thematik und greift/wirkt nur bei steckender NV Karte...
Solange man nicht auf BQ verzichten muss, wie es seit Jahren schon immer mal wieder sowohl von Grün als auch Rot versucht wird um Rechenzeit zu sparen, ist so eine Optimierung genau das richtige um den etwas verschlafenen Markt auf die Beine zu helfen.

Und wie gesagt, die DrawCall Performance ist ein Part, den Entwickler seit Jahren, ja sogar Jahrzenten schon auf dem PC kritisieren. Schon die PS3 konnte mehr Draws "callen" als es heute gängige PCs mit DX 9, 10 oder 11 schaffen... Oder andersrum ausgedrückt, auch heute noch tut sich der PC schwer, mit den alten Konsolen mitzuhalten!

Mit DX12, Vulkan und Mantle hat sich dies geändert... Jetzt müssen es die Entwickler nur noch umsetzen! Ich sehe bei dieser gesteigerten Hardwarenähe aber die Gefahr, dass die Entwickler es verkacken könnten und wir als Endkunden am Ende dann noch viel beschissener dastehen. Denn dann kann nicht der GPU Hersteller über Treiber mal so eben was reinoptimieren ;) Das klappt bestenfalls, wenn sich die GPU Hersteller hinstellen und den Code des Spiels auseinander nehmen um dort maßgeblich fehloptimierte Teile gegen optimierten Code tauschen... Das ist Aufwand ohne Ende. Mir wäre auch kein Fall bekannt, wo sowas bis dato fabriziert wurde.
 
na dann hast du ja jetzt verstanden warum es so wichtig ist etwas gegen den dx11 cpu oberhead zu unternehmen?

Natürlich versteh ich das, aber ich entscheide immer vorher was für ein System ich aufbaue, eventuell für welche Games.


mit dem langsameren i3 passiert dann aber was seltsames,
die 270x ist auf einmal langsamer als die billigere 750ti (mit dem selben i3!),
und daran ist eben der dx11 cpu overhead schuld.

Ok da kenn ich aber genug Leute die einen I3 als Preis/Leistung hinstellen, oder einen Broadwell mit iGPU.

Dann lieber ein AMD Preis/Leistungssystem.
 
Zuletzt bearbeitet:
Ok da kenn ich aber genug Leute die einen I3 als Preis/Leistung hinstellen, oder einen Broadwell mit iGPU.

das hat nichts speziell mit dem i3 zu tun,
das bild da oben wäre vermutlich mit einem "gleichgünstigen" fx6300 das selbe.

hier mal nen beispiel wie man sich diesen dx11 cpu overhead etwa vorstellen kann:
ein fx6300 oder i3 ist beispielsweiße im cpu limit von der rohleistung in der lage 100fps zu produzieren.

gtx970 und r9 390 sind beispielsweiße von der rohleistung auch in der lage 100fps zu produzieren.

bei der r9 390 benötigt der dx11 treiber aber so viel cpu leistung das von diesen eigentlich möglichen 100fps zb 30% weniger an kommen, also nur 70fps.

bei der gtx 970 gibt es diesen enormen dx11 cpu overhead nicht (nicht mehr!), oder zumindestens nicht in diesem ausmaß.
der treiber verschluckt vllt nur 5 oder 10%, von den möglichen 100 fps kommen dann 90 oder 95 an.

mit dx12 und mantle wird der cpu overhead dann quasi eliminiert, gtx 970 und r9 390 pusten dann beide etwa ihre 100fps raus.


mit nem fetten i5, fx9590, oder i7 fällt der dx11 cpu overhead bei den roten nicht ganz so ins gewicht, die 30% die der treiber zusätzlich verschluckt kompensiert so eine cpu halt eben.
mit einer langsameren cpu kann das ganze dann aber durchaus nen ganz schönen unterschied machen.
 
Zuletzt bearbeitet:
auch bei computerbase hat man sich mal wieder dem cpu limit angenommen
Heroes 7: Benchmarks mit 22 Grafikkarten zeigen großen Hardware-Hunger - ComputerBase

"Auffällig ist, dass AMD-Grafikkarten einen schnelleren Prozessor als Nvidia-Modelle benötigen. Während die GeForce GTX 980 Ti die volle Geschwindigkeit mit einem auf 3,5 getakteten Core i7-4770K mit vier Kernen erreicht, skaliert die Radeon R9 Fury X auch noch mit einer Takterhöhung auf 4,5 GHz. Die Radeon-Modelle verlieren vor allem bei Zwei-Kern-CPUs mehr an Performance, was auch Hyper-Threading nicht ausgleichen kann. Mit einer Vier-Kern-CPU ist man schlussendlich aber auch bei einer AMD-Karte auf der sicheren Seite."
 
mit nem fetten i5, fx9590, oder i7 fällt der dx11 cpu overhead bei den roten nicht ganz so ins gewicht, die 30% die der treiber zusätzlich verschluckt kompensiert so eine cpu halt eben.
mit einer langsameren cpu kann das ganze dann aber durchaus nen ganz schönen unterschied machen.
Lass den I5, i5 sein!
Das is(s)t keine Konkurrenz für AMD, eher die 6C/12T mit Quad-Channel SI. ;)
 
lustig ist es jedenfalls :)
 
Er meint wohl das der fx9590 einen i5 in multithreaded Anwendungen schlägt da dieser 8 statt nur 4 Threads wie der i5 unterstützt. Aber leider sind das halt auch nur ne Hand voll spiele...
 
Er meint wohl das der fx9590 einen i5 in multithreaded Anwendungen schlägt da dieser 8 statt nur 4 Threads wie der i5 unterstützt. Aber leider sind das halt auch nur ne Hand voll spiele...
So war es eigentlich gemeint, danke für die klar Stellung. :)

Bezüglich DX11 Overhead habe ich ein bischen mit TombRaider experimentiert.
Hier gibt es einen alten Artikel: Tomb Raider Performance Test: Graphics & CPU > Ultra Quality Performance - TechSpot
Das Diagramm ganz unten (2560x1600)
Hier meine Werte mit Windows 10 (Feature Level DX11.1) http://abload.de/img/tombraider1440p_2015-aksmz.jpg
Ich habe die 1440p@1080p Auflösung mit VSR (DS) im Treiber realisiert.

Wichtig bei solchen Vergleichen, sind vor allem die Version des Betriebssystem und das Patch-Level des Spiel. :fresse:
 
Ich glaube AMD wird an DX11 absolut nix verbessern.
Von AMD treibern halte ich absolut nix nach den erfahrungen die ich gemacht habe.
Mein Platz ist bei NV auch wenn hier nicht alles perfekt läuft es als Enthusiast hier doch um welten Besser!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh