AMD und die bescheidene Performance im DX11 CPU Limit

So war es eigentlich gemeint, danke für die klar Stellung. :)

Bezüglich DX11 Overhead habe ich ein bischen mit TombRaider experimentiert.
Hier gibt es einen alten Artikel: Tomb Raider Performance Test: Graphics & CPU > Ultra Quality Performance - TechSpot
Das Diagramm ganz unten (2560x1600)
Hier meine Werte mit Windows 10 (Feature Level DX11.1) http://abload.de/img/tombraider1440p_2015-aksmz.jpg
Ich habe die 1440p@1080p Auflösung mit VSR (DS) im Treiber realisiert.

Wichtig bei solchen Vergleichen, sind vor allem die Version des Betriebssystem und das Patch-Level des Spiel. :fresse:

inwiefern hast du denn jetzt deiner meinung nach mit dem dx11 cpu overhead experimentiert?

das spiel unterstützt weder mantle, noch hast du eine änlich schnelle nvidia grafikkarte zur hand, noch macht man cpu benches in 1440p?!

du spielst doch battlefield 4, da kannst du dank vergleichsmöglichkeit zwischen dx11 und mantle doch einwandfrei sehen was dieser dx11 cpu overhead bewirkt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
In diesem Thread von den größten AMD Cpus zu reden ist doch sowieso am Thema vorbei, da diese das "Problem" des zu großen Treiber-Overheads doch garnicht aufzeigen...
Oder hab ich was verpasst? o_O

Man muss doch zwingend ne kleine Cpu nehmen, damit man unbedingt im Cpu Limit hängt. Ansonsten sind Cpu Benches zimlich sinnfrei...
 
ich hab auch eindeutig auf seite 1 geschrieben dass die problematik mit nem 9590 weniger ins gewicht fällt.

mit nem fetten i5, fx9590, oder i7 fällt der dx11 cpu overhead bei den roten nicht ganz so ins gewicht, die 30% die der treiber zusätzlich verschluckt kompensiert so eine cpu halt eben.
mit einer langsameren cpu kann das ganze dann aber durchaus nen ganz schönen unterschied machen.
 
Zuletzt bearbeitet:
inwiefern hast du denn jetzt deiner meinung nach mit dem dx11 cpu overhead experimentiert?

das spiel unterstützt weder mantle, noch hast du eine änlich schnelle nvidia grafikkarte zur hand, noch macht man cpu benches in 1440p?!

du spielst doch battlefield 4, da kannst du dank vergleichsmöglichkeit zwischen dx11 und mantle doch einwandfrei sehen was dieser dx11 cpu overhead bewirkt.
Das möchte ich gern erläutern, natürlich kenn ich das CPU Limit bei TombRaider: http://abload.de/img/tombraider_2015_08_05xyub3.png
Da ist dann aber wieder die GPU Auslastung "im Keller" 25% pro GPU bei ~300FPS. :fresse:
 
Wie gesagt, deine Cpu eignet sich für diesen Test nicht... Ist das so schwer zu verstehen?
 
Ist doch nicht neues, dass AMD (zurecht) nichts mehr in Dx11 steckt. Nvidia betreibt sicherlich auch viel Aufwand damit die API-Defiziete ausgeglichen werden. Vielleicht hätte man es noch 1-2 GPU Genarationen länger ausgehalten, aber auch für Nvidia wäre DX11 eine Sackgasse gewesen.

Wenn dann Autorennspiele, absolut im CPU Limit hängen und diese mit Nvidia Ingamewerbung zugepflastert sind, - klar das da AMD keinen Bock drauf hat. Vor allem weil ja Shooter und Rennfahrspiele mit die Genres schon immer waren die sehr moderate CPU-Leistung gefordert haben. Mal den Multiplayer mit 64 Spieler ausgenommen.

Wenn man dann noch Mantel anbietet, wozu noch den Dx11 Pfad eines Spiels optimieren?
 
Wenn man dann noch Mantel anbietet, wozu noch den Dx11 Pfad eines Spiels optimieren?
Weil man es kann?

avp1440pds_low-fx-959ufu91.png


Einem Autorennspiel traue ich mehr CPU Auslastung zu, als einem 64 Server... :fresse:
 
Ist doch nichts neues das AMD eine DX11 CPU-Schwäche hat.

Unter DX 12 ist diese Problem mehr oder weniger Geschichte und AMD kann endlich mal volle GPU Power liefern weil der Treiber-Overhead so gut wie weg ist.

Leider ist das alles noch Zukunftsmusik da die Tests Alpha sind und die Treiber bisher nur von AMD verfügbar.
 
Wenn man dann noch Mantel anbietet, wozu noch den Dx11 Pfad eines Spiels optimieren?

Vielleicht weil mantle nur von einem auf Hundert spielen unterstützt wird,noch mindestens ein Jahr die Mehrzahl an neuen spielen auf dx11 setzen wird, und nicht jeder Spieler überhaupt dx12 nutzen kann?
 
Sehe ich nicht so. Die wirklichen hardwarefresser werden auf dx12 setzen oder liefer den renderpfad nach wie das schon jetzt für viele Titel angekündigt wurde. Die paar Ausnahmen, werden auch auf amd laufen. Ob nun mit 80 statt 100 fps spielt da keine Rolle.
 
Sehe ich nicht so. Die wirklichen hardwarefresser werden auf dx12 setzen oder liefer den renderpfad nach wie das schon jetzt für viele Titel angekündigt wurde. Die paar Ausnahmen, werden auch auf amd laufen. Ob nun mit 80 statt 100 fps spielt da keine Rolle.

Problem ist doch der Istzustand. Die wirklichen Hardwarefresser wird man wahrscheinlich eh nicht in einer alten Low/Midgame Grafikkarte zum laufen bringen. Zudem heisst es doch jetzt Vulkan und nicht Mantle.
Würde mir wünschen das die Entwickler auf den Vulkan Zug aufspringen aber ich glaube nicht dran. 2 Jahre vor DX12 Erwähnung an Mantle rumgewerkelt und jetzt hört man nur noch Dx12 und kein Wort wird über Vulkan verloren. Wird wohl das neue OpenGL. :heul:
 
Ich würde das Thema DX11 bei AMD einfach abhaken. Es hat mit Mantle nicht geklappt und aktuell sind die AMD-Karten halt entsprechend langsam unterwegs. Man kann es nicht mehr ändern, bzw. es wäre zu aufwändig. Wenn DX12 sich richtig eingelebt hat, ist das alles Schnee von gestern ;)
 
Ich würde das Thema DX11 bei AMD einfach abhaken. Es hat mit Mantle nicht geklappt und aktuell sind die AMD-Karten halt entsprechend langsam unterwegs. Man kann es nicht mehr ändern, bzw. es wäre zu aufwändig. Wenn DX12 sich richtig eingelebt hat, ist das alles Schnee von gestern ;)
Ja so würde ich das auch sehen, besser mal öfter spielen als Limits zu suchen.
Die Ingenieure werden schon wissen was sie machen und Frame-times werden nicht erst seit DX11 untersucht und analisiert. :)
 
BTW die verlinkten Vergleiche auf der vorherigen Seite hinken schon etwas, da man statt einer GTX 980 eine 970 hätte nehmen sollen da diese dem 290(X) ebenbürtig ist. So ist der Unterschied natürlich "enorm" Das selbe gilt auch bei der 780Ti..

Und wie viele andere Quellen können die Werte von den Russen bestätigen? :rolleyes:
 
BTW die verlinkten Vergleiche auf der vorherigen Seite hinken schon etwas, da man statt einer GTX 980 eine 970 hätte nehmen sollen da diese dem 290(X) ebenbürtig ist. So ist der Unterschied natürlich "enorm" Das selbe gilt auch bei der 780Ti..

Und wie viele andere Quellen können die Werte von den Russen bestätigen? :rolleyes:
?
Wie soll eine 970 einer R9 290X ebenbürtig sein?
Das ist technisch gesehen völlig unrealistisch, aber soll sich jeder selbst sein Urteil bilden. :)
 
Vielleicht weil mantle nur von einem auf Hundert spielen unterstützt wird,noch mindestens ein Jahr die Mehrzahl an neuen spielen auf dx11 setzen wird, und nicht jeder Spieler überhaupt dx12 nutzen kann?

Naja, für AMD dürfte es angesichts der finanziellen Lage im Moment auch darum gehen den Aufwand bei der Treiberentwicklung zu optimieren. Wie wir nun auch alle wissen, liegen die Gene der GCN-Architektur nicht in der DX11-API. Mantle war insofern auch ein notwendiges Werkzeug um die eigene Architektur optimal auch ausnutzen zu können, vor allen aber auch den Entwickeln dessen Vorteile näher zu bringen. Wenn man den Treiber bisher für DX11 nicht besser optimiert hat, wird das in Zukunft sehr wahrscheinlich auch nichts mehr werden. Denn je näher DX12 kommt und sich am Markt etabliert, desto unwahrscheinlicher wird es, dass AMD hier noch großartig Ressourcen für Optimierungen aufwenden wird. Für AMD dürfte DX12 generell auch weniger Aufwand bedeuten, da Leistungsoptimierungen nun überwiegend in der Hand der Entwickler liegen. Damit wechselt ein großes Stück der Treiberarbeit von AMD zum Entwickler und man muss sich im Prinzip nur noch um Bugfixes im Treiber selbst kümmern. DX11 hat im Prinzip seit Einführung der GCN-Architektur im Jahre 2011/2012 bei AMD keine Zukunft mehr.
 
?
Wie soll eine 970 einer R9 290X ebenbürtig sein?
Das ist technisch gesehen völlig unrealistisch, aber soll sich jeder selbst sein Urteil bilden. :)

Sind die beiden denn von der Reinen Roh Leistung her pi mal Daumen nicht auf einem Niveau? Warum gab es dann früher etliche von Threads wie R9 290(X) vs. GTX 970 und nicht R9 290(X) vs. GTX 980?
 
Zuletzt bearbeitet:
Sind die beiden denn von der Reinen Roh Leistung her pi mal Daumen nicht auf einem Niveau? Warum gab es dann früher etliche von Threads wie R9 290(X) vs. GTX 970 und nicht R9 290(X) vs. GTX 980?
Hm, das hast wohl nicht unrecht, evt. weil die GTX970 512MB low power DDR3 hat und damit auch sparsamer ist?
Wer sparen will, kann das gerne tun aber Bitte nicht weinen wenn ein 500W Gespann bessere FrameTimes liefert. :)
 
Sind die beiden denn von der Reinen Roh Leistung her pi mal Daumen nicht auf einem Niveau? Warum gab es dann früher etliche von Threads wie R9 290(X) oder GTX 970 und nicht R9 290(X) oder GTX 980?

Ne GTX 970 hat bei PCGH nen Leistungsindex von 68,4%, die R9 290X 68,6% und ne R9 290 von 63,0%. Der Leistungsindex wurde aus 13 Spielen ermittelt.
Damit spielt die 970 nachweislich in der gleichen Liga wie die 290X. Auch wenns einige hier gern anders hätten oder Verschwörung schrein.

Die Aussage über mir ist da nen gutes Beispiel....
 
Zuletzt bearbeitet:
Ne GTX 970 hat bei PCGH nen Leistungsindex von 68,4%, die R9 290X 68,6% und ne R9 290 von 63,0%. Der Leistungsindex wurde aus 13 Spielen ermittelt.
Damit spielt die 970 nachweislich in der gleichen Liga wie die 290X. Auch wenns einige hier gern anders hätten und gleich mit obskuren Benches dubioser Seiten daherkommen und oder Verschwörung schrein.
13 Spiele sind auch wirklich an die Masse angelehnt, da hat mein Steam Account schon mehr als drei mal soviel... :sleep:
 
Das freut mich für dich. Das ändert aber nichts am Index. Falls der dir nicht zusagt, beschwer dich bei PCGH.
Stimmt, die sind eh schon lange ein Dorn im Auge des Betrachters.
Sollen sich externe und unabhängige damit auseinander setzen, ich zock lieber noch eine Runde. :)
 
BTW die verlinkten Vergleiche auf der vorherigen Seite hinken schon etwas, da man statt einer GTX 980 eine 970 hätte nehmen sollen da diese dem 290(X) ebenbürtig ist. So ist der Unterschied natürlich "enorm" Das selbe gilt auch bei der 780Ti..

Und wie viele andere Quellen können die Werte von den Russen bestätigen? :rolleyes:

du hast dann leider auch nicht verstanden was die russen da benchen.

in den cpu benches bei gamegpu.ru liegt ein cpu limit vor, an den werten würde sich selbst mit ner 970 oder 980ti quasi nichts ändern da eben die cpu limitiert.


weitere quellen die den dx11 cpu overhead bei den roten bestätigen findest du in diesem thread.

hier noch mal auf einen blick:
http://pclab.pl/art55953-4.html
FX8350 OC+ 290X (Mantle) = 80fps
FX8350 OC+ 290X (DX11) = 54fps
FX8350 OC+ GTX780 (DX11) = 74fps

http://www.computerbase.de/2015-09/heroes-7-benchmarks/
"Auffällig ist, dass AMD-Grafikkarten einen schnelleren Prozessor als Nvidia-Modelle benötigen. Während die GeForce GTX 980 Ti die volle Geschwindigkeit mit einem auf 3,5 getakteten Core i7-4770K mit vier Kernen erreicht, skaliert die Radeon R9 Fury X auch noch mit einer Takterhöhung auf 4,5 GHz. Die Radeon-Modelle verlieren vor allem bei Zwei-Kern-CPUs mehr an Performance, was auch Hyper-Threading nicht ausgleichen kann. Mit einer Vier-Kern-CPU ist man schlussendlich aber auch bei einer AMD-Karte auf der sicheren Seite."


edit:
hier noch witcher 3 gtx 970 und r9 290x im cpu limit
http://pclab.pl/art63116-47.html
http://pclab.pl/art63116-48.html

FX6350+GTX970=53fps
FX6350+R9 290X=31fps

mit einer fetten cpu schauts dann besser für die roten aus, eben weil der api overhead weniger durchschlägt.
 
Zuletzt bearbeitet:
Mal ganz ehrlich wer sich eine R9 290X bzw. 970 leisten konnte/kann der hat doch sicherlich keinen "schwachen"(Pro Kern Leistung) FX CPU dazu verbaut ansonsten stimmt m.M.n in der Konfiguration was nicht.

Zu dem Witcher 3 Beispiel: Alle wissen doch dass das Spiel genau so wie Project Cars auf Nvidia Karten besser läuft dank..naja http://www.pcgameshardware.de/Proje...nny-bezahlt-AMD-arbeitet-an-Leistung-1158421/

Und außerdem ist der Vergleich Benchmarks mit Spielen murks. In der Praxis sieht es meistens anders aus da spreche ich aus Erfahrung ;)

Diese Polnische Seite "Pclab" sehe ich auch zum ersten Mal wie die Russische und weiß ehrlich nicht gesagt ob man diese Werte vertrauen sollte :rolleyes:

Ich habe schon früher sehr oft mit meinen Kollegen Grafikkarten ausgetauscht wie z.B (6970-580 ; 7950-670 ; r9 280x-770 ; und vor kurzem 290x-970) um zu sehen ob es denn einen "großen Unterschied" gibt. Und ja hier wurden immer stets Intel i5 bzw. i7 Prozessoren mit gleichen Taktraten verwendet keine AMD CPU´s die nicht zu den High End Karten passten..

Ein Gewisser Unterschied war immer da, keine Frage, aber nicht wirklich nennenswerte nur messbare, aber auch nur in den Spielen die auf Nvidia GPU´s besser liefen da diese besser optimiert waren. Und diese kann man Heute noch mit den Fingern abzählen.

Unterschiede in der MIN FPS konnten wir in Spielen wie z.B Mafia II, Metro 2033 ,Mirror's Edge, GTA 4, Watch Dogs, Witcher 3,Batman Arkham Knight feststellen. Wie gesagt nur geringe Unterschiede.

Der größte Unterschied war natürlich bisher bei Project Cars was natürlich absolut nicht normal ist.
 
Zuletzt bearbeitet:
Wenn interessierts ob eine 290x nun 80 oder 95 FPS leistet? Von einer aktuellen 300€ Graka darf man ja wohl erwarten das alles flüssig läuft.
Interessant wirds erst wenn die Karten an Ihre Grenzen kommen, und da sind wir dann mitten drin in den Dx12 Spielen.

Wo wir schon bei den Grenzen der Grakas sind. Die 7970 liegt ja wohl aktuell 40% vor der gleichteuren GTX670. Dazu die 3GB vs 2GB.
Wie gesagt, wenn interessieren aktuelle Games auf High-End Grafikkarten.
 
Wen interessierts ob eine 290x nun 80 oder 95 FPS leistet?

80 gegen 95 fps sind sicherlich relativ "egal",
nicht egal dürfte es dem ein oder anderen dann aber sein wenns im cpu limit auf einmal minimum fps von 25 gegen 50 auf der uhr stehen, was mal eben doppelt so viel sind.
d2o4z5uoy16hggw9b.jpg
d2o4xz6tb7zv4r3nz.jpg
 
Zuletzt bearbeitet:
hier noch mal auf einen blick:
Ranking procesorów w Battlefield 4 :: PCLab.pl
FX8350 OC+ 290X (Mantle) = 80fps
FX8350 OC+ 290X (DX11) = 54fps
FX8350 OC+ GTX780 (DX11) = 74fps

mit einer fetten cpu schauts dann besser für die roten aus, eben weil der api overhead weniger durchschlägt.
Das schaut recht gut aus bei BF4, da werden mir noch mit 120FPS Avg. Mantle FPS geliefert (online)
Da sag mal einer ein AMD System kann keine High-End GPUs befeuern. ;)

Mantle bringt ja nicht nur mehr FPS sondern z.B. auch schnellere Ladenzeiten im Vergleich zu DX11.
Wird wohl daran liegen weil die GPU das Speicher-managment übernimmt, wie beim WDDM 2.0 Treiber Model von DX12. ;)
 
120fps in mantle, gut.

und jetzt, da es hier ja um dx11 geht, und auf seite 1 schon steht das mantle den cpu overhead eliminiert, machst du das ganze noch mal in dx11, und schon siehst du welche Defizite amd in dieser api hat.
 
Zuletzt bearbeitet:
klick in bf4 einfach auf directx und starte das spiel neu?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh