AMD und die bescheidene Performance im DX11 CPU Limit

Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich find das echt richtig heftig. ne 770 spielt eigentlich gar nicht in der Liga wie ne 390. Alter Schwede ...
Alter Schwede, wenn interessierts bei bereits über 100fps (AMD DX11) bis über 200fps AMD Mantle.
Vielleicht ist Dir auch einmal in den Sinn gekommen, dass wenn AMD Mantle als bessere API zur Verfügung stellt, DX11 keine weiteren Optimierungen Seitens DICE oder AMD erfährt? Alter Schwede...
Und vorallem wer brauch 200fps und am besten noch in 800x600. Ist also mal wieder irgend ein theoretisches Setting was man gesucht und gefunden hat. Klasse.

Wenn man das Spiel in max Settings spielt, sieht das Bild auch wieder ganz anders aus.
[Update] Battlefield 4 im Test: Benchmarks von 20 Grafikkarten, Qualitätsstufen und Ultra HD im Video
Eine doppelt so teure Titan ist dann ja auch nicht so der Brüller. Echt heftig... :hmm:
GeForce GTX 780 Ti gegen GTX Titan im Test (Seite 11) - ComputerBase

Jetzt könnte man sich bspw. die Frage stellen, ob früher, als noch Kepler/Hawaii oder Kepler/Tahiti aktuell waren und die Karten entsprechend der Leistung auch recht gleich lagen, nicht vielleicht ein nahes CPU Limit dafür sorgte, dass NV trotz teils deutlich geringerer Rohpower doch leicht über den AMD Gegenstücken agieren könnte? Nimmt man den Part zurate, dass AMD Karten seit mindestens mal dem R600 im Jahr 2007 durch steigende Anforderungen idR IMMER auf das jeweilige NV Gegenstück aufschlossen, teils einholten, teils gar überholten... :wink:

Und dann wundern sich die Leute ernsthaft, dass die AMD Modelle mit der Zeit immer mehr aufschließen?

Ja ja, aber bei NV ist es natürlich der Treiber, der Kepler langsamer macht, es gibt bei AMD auch kein Overhead-Defizit in DX11 Titeln usw.
Die Welt kann ja so einfach sein, wenn man nur genügend fest an irgendwas "glaubt" :fresse:

Das ist jetzt nicht ernsthaft eine Überraschung für dich oder? War doch damals schon offensichtlich das viel Rohleistung zum Release brach lag. Ob das ausschließlich am CPU-Limit liegt wage ich zu bezweifeln. Die Shaderpower wird immer wichitger und da war man die letzten Generationen stärker aufgestellt, bei gleicher Chipgröße. Auch eine höhere Bandbreite hat bei steigender GPU-Last und VRAM-Ausnutzung einen positiven Effekt. Daraus aber einen Strick für AMD zu machen ist witzlos. Die AMD Karten hatten zu Release das bessere P/L-Verhältnis und haben es über die längere Nutzungsdauer erst recht. Der Einzige der dumm in die Röhre guckt ist AMD selbst, da sie größere Chips unter Wert verkaufen müssen. Profitiert haben hier die Kunden, da die Karte deutlich langelbiger wurde.

Schade nur, dass man immer nur auf AMD rumhakt und nicht mal einsehen will, dass DX11 das Problem ist. Mit Mantle hat AMD genau das sichtbar gemacht. Auch Nvidia läuft in den Treiberoverhead, und in der Regel reicht eben auch eine 6 Jahre alte CPU ala 2500k für spielbare fps. Man wird also nur das Nötigste machen. Da braucht man auch keine Hoffnungen in die AMD480 setzen. AMD und Nvidia konzentrieren sich schon lange ausschließlich auf DX12. Ist zwar ärgerlich für die Bulldozer-Besitzer, aber von dennen gibts ja ohnehin nicht soviele.
 
Zuletzt bearbeitet:
kein Spielentwickler wird Hand an DX11 legen. Microsoft ist da der Entwickler. da arbeiten vielleicht auch Schweden, aber ob die alt sind, weiß ich nicht.
die 200 fps in 800x600 sind ein extremes Beispiel, absichtlich so gewählt, damit es auch der letzte versteht. naja, nicht jeder, ok.
dein verlinkter benchmark scheint mir GPU-limitiert, keine Ahnung was das zum hiesigen Thema beiträgt ... ?
genauso wenig versteh ich den verlinkten Preis/Leistungs-Index, was hat der mitm Thema zu tun???
deine Verlinkungen scheinen mir dem Thema ebenso zuträglich wie das. der Link soll ebenfalls der Verdeutlichung dienen und ist deswegen etwas extremer gewählt.
 
Alter Schwede, wenn interessierts bei bereits über 100fps (AMD DX11) bis über 200fps AMD Mantle.

Ob 100 oder 200 fps ist nem 60hz Spieler sicherlich egal, nem 144 Hz Spieler dann aber nicht.
Tellerrand und so ;)

In dem anderen Video wird in 1080p gespielt und die fps droppen bei der 390 unter dx11 mehrmals unter 60fps..
Mit nem i7.. das ist schon bitter.

Wie das wohl mit nem i3 oder fx63 ausschaut ;)

Gesendet von meinem LG-H815 mit Tapatalk
 
JA DX11 ist das Problem, endlich hat das einer erfasst und beim Namen genannt!


... doof nur das mit DX11 fast jeder noch spielen muss - das ist doof .... und gemein ... echt echt :motz::grrr:




Gecko würde auch bei einem Auto mit zu hohen Spritverbrauch so ähnlich argumentieren: " ....liegt am hohen Reibungswiderstand --> Reifen auf Asphalt --> würde das Auto fliegen wäre der Spritverbrauch viel geringer und schneller wäre das Auto auch - und wenn wir uns dann noch uns in der Stratosphäre bewegen würden"

Würde zwar davon ablenken das Auto auf der Strasse gesetzt ist, aber er hätte erst mal recht :banana:
 
Ob 100 oder 200 fps ist nem 60hz Spieler sicherlich egal, nem 144 Hz Spieler dann aber nicht.
Tellerrand und so ;)

In dem anderen Video wird in 1080p gespielt und die fps droppen bei der 390 unter dx11 mehrmals unter 60fps..
Mit nem i7.. das ist schon bitter.

Wie das wohl mit nem i3 oder fx63 ausschaut ;)

Gesendet von meinem LG-H815 mit Tapatalk

Die Frage ist halt, gibt es Probleme mit Mantle, dass man in BF4 auf DX11 ausweichen muss? Und wieviele Spieler betrifft das wenn auch eine Titan "nur" 70 fps in FullHD in max Settings schafft?
 
wenn ne Titan nur 70 fps in 1080p schafft, wie sehr dropt dann erst ne AMD?!!!
so langsam frage ich mich, wie du zockst. mit 30 fps und mittleren Einstellungen?
 
Zumal es hier ja ums DX 11 Limit geht, muss man sich nicht fragen, ob Mantle in Bf 4 funktioniert. Hat nichts mit dem Thema zu tun.

vom Z5 unterwegs
 
Zumal es hier ja ums DX 11 Limit geht, muss man sich nicht fragen, ob Mantle in Bf 4 funktioniert. Hat nichts mit dem Thema zu tun.

Doch muss man! Es ist nämlich absolut realitätsfern. Es ergözen sich mal wieder ausschließlich User mit Nvidia Karten über ein theoretisches Szenario. Die AMD User spielen mit Mantle (bis 200fps) oder DX11 (bis 120fps) ohne auch nur etwas von dem "Problem" mitzubekommen. Natürlich low-Settings vorausgesetzt. In normalen Settings wird man wohl nicht in den Overhead laufen, denn nur mal so am Rande schaffen lediglich die 980Ti und TitanX bei Nvidia mehr als 100fps in FullHD in Ultra Settings. Keine der beiden Karten schafft bei Nvidia mehr fps in FullHD mit max Settings, als der DX11-AMD-Treiberoverhead fps liefern könnte... Das zeigt eben nur eines, - man möchte provozieren und Käufer verunsichern.

Nvidia GeForce GTX 980 Ti Review - Battlefield 4 Performance | bit-tech.net
 
Zuletzt bearbeitet:
Im Falle von BF4 mag das stimmen, aber sicher nicht allgemein gültig ... das haben wir aber mittlerweile schon x mal erläutert und auseinander klamüsert. Das wird durch den xten Anlauf sich auch nicht ändern. :rolleyes:

Langsam wird auch echt mühsig sich hier jedes und jedes mal neu im Kreis zu drehen.

Wer es nicht wahrhaben will, der will halt nicht. :hmm:
 
@unl34shed & G3cko:
indirekt bezichtigt ihr hier einige der user, die ihre eigenen Erfahrungen hier mitteilen (manche haben sich sogar die Mühe verschiedener benchmarks gemacht!), einfach mal der Lüge. Forenmitglieder, PC-Nerds, Zocker, wie wir alle. das ist indirekt gesagt, mehr als nur daneben...

- - - Updated - - -

Weißt du übergaupt was ein CPU-Limit ist?
nein, weiß ich nicht. ich tu nur so. ich schreibe hier nur so mit. in Wirklichkeit bin ich eine chronisch untervögelte Blondine Mitte 20 und langweile mich zu Tode :P
 
Im Falle von BF4 mag das stimmen, aber sicher nicht allgemein gültig ...

Doch das ist es. Es sind locker 95% der Spiele wo ein 2500k ausreicht. Nur weils bei Nvidia etwas besser läuft kein Weltuntergang, weil dieser 2500k schon damals kein High-End war. Auch bei Nvidia gibt es Fälle wo die DX11 API limitiert. Genaugenommen limitiert bei begrenzter CPU Leistung die API immer. Die Frage ist nur wann ist es relevant und wann nicht. "Das hat eben auch was mit Kirche im Dorf lassen zu tun."

@unl34shed & G3cko:
indirekt bezichtigt ihr hier einige der user, die ihre eigenen Erfahrungen hier mitteilen (manche haben sich sogar die Mühe verschiedener benchmarks gemacht!), einfach mal der Lüge. Forenmitglieder, PC-Nerds, Zocker, wie wir alle. das ist indirekt gesagt, mehr als nur daneben...

nein, weiß ich nicht. ich tu nur so. ich schreibe hier nur so mit. in Wirklichkeit bin ich eine chronisch untervögelte Blondine Mitte 20 und langweile mich zu Tode :P

Eh, du Blondinne, ich habe deinen Beitrag mal gemeldet.
- weder trägst du etwas sinnvolles zu dem Thema bei.
- noch bist du davon betroffen
- oder kannst aus eigener Erfahrung berichten
- du provozierst nur und unterstellst noch anderen Leuten sie würden lügen, welche selbst eine AMD Karte besitzen?

Ich habe nirgends geschrieben, dass es den DX11 Treiberoverhead nicht gibt, sondern nur, dass man mal Objektivität walten lassen sollte. Bei 100-200fps spielt es keine Rolle. Genauso im GPU-Limit. Genauso bei uralten 200€ CPUs. Wer sagt überhaupt, dass 8 Jahre alte CPUs für alles reichen müssen, während es auf der anderen Seite ok ist, wenn 2-3 Jahre alte 1000€ GPUs in der mittelmäßigkeit landen?!
 
Zuletzt bearbeitet:
Deiner Auffassung nach mag das Allgemein gültig zu sein, jetzt musst du nur noch begreifen das deine Meinung eben nicht die Allgemeingültige ist - nur weil du das gerne so hättest.

Es redet auch nicht jeder nur von einem 2500k , es redet auch nicht jeder nur von 100-200 FPS, sondern auch von Szenarios und Genres wo es weit mehr ins Gewicht fällt (MMO´s z.B.! wo es eben sehr wohl auffällt ob ich auch mit einer starken CPU im Zerk 20 oder vll 30 -40 FPS habe) uswusf.

Du blendest einfach mal geschickt alles aus, klammerst dich an einem Beispiel und fängst an Slot zu beleidigen obwohl er Vernünftig Kritik an dich heran getragen hat.

Das ist in der Tat nicht Objektiv und schon eher daneben.

Stimmt du hast nicht geschrieben das es ihn nicht gebe , tust aber so als wäre er egal, was er je nach Szenario / Game & Hardware eben mitnichten ist.

Darum habe ich jetzt auch mal deinen Beitrag gemeldet.
 
Zuletzt bearbeitet von einem Moderator:
Er blendet auch aus, das sein BF 4 Bench nicht im Multiplayer erstellt wurde. Der stellt ganz andere Anforderungen an die CPU und ein 2500K etwa, rennt dort im MP schon im Limit. Schon mal aufn 64 er Server gespielt?

vom Z5 unterwegs
 
Zuletzt bearbeitet:
Er blendet auch aus, das sein BF 4 Bench nicht im Multiplayer erstellt wurde. Der stellt ganz andere Anforderungen an die CPU und ein 2500K etwa, rennt dort im MP schon im Limit. Schon mal aufn 64 er Server gespielt?

vom Z5 unterwegs

Und wenn interessiert das, wenn wohl jeder AMD Spieler mit Mantle spielt? Was will man nun damit bewiesen haben? Das der DX11 Pfad in BF4 nicht der Hit ist? Das hätte dir wohl auch jeder ohne Benchmark sagen können.
 
Und schon fängst du wieder mit Mantle an.....Gibt übrigens genug Threads, die belegen, das es nicht wenige Probleme mit Mantle unter BF4 gab und gibt. Aber wieso ist der DX11 Pfad nicht der Hit? Scheint ja mit NV besser zu performen als mit AMD Karten.
Gerade im CPU Limit, was ja auch Titel dieses Threads ist, falls du es wieder einmal vergessen haben solltest.

Aber ich seh schon, du legst es dir zurecht, bis es in dein Weltbild paßt.
 
Zuletzt bearbeitet:
So sieht es aus. Darum spiele ich BF4 mit dx.
 
...
- weder trägst du etwas sinnvolles zu dem Thema bei.
- noch bist du davon betroffen
- oder kannst aus eigener Erfahrung berichten
- du provozierst nur und unterstellst noch anderen Leuten sie würden lügen, welche selbst eine AMD Karte besitzen?
...
was sinnvoll ist und was nicht, obliegt deinen Maßstäben? das ist überhaupt nicht so, sonst würde es diesen thread nicht geben.
wovon soll ich betroffen sein, wenn es in deiner Welt für alle irrelevant sein soll??? das ist doch unlogisch nach der Logib kann ja niemand betroffen sein. sei doch mal konsequent, bitte.
ich war sehr wohl davon betroffen. ist zwar schon etwas her, aber ich erinnere mich ganz gut daran, wie ich mich damals mit den minimum fps beschäftigt habe und wie sehr ich den Wechsel zu NV deswegen gut fand und immer noch finde. und ich finde mich mit meinen Zock-Einstellungen mit am meisten davon "betroffen". ich deckel alle meine Spiele nach oben hin ab. keins läuft mit mehr als 58fps, ganz viele sogar mit 50, 45, Skyrim sogar mit nur 35. hätte ich bei den fps die hier besprochenen drops, das würde mich richtig abnerven. hab ich aber nicht, ich spiel mit Intel und NV.
die "Unterstellung" des Lügens ist ne simple Schlussfolgerung, da es hier durchaus ein paar Erfahrungsberichte von usern gibt, denen du nicht glaubst. folgerichtig tun die also was in deiner Welt? na, wie nennt man das?
wo hast du bei deiner "Objektivität" eigentlich Platz für andere Sichtweisen als deine? ich seh da keinen. und das soll "Objektivität" sein? andere nennen sowas Diktatur.

meine Wenigkeit macht in diesen "Diskussionen" erheblichen Sinn, da viele versuchen echt mit dir auf fachlicher Ebene zu reden und deiner Polemik und Doppelmoral aufn Leim gehen. es kann nämlich zu rein gar nichts führen, außer zu Streit, wenn man versucht mit Mr. Zweierleimaß zu diskutieren. und da stups ich deine Nase rein.
 
Bei CB wurde die neue 480 mit div. CPUs & DX11 Spielen getestet.

diverse CPUs?
Hab ich was auf den Augen? Aber ich seh da nur den 2500k und den regulären 6700k oder was die nutzen... :wink:

PS: dein Link geht nicht ;)


Ansonsten, nach dem CB Test scheint es so, als hätte AMD mit dem Polaris 10 im Vergleich zur Hawaii oder anderen/älteren GPUs in FHD und teils in 1440p durchaus ein paar Prozente nachgelegt.
CB benennt es wie folgt:
Vergleicht man die beiden Auflösungen direkt miteinander, lässt sich vermuten, dass AMD das Problem der schlechten Einheitenskalierung in niedrigen Auflösungen mit der Polaris-Architektur angegangen ist. So verliert zum Beispiel die Radeon RX 480 beim Wechsel von 1.920 × 1.080 auf 2.560 × 1.440 mehr Leistung als die Radeon R9 390. Das hört sich im ersten Augenblick zwar schlecht an, jedoch macht es den Anschein, dass Polaris 10 bereits unter Full HD gut ausgelastet werden kann. Zudem spricht für die These, dass der Abstand zu den konkurrierenden Nvidia-Grafikkarten in höheren Auflösungen nicht größer wird.
Und:
Die großen Unterschiede haben primär zwei Gründe. Die Radeon RX 480 ist darauf angewiesen, dass Spiele keine hohe Speicherbandbreite benötigen oder alternativ die neue Speicherkompression gut funktioniert. Ist letzteres nicht der Fall und die Engine benötigt eine hohe Bandbreite, ist die Radeon R9 390X diesbezüglich um 50 Prozent überlegen. Der zweite Grund ist in der überarbeiteten Architektur zu suchen. AMD spricht von bis zu 15 Prozent mehr Leistung bei Polaris – gibt aber explizit „bis zu“ an. Wenn die Verbesserungen nicht greifen, hat die Radeon R9 390X knapp mehr Rechenleistung – und im schlimmsten Fall noch eine 50 Prozent höhere Speicherbandbreite.

Möglicherweise spuckt aber beim Polaris die Bandbreite mit rein? Denn nach den Messungen bei CB scheint dort eine Skalierung ähnlich gut (oder eigentlich schlecht) wie beim GK104 zu sein mit annähernd 2:1 von Speichertakt auf FPS. Also machen 10% Speichertakt fast 5% mehr FPS allein... Das ist im Vergleich recht heftig.
Bekanntermaßen skaliert oftmals obenraus mit hoher Auflösung der Spaß auch etwas mehr über die Bandbreite -> was möglicherweise auche in Indiz dafür wäre, warum Hawaii obenraus die Nase vorn hat...
 
sorry, mit div. meinte ich die 2:

Intel Core i5-2500K
Intel Core i7-6700K @ 4,5 GHz

Link ist korrigiert - ja scheint etwas besser, aber noch zumindest vorhanden ..
 
Also DX11 Schwäche wohl doch Architektur bedingt statt Treiber?
 
Also DX11 Schwäche wohl doch Architektur bedingt statt Treiber?

Jain würde ich sagen... Im Vergleich zur Hawaii hat Polaris halt weniger Recheneinheiten. Sprich der Aufbau ist anders... Das FrontEnd ist eher gleich (mit Verbesserungen), das Backend ist aber kleiner...
Es sind 36 CUs verteilt auf vier Blocke zu 9x64 ALUs.
Bei Hawaii sind es ebenso vier Blöcke, aber es sind eben in Summe 44 CUs. Macht pro "Teil"-FrontEnd mehr CUs... Es müssen effektiv also mehr Einheiten ausgelastet werden also bei Polaris.

Schaut man mal quer über die (teils alten) Benchmarks (auch älterer GCN Modelle), so fällt auf, das Tahiti sich vom PitCairn in einigen Titeln nicht richtig absetzen konnte, genau so wie Fiji dies von Hawaii nicht immer geliegt. -> beides sind aber die GCN Modelle mit vielen CUs und "wenig" FrondEnd. Tahiti hatte 16 CUs pro Part FrontEnd. Fiji ebenso... Polaris kommt auf 9 CUs pro Part FrontEnd. Hawaii immernoch auf 11. PitCairn auf 10, Tonga gar nur auf 8...
Mir scheint das schlicht ein Auslastungsproblem zu sein... Wenn du viel BackEnd Power vorhanden, dann bekommt das FrontEnd die Leistung nicht auf die Straße...

Interessant laut CB ist auch, dass eben Polaris weniger Leistung durch ASync Compute gewinnt wie bspw. Hawaii... Was schlicht und ergreifend auch zeigt, dass es massiv darauf ankommt, wie viel Performance brach liegt. Das, was NV wohl mit Maxwell (und Pascal) deutlich besser macht(te) als AMD seinerzeit. Wo ein Maxwell bspw. durch fehlendes/nicht laufendes ASync Feature gar nicht zulegen konnte, aber selbst ohne noch fixer unterwegs sein konnte als AMD entsprechend mit diesem Feature...
 
Danke für die Erklärung. Wie immer sehr schön zu lesen und erleuchtend.

Also unterm strich ein bisschen was von beiden. :)

Schade das CB dem 2500k kein FX 8350, meinetwegen auch 9*** gegenüber stellt.

Das hätte mich mit meinen persönlichen Erfahrungen wohl endgültig bestätigt. (Wobei ich das für mich nicht brauche... aber manch einer ja hier, wobei er es dann auch immer noch nicht glauben würde ;) )
 
Die Schwierigkeit bei den Redaktionstests ist wohl einfach, die haben ihren fixen Parcours und das ist es dann... Bei avg. Messungen fallen die Unterschiede speziell bei hohen Auflösungen und fixen CPUs wenig auf.

Was hier im Thread (und generell im Forum) nicht verstanden wird ist eher, dass es keine Allgemeingültigkeit ist. Das ist von Spiel zu Spiel, ja sogar eher von Szene zu Szene massiv unterschiedlich. Und dazu selbst Herstellerintern mit verschiedenen Systemen deutlich verschieden...
Wenn ich bspw. ein TombRaider bei mir benche in der PCGH Testszene, dann lande ich mit dem 5960X@4,2GHz und den 780TIs bei fast doppelt so vielen FPS in so mancher "Problemszene" wie Storm mit einem Nehalem Quad@keine Ahnung mehr wie viel Takt und der 970er -> beides ist NV. Jeweils DX11... Nur bricht in den Szenen die GPU Auslastung deutlich ein, was auf ein CPU Limit schließen lässt.


Kurzum, von den Redaktionen sind die Tests zu starr um da generell richtig stichhaltige Zahlen zu bekommen. Die bekommste idR durchs Querlesen/zwischen den Zeilen lesen...
Mir ist aktuell kein public Test von offizielle Presseseite bekannt, der sich dem Problem generell mal richtig angenommen hat. Das gleiche gilt bspw. für VRAM Messungen -> die sind idR auch nix halbes und nix ganzes...
 
Dem schließe ich mich absolut an.
Ist ja auch mein reden die ganze Zeit.
Das es eben nicht bei jedem Titel ist, und die Benches der Magazine das nicht recht aufzeigen können aktuell mit der Art wie man testet.

Hast es aber zugegebener maßen schöner verpackt und kompakter in nur einem Beitrag geschrieben :)
 
Furchtbare Ironie, besonders wenn weiter oben noch erklärt wird (und vorher auch schon von mir wurde) darüber hinaus sogar der CB Test zeigt, das es Spiele abhängig ist und ROOT nicht wirklich betroffen ist. (Wobei es da auch ein paar Excellente stellen gibt selbst NV GPU ;) siehe 3DC entsprechenden ROOT Thread)

Also der war schwach, ganz schwach ;) Dabei mag ich dich an und für sich gerne, aber der war schwach :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh