AMD und die bescheidene Performance im DX11 CPU Limit

Ich plane ein System mit Pentium G4400 oder I3 6100 für meinen Bruder zu bauen. Dadurch rechne ich in einigen Szenarien mit einer frühzeitigen CPU-limitierung.

Bezüglich des Overheads, gibt es tests, für die 380, 380X und die 960x jeweils in der 4GB Variante?
Idr. haben die AMD Karten die Nase vorn, doch wird für gewöhnlich nicht im CPU-Limit getestet.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Diese Tests und weitere habe ich bereits gesehen. Bei der 970 und vergleichbaren AMD Karten wird sehr gut deutlich, dass AMD mit dem Overhead zu kämpfen hat. Genau deshalb stellt sich mir die Frage ob eine vermeintlich schlechtere 960 4GB in entscheidenden Momenten minimal FPS leisten kann, die über die einer 380X hinaus gehen. Ich bin am überlegen im Rahmen der Bestimmungen für Fernabsatz beide zu bestellen und mich für die zu entscheiden, die eben besser funktioniert. Doch eigentlich würde ich mir diese Arbeit gerne sparen, Allerdings könnte so ein Gehaltvoller Beitrag mit kleiner CPU zu dieser Thematik erstellt werden.
 
Zuletzt bearbeitet:
Das ist übrigens der Grund weshalb ich keine AMD Graka für einen i3 empfehlen würde.

Wenn ich dem Link auf der ersten Seite folge, dann sehen die Werte, die ich dort finde, in meinen Augen gar nicht so schlimm aus:



Zumal der I3 6100 ja noch einmal ein ganz anderes Kaliber als der alte i3 4130 ist.
 
Zuletzt bearbeitet:
Rein von der Theorie her ist es bspw. auffallend, dass um so breite der AMD GPU, desto mehr CPU Power wird notwendig. Eine 960 ist recht "schmal" im Vergleich. Diese hat 1024 Maxwell Shadercores. Die 380/380X ist unvergleichlich breiter und kostet normal damit auch folglich mehr CPU Power.

Ob ein kleiner i3 oder Pentium reicht, ist schwer zu ermitteln, denn es ist halt stark Spieleabhängig. IdR geht es in der Praxis ja nicht primär darum, die absoluten Unterschiede zu beleuchten, sondern um spielbare FPS Raten. Das Wissen, dass die AMD GPU obenraus vielleicht Leistung liegen lässt ist dahingehend dann zu vernachlässigen, wenn die Kombo CPU + GPU genügend FPS (bzw. allgemein Leistung) raushaut.
Die Übergänge sind leider extrem fließend. Wenn man sich die CPU Overhead Tests ansieht, wird klar, dass es volldynamisch in alle Richtungen geht. Kleine CPU und dicke GPU kann in manchen Titeln immernoch deutlich besser sein als breite CPU und kleinere GPU (für das gleiche Geld)

Wenn du bzw. ihr eher die Settings maximieren wollt, dann nimm eher die AMD -> die hat wohl etwas mehr Bums für genau diese Spielereien. Wenn ihr mehr an höheren FPS Raten interessiert seit, dann eher die 960er, da dort im Falle des CPU Limits oft etwas mehr Luft nach oben ist.
Die Eierlegende Wollmilchsau wirst du aber wohl faktisch nicht finden... vor allem nicht, wenn das Budget begrenzt ist. Ich persönlich würde aber einen kleinen i5 Quad einem Pentium oder i3 vorziehen -> wenn die Kohle nicht reicht, dann lieber noch ein paar Euros mehr zusammen kratzen (ggf. etwas warten) als die kleine CPU zu kaufen. Zur Not auch gebraucht Modelle ins Auge fassen oder eine Generation zurück gehen (sprich Haswell anstatt Skylake)

Wenn ich dem Link auf der ersten Seite folge, dann sehen die Werte, die ich dort finde, in meinen Augen gar nicht so schlimm aus:

Da sind teils drastische Unterschiede in den min FPS zu sehen. GTA V mit 50% mehr min FPS? -> das ist ne Menge Holz. Vor allem in Anbetracht der Tatsache, dass dort ne poplige 370er AMD GPU verbaut ist, die eigentlich alles andere als schnell ist und in vielen der genannten Titeln ins GPU Limit laufen sollte -> was sie anhand der avg. FPS Settings zu schließen auch schafft. Nur eben nicht in jeglichen Zeiten des Tests.
Wobei der Vergleich etwas unfair ist -> da es eben verschiedene CPUs sind. Taktunterschied und Cacheunterschied -> sinnvollerweis sollte für so einen Test eher ein i7 mit halber Coreanzahl genutzt werden der im gleichen Takt läuft für beide Durchläufe. Das ist zwar wenig Praxisnah, da es so einen halben i7 nicht gibt mit vollem Cache. Aber eben macht den direkten Vergleich sinnvoller, da man dann auch sieht, dass es von der CPU Breite und eben nicht vom Cache oder Takt kommt ;)
 
Zuletzt bearbeitet:
weil es wohl die meisten nicht interresiert.

Das würde ich nicht sagen... Das Problem dürfte wohl viel eher der Arbeitsaufwand sein.
Schau dir doch einfach mal nur ganz simple GPU Reviews an und ließ dann die Kommentare der Community durch -> da wird idR gemeckert, das es kracht.

Mit so einer Betrachtungsweise gibt es für eine Redaktion oftmals doch gar nix zu holen. Dazu kommt, das das Thema derart dynamisch ist, dass man sehr viele verschiedene Spiele testen müsste. Schon im nächsten Treiber könnte das Ergebnis völlig anders aufallen (Stichwort NVs 337.50 aka Wundertreiber) und dazu ist so ein Test nur sinnvoll durchführbar, wenn man viele CPU und GPU Kombinationen testet.
Viele Spiele, viele CPUs und viele GPUs, dazu noch in anständigen Tests mit Frameverlaufsdiagrammen, Frmetime Messungen, möglicherweise sogar detailierte Auswertung der erhobenen Daten kostet extrem viel Zeit.

Rechne doch einfach selbst mal nach. Acht Spiele, 0,5min Benchzeit, 20 GPUs und drei Durchläufe macht eine reine Benchzeit von 4h. Zzgl. Rechner Hoch/Runterfahren, GPUs umbauen, ggf. Treiber anpassen usw.
Verschiedene Settings sind da nichtmal drin -> sprich verschiedene Auflösungen. Gibts da 720, 1080, 1440 und 2160er Auflösung, nochmal Faktor 4 -> 16h reine Benchzeit.
Und das noch mal sagen wir 10 CPUs? 160h reine Benchzeit zzgl. Restarbeiten...

So ein Test mit sinnvollem Background würde WOCHEN Zeit verschlingen. Zeit in der das Testsystem und die GPUs/CPUs nicht für andere Bereit stehen würden. Zumal auch nicht jede Redaktion dedizierte Räume dafür hat wo sich die Tester dann einfinden für den Test.

Und das kommt natürlich alles vom Treiber overhead und kann nicht an etwas anderem wie der Spieleengine liegen.

Die Beweisführung hier ist echt klasse.

??
Habe ich das irgendwo behauptet? Steht doch überhaupt nicht da... Ich antwortete auf die Aussage von Tardis mit genau dem Argument, was ich geschrieben habe. Der Grund der verschiedenen min FPS steht dort keineswegs, also bitte auch nicht dort reininterprätieren. Es ging rein um das Hinweisen auf diese Unterschiede... Nicht umsonst schrieb ich, dass ich wenn möglich einen kleinen i5 Quad ggü. einem i3 vorziehen würde. Selbst dann, wenn man dafür vielleicht noch etwas mehr sparen hätte müssen!
 
Zuletzt bearbeitet:
Da sind teils drastische Unterschiede in den min FPS zu sehen. GTA V mit 50% mehr min FPS? -> das ist ne Menge Holz.

Ja, aber ob 30 oder 42 min FPS halte ich für recht egal, solange wie sich die average FPS keine 10% unterscheiden.

Und man darf nicht vergessen, dass für einen schlechten min FPS Wert ein einziger Ruckler binnen Stunden ausreicht. Von daher ist der Wert sowieso völlig Banane. Es wäre besser zwei FPS Werte anzugeben, unter denen 0,1% bzw. 1% der FPS liegen.

Wobei der Vergleich etwas unfair ist -> da es eben verschiedene CPUs sind. Taktunterschied und Cacheunterschied -> sinnvollerweis sollte für so einen Test eher ein i7 mit halber Coreanzahl genutzt werden der im gleichen Takt läuft für beide Durchläufe.

So sieht es aus. Zumindest hätten die Macher des Tests einen i3 4150 gegen einen i5 4460 antreten lassen können.

Es wird doch wohl nicht ernsthaft jemand 200 Euro extra für seine CPU ausgeben, um in 2 von 9 Spielen einen Zuwachs von min fps zu kriegen. Würde er die 200 Euro in die Graka investieren, würde er wahrscheinlich die min und avg fps verdoppeln - selbst mit einem i3.

Würde man einen i3 6100 mit einem i5 4460 vergleichen, würde man wahrscheinlich gar keinen Unterschied mehr sehen (u.U. wäre der i3 sogar besser) - zumindest wenn man die min FPS vernünftig bestimmt.

Aber: just my 2 cents.
 
Zuletzt bearbeitet:
Da sind teils drastische Unterschiede in den min FPS zu sehen. GTA V mit 50% mehr min FPS? -> das ist ne Menge Holz. Vor allem in Anbetracht der Tatsache, dass dort ne poplige 370er AMD GPU verbaut ist, die eigentlich alles andere als schnell ist und in vielen der genannten Titeln ins GPU Limit laufen sollte -> was sie anhand der avg. FPS Settings zu schließen auch schafft. Nur eben nicht in jeglichen Zeiten des Tests.

Man könnte doch anhand eines Verlaufdiagrammes bestimmen wie stark die CPU eine Bremse darstellt.
Dieser eine Wert als MInimum ist doch viel zu ungenau, könnte auch an etwas anderem liegen?

Rein von der Theorie her ist es bspw. auffallend, dass um so breite der AMD GPU, desto mehr CPU Power wird notwendig.

Ich hab einen FX 8150@ 4,4ghz und eine 390x Nitro, macht es Sinn die CPU zu tauschen? Evtl gegen einen FX8350?
Ich könnte einen für 100 Euro bekommen und würde dann den FX-8150 verkaufen.
 
Zuletzt bearbeitet:
Der Deal wäre an sich nicht verkehrt. Der 8350 ist schon ne gute Runde flotter unterwegs als der Ur-Bully. :wink:

Andererseits... So kurz vor Zen...
 
Zuletzt bearbeitet:
Ja, aber ob 30 oder 42 min FPS halte ich für recht egal, solange wie sich die average FPS keine 10% unterscheiden.

Und man darf nicht vergessen, dass für einen schlechten min FPS Wert ein einziger Ruckler binnen Stunden ausreicht. Von daher ist der Wert sowieso völlig Banane. Es wäre besser zwei FPS Werte anzugeben, unter denen 0,1% bzw. 1% der FPS liegen.

Wie oben schon erwähnt, das Problem sind nicht unbedingt die Messungen, sondern die angegebenen Messwerte. Mit simplen min. FPS und avg. FPS Werten kann heute eigentlich keiner mehr was anfangen. Da einfach avg. FPS nichts mehr direkt über das Spielgefühl aussagen. Man bekommt eine grobe Richtung. Aber das wars auch schon.
Und natürlich ist der min FPS ein absoluter Wert. Eigentlich unsinn, diesen zu betrachten. Ebenso ist es aber schon ziemlich "komisch", wenn allein durch den CPU Wechsel dieser Wert so drastisch schwankt.

Es kommt halt extrem auf die Szene an. Gerade bei GTA V kann man doch extrem viele verschiedene Szenarien erzeugen. Und die Welt ist auch noch unterschiedlich... In der Stadt gibt es mehr FPS, auf dem Land eher weniger. Explosionen, sonstige Auseinandersetzungen usw. können viel CPU Power kosten. Mögliche Menschenmengen Ansammlungen ebenso usw.
-> wenn es in sehr kurzen Benchszenen einen starken Ausreißer bei den min FPS gibt, spricht das schon Bände, vor allem kann es eben durch den absoluten Wert vorkommen, dass es alle Nase lang in diese Regionen runter dropt.

Ich bin nach wie vor für Frameverlaufsdiagramme und Frametimediagramme von der gleichen Szene -> dazu ein VRAM Auslastungsdiagramm um mögliche Ruckler (gerade in min FPS Bereiche) identifizieren zu können.
-> solche in % Zeit Auswertungen kann man zwar zusätzlich anbieten, wären aber zumindest am Verlaufsdiagramm ebenso ersichtlich. Leider haben dazu die Redaktionen idR keine Zeit.

Würde man einen i3 6100 mit einem i5 4460 vergleichen, würde man wahrscheinlich gar keinen Unterschied mehr sehen (u.U. wäre der i3 sogar besser) - zumindest wenn man die min FPS vernünftig bestimmt.

Da wäre ich mir nicht so sicher... Denn es kommt immernoch stark auf das Spiel an und vor allem, wie stark wird von Multithreading gebrauch gemacht und was passiert, wenn mal die Threads nicht gleichzeitig tuckern können.
Ein i3 + SMT im Vergleich zu einem i5 ohne SMT bei quasi gleicher MT Power ist in etwa das gleiche wie ein i7 mit SMT vs. Bulldozer CMT mit acht Threads. Denn wenn SMT des i3 greift, sinkt die pro Thread Performance maßgeblich. Das Verhältnis ist dabei, egal wie hoch die pro Takt Performance der Technik ist, eigentlich über die Generationen recht ähnlich. Man darf halt in so einem Vergleich nicht vergessen, wenn die CPU quasi voll ausgefahren wird, dann bleiben für die Threads, die für die GPU Leistungsskalierung zuständig sind, eben auch weniger pro Thread Performance übrig. Der i5 Quad hätte dann vier quasi vollwertige Cores mit gleicher Power. Der i3 mit SMT hat ja "nur" zwei schnelle und zwei "langsame" Threads. Bei Last auf beiden, sinkt die Performance der schnellen aka physischen Threads bei alleiniger Last soweit ab, dass die Leistung sich für beide Threads in etwa gleichen sollte -> zwar ist das Dynamisch, also ein Thread kann mehr, der andere weniger Leistung nutzen, aber zusammen auf beide gesehen, bleibt es bei 2x Core + SMT.
Dazu kommt die möglicherweise völlig unterschiedliche Skalierung über den Takt. Nicht jede Software skaliert anständig mit dem Takt. Gerade bei Games ist das Teils gar nicht mal viel... Und der "IPC" Sprung von Haswell auf Skylake ist nun so viel nicht, dass es sich ausgehen sollte.

Ich hab einen FX 8150@ 4,4ghz und eine 390x Nitro, macht es Sinn die CPU zu tauschen? Evtl gegen einen FX8350?
Ich könnte einen für 100 Euro bekommen und würde dann den FX-8150 verkaufen.

Rein von den Werten die ich bis dato kenne, schneidet sowohl der alte, also auch der neue Bulldozer für AM3+ destaströs schlecht in den meisten Spielebenches ab. Es macht aus meiner Sicht sogut wie keinen Unterschied. Die 100€ würde ich sparen und lieber gleich "richtig" kaufen, wenn es mal soweit ist, dass es wirklich notwendig sein sollte.

Denn das Problem ist ja immernoch, wir sprechen hier über nakte Zahlen. Selbst wenn Intel doppelt so schnell ist/wäre -> wenn dir als nutzer die Performance reicht, warum nicht weiterhin nutzen? Es mag dann vielleicht schneller werden. Ob du damit was anfangen kannst, weil du möglicherweise die Details so weit runter drehst, dass du idR. bei 60 FPS landest und dann nen Framelimiter mit VSync rein haust? -> nur als Beispiel.
Die CPU muss halt zu den Anforderungen passen. Ein FPS Junkie wird sich kaum mit einem AMD Prozessor heute zufrieden geben. Aber der hat dann eben als Anforderung, so viel FPS wie irgend möglich... -> das muss ja nicht für jeden gelten.
 
Zuletzt bearbeitet:
Naja ich spiel auch in WHQD vielleicht merke ich da vielleicht auch net wirklich eine Limitierung.
 
Hab das hier vor einiger Zeit gefunden, es zeigt eine Menge verschiedener Dinge, von CPU-Overhead bis zu
"warum haben die wenigsten GPU-Benchmarks etwas mit meinem eigenen PC zu tun" --> Ganz eifach weil die TOP- i7 der Redaktionen auch noch OCed sind.
BF4 GTX vs Mantle ist ziemlich früh nach dem Erscheinen von Mantle entstanden und hat damals schon gezeigt das die i3 unter Mantle und DX12 mächtig was zu bieten haben.

BF4_Mantle_vs_GTX_intel_vs_AMD.jpg
 
Schon gesehen, leider hat amd (zumindest die aktuellen Karten) wohl generelle Performance Probleme in TR. Würde erstmal Treiber/Patches abwarten für ein finales Urteil
 
Schon gesehen, leider hat amd (zumindest die aktuellen Karten) wohl generelle Performance Probleme in TR. Würde erstmal Treiber/Patches abwarten für ein finales Urteil

War leider abzusehen, dass es auf AMD zum release schlechter laufen wird. Nach dem Nvidia mitentwickelt.

Heißt mal wieder deutlich übertriebene Tesellation und hier sogar das Streichern von Featuren, die in den Consolen genutzt werden, wie async Compute, DX12 support, ...

Ein Wunder, dass sie nicht noch tressfx gegen hairworks getauscht haben.
 
Das wohl beste Beispiel, wie ein AMD-Titel durch reine Kohle zum nVidia Titel wurde....

Hoffe das nimmt bald ein Ende, keine Lust auf ein zweites 3DFX....
 
Solange sich nVidia das leisten kann wird es auch kein Ende nehmen - warum auch? Man kann fett Werbung schalten und nebenbei noch den einzigen Konkurrenten ausstechen ohne großen Aufwand.
 
naja wegen den paar farmes hat sich das aber echt gelohnt, da steht man drüber ... :fresse:

Edit: meinte frames !
 
Zuletzt bearbeitet:
Zu Zeiten 3DFX gab es wenigstens nicht nur einen Konkurrenten , das ist heute leider anders...

Ich muss zugeben, ich finde zwar das man als zocker auch gut mit einem FX6300- 83XX und einer AMD R9 290 und aufwärts auskommen kann, aber ein bisschen habe ich schon bedenken, das es mit AMD nach und nach weiter den bach runter geht.

Mich können die aktuellen Produkte von AMD kaum überzeugen Ausnahme ist die Nano. Ohne die Konsolen Geschäfte sähe es schon ziemlich düster aus, bei AMD. Ich hoffe das ZEN und Polaris erfolge werden, sonst wird es nicht besser.


Für mich ist es egal, ob die Ursache die CPU, der Treiber, oder die Engine ist. Für mich ist es dann dennoch in einer entsprechenden Kombination ein CPU Limit. Wenn ich mit CPU 1 50, oder 100% mehr Fps in der gleichen Szene habe als mit CPU 2, dann limitiert CPU 2 in der Konfiguration.

Da hilft auch kein theoretisches geschafel über eigentlich nicht existierende Limits, jeder weiß was gemeint ist!
 
@sTOrM41
Merci, dass du dran bleibst an dem DX11 CPU Limit Thema!
Demnach gibt es für AMD immer noch keine Multi-core Optimierung oder geht es hier um Threads?
Gibt es schon ein Patch für Rise of the Tomb Raider? Wenn nicht tut es auch die 2013 Lara, die wirkt optisch weniger plastisch! :fresse2:
 
jetzt im ernst?
eine 7 jahre alte grafikkarte ...
poste doch glleich mal ein paar 800x600 benchmarks
 
Umso erschreckender das dann die gleiche Problematik heute immer noch besteht.
wen interessiert denn, abgesehen von sTOrM41, noch dx11 wenn dx12 schon vor der tür steht?
oder will man hier irgendwie auf amd rumreiten

wenns euch nicht gefällt kauft doch bei der konkurenz ein
macht ihr den gleichen aufriss wenn amd bei dx12 besser abschneidet als nv?
wohl kaum
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh