AMD und die bescheidene Performance im DX11 CPU Limit

Siehr hier aber anders aus:

Hab ja auch nicht behauptet dass es absolut nirgends mehr ein Problem gibt. Das sind aber Einzelfälle, die auch einfach in schlechter Optimierung (auf AMD) dieses Spiels begründet sein können - und wir wissen dass die letzten CODs generell nicht gerade für perfekte
Optimierung bekannt sind (extrem hoher Vram-Verbrauch gegenüber der gebotenen Optik etcpp, und das auf allen GPUs).

Ist ja auch nicht so, als gäbe es nicht immer noch ein paar wenige Games die grundsätzlich schlechter auf AMD laufen, siehe AC:O, FFXV usw. Wer natürlich ausschliesslich diese zockt, der ist wohl mit einer GTX/RTX besser beraten. Ansonsten ist man mit einer Radeon
nicht schlechter aufgestellt.

Die sonst mittlerweile gute Performance spricht einfach gegen ein generelles (Treiber-)Problem, das ist alles was ich damit sagen wollte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Lieber Ryze, wenn man sich aktuelle Spielebenchmarks ansehen tut, gibt es so gut wie keine Hinweise mehr darauf, dass AMD Karten im CPU-Limit besonders stark einbrechen tun.

Echt? Sehe ich anders.

Frostpunkt.PNG

Frostpunk im Benchmark-Test - Atmosphärisch-emotionale Aufbaustrategie mit fortschrittlicher Technik und großem Hardware-Hunger
 
War natürlich wieder klar dass es jemand schaffet, mit dem einen kleinen Indie-Spiel aus 2018 um die Ecke zu kommen, welches tatsächlich miserabel läuft... Sehr repräsentativ.

Bin dann wieder weg hier.
 
wenn man sich aktuelle Spielebenchmarks ansehen tut, gibt es so gut wie keine Hinweise mehr darauf, dass AMD Karten im CPU-Limit besonders stark einbrechen tun.

"Schantall, tu ma die Omma winken!"
Digga, so in etwas ließt sich das.. :fresse:

Leider haben du, Olli und auch nightwatch alle den gleichen Denkfehler. Es gibt nicht das eine CPU-Limit, sondern ist der API-Overhead nur ein Faktor von vielen, der limitieren kann. Dieses Thema hier sagt also nicht aus, dass AMD im CPU-Limit konstant schlechter abschneidet als Nvidia. Wenn jetzt z.B. irgendwelche langen KI-Berechnungen auf der CPU ausgeführt werden und den limitierenden Faktor darstellen, dann wird der API-Overhead nicht sichtlich. Alle Grafikkarten, welche dann in der Lage sind genügend Leistung zu liefern, sind dann gleich schnell und liefern ähnliche Werte.
In einer anderen Szene kann sich das Blatt dann aber wenn, z.B. dann, wenn dieser API-Overhead zum Tragen kommt. Da hat AMD eben größere Probleme als Nvidia. Nvidia schafft es mit deren Treibern, diesen API-Overhead besser handzuhaben.

Hier wurde ja u.a. auch Hitman2 angesprochen. Wie erklärt ihr euch denn, dass eine 1060 bei 1080p ~30% schneller als eine vergleichbare 580 ist und dann bei 4k trennen diese beiden Karte nur noch so 5%?


als AMD-user würd ich das auch relativieren wollen

Das war auch mein Gedanke, als ich die Beiträge von oben genannten Personen gelesen habe.
 
Zuletzt bearbeitet:
Habe das mit dem API-Overhead schon verstanden, aber danke für die Erklärung.

In ca. 3 Wochen kommt das große AMD Treiber update raus, mal sehen ob auch dieses Thema weiter angegangen wurde ...
 
Die Tests von PCGH zu Hitman 2 sind aber im GPU-Limit, einfach mal in die Kommentare schauen. Man hat sogar extra drauf geachtet eine Szene zu benchen die nicht CPU-Limitiert ist, auch nicht in FHD. Das hat doch mit dem Thema hier überhaupt nix zu tun.

Und ich relativiere hier überhaupt nix. Immerhin hatte ich irgendwann zum Anfang des Threads selber starke Probleme mit extremem CPU-Limit in RotTR und dazu auch Messungen hinterlassen, damals noch mit einer 7950. Das war noch als das Spiel frisch raus war. Nach dem Wechsel auf die GTX1060
war das zwar etwas besser, aber nicht entscheidend. Leider war das aber aufgrund von mehreren Patches die das Spiel damals zwischenzeitlich hatte auch nicht mehr wirklich ernsthaft vergleichbar. Kann genauso gut einfach ein Bug gewesen sein oder generell schlechte Performance, die man in einem
späteren Patch behoben hat. Muss mir das jetzt nochmal anschauen wie das dort ausschaut, leider funktionierte mein Savegame mit der aktuellen Spielversion nichtmehr und ich bin noch nicht wieder an den besagten Stellen angekommen.

Ich kann nur das berichten was ich selbst beobachtet habe: als ich dann (es war irgendwann 2017) von der 1060 auf die 290X umstieg, konnte ich in keinem DX11-Spiel das hier lief noch große Unterschiede ausmachen. WoW, das wohl das Spiel ist welches hier am meisten Stunden läuft, hatte damals
nur DX11, und die Performance war nach dem Wechsel nicht gravierend schlechter - wohlgemerkt in den CPU-limitierten Fällen, nämlich wenn man in Dalaran rumlief mit vielen Spielern auf einer Stelle. Das ist nur halt extrem schlecht benchbar, weil man nie konstante Bedingungen hat. Waren es mit der
GTX dann etwa 55-60fps, lag ich mit der 290X ungefähr bei 50-57 - so in dem Dreh. Das ist praktisch nix, und das in einem Spiel welchem generell nachgesagt wird besser mit nV zu laufen. Wäre das Problem dort größer gewesen und die fps-drops zu hart mit der AMD, wäre ich sicher sofort wieder auf
eine grüne Karte gewechselt.

Wie vormals schonmal bemerkt, in GTA 5 gab es an den CPU-limitierten Stellen gar keinen Unterschied - und das auf demselben System, UND mit gleicher Spielversion.
 
Die Tests von PCGH zu Hitman 2 sind aber im GPU-Limit, einfach mal in die Kommentare schauen. Man hat sogar extra drauf geachtet eine Szene zu benchen die nicht CPU-Limitiert ist, auch nicht in FHD. Das hat doch mit dem Thema hier überhaupt nix zu tun.

Wie erklärst du denn, dass sämtliche Grafikkarten von AMD unter 1080p vergleichsweise schlechter abschneiden als unter 4k?
Siehe dabei das Beispiel zwischen 580 und 1060. Eine Vega64 liegt bei 1080p hinter einer 1070 und dann bei 4k liegt die Vega vor dieser.
 
Das kann auch schlicht an der für diese GPU-Tests immer zeitlich sehr kurzen Benchmarkszene liegen, und vor allem die Stelle kann entscheidend sein. Das hat aber nicht zwingend Aussagekraft über die generelle Performance des Spiels über den gesamten Verlauf. Dazu wird auch vor allem bei PCGH
mit absolut vollen Details gebencht, was oft Grafikeinstellungen ingame beinhaltet die den AMDs einfach nicht schmecken. Ausschalten, und schon klappt es auch mit der Performance.

Dass die AMDs in höheren Auflösungen vergleichsweise weniger verlieren ist oft der hohen Shaderanzahl geschuldet. Das konnte man schon öfter so beobachten.

In Witcher 3 ist es zum Beispiel auch so ein Fall wo ich es selbst beobachten konnte. Einfach im Treiber die Tesselation auf ein vernünftiges Maß begrenzen (ja, das kann man tatsächlich bei AMD), den Gameworks-Kram aus der sowieso recht unnütz ist, und schon rennt das auf einmal wie Sau und
es gibt quasi keine Unterschiede mehr in der Performance, da schaufelt dann die 290X jetzt hier dieselben Frameraten in WQHD wie die 1060 damals, die ich da mal per DSR getestet hatte (auf dem FHD-Moni). Sowas passiert oft genug, und da wird halt nicht drauf eingegangen. Das muss man im Endeffekt
immer selber ausprobieren, ein paar kleine Anpassungen im Detail können da aber durchaus nen ziemlichen Unterschied ausmachen.

Wer immer nur alle Regler sinnfrei "nach rechts" in allen Games ballert, tut sich meist wirklich keinen Gefallen, aber das ist eigentlich nix Neues.
 
Wie erklärt ihr euch denn, dass eine 1060 bei 1080p ~30% schneller als eine vergleichbare 580 ist und dann bei 4k trennen diese beiden Karte nur noch so 5%[/URL]?

Das waren dann wohl die Echsenmenschen, aber nein, Hitman ist ein ausgezeichnetes aktuelles Beispiel.
Man kann auch Assassins Creed nehmen, oder Black Ops 4, oder oder oder, die Liste ist lang, aber nicht so dramatisch wie früher.
Trotzdem ist das natürlich aktuell immernoch ein größeres Problem bei AMD als bei Nvidia.
 
Zuletzt bearbeitet von einem Moderator:
Wie gesagt, in 3 Wochen kommt AMDs neuer Treiber Release, dann wir man das nochmal neu bewerten müssen.
 
Dazu wird auch vor allem bei PCGH
mit absolut vollen Details gebencht, was oft Grafikeinstellungen ingame beinhaltet die den AMDs einfach nicht schmecken. Ausschalten, und schon klappt es auch mit der Performance.

Neja, bei den 2-3 Einstellungsmöglichkeiten, die Hitman2 nur bietet, kann man nur bedingt was ändern. Die wirken sich auch gleichermaßen stark bei Nvidia sowie AMD aus. Zudem wird Gameworks von dem Titel nicht verwendet.


Dass die AMDs in höheren Auflösungen vergleichsweise weniger verlieren ist oft der hohen Shaderanzahl geschuldet. Das konnte man schon öfter so beobachten.

Müssten dann nicht die Grafikkarten mit höheren Anzahlen an Shadern besser mit den größeren Auflösungen skalieren und bei geringeren Auflösungen auf das Niveau der kleineren Karten gedeckelt werden?
In dem PCGH-Test bleiben die Abstände zwischen den AMD Grafikkarten aber immer relativ gleich. Am besten kann man dies bei Polaris sehen, da hiervon mehre Modelle vertreten sind. Die 570, 580 und 590 unterscheiden sich bei Takt sowie Shaderanzahl, aber die Abstände zwischen den Modellen ändern sich bei unterschiedlichen Auflösungen kaum.

Dieser Mythos, dass AMD Grafikkarten dank der höheren Anzahl an Shadern besser mit höheren Auflösungen skalieren, kann ja auch fälschlicherweise aus dem hier diskutierten Phänomen entstanden sein. Die Leute haben zwar das Problem gesehen, aber falsche Schlussfolgerungen gezogen. Nicht falsch verstehen, ich will damit nicht sagen, dass es ein Mehr an Shadern bei höheren Auflösungen keine Vorteile bringen kann.


Das waren dann wohl die Echsenmenschen

Uff, die sind aber auch echt ätzend ey. Jetzt manipulieren die sogar schon GPU-Benchmarks. ;)


Wie gesagt, in 3 Wochen kommt AMDs neuer Treiber Release, dann wir man das nochmal neu bewerten müssen.

Die haben das Thema jetzt schon solange ausgesessen. Ich glaube nicht, dass die da noch groß was tun werden.
 
Da kannst du dir auch einfach mal den Test von COD Blackout 4 hier anschauen: CoD BO4: Die Benchmarks in Blackout

Während die 580 in FHD noch 25% avg (19% bei min fps) hinter der 1070 liegt, sind es in WQHD nur noch 13%(4%), und in UHD 11%(0%). Hab jetzt bewusst die beiden ausgewählt weil 8GB. Bei der 390 gegen 1060 sieht es ähnlich aus (in FHD gleichauf, WQHD und UHD die 390 schneller), aber das kann auch
an den nur 6GB Vram der 1060 liegen.
Und genau dieses Phänomen konnte man schon öfter beobachten.

Im Übrigen sehe ich auch keine Performanceprobleme der Radeon-Karten (in der Release-Version). Der Beitrag von Storm41 von vor ein paar Seiten um den sich hier die Diskussion wiederbelebte, stammt noch aus der Beta von dem Spiel wo es noch gar keinen angepassten AMD Treiber gab, nicht der Releaseversion,
das ist euch schon aufgefallen, oder? Mir fehlen immer noch stichhaltige Beweise dass das Game in der fertigen Fassung Performance-Probleme hat auf AMD Karten, ganz im Gegenteil. GPU-Leistung scheint mehr als zu passen, die min fps sind nicht niedrig, und ich hab auch nix zu CPU-Limit finden können.
 
Zuletzt bearbeitet:
Im Übrigen sehe ich auch keine Performanceprobleme der Radeon-Karten (in der Release-Version). Der Beitrag von Storm41 von vor ein paar Seiten um den sich hier die Diskussion wiederbelebte, stammt noch aus der Beta von dem Spiel wo es noch gar keinen angepassten AMD Treiber gab, nicht der Releaseversion,
das ist euch schon aufgefallen, oder? Mir fehlen immer noch stichhaltige Beweise dass das Game in der fertigen Fassung Performance-Probleme hat auf AMD Karten, ganz im Gegenteil. GPU-Leistung scheint mehr als zu passen, die min fps sind nicht niedrig, und ich hab auch nix zu CPU-Limit finden können.

Der Test von sTOrM41 war ja auch explizit im CPU-Limit. Da wurde nur aufgezeigt, dass die Karten von AMD durch eine schwache CPU deutlich stärker an Leistung verlieren als die Karten von Nvidia. Wenn die CPU weniger den limitierenden Faktor darstellt, z.B. durch erhöhen der Auflösung oder nutzen einer stärkeren CPU, dann sind die Unterschiede zwischen den Karten auch nicht mehr so groß. Wie auch bei deinem Test, ist die Vega64 schneller als eine 1080 bei 4k mit einer schnellen CPU. Mit einem 8700k gibt es auch bei dem Test von sTOrM41 keine Probleme bei den Karten von AMD, auch nicht bei 1080p. :wink:
 
Zuletzt bearbeitet:
Okay, dann als wirklich letzten Beitrag von mir hier:

Die russische Seite, aus der die Beta-Benchmarks stammten, hat das Game auch nochmal in der fertigen Fassung getestet - unter anderem mit CPU-Tests: Call of Duty: Black Ops 4 те�т GPU/CPU | Action / FPS / TPS | Те�т GPU
Da sieht das dann schon ganz anders aus, hab mir jetzt einfach mal die Werte für die RX580 und GTX 1060 rausgepickt:




Ja, ziemlich alte CPUs wie die kleineren Bulldozer, Ryzen 3 oder i3's sehen da mit der Radeon ein klein wenig schlechter aus, aber das sind prinzipiell auch die Kandidaten die mit der GTX etwas abfallen. Der FX8350 sieht sogar echt gut aus. Alle halbwegs
modernen flinken CPUs schaufeln praktisch dieselben Bildraten bei beiden GPU-Herstellern. Ja, ein kleines minimales bißchen sind die Ergebnisse mit der GTX besser. Aber die paar Prozent bzw wenigen fps machen echt den Kohl nun wirklich nicht fett.

Ich kann da also beim besten Willen kein Problem sehen, wenn man das Game mit einer halbwegs flotten CPU daddelt.

Damit bin ich dann nun auch endgültig hier raus, schon viel zu viel Zeit verschwendet hier wieder... ;)
 
Zuletzt bearbeitet:
Da sieht das dann schon ganz anders aus, hab mir jetzt einfach mal die Werte für die RX580 und GTX 1060 rausgepickt

:confused:

Kein Wunder, dass es ganz anders aussieht, wenn du auf einmal deutlich schwächere GPUs miteinander vergleichst. Da limitieren die GPUs schon bevor das CPU- oder API-Limit überhaupt wirklich zum Tragen kommt. Das hätte ich dir ehrlich gesagt auch schon vorher sagen können. Bei der Beta Version verhält sich das genauso wie bei der fertigen Version, nur sind in der fertigen Version die FPS allgemein etwas besser.

Wieso vergleichst du nicht auch eine 1070ti/1080 und Vega64 miteinander, sowie es sTOrM41 gemacht hat?
Dann würde dir nämlich auffallen, dass sich da eigentlich nicht sonderlich viel geändert hat und sich immer noch gleich verhält.


Ich kann da also beim besten Willen kein Problem sehen, wenn man das Game mit einer halbwegs flotten CPU daddelt.

Ich würde da auch keine Probleme sehen, wenn ich die Augen vor der Realität verschließe und durch Cherrypicks so gestalte wie es mir gerade gefällt ;)

Die Vega64 und 1080 sind ungefähr gleichauf. Dann schauen wir uns einmal an wie sich das im CPU-Limit verhält:
1080:
cod_bo4_final_1080.jpg

Vega64:
cod_bo4_final_vega64.jpg
Source: Call of Duty: Black Ops 4 те�т GPU/CPU | Action / FPS / TPS | Те�т GPU

Also wenn 5-20% an Performanzverlust mit flotten CPUs für dich kein Problem ist, dann weiß ich auch nicht weiter..


Damit bin ich dann nun auch endgültig hier raus, schon viel zu viel Zeit verschwendet hier wieder... ;)

Ich habe auch keine Lust darauf weiter einzugehen. Ich wollte dich/euch nur auf einen Denkfehler hinweisen. Du verschließt hier aber konsequent die Augen, da musst du dir schon gefallen lassen, wenn man dir vorwirft, dass du den ganzen Sachverhalt versuchst zu relativieren. Aber wenn du weiter kein Problem siehst - sehen möchtest -, dann ist es halt so. :wink:
 
Zuletzt bearbeitet:
Moin,

nein das tu ich nicht. Ist mir nämlich gestern abend auch noch beim durchstöbern der Ergebnisse aufgefallen dass es da durchaus noch Unterschiede gibt. Aber sicher nicht in dem Ausmaß wie storm am meckern war, nämlich dass ein FX8350+1060 dieselben min-fps produziert wie ein 2700X+Vega. Das
ist einfach Quatsch und so nicht mehr haltbar.

Das Problem was ich damit habe, wie hoch ist denn tatsächlich der Anteil der Leute, die mit einer Vega64/1080 auf Full-HD unterwegs sind, weil sie ihren 144Hz-Monitor möglichst voll ausfahren wollen und nur deswegen Gefahr läuft überhaupt im CPU Limit zu kleben, und das mit einer älteren schwachen CPU? Derjenige
wird doch eh schon ne möglichst schnelle CPU ala 8700K@OC im System haben, weil er genau weiß dass das nötig ist. Das ist ja nun auch keine neue Erkenntnis. Und selbst wenns nur ein 7700K oder 2700X ist, die reichen auch beide um nahezu dieselben min-fps zu schaffen mit der Vega wie mit der 1080. Ja,
prinzipiell braucht man vergleichsweise ein wenig stärkere CPUs mit der AMD Karte.

Aber das ist doch schlicht ein zusammenkonstruierter Fall, dass tatsächlich jemand mit einer GPU dieses Kalibers noch mit einem i3, Bulldozer oder einem Sandy Bridge ohne OC unterwegs ist. Und selbst wenn, sollte ihm spätestens dann an der nicht ausgelasteten GPU und den niedrigen fps auffallen dass er tatsächlich
mal aufrüsten sollte wenn er nicht in seinen gewünschten fps-Bereich kommt, wenn er schon den Anspruch hat hohe fps zu fahren.
Ab WQHD aufwärts wirds mit den GPUs (Vega,1080) dann sowieso fps-technisch so knapp dass man auch mit einer etwas schlapperen CPUs auskommt weil die CPU-Leistung eher in den Hintergrund tritt.

Das ist doch alles höchstens ein rein akademisches Problem.
 
Zuletzt bearbeitet:
Die Vega64 und 1080 sind ungefähr gleichauf. Dann schauen wir uns einmal an wie sich das im CPU-Limit verhält:
1080:
Anhang anzeigen 450898

Vega64:
Anhang anzeigen 450899
Source: Call of Duty: Black Ops 4 те�т GPU/CPU | Action / FPS / TPS | Те�т GPU


man schaue sich da zb mal den noch immer beliebten, fast 8 jahre alten, i7 2600k an.

in kombination mit der vega 64 kommen da im cpu-limit minimum-framerates von 57fps raus - mit der gtx 1080 sind es 86fps. ein plus von 50%!

um mit der vega auf eben diese 86fps zu kommen ist dann ein i7 8700k nötig - ein solches cpu-upgrade kostet aktuell mal eben um die 600€.
 
Zuletzt bearbeitet:
Ja, und wer fährt einen 2600K, wenn er überhaupt noch einer der Dinos ist (wie ich) der auf so einer uralten CPU hockt auf Standardtakt? :rolleyes:

OC auf 4,5GHz+, und dann siehts damit auch deutlich besser aus. Und wie schon oben erwähnt, dann muss man sich halt damit zufrieden geben was die alte CPU schaufelt und die freien Ressourcen der GPU in mehr Bildqualität stecken. Wer 500€ für ne GPU ausgibt, um damit in FHD im CPU-Limit zu zocken
weil der den Unterbau nicht aufrüsten will, macht irgendwas falsch - da hätte man dann vielleicht lieber dasselbe Geld verwendet um die eigentliche Bremse zu lösen, und mit seiner alten Grafikkarte weitergezockt, sofern die nicht die totale Gurke war...

Und dann solls ja tatsächlich auch Leute geben, denen konstant 60fps ausreichen. Das geht dann sogar mit nem OC 2500K.

Aber ihr könnt euch natürlich noch die nächsten 5 Jahre solche sinnfreien Beispiele zusammenkonstruieren...

Jetzt bin ich hier wirklich weg, nutzlose Zeitverschwendung.
 
Hab mir nicht die ganze Diskussion durchgelesen, aber ein populäres Gegenbeispiel zur These:

bf5.JPG
 
@sTOrM41

Ich finde es auch krass, dass nur 9 von 25 getesteten (nicht übertakteten) CPUs mit der Vega64 überhaupt in der Lage sind über 60FPS zu bleiben, während es mit einer 1080 doppelt (!) so viele CPUs schaffen.


Aber ist ja nur ein akademisches Problem und wird auch nicht von Leuten mit roten Vorlieben relativiert :hust:
 
Zuletzt bearbeitet:
Hab mir nicht die ganze Diskussion durchgelesen, aber ein populäres Gegenbeispiel zur These:

Und dann schaut man sich das in BF5 an, stellt Vega64 und GTX1080 im CPU-Test gegenüber und sieht:



Es gibt dort keine Unterschiede, auch mit schwachen CPUs nicht.

Also ist COD tatsächlich einer der wenigen Ausnahmefälle die ich meinte, wo es tatsächlich überhaupt zum Tragen kommt.

Fassen wir also mal zusammen:
- tritt nur in Ausnahmefällen in Erscheinung, nicht grundsätzlich
- ist nur ein Problem mit mittlerweile wirklich schwachen CPUs
- ist nur in DX11 ein Problem, wobei es für einige Titel mittlerweile Alternativen gibt (DX12-Pfad, oder der Titel ist z.B. Vulkan only)
- ist praktisch gesehen in betroffenen Titeln nur auf FHD ein Problem (evtl noch in WQHD wenn man low Details fährt), sofern man hohe Fps anstrebt und auch dann tatsächlich im CPU-Limit klebt

Ja, das ist ein zusammenkonstruiertes Problem, was kaum Praxisrelevanz hat. Das nochmal als allerletzten Einwurf.

Und wer tatsächlich zu den drei Leuten gehört für den da tatsächlich ein gröberes Problem auftaucht, der soll sich halt ne nV Karte kaufen. Ob ihrs glaubt oder nicht,
der Rechner geht tatsächlich nicht in Flammen auf oder macht den PCIe-Slot dicht nur weil man eine dusselige Steckkarte mit nem anderen Firmennamen einsteckt. Tellerrand und so...
 
Aber ist ja nur ein akademisches Problem und wird auch nicht von Leuten mit roten Vorlieben relativiert :hust:

Ich möchte an dieser Stelle keine Vorliebe in den Vordergrund stellen. Meinem Eindruck nach können aber AMD-Karten sehr effizient und leistungsfähig sein (siehe Mining oder sogar DX11-Spiele wie BF V). Dass die entsprechende Leistung nicht abgerufen wird oder werden kann, scheint auf einer gewissen Ebene ein Optimierungsproblem zu sein. Tendenziell hätte ich angenommen, dass irgendwo im Treiber oder bei den Entwicklern eine Schwierigkeit besteht, der GPU im CPU-Limit Arbeit zu beschaffen. Dadurch, dass einige Anwendungen das Problem nicht zeigen, hätte ich von einer architektonischen Schwäche abgesehen - das kann aber auch völlig falsch sein. Vielleicht kann jemand mit tieferen Kenntnissen aufklären, ob der Aufwand zur Optimierung auf CGN höher ist als zum Beispiel auf Pascal, ob Nvidia dieses Wissen besser vermittelt oder ob GCN einfach nicht zu DX11 passt (salopp gesagt). Das würde mich schon lange interessieren.
 
man schaue sich da zb mal den noch immer beliebten, fast 8 jahre alten, i7 2600k an.

in kombination mit der vega 64 kommen da im cpu-limit minimum-framerates von 57fps raus - mit der gtx 1080 sind es 86fps. ein plus von 50%!

um mit der vega auf eben diese 86fps zu kommen ist dann ein i7 8700k nötig - ein solches cpu-upgrade kostet aktuell mal eben um die 600€.

Es gibt eben Trolle die das einfach nicht wahrhaben wollen, leider leider.

Ja, und wer fährt einen 2600K, wenn er überhaupt noch einer der Dinos ist (wie ich) der auf so einer uralten CPU hockt auf Standardtakt? :rolleyes:

Aber es fährt bestimmt jemand eine GTX 1060 und verringert die Details und will mit hohen FPS zocken und dann trifft er eben wesentlich später auf ein CPU Limit als mit einer AMD Karte.
Gegenbeispiele gibts auch aber extrem selten.
Im Prinzip ist der AMD Driveroverhead immer höher und somit verschenkt man bei einem AMD GPU Kauf bestimmt 10 bis 15% der Leistung im CPU Limit im Schnitt.
 
Zuletzt bearbeitet von einem Moderator:
Ich möchte an dieser Stelle keine Vorliebe in den Vordergrund stellen.

Ich meinte nicht dich damit. Sry, falls es so herübergekommen ist.

Aber ja es ist bekannt, dass der Ansatz von Nvidia bei ein paar Ausnahmen schlechter performt als der von AMD. Battlefield V und ich meine auch der Vorgänger sind Beispiele, wo dies auftritt.

AMD vs NV Drivers: A Brief History and Understanding Scheduling CPU Overhead - YouTube
Ist zwar schon etwas länger her, aber ich meine in dem Video wurde das ganz gut erklärt. Zumindest wurde es hier ja auch öfters verlinkt. Ich glaube das eignet sich ganz gut, wenn man sich darüber einen Überblick verschaffen will. :wink:
 
Das ganze ist sicherlich ein Thema, welches auch bei AMD inzwischen angekommen ist, man hat ja vor kurzem massiv investiert, in das Treiberteam von AMD, wir erwarten in Kürze einen vollständig neuen Release, ich bin sehr zuversichtlich, dass man bei AMD sich dabei auch dem Driveroverhead gewidmet hat. Das ganze
macht bestimmt Sinn, dann erneut unter die Lupe genommen zu werden. Noch ca. 2 Wochen. ;)
 
Ich hab jetzt noch mal eine 1050 Ti gegen eine 7970 getestet. Und zumindest bei GTA V gibt es wirklich einen starken Unterschied.

Die 1050 Ti ist auf einem Fx weitaus schneller.
 
In der Tat, konnte ich ebenso beobachten - allerdings sehr abhängig davon, wie die (erweiterte) Sichtweite eingestellt ist (Drawcalls). Allerdings ist das Spiel mittlerweile auch fast 4 Jahre alt.
 
Wie steht es eigentlich im Jahre 2020 und entsprechendem AMD Treiber um das DX11 Problem im CPU Limit? Wäre cool wenn Hardwareluxx / PCGH / Computerbase .... mal einen Artikel dazu machen würden. Ist ein interessantes Thema. Außerdem können sich dann wieder die Fanlager die Köpfe einschlagen :d

Ich habe zwar aktuell eine Vega 56, bin aber zum Glück beinahe nie im CPU limit. Das liegt zum einen am Ryzen 7 3700X zum zum anderen an der Tatsache, dass ich in QHD Auflösung unterwegs bin. Und falls das doch mal der Fall sein sollte kommt zum tragen, dass ich kein FPS Fanatiker bin. Bei mir bricht keine Welt zusammen falls ich mal nur 45 FPS haben sollte. Und das obwohl mein Hauptmonitor auf 165Hz läuft Oo. FreeSync läuft nur noch in ausgewählten spielen. Wo es aus ist fällt mir das kaum auf was wiederrum wohl an den 165Hz des Monitors liegt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh