AMD und die bescheidene Performance im DX11 CPU Limit

tcfc0fb_tb0ca51_1335375163515.png
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum wird jetzt wieder um DX12 und wie böse Nvidia dagegen sei rumlamentiert, wo es in diesem Thread doch um DX11 geht? Muß da etwas kompensiert werden?
 
In diesem Thema geht es nun mal zwangsläufig um zwei gegensätzliche Ansätze, wenn man sich mit den Hintergründen ernsthaft beschäftigen möchte... Die Komplett-Lösung des Problems druch eine LowLevel API oder eine Übergangslösung durch einen optimierten DX11-Treiber.

Und wie gesagt. Nvidia hat das Problem ebenfalls und je schneller die Karten werden, desto größer wird das Problem.
FullHD 1080 vs 2080Ti = +47%
4k 1080 vs 2080Ti = +76%

Und das obwohl viele Hardware-Tester mit OCed High-End CPUs testen! Im Schnitt über alle Spiele ohne Cherry-Picking!

Launch-Analyse nVidia GeForce RTX 2080 2080 Ti (Seite 2) | 3DCenter.org
 
Noch haben die meisten Spiele DX11.
 
In diesem Thema geht es nun mal zwangsläufig um zwei gegensätzliche Ansätze, wenn man sich mit den Hintergründen ernsthaft beschäftigen möchte... Die Komplett-Lösung des Problems druch eine LowLevel API oder eine Übergangslösung durch einen optimierten DX11-Treiber.

Keine Ahnung welches "Thema" du meinst - aber in diesem Thread geht es nicht um eine "Komplett-Lösung des Problems" - sondern um "AMD und die bescheidene Performance im DX11 CPU Limit".
Wo nimmst du denn den Punkt her, dass irgendwo behauptet würde, NV hätte das Grundproblem nicht??


Wahrscheinlich wissen hier sogut wie alle, dass das Problem NICHT nur auf AMD gilt - sondern auch auf NV. Aber gerade eben WEIL es auf AMD um so stärker zum tragen kommt, gibt es diesen Thread.
Mittlerweile ist das Thema aber eh schon bekannt und von vorn bis hinten durchgekaut, sodass der Thread real nicht mehr das erfüllt, für was er mal gedacht war. Nämlich das Analysieren der "bescheidenen Performance im DX11 CPU Limit".
 
ne, ne, ich verlink den thread hier durchaus auch mal in Kaufberatungen. also der thread hat schon noch Sinn.
Gibt immer noch Leute, zB Noobs oder Leute wie G3cko (ok, der wirds nicht mehr lernen), die das Thema nicht so aufm Schirm haben. ich finde das bei nem Neukauf schon nicht ganz unwichtig. immerhin ist DX11 nach wie vor die meist verbreitete API und nicht jeder Neukäufer hat ne potente CPU.
 
Ich merke davon nix. Nicht mal bei den älteren Karten. Aber wenn mir jemand eine 770 leicht oder was ähnliches teste ich auf meinem Fx mit einer 7970 gegen.
 
Dank des Marktanteils konnte Nvidia AMD ausspielen. Es ist eben ein Grundproblem der API. Und wie bereits erörtert führt genau genommen nvidias Treiber zu einem höheren Overhead. Diesen Overhead nimmt nvidia jedoch gerne in kauf, da die zusätzlichen Rechenleistung genutzt wird um den Mainthread aufzuteilen. Diese Lastaufteilung weg vom Mainthread auf andere Threads + zusatzkosten führt in den meisten Fällen dennoch zu mehr fps.

Bei Spielen mit guter Lastaufteilung + schwacher CPU mit wenig Kernen kann das auch mal anders ausgehen. Zum Glück ein seltenes Benchmarkszenario.

AMD ist also nicht besonders schlecht in DX11. (Wird ja so ausgeführt wie von der API vorgesehen). Sondern nvidia besonders gut. Das aber der Kunde der leidtragende ist möchte man nicht verstehen, da...
A) das Grundproblem bereits gelöst wurde (Bestes Beispiel Konsole mit grotiger Singlethreadleistung)
B) Es das Monopol auf dem PC noch verstärkt hat
und C) man den politischen Hintergrund komplett ausblendet.

Zum Glück haben Microsoft und nvidia nach ewiger Zeit sich auch mal bewegt und mit dem Raytracing eine Funktion um sich auf die Low-Level Bühne zu trauen. Ohne AMD hätte wir komplette Stagnation. Im Prinzip hat der Marktführer das Thema bis zum Start der RTX Serie ausgesessen. Vulkan verschwindet in der Versenkung und DX11 eh. Nvida und Microsoft wieder unangefochten Marktführer. Der nvidia Fan feiert sich. Alles wieder beim Alten...

Weil es so schön passt:
computerbase schrieb:
Das mit seinen dicht bewuselten Arealen optisch teils sehr überzeugende Hitman 2 krankt auf dem PC an DirectX 11, das machen die Benchmarks mehr als deutlich. Wer eine sehr schnelle GPU besitzt, kann deren Potential in Full HD gar nicht und in Ultra HD nur gedämpft abrufen – ist die CPU darüber hinaus nicht besonders stark, sinkt die Leistung weiter. Ohne DirectX 12 erweist sich die neue Version der Glacier-Engine so als extrem ineffizient.


Das macht auch ein weiterer Vergleich deutlich: Bei identischen Einstellungen läuft das Spiel auf der Xbox One X schneller als auf leistungsstarken PCs, wie Digital Foundry zeigt. Die gleichzeitig geäußerte Schlussfolgerung, AMD sei ohne DirectX 12 im Nachteil, bestätigen die Ergebnisse von ComputerBase in der Testsequenz hingegen nicht: Polaris und Vega schneiden überdurchschnittlich stark ab.

Also wurde der PC Käufer dank nvidia 2x über den Tisch gezogen. 1x aufgrund höherer GPU Preise, weil vermeintlich bessere Performance in Dx11 und dessen API Fokus in den letzten Jahren. Und das zweite mal weil er deutlich mehr in CPU Leistung investieren muss um mit einer grottigen Konsolen AMD Jaguar CPU gleich zu ziehen.

https://www.computerbase.de/2018-11/hitman-2-test/
 
Zuletzt bearbeitet:
Im Prinzip hat der Marktführer das Thema bis zum Start der RTX Serie ausgesessen. Vulkan verschwindet in der Versenkung und DX11 eh. Nvida und Microsoft wieder unangefochten Marktführer. Der nvidia Fan feiert sich. Alles wieder beim Alten...

Irgendwie wird das immer wieder gern behauptet, auch von dir wie man sieht. Aber belegt oder gar real ist das irgendwie nicht.
Dein Argument baut einzig und allein darauf, dass man bei NV nie ne lower level API wollte. Das ist mMn völliger Unsinn. Auch NV profitiert schließlich deutlich von den MT-Umsetzungen, wenn es hart auf hart kommt. Praktisch fährt das aber meist der Entwickler überhaupt nicht aus, weil es immernoch irgendwo einen riesigen Markt mit LL-API Inkompatibilität gibt. Sei es durch Win7/8/8.1 oder durch alte Hardware. Der kleinste gemeinsame Nenner gibt hier das Tempo vor. War aber eigentlich von Anfang an ersichtlich...

Wieso da jetzt der "Marktführer" aus dem GPU Markt dafür verantwortlich sein soll, dass tausende von Softwareentwicklern sogut wie keine Ambitionen zeigen in diese Richtung vorzudringen, erschließt sich mir nicht...
Es ist ja nicht so, dass die DX12/Vulkan Umsetzungen nur so aus den Ärmeln fallen und von Anfang nur so mit FPS Rekorden überzeugen :stupid:
Eher ist das genaue Gegenteil der Fall - man muss sich scheinbar schon echt anstrengen um überhaupt das DX11 Niveau zu erreichen (nein nicht das AMD DX11 Niveau) - darauf hat verständlicherweise auch nicht jeder Entwickler Lust geschweige denn die Zeit und das Geld.

AMD ist also nicht besonders schlecht in DX11. (Wird ja so ausgeführt wie von der API vorgesehen). Sondern nvidia besonders gut. Das aber der Kunde der leidtragende ist möchte man nicht verstehen, da...

Das ist mMn ebenso völliger Unsinn.
Bei nur effektiv zwei Parteien am Markt gibt es nicht besonders gut oder besonders schlecht.
Es ist einzig und allein die Frage, welche der beiden Umsetzungen die Basis ist - und von dieser Basis ist das eine besser oder schlechter.
Es gibt auch nicht wie vorgesehen oder solche Ausreden. Am besten ist das, was am Ende ganz oben steht. Aktuell scheint das in 95 von 100 Titeln NV zu sein. Da der Kunde idR auch NV kauft - trägt er auch keinen Nachteil von diesem Punkt - eher im Gegenteil.


Auch wenn du die Formulierung geschickt verbiegst um AMD da nicht "schlecht" rüber kommen zu lassen - am Ende ändert sich exakt nichts. Die AMD Umsetzung funktioniert in der Masse der Titel am Markt schlechter als die bei der Konkurrenz. Das sehen auch die potentiellen Kunden - und kaufen eben nicht AMD. Den Ansatz das Thema auszusitzen, weil DX12/Vulkan vor der Tür steht/stand, fährt man nun seit ca. 4 Jahren. Passiert ist bis auf 2-3 Hände voll Titel exakt nichts.


Ich wage an der Stelle mal die Prognose - DXR und das Raytracing Zeugs wird daran auch erstmal wenig bis nichts ändern. Ich erwarte erst in 1-2 Jahren überhaupt ein paar Titel, die darauf in sinnigem Maße aufbauen. (abseits der ersten Techdemos ala BF5). Vor Ende von Win7 und damit zu 95% flächendeckender Verfügbarkeit von DX12 sehe ich auch die Softwareseite als Problem - genau so wie erfahrungsgemäß eine Refreshgeneration (wie die 2000er) nicht den selben Absatz erzeugt wie die 1st Gen. in einem neuen Prozess -> Effizienz und so. Also vor 7nm NV GPUs wird auch das von der Warte mMn nicht wirklich voran gehen. Das zieht somit mMn auch nicht als Ausrede...

Was bleibt von deinem Argument dann noch über? Nicht viel...
 
Ich bringe später mal ein paar Links. In 3dmark ist eine 7970 schneller als eine 660 Ti. Trotz Fx. Sollte ja nicht passieren. GTA V läuft auch mit einem Fx noch annehmbar
 
Also wurde der PC Käufer dank nvidia 2x über den Tisch gezogen. 1x aufgrund höherer GPU Preise, weil vermeintlich bessere Performance in Dx11 und dessen API Fokus in den letzten Jahren. Und das zweite mal weil er deutlich mehr in CPU Leistung investieren muss um mit einer grottigen Konsolen AMD Jaguar CPU gleich zu ziehen.

Warum fragst du nicht die Entwickler warum ihr Titel DX11 only geworden ist??
Oder noch besser, warum die Umsetzung so bescheiden ist??
-> stattdessen nur so ein haltloser hateversuch.


Auch passt der Konsolenvergleich quasi gar nicht - ne unlocked PS4/XBox One S in ner CPU limitierten Szene bringt teils auf 30 und weniger FPS ein. Die Pro/OneX schaffen jeweils bisschen mehr. Aber in diesen Szenen weit weg von 60 FPS, was der PC Gamer als das gute Mittel haben möchte und noch weiter von 100 FPS+.
Einfach mal ein paar "Benches" von Hitman2 auf den Konsolen studieren:
Hitman 2: PS4/PS4 Pro vs Xbox One S/Xbox One X - Every Console Tested - YouTube
Da findest du auch die Szene, welche stark auf die CPU zu gehen scheint...

Nehm ich 1:1 die FPS der CPU limitierten Szenen mit dem CB wert, reicht der poplige Pentium ;)

- - - Updated - - -

Ich bringe später mal ein paar Links. In 3dmark ist eine 7970 schneller als eine 660 Ti. Trotz Fx. Sollte ja nicht passieren. GTA V läuft auch mit einem Fx noch annehmbar

Ja und?
Ne HD7970 spielt in etwa auf dem Level einer 780,was die GPU Leistung angeht, vllt bisschen drunter. Vor allem mittlerweile, wo die GPU Anforderungen entsprechend hoch sind.
Wenn du nicht gerade 3DMark06 vergleichst ist das aktuelle bei so ner GPU schon arg GPU limitiert.

Und dieses - xyz läuft auch gut oder ist doch spielbar, darum gings doch nie in diesem Thread?
 
Zuletzt bearbeitet:
Es ging um eine angebliche Schwäche. Die sich auch in einer mangelhaften Leistung bemerkbar machen soll.
 
Es ging um eine angebliche Schwäche. Die sich auch in einer mangelhaften Leistung bemerkbar machen soll.

Ließ nochmal um was es in diesem Thread geht. Und vor allem wie und wo sich das "Problem" (wenn man es denn so nennen möchte) bemerkbar macht.
"In 3dmark ist eine 7970 schneller als eine 660 Ti. Trotz Fx. Sollte ja nicht passieren." -> ist leider völlig am Thema vorbei.

Und nix für Ungut - du hast vor ziemlich exakt einem Jahr schon gesagt, dass du die "angebliche Schwäche" nicht nachvollziehen kannst. Ohne mir den Spaß jetzt nochmal im Detail zu geben - aber schau dir doch einfach selbst die Benchmarks an, die hier im Thread gepostet wurden, die Aussagen um die es dabei geht sind die, wo ein AMD Modell im GPU Limit zu einem NV Modell ähnliche Leistung zeigt, im CPU Limit auf einmal aber teils deutlich hinterher hinkt. Respektive der Versuch dafür eine Erklärung zu finden.

Und nein, ohne dass du dann im selben PC mit der selben Software und der selben Szene ein adäquates (basierend auf GPU Benches) NV Modell gegen testest und die Leistung vergleichst, kommst du nicht weiter und wirst es wahrscheinlich auch nicht allein nachvollziehen können. Da die Unterschiede extrem von der Szene abhängen bringt es auch nichts jemanden zu suchen, der einen ähnlichen PC mit NV GPU mit ähnlicher Software an in etwa einer ähnlichen Stelle testet...
 
Zuletzt bearbeitet:
Selbes System, nur eine andere Grafikkarte.

Und klar. Am Thema vorbei, wenn der Thread andauernd damit hochgeholt wird, wie schwach doch AMD ist, mit dem Verweis darauf, dass schwächere Karten von Nvidia dann doch viel schneller sein. Oh kam da Widerspruch von dir? Zum Beispiel auf den letzten Seiten. Ups, natürlich nicht. Und ja, das war auch ein Thema. Schon wieder vergessen?

Oh und jetzt muss es auch noch eine bestimmte Szene sein, hm war davon vorher die Rede? Ach nein.

Und nein, komm mir nicht damit, dass es dir nur um die Vergleichbarkeit geht, die war dir vorher sowas von egal.

Die Diskussion vor über einem Jahr kenne ich noch. Damals wurde CB verlinkt. Blöd nur, dass Pascal da teilweise stärker einbrach, als Hawaii und Co.

AMD Radeon HD 7970 video card benchmark result - AMD FX-6300,ASRock N68C-GS FX

AMD Radeon HD 7970 video card benchmark result - AMD FX-6300,ASRock N68C-GS FX

AMD Radeon HD 7970 video card benchmark result - AMD FX-6300,ASRock N68C-GS FX

NVIDIA GeForce GTX 660 Ti video card benchmark result - AMD FX-6300,ASRock N68C-GS FX

NVIDIA GeForce GTX 660 Ti video card benchmark result - AMD FX-6300,ASRock N68C-GS FX

NVIDIA GeForce GTX 660 Ti video card benchmark result - AMD FX-6300,ASRock N68C-GS FX

Ich nehm aber auch gerne eine Vega und teste sie gegen meine 1080.
 
Zuletzt bearbeitet:
Es gibt ein ausführliches Video. Da ist alles erklärt. Einfach mal ein paar Seiten zurück fdsonne, dann muss man auch keine Romane schreiben.
 
Weil hier AMD nicht verliert
 
ich habe ne ganze weile firestrike gespielt, dann kamen andere Spiele die ich häufiger spielte... ne Moment firestrike ist ja nur ein Benchmark :fresse2:
 
hat AMD wegen Firestrike jetzt urplötzlich in allen anderen DX11-Spielen kein Problem im CPU-Limit mehr? dann müssteste die Ergebnisse der anderen Spiele noch nachreichen.
ansonsten haste eben mal die Ausnahme von der Regel gepostet, und leider ist Firestrike parktisch gar kein Spiel, bzw für das hiesige Thema nicht mal so relevant, wie ein Spiel.
aber egal, war immerhin lustig :popcorn:
 
Es gibt ein ausführliches Video. Da ist alles erklärt. Einfach mal ein paar Seiten zurück fdsonne, dann muss man auch keine Romane schreiben.

Das Video sagt nur nichts zu deinen komischen Ausreden und Erklärungsversuchen - auch nicht zu deinen Schuldzuweisungen. Und schon gar nicht über deine haltlosen Behauptungen (bspw. der Quark mit Hitman auf den Konsolen vs. PC) Ehrlich ich versteh Leute wie dich nicht... Was hast du davon hier immer Stunk zu machen mit dem Wehen der AMD Fahne?

Wenn dich der Spaß so sehr stört, dann geh doch einfach, kauf AMD, werde glücklich - aber lass doch einfach die interessierten Personen sich über das Thema unterhalten?? Aber immer dieser Unsinn, irgendwann muss auch mal gut sein...


Keine Ahnung ob du das kennst, aber die Jungs haben dafür dediziert einen Bench - der dir den Spaß mit der DrawCall Performance in Zahlen ausgibt. Und nein, man nimmt pauschal nicht an, dass die dortigen Zahlen IMMER 1:1 in JEDEM Spiel und in JEDER Szene zwischen AMD und NV GPUs anzutreffen sind! (nur vorbeugend, bevor dich wieder stört dass ich mal etwas nicht erwähnt haben soll und mich deswegen nicht dafür interessieren würde ;))

Wie wäre es mal mit dem?

Weil hier AMD nicht verliert

Hä? Bist du wirklich sicher dass du verstanden hast worum es hier geht??
Es scheint mir nicht - was willst du denn immer mit "verlieren"?

Versuchst du hier ernsthaft gerade zu belegen, dass eine 660TI nicht an eine 7970 ran kommt - selbst wenn diese auf dem 6300er FX betrieben wird?
Die Behauptung kommt doch primär von dir? Wer zweifelt das denn bitte ernsthaft hier an? (Link wäre gut zu dem Beitrag)


Warum vergleichst du nicht stattdessen ein paar der genannten Benches hier aus dem Thread? Und die Kombo 1080/Vega wäre auch eher passend als 7970/660TI. Ist ja nicht so dass es hier an Werten mangeln würde... Da du eh die GPUs der beiden Hersteller hast -> mach dir selbst ein Bild und wenn du willst, teile die Ergebnisse mit. Dann kann man vllt noch drüber sprechen am Ende. Ist doch ehrlich nicht so schwer - aber FSE? :stupid:

aber egal, war immerhin lustig :popcorn:

Sollte man ihm vielleicht noch drauf hinweisen, dass der Test auf dem Ryzen grob 1/3tel mehr GPU Punkte liefert als auf dem 6300er FX? :eek:
Hätte ich im 3DMark ehrlich gesagt schon deutlich geringer eingeschätzt... Vor allem im FSE.
 
Ich habe keine Vega. Hab ich nie behauptet und lass deine Wall of Text.
Und das Beispiel mit dem Ryzen hab ich gebracht, weil jemand meinte man befände sich nicht im Limit. Und worauf willst du mich aufmerksam machen? Das eine 660 Ti mit dem Ryzen eine 7950 überholen würde? Da die Radeon ja im CPU-Limit stärker einbricht?
 
Zuletzt bearbeitet:
Eigentlich ist das Thema schon seit einer Ewigkeit deutlich besser geworden, ich glaube es war Ende '16 als Crimson oder wie auch immer der damals hieß rauskam. Seitdem und über die Treiberversionen bis heute hat sich da schon was getan.

Hab noch den Vergleich im Kopf wie z.B. GTA V auf der 1060 lief die ich vorher drin hatte (selbes System, gleicher CPU-Takt wie heute, gleiche Settings ingame was Sichtweite/Grass/Verkehrsdichte etc angeht): mit der 1060 gabs in der Innenstadt im Verkehr immer mal wieder drops auf 50-55fps ohne dass die
GPU Vollast hatte, und das ist heute mit der 290X genauso. Da gibts keinen großen Unterschied mehr.

Dasselbe Spiel in WoW in DX11, das auch dafür bekannt ist notorisch CPU-limitiert ist wenn viele Spieler in der Nähe sind, oder im Raid. Das lief mit der 1060 auch nicht viel besser, vielleicht ein paar FPS, ja. Aber nicht so dramatisch dass es jetzt einen Riesenunterschied machen würde. Ausserdem gibts da mittlerweile
nen DX12 Renderer der sehr gut mit AMD funktioniert, und mit Patch 8.1 Mitte Dezember soll auch nochmal das Multithreading verbessert werden was genau da ansetzt.

Rise of the Tomb Raider war auch so ein Härtefall wo man im Geothermalen Tal ständig im CPU-Limit klebte, auch da gibts mittlweile DX12 was da auch super funktioniert.

Ich persönlich halte das Thema aus eigenen Erfahrungen mittlerweile kaum noch für relevant. Mag noch den einen oder anderen Spezialfall geben wo es ein paar Prozentpunkte ausmacht, aber ansonsten glaube ich nicht dass es sich noch lohnt sich weiterhin seitenweise die Köpfe einzuschlagen. ;)


EDIT:
Raff @PCGH hatte im Zuge des letztens erschienenen Hitman (2018) auch nochmal ein Special veröffentlicht, in dem er sich zum Vergleich nochmal den ersten Teil von 2016 mit seinem relativ alten Bulldozer (FX8350) und R9 Nano mit aktuellem Windows 10 1809
und aktuellem AMD-Treiber im 720p CPU-Limit vorgenommen hat - jeweils in DX11:

Hitman 1 vs. Hitman 2 - DX12 vs. DX11: Darum wäre eine Rückkehr von DirectX 12 wünschenswert

Während er damals 2016 als das Spiel erschein mit exakt demselben System nur 32fps avg schaffte, sind es mit aktuellem 2018er Software-Unterbau nun 49(!) fps avg (und 40 minimum). Zitat:

Bereits 2016 überprüften wir die Prozessorlast des Hitman auf einem AMD-FX-Prozessor. Das hat gute Gründe, denn hierbei handelt es sich um einen pro-MHz-schwachen Chip, welcher jede Entlastung respektive effiziente Ausnutzung gut gebrauchen kann. Die Benchmarks führen wir auf demselben Rechner durch, nun jedoch mit einem frisch installierten Windows 10 1809 (Oktober-Update), neuer Radeon Software sowie den aktuellen Versionen von Hitman 1 (GotY) und Hitman 2. Die Einstellungen sind bewusst CPU-lastig; wir testen in der niedrigen 16:9-Auflösung 1.280 × 720 ohne anisotrope Filterung. Die Ergebnisse in Balkenform:
...
Interessant ist die Performance-Entwicklung zwischen 2016 und heute: Der AMD-PC erreichte vor zweieinhalb Jahren unter DX11 nur rund 32 Fps, nun sind es gute 49 Fps. Die Arbeit an Spiel- und Treiber-Code hat sich offensichtlich gelohnt - und dennoch ist DX12 konsequent schneller

Ziemlich starke Verbesserung.

Man kann auch am Test von CB zu Hitman (2018), welches nur noch DX11 verwendet, an den FullHD Ultra-Benches gut sehen das sich nV- und AMD-Treiber nix mehr nehmen.

Hitman 2 im Technik-Test - ComputerBase

Die sind nämlich komplett CPU-Limitiert (Ryzen 2700X System) und auf allen GPUs praktisch gleichschnell. Hätte der AMD-Treiber hier noch Probleme in DX11, lägen vergleichbare Karten wie 580/1060 nicht
auf demselben Niveau, vor allem bei den Frametimes. Im Gegenteil, bei denen sieht die 580 sogar besser aus.
In der Performanceklasse drüber bei Vega64/1080 liegt man auch gleichauf.

Und das sah in den letzten 12 Monaten bei fast allen größeren Spielereleases/Tests nicht viel anders aus. Einzelne Ausreisser vorhanden die grundsätzlich nicht besonders gut auf AMD
Karten laufen, klar. Das ist dann aber eher Spieleengine-technisch bedingt als dass man es grundsätzlich auf den Treiber schieben könnte.
Aber generell kann man da nicht mehr von viel Unterschied sprechen denke ich.

Das Thema ist auch sonst kaum noch im Gespräch, der Thread bei Guru3D ist schon seit 1,5 Jahren verwaist und wird auch sonst in keinem deutschen oder englischen Forum noch groß behandelt. Das sollte ebenso für sich sprechen. ;)
 
Zuletzt bearbeitet:
Das aber der Kunde der leidtragende ist möchte man nicht verstehen, da...
A) das Grundproblem bereits gelöst wurde (Bestes Beispiel Konsole mit grotiger Singlethreadleistung)
B) Es das Monopol auf dem PC noch verstärkt hat
und C) man den politischen Hintergrund komplett ausblendet.

Produziert der Iran die Nvidia Grafikkarten?:-[
Ansonsten coole Story Bro, nur halt völliger Echsenmenschenverschwörungsquatsch.
 
Lieber Ryze, wenn man sich aktuelle Spielebenchmarks ansehen tut, gibt es so gut wie keine Hinweise mehr darauf, dass AMD Karten im CPU-Limit besonders stark einbrechen tun.

Der politische Hintergrund ist mir bisher aber auch entgangen. ;)
 
Leiht mir ne Vega und BO 4 und ich teste es
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh