AMD und die bescheidene Performance im DX11 CPU Limit

Alte Leier - "Du verstehst es nicht" - aber mach ruhig kauf du das was du für richtig hältst und ich kaufe das was ich für richtig halte ....

Und dann endet die Diskussion wieder mit dem totschlagargument "siehst du Vega ist in BF/Frostbytenegine besser - Ja!!11!!!"


... doof, nur das ich zu dem Zeitpunkt da schon ein Jahr die 1070 besitze und BF1 gar nicht mehr zocke :fresse:
Einfach mal mit dem Gaul Quer über den Acker Galoppieren: https://abload.de/img/bf1_2017_11_05_16_05_fzlbd.jpg
Da kommt Laune auf. :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Super, wieder wundervoll rumgeflamt anstatt etwas sinnvolles zum Thema beizutragen...

Ist ja ok wenn du nvidia kaufst. Wie gesagt am Besten, so wie du es auch hand habst, jede Generation upgraden. Dann hat man auch genug VRAM und die passenden Features. Es gibt aber viele besonders uninforierte, Käufer die tuen das nunmal nicht und schauen entsprechend dann in die Röhre. Mich persönlich interessiert eine Steinzeit-API wie DX11 nicht wirklich. Ich lege da mehr Wert auf das aktuellere Feature-Set und die bessere Hardware-Ausstattung in Form von Rohleistung und VRAM. Das hilft nämlich immer, selbst wenn der Hersteller den Permium-Support für die dann aktuellste Generationen beendet.
 
Zuletzt bearbeitet:
Richtig.
Trotzdem kaufen jetzt wieder die meisten Coffee-Lake statt mal ein gutes und sinnvolles Ryzen-System zusammen zu bauen.
Und in 3 Jahren wird wieder rumgeheult, dass bei jeder neuen Intel-Generation ja nur 2-5% Zuwachs kommt.
Fleissig bei AMD für die Etablierung von SixCores bedankt und dann zu Intel gegriffen... es ist weniger ein Henne-Ei-Problem als ein User-versteht-nicht-seine-Marktmacht-Problem.

Wie viele Leute haben zu einer 1060 statt einer RX480/RX580 gegriffen? Auch schon bevor das Mining-Thema los ging.
Gefühlt haben 80% der Käufer in der Mittelklasse lieber die 1060 bevorzugt. Endlose Threads hier oder Kommentare zu den Tests der Grafikkarten gehen auch in die Richtung - nur weil der Balken 3-5fps mehr angezeigt hat in diversen Tests. Die aktuelle Marktsituation, mehr VRAM, FreeSync-Monitore vs. GSync, etc. wurden völlig ignoriert.
"Ich hol mir die 1060 weil sie mehr FPS bringt und ich beim Stromverbrauch auch noch Geld spare" - und im gleichen Atemzug die 1060 und einen 100€ teureren Monitor im Vergleich zum FreeSync-Modell in den Einkaufskorb gepackt. Glückwunsch.

Ganz ehrlich:
Ich würde auch eher zu einer 1080 als zu einer Vega64 greifen - ganz klar. Aber wenn sich beide Karten nichts nennenswertes geben, greif ich aktuell zu AMD. Alleine aus Marktregulierungsgründen und weil ich auch mal 3 Meter voraus denken kann.
Wenn AMD aufhört Grafikkarten für den PC zu produzieren können wir alle auf Konsolen umsteigen, so viel ist mal klar.

Dazu gibts aber viele gute Gründe, warum das so läuft. Ich würd nie jemandem vorwerfen, dass er sich ne 1060 kauft, die hat, was Stromverbrauch beispielsweise angeht, ja auch ihre Vorteile. Ich denke, dass man sich damit abfinden, dass das so funktioniert, das ist halt das System. Die meisten sind halt nicht so idealistisch oder scheren sich da einfach nicht darum und kaufen einfach die Marke. Es lohnt nicht, sich darüber aufzuregen. Ich mach das zwar auch oft, aber bringt nix. Man muss das entspannt betrachten. Firmen wie NV oder Intel schaufeln sich irgendwo auch ihr eigenes Grab, die einen mit proprietärer Software, die anderen durch Perspektivlosigkeit und mangender Innovation, weil man alles Innovative abgebaut hat. Ich mein, man muss sich das mal vorstellen, das ist ja völlig absurd, was da passiert: Du lässt den einzigen Konkurrenten einen Fuss in den Unternehmen setzen und verbesserst auch noch dessen Reputation im Markt, weil du dessen Technik verwendest, weil der einzige andere Wettbewerber im Markt Software ausschließlich proprietär anbietet :stupid:. So bescheuert muss es erst mal laufen. Man muss sich natürlich darüber im Klaren sein, dass AMD es keinen Deut anders machen würde, wenn sie an NVs oder Intels Stelle wären, es ist halt ein Konzern und der funktioniert auch so. In diesem Fall sind sie halt offen, was (Custom-)Designs, Software (OpenSource) und anderes angeht. So wird die Schwäche halt zur Stärke, aufgrund der Marktposition.

G3cko
Danke für den Beitrag weiter oben. Damit wäre das Overhead-Problem auch endlich mal erschöpfend erklärt und es ist auch klar, warum AMD bei DX11 öfter mal in Probleme läuft.
Es ist im Prinzip wie ich vermutet hab (und was auch Carmack denke ich bei seiner Treiberkritik mit gemeint hat): NV optimiert die Treiber halt für jeden einzelnen auch nur halbwegs relevanten Titel tot. Da ist der Software-Schedular natürlich ne echt tolle Sache... aber auch da darf man sich keiner Illusion hingeben, das machen die bei LL ganz genauso. Es kann eher sein, dass die ACEs bei LL in Zukunft besser ausgelastet werden können, also AMD weniger Nachteile hat, mehr wird sich da nicht ändern.
 
Zuletzt bearbeitet:
Leider gibt es einige Titel, welche nur einen "aufgeflanschten" DX12 Renderzweig besitzen. Es verwundert daher auch nicht, dass dann die DrawCalls auch nicht besser ausfallen. Hier heißt es entweder richtig oder garnicht.

Interessant finde ich auch den Punkt, dass häufig immer Bulldozer für den DX11/Dx12-Overheadtest herangezogen wird. Oder entsprechend aktuelle High-End-CPUs mit vielen Kernen. Diese CPUs haben vergleichsweise viel Power in der Breite als Reserve über und skalieren ideal mit Nvidias Software-Scheduler. Hat man jedoch einen alten AMD/Intel 4 Kerner, gerade ohne SMT kann Nvidias Lösung auch ganz andere Resulate liefern als ich zumindest bisher immer glaubte:

Mal ein paar Beispiele. Man achte auf die CPU- bzw GPU-Auslastung und die fps.

2.png


3.png


Witcher3.png
 
Zuletzt bearbeitet:
Potential: https://abload.de/img/bf1_2017_11_05_15_54_cjuli.jpg

 
Leider gibt es einige Titel, welche nur einen "aufgeflanschten" DX12 Renderzweig besitzen. Es verwundert daher auch nicht, dass dann die DrawCalls auch nicht besser ausfallen. Hier heißt es entweder richtig oder garnicht.

Interessant finde ich auch den Punkt, dass häufig immer Bulldozer für den DX11/Dx12-Overheadtest herangezogen wird. Oder entsprechend aktuelle High-End-CPUs mit vielen Kernen. Diese CPUs haben vergleichsweise viel Power in der Breite als Reserve über und skalieren ideal mit Nvidias Software-Scheduler. Hat man jedoch einen alten AMD/Intel 4 Kerner, gerade ohne SMT kann Nvidias Lösung auch ganz andere Resulate liefern als ich zumindest bisher immer glaubte:

Mal ein paar Beispiele. Man achte auf die CPU- bzw GPU-Auslastung und die fps.

2.png


3.png


Witcher3..png

bitte immer die quelle mit angeben.
 

Ist mir bei Witcher 3 ebenfalls aufgefallen im Taskmanager bei meinem 2500K @4.6 Ghz und einer RX560 4GB. Die CPU-Auslastung kam mir nicht so hoch vor, wie ich es erwartet habe oder in einigen Benches zu sehen war. Wenn die Youtube Videos objektiv gemacht werden, sind sie für eine Kaufberatung ein besserer Indikator als Online -und Fachzeitschriften.
 
Zuletzt bearbeitet:
die rx560 wird halt brutal limitieren, wundert daher wenig das da dann keine hohe cpu-auslastung vorliegt^^

reduzier doch mal die Auflösung auf 800*600, dann wird sich auch deine cpu-auslastung erhöhen.
 
Und? Schmiert die Amd jetzt noch so brutal ab wie früher?
 
Bin ganz zufrieden mit den fps der Vega in 1080p. :fresse:

Screenshot (7).jpg
 
5% liegen zwischen Vega56 und Vega64. Nicht mal 90fps unter FullHD.

Das Spiel benötigt eine schnelle CPU, um in Rennen gegen mehrere Kontrahenten flüssig zu laufen. Je nachdem, wie stark die CPU das Geschehen limitiert, desto größer ist die Differenz zwischen Radeon und Geforce. Dies zeigt der Vergleich der Radeon RX Vega 56 mit der Geforce GTX 1070 Ti: Letztere ist in Full HD, wo zu weiten Teilen der Prozessor bremst, deutlich schneller als die AMD-Karte. Letztere macht mit steigender Auflösung Boden gut.
 
Zuletzt bearbeitet:
Und? Schmiert die Amd jetzt noch so brutal ab wie früher?

Meine AMD Karte schmieren nicht ab. Die RX560 4GB läuft und seit gestern eine RX570 4GB. Einfach die eine Karte raus und die Andere rein und alles läuft fehlerlos bis auf Grim Dawn. Dort ist die Auslastung der CPU auf einem Core maximal auf 30-40%.
 
Zuletzt bearbeitet:
Im neuen Call of Duty BlackOps 4 "Blackout" sieht man ein ähnliches Bild wie im alten Advanced Warfare Beispiel von Seite 1.

Wärend die Vega 64 im GPU test in in 1440p immerhin mit der 1070ti mithält und in 4k gar die gtx 1080 übertrumpft, schaut das ganze im CPU-Limit gar katastrophal aus.
So kommt es dann, dass man im CPU-Limit mit der GTX 1070 non-Ti eine 50% höhere framerate und mit der GTX 1080 gar eine 70% höhere framerate erzielt.

collect.jpg
http://666kb.com/i/dx1nis6ef8tua3fdl.jpg
Call of Duty: Black Ops 4 Blackout Beta те�т GPU/CPU | Action / FPS / TPS | Те�т GPU


Entsprechend groß ist da das gejammere auf Reddit, hören will man da von der Problematik allerdings lieber nichts..
Huge performance issue in call of duty blackout beta on RX Vega 64 LC : Amd



edit:
ich hab mir das ganze mal noch etwas genauer angeschaut, die Kombination aus dem 6 jahre alten FX8350 und GTX 1060 produziert dann die selbe minimum-Framerate wie der Ryzen 2700X + Vega 64 :fresse:
der Overhead frisst hier im CPU-Limit also mal eben die komplette Mehrleistung einer kompletten CPU-Generation auf.

1060.jpg
 
Zuletzt bearbeitet:
Davon habe ich gehört, kollege mit 2600x + Vega64 hatte das ganz massiv. Ich, i7 4790k + Vega 64 überhaupt nicht, und das über viele runden hinweg. Komische geschichte
 
Deshalb finger weg von AMD Grafikkarten.
Das Thema ist so dermaßen alt und bis heute hat AMD ihre treiber nicht gefixt.
Mir ist das damal bei Bad Company 2 aufgefallen und darauf hin gabs nen Artikel „GPU braucht CPU“
Seit dem weiß man das AMD mehr CPU overhead erzeugt als NVIDIA und was AMD gemacht? Richtig garnichts!
Deshalb mache ich um AMD Grafikkarten nen Bogen.
 
Davon habe ich gehört, kollege mit 2600x + Vega64 hatte das ganz massiv. Ich, i7 4790k + Vega 64 überhaupt nicht, und das über viele runden hinweg. Komische geschichte
Hm von der Leistung her nehmen sich die Prozessoren aber nichts.
 
Hm von der Leistung her nehmen sich die Prozessoren aber nichts.

Laut Sysinfo hat er das Teil auf 4,6GHz. Selbst mit viel Liebe kommt da ein Ryzen nicht mit. Zumindest in Games, die mit 4C/8T gut funktionieren. Paar Ausnahmen wo der 6C Ryzen klar im Vorteil ist, gibts deswegen ja trotzdem - die Regel ist das aber (noch) nicht.

Deshalb finger weg von AMD Grafikkarten.
Das Thema ist so dermaßen alt und bis heute hat AMD ihre treiber nicht gefixt.

Wobei man aber auch sagen muss, dass das Problem nicht von NV gelöst ist/wurde. Mittlerweile gibts so schnelle GPUs, dass auch der NV Ansatz wieder ins Limit läuft.
Siehste doch schon schön an den 2080TI Tests. Die Ergebnisse schwanken - zu lahme CPU und schon verliert das Teil auch in 1440p oder UHD Tests obenraus einfach Performance - oder sagen wir es anders, es kann die Performance nicht ausspielen.
 
Nur ein Rant

Ich hinterlasse hier für die Nachwelt gerade auch mal einen Post. Bei mir ist es allerdings etwas "lustiger" wenn man das so als Ausenstehender mit etwas Schadenfreude ließt.

Ich komme von der ersten Titan Generation: GTX TITAN | ZOTAC in Verbindung mit einem Phenom II X6 1100T Übertaktet auf 3.8 GHz

Da jemand aus dem Familienkreis eine neue Graka brauchte (aber nicht wirklich Geld locker hat) dachte ich also "Gut kaufst mal die neueste AMD Generation, wird im schlimmsten Fall auf die gleiche Leistung rauslaufen" (die Titan war schon z.T. am CPU Limit, also habe ich kein Plus an Performance erwartet).

Es passiert natürlich das was man (ich) NICHT erwartet hat: Ich habe in den Spielen die ich hauptsächlich Spiele (keine neuen Games, ergo kein DX12 oder Mantle) weniger FPS als vorher

In manchen Spielen macht die alte Titan mal eben gut die doppelte MIN FPS (20fps vs 40fps) verglichen mit der Nitro+ - das ist schon extrem lächerlich (mir fehlen da so ein bisschen die Worte, um meinen Unmut & meine eigene Dummheit die Karte mal eben so zu kaufen ohne mich vorher tiefer damit zu beschäftigen, darzustellen).

Fazit: Bei "alten" Systemen (mögliches CPU Limit) mit Spielen die DX11 haben kann man AMD auf jeden Fall mit Anlauf in die Tonne treten. Die alten Spiele schreibt ja niemand auf Mantle oder DX12 um, bringt also niks wenn die Grafikkarten dort tolle Performance liefern.

Ja ich kann mir eine neue CPU leisten, und NEIN das hatte ich nicht geplant und aktuell auch keine Lust auf Upgrades mehr. Ich schiebe die Vega jetzt also dem Familienmitglied unter (auch wenn explizit kein AMD von dem Familienmitglied gewünscht war...) und baue stattdessen bei mir die Titan wieder ein.

Leider muss ich nun auch zukünftige Kaufentscheidungen eher zu ungunsten von AMD treffen. Blöderweise bleibt einem dann nur noch Intel / nVidia welche auf andere Art & Weisen "Scheiße" sind. Tolle neue Welt mit so viel Auswahl!

----

Zur Refernz hier meine Posts (Ich wurde durch @Holzmann auf diesen Topic hier aufmerksam gemacht, hatte die Problematik vor 1-2 Jahren schonmal gesehen und zwischenzeitlich vergessen da mich das natürlich bis heute nicht betraf...)

[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 300
[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 300
[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 300
[Sammelthread] AMD RX VEGA Sammelthread + FAQ - Seite 300
 
Zuletzt bearbeitet:
nur weils so schön bezeichnend ist, aber leider ein wenig untergeht:
deine olle Kepler-Titan hat in summe ca. doppelt so hohe min fps, als Vega 64?
hab ich das so richtig verstanden? ernsthaft?
 
In der Konstellation mit schwacher CPU und alten (DX11) Spielen - ja so lese ich es auch.

Das DX12 gehype habe ich eh nie verstanden ....

Es kann eine Sache in der Theorie noch so toll sein, wenn es sich nicht durchsetzt dann ist es ne Totgeburt ....
 
Antheus das ne Vega 56/64 so abkackt gegen eine Titan first Gen kann ich mir echt nicht vorstellen. Aber okay mit einem Phenom II X6 1100T kann das schon sein da diese Cpu nicht mehr so viele Games in richtung 50+Fps wuppen tut meine da mit neuere Titel. Dachte eigentlich mal gelesen zuhaben das AMD das etwas in den Griff bekommen hat.
 
Zuletzt bearbeitet:
Kann ich auch nicht so recht glauben, deswegen habe ich nochmal alles doppelt und dreifach geprüft.

Die Spiele mit den Massiven Einbrüchen sind (bisher) OpenGL Titel - ich hatte zuerst den untenstehenden Topic gefunden

Dreadful OpenGL performance | Community

Ich mache da später auch einen Post mit den Messdaten zwischen den beiden Grafikkarten (via dem "bin.zip" Anhang in dem Topic), und dann habe ich noch jeweils einmal die vier Benches (Superposition, Heaven, Tropical und Valley) in den verfügbaren Rendertypen (DX9-11 und OpenGL), nu muss ich nur noch nach ein paar "RL" Szenarien schauen und dann das gleiche mit der Nitro wiederholen.

Wenn ich das alles durch habe korrigiere ich entsprechend meine alten Posts.
 
Zuletzt bearbeitet:
Im neuen Call of Duty BlackOps 4 "Blackout" sieht man ein ähnliches Bild wie im alten Advanced Warfare Beispiel von Seite 1.

Wärend die Vega 64 im GPU test in in 1440p immerhin mit der 1070ti mithält und in 4k gar die gtx 1080 übertrumpft, schaut das ganze im CPU-Limit gar katastrophal aus.
So kommt es dann, dass man im CPU-Limit mit der GTX 1070 non-Ti eine 50% höhere framerate und mit der GTX 1080 gar eine 70% höhere framerate erzielt.

Anhang anzeigen 444066
http://666kb.com/i/dx1nis6ef8tua3fdl.jpg
Call of Duty: Black Ops 4 Blackout Beta те�т GPU/CPU | Action / FPS / TPS | Те�т GPU


Entsprechend groß ist da das gejammere auf Reddit, hören will man da von der Problematik allerdings lieber nichts..
Huge performance issue in call of duty blackout beta on RX Vega 64 LC : Amd



edit:
ich hab mir das ganze mal noch etwas genauer angeschaut, die Kombination aus dem 6 jahre alten FX8350 und GTX 1060 produziert dann die selbe minimum-Framerate wie der Ryzen 2700X + Vega 64 :fresse:
der Overhead frisst hier im CPU-Limit also mal eben die komplette Mehrleistung einer kompletten CPU-Generation auf.

Anhang anzeigen 444079

Das ist ein API Problem. Das wurde hier zur genüge erläutert. Auch Nvidia hängt in DX11 massiv im CPU-Limit. Und selbst wenn AMD ihren Treiber anpassen würde. Dann würden die Entwickler eben beide Hersteller ans Limit programmieren. AMD hätte also Arbeit investiert und einen Gleichstand in einer veralteten API.

In deinem Beispiel beträgt der Vorsprung 1080Ti vs 1080 in 4k 30%. In FullHD halbiert sich der Vorsprung. Nun nimm mal eine 2080Ti. Da wird es noch extremer sein.

Hätten wir mehere Hersteller hätte sich Low-Level viel schneller durchgesetzt. So hat Nvidia das Thema ausgesessen bis man mit dem Raytracing-Denoiser ein Mittel hat um sich auf diese Bühne zu wagen. War ja auch einfach. Einfach Querstellen. Immer etwas mehr fps haben. Fertig.

Das der Kunde selbst der leidtragende der Geschichte war hat kaum Jemand begriffen.
 
Zuletzt bearbeitet:
Das ist ein API Problem. Das wurde hier zur genüge erläutert.

Das ist vor allem AMD´s Problem und nicht das einer API.
Der Kunde sieht nur dass es bei Nvidia besser läuft, was letzten endes der Grund dafür ist, interessiert niemanden.

Auch Nvidia hängt in DX11 massiv im CPU-Limit.

Bei weitem nicht so stark. Ein FX hat eine um 50% niedrigere IPC als ein Ryzen 2700x, hier ist Nvidia wohl massivst schneller unterwegs.
Das Problem besteht schon seit über 10 Jahren. Vor 10 Jahren war mit Directx12 noch gar nichts los.

AMD hätte also Arbeit investiert und einen Gleichstand in einer veralteten API.

Wäre ja auch zynisch für die am weitesten verbreitete API noch irgendwas zu machen.:d
Hast recht, du bist der Checker.

Hätten wir mehere Hersteller hätte sich Low-Level viel schneller durchgesetzt. So hat Nvidia das Thema ausgesessen bis man mit dem Raytracing-Denoiser ein Mittel hat um sich auf diese Bühne zu wagen. War ja auch einfach. Einfach Querstellen. Immer etwas mehr fps haben. Fertig.

Mehr Hersteller bedeuten mehr Optimierungsaufwand für die Directx12 Schnittstelle, also nein.
Der Rest ist einfach eine dummdreiste Verschwörungstheorie.
Nicht vergessen, die Welt ist eine Scheibe!
 
Du musst hier nur eine Seite zurück gehen:

Hierzu hilft folgendes Video:
AMD vs NV Drivers: A Brief History and Understanding Scheduling CPU Overhead - YouTube

Kurz gesagt: Nvidia setzt seit Kepler auf einen Software-Sheduler, welcher die Probleme von Dx11 angeht und die Threads in Software aufteilt und so den Mainthread entlastet. Dies hilft für höhere drawcalls. Da es jedoch eine Softwarelösungen ist und es das Aufteilen der Threads nicht umsonst gibt, verursacht diese Lösung mehr CPU-Last. Da nicht alle Spiele perfekt skalieren und häufig CPU-Leistung in der Breite brach liegt, sorgt dies in den meisten Fällen für mehr drawcalls. In einem Titel der bereits sehr gut skaliert, oder wenn die CPU zu 100% ausgelastet ist, kann das auch ein Nachteil sein. (Per Definition verursacht also der Nvidia Treiber einen höheren Overhead und nicht der AMD Treiber. Nvidias Lösung entlastet dafür jedoch den Mainthread)

AMD hingegen setzt auf einen Hardwaresheduler (ACE), welcher dies effizienter macht als es ein Software-Sheduler je könnte. Dies benötigt jedoch zwingend eine LowLevel-API, da dieser nicht mit dem Featureset von DX11 umgehen kann. Durch die Hardwarelösung kann AMD dies auch nicht per Software Mal eben wieder ändern.

Mit LL (LowLevel) hat AMD das Problem komplett gelöst, während nvidias Lösung nur ein Workaround für die Probleme einer veralteten API wie DX11 ist. Zudem kommt hinzu, dass bei nvidias Lösung derjenige gewinnt, der am Ende mehr "Menpower" bzw Geld in sein Treiberteam steckt. Wie alle Lösungen von Nvidia also wieder ein proprietärer Ansatz.

Die Entwickler sind also gefangen zwischen dem Marktführer, welcher am liebsten in der Vergangenheit bleibt und dem Underdog, welcher bereits die Lösung bereit hält an der alle ohnehin nicht vorbei kommen.

Keiner der beiden wird von seiner Strategie abweichen da es automatisch eine Stärkung des anderen wäre. Durch die ungleichen Marktanteile ist jedoch der Kunde der Leidtragende, da so Fortschritt zurückgehalten wird.

Mit etwas Abstand sieht man ja auch, dass Nvidias Plan voll aufging. Es reichte schon als Marktführer Low-Level halbherzig zu untersützen. Viele sind ja immernoch der Meinung, dass "DX11 4 ever" die Lösung ist. Dabei ist Nvidias-Treiber eben Nvidia vorbehalten und daher logisch ein propritärer Ansatz. Dieser Ansatz ist aber eine Sackgasse, da man in fast jedem Titel ebenfalls im CPU-Limit hängt, wenn auch später. Ein Tropfen auf den heißten Stein. Gerade da Grafikkarten weiterhin deutliche Performancezuwächse verzeichen während CPUs in Sachen SingleCore-Performance kaum zulegen. Dennoch Zweck erfüllt, da AMDs Marktanteile weiter extrem nierdrig sind. Nach langer Entwicklungszeit, hat man ja nun ein eigenes Zugpferd um sich auf den DX12 Zug zu trauen. Zudem mussten ja die Kosten für den DX11 Treiber wieder rein. Wie unausweichlich Low-Level ist hat man spätestens an der hecktischen Reaktion von Microsoft gemerkt. Ohne den Makrtführer aka Technologiebremse Nvidia gehts aber im PC Breich leider nicht. Auf der Konsole dagegen kennt man seit jeher nichts anders und kommt mit einem AMD Jaguar 2,3 Ghz zurecht. IPC und Takt, also die SingelCore-Perfomance weit weit hinter Zen.
 
Zuletzt bearbeitet:
Wenn man mit Hoffnung auf eine andere API entwickelt hat nicht die Konkurrenz Fehler gemacht. Und noch dominieren die DX11-Titel. Da ist mir egal wieso die Karten langsamer sind.

Wobei ich die Schwäche im GPU-Limit nicht nachvollziehen kann. Meine AMD laufen auch mit einem Fx gut.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh