AMD und die bescheidene Performance im DX11 CPU Limit

Jetzt wartet doch erstmal ab. Ich würde hier keine voreiligen Schlüsse ziehen. Der Test zeigt vor allem: DX12 hat Potential und wir Spieler werden davon früher oder später profitieren.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
welche dx12 spiele werden in den nächsten monaten eigentlich released?
mir fällt da spontan nur quantum break an.
Gears of War .
Jetzt Was ganz interessantes es wird eine 390X und eine 980TI empfohlen für Ultra HD.

http://www.computerbase.de/2016-02/...on-mittelklasse-hardware-fuer-full-hd-noetig/
Hitman kommt auch.

Das past sich ganz gut meine 980Ti geht weg Anfang April da es in die Sommerpause geht und Arbeiten am Haus anstehen ende Sommer Anfang Herbdt wird was neues gekauft mal schauen wie dann der Stand der Dinge ist.
 
Zuletzt bearbeitet:
Soweit mir bekannt, gibt es da keine Studie bzw. Zahlen ):

Das Problem ist auch, was zu berücksichtigen gilt, dass nicht jeder der 4K Equipment hat es auch nutzt ....

Da müsste man ne konkrete suvey machen, hat aber nicht mal steam bis dato ...
 
Zuletzt bearbeitet:
wieviel % aller Zocker zocken in UHD?

Nicht up to date:love::d
Wen es irgendwas hergibt wird sogar auf 8K hochgedreht.:fresse2:
Wie sowas z.b
:drool::d

Bei uns im Forum gibt es zumindest mehr Leute als ich Zehen und Finger bei mir zählen kann die 4K zocken.
Nicht bei jedem müssen es 144+HZ Schirme sein gerade die ältere Fraktion weicht immer mehr ab von MP Egoshootern und besinnt sich auf Singleplayer in höherer Bildqualität.
 
Zuletzt bearbeitet:
wieviel % aller Zocker zocken in UHD?

Wenn die Grafikkarten mehr leisten, wobei Leistung sowohl Hardware als auch Software ist, werden es immer mehr werden. Ein UHD-Monitor gibt es jetzt schon für 300-400 Euro.
Und ganz nebenbei, unter DX12 ziehen die AMD-Karten sogar in Full-HD Kreise um die Konkurrenz. Da muss man erst mal abwarten ob NVIDIA bei Pascal genügend Weitsicht hatte um DX12_1 nicht nur als Support auf ihren Verpackungen zu schreiben.

Ich gehe sogar soweit zu sagen, wenn DX12 schon viel früher gekommen wäre und AMD nicht extra mit Mantle kräftig Druck machen musste, so hätten wir Heute sehr viel mehr Spieler die mit höherer Auflösung Zocken. ;)

Leider scheint NVIDIA wieder mal kräftig das Rad des Fortschritts anhalten zu wollen um die Entwicklung auf ihre kostengünstigere Ebene verweilen zu lassen.
Async Shaders: Fehlende DirectX-12-Funktion auf Nvidia-Grafikkarten "ein vollkommenes Desaster" | heise online

Ich hoffe, das diesmal der Fortschritt gewinnt. :)
Spiele wie Deus Ex, Hitman und Fable ect. werden es zeigen müssen.
 
Zuletzt bearbeitet:
@Pickebuh
Der Erfolg gibt NV recht die Hard und Software ist super abgestimmt auf das was der Markt bisher verlangt hat.
Noch muss man auf die ersten Spiele in DX12 warten sollte bis dahin DX12 bei NV keine Früchte tragen steht Pascal vor der Tür verliert man dann den Anschluss dann sieht es gut aus für AMD .
Den Momentan hat NV seine Hardware schon an den Mann bzw. Frau gebracht.

Das timming könnte NV sogar in die Karten spielen wen es so ist das DX12 nutzlos für Maxwell ist aber Pascal dort voll zu schlägt.
Mann muss das abwarten.

Aber ich möchte mich hier nicht vom eigentlichen Thema entfernen sorry für OT.
 
Zuletzt bearbeitet:
Sprecht es doch aus.;)
Ich sehe das ganz anders ich kaufe das was für mich gerade als Endverbraucher am Sinnvollsten ist.
In meinem Fall alles richtig gemacht da ich jedes Jahr ne neue Karte kaufe.
Das macht es für mich dann einfacher zu Wissen das ich für den Zeitraum welchen manche Zukunft nenen mich richtig entschieden zu haben.:haha:
 
Zuletzt bearbeitet:
*aufgeräumt*
 
... Und ganz nebenbei, unter DX12 ziehen die AMD-Karten sogar in Full-HD Kreise um die Konkurrenz. Da muss man erst mal abwarten ...
in welchen DX12-Spielen ist das denn so? müssen wir die nicht erst noch abwarten?
und was hat das mit AMDs bescheidener Performance im DX11-CPU-Limit zu tun? du schreibst soviel von DX12, DX12 is doch gar nicht DX11.

die Überschriften von Heise muten verdammt oft genauso reißerisch daneben an, wie die der BILD. dir deine Meinung ...
 
AMD hat wohl durch die Mantel Entwicklungen Vorteile geschaffen, daher kann NV eigendlich an der aktuellen Lage kein Vorwurf gemacht werden ....

Richtig interessant wird DX12 aber onehin erst in einigen Monaten, sprich wenn es ein paar mehr relevante Titel gibt
und bis dahin dürfte die nächste Nvidia Generation (Pascal) sowohl HBM2 als auch eine deutlich bessere DX 12 integration bieten.
Erst dann werden die Karten neu gemischt werden.
Alles andere hier ist ein Tanz um das goldene Kalb!
 
Was aber alles nicht das eigendliche Thema dieses Threads ist. Selbst wenn die ersten 4,5,6 Spiele mit DX12 erschienen sind, gibts imnernoch ne Menge Spiele mit DX11, die entweder schon erschienen sind oder noch kommen. Es ging hier auch nie darum, ob eine Nvidia- oder AMD Karte "besser" ist, sondern um die Performance von AMD Karten im CPU Limit.
Das kann man auch mal neutral betrachten, ohne dahinter gleich eine Verschwörung, Abwertung oder sonstige negative Vorwürfe zu vermuten.
 
Hab hier noch Screens von der Release-Version vom 31.1. mit damals aktuellem Treiber (weiß nicht mehr genau welcher genau das war) aus RotTR. Gibt immer wieder Stellen ingame die für extreme Performance-Einbrüche sorgen und komplett im CPU-Limit stecken.

1080p (720p selbes Bild mit noch weniger GPU load), 8xAF, Tesselation aus per Treiber, Detail Level Mittel, Schatten Mittel, Pure Hair ein, Rest aus oder so niedrig wie geht. Fps Limit 50 per RTSS. CPU war @4Ghz.

Alles schön, 90% GPU (geht mit den Settings auch nirgends höher), CPU load völlig im grünen Bereich, 50fps:


Gehe ich zwei Meter vor, CPU load fast 100%, GPU bricht auf 69% ein, fps brechen auf 33 ein:


Zwei Meter zurück, alles wie in Bild 1, wieder zwei Meter vor -> Bild 2.

Nach ein paar Patches, Umzug auf SSD+frischem 8.1 und neuen Crimson-Versionen hat sich die Situation zwar etwas verbessert, aber an den (wirklich nicht wenigen) Stellen wo dieses Verhalten auftritt, brechen die fps bei gleichem CPU-Takt wie damals (4GHz) immer noch auf ~40 ein.
Gegentest mit 3,6Ghz -> ~35fps, Gegentest mit 4,4Ghz -> ~45fps. Immer noch komplett im CPU Limit. Im PCGH waren im Benchmark-Newsthread Leute mit ungefähr vergleichbarer nV-GPU (960) mit Screenshots zwar bei 99% im GPU-Limit also nicht 100% vergleichbar, allerdings mit nem 3550 auf Standardtakt an den schlimmen Stellen bei 45fps, trotz ~20% weniger CPU Takt und nicht 95% CPU Last.

Dagegen gibt es da einige User die mit ebenfalls 3570K und 290 oder 390, die dieselben Probleme haben, und zumindest der mit der 290 bestätigte mir per PN dass auch da CPU-OC auf 4GHz die drops minimierte, aber immer noch dieselben Probleme zeigte.

Hätte ich eine nV hier würd ich das glatt nochmal gegentesten, aber es sieht tatsächlich so aus als wäre das bei nV Karten wesentlich milder, da die CPU Last grundsätzlich niedriger ist und auch nicht so hart ins Limit rennt.

Macht auf jeden Fall keinen Spass so, selbst fixe 50fps sind in dem Spiel schon hart an der Grenze, drops auf 40 oder sogar tiefer aufgrund der nicht nachvollziehbaren CPU-Last sind dann richtig eklig.

Ob das nun schlechte Optimierung ist, die Engine oder tatsächlich AMD-DX11-Treiberoverhead aufgrund von (zu) hohen Draw Calls oder whatever, auf jeden Fall scheint es mit vergleichbarer CPU + nV wesentlich weniger Probleme zu geben.
 
Gleiches kannst auch bei Fallout 4 machen ^^

Logisch bemerke ich das mit einem FX noch mal wesentlich häufiger und vor allem heftiger als jemand mit einem i7.

Dennoch muss man sagen das es sich aktuell noch recht in grenzen hält sofern man - seinen Anspruch - bei 60 FPS hat und nicht darüber.

Ich spiele sehr viel . darunter eben auch Fallout 4 / Witcher 3 / Star Wars Battlefront / BF Reihe, BO2 / Project Cars uswusf...

Bisher ist mir die Thematik in folgenden Titeln aufgefallen:

DayZ -> Logisch, sowieso Baustelle und läuft nirgends in jeder Szene ast rein.

Guild Wars 2 : Nur in großen Zerks, auch logisch, sehr IPC lastig und dazu nicht wirklich Multi Core optimiert. In großen Zerks kriegst da auch ein 6700k @ 4,5 Platt. Selbst versucht und brach auf 30 FPS ein wo der FX allerdings nur noch 20 hat...

Project Cars: Nur bei extremen Wetter Verhältnissen mit vielen Autos, und definitiv ein CPU Limit da es in der selben Szene mit gleichen Einstellungen und Graka mit genannten OC 6700k nicht passiert. Da geht es mit dem FX dann schnell auf 45 runter und später wieder auf 60 hoch wenn das Feld sich gelichtet hat.

Fallout 4 : Ja da hat auch Intel hier und da an gewissen Stellen Probleme. Der FX in meiner Sig, hat da aber ständig Probleme die 60 zu halten und schwankt demnach immer zwischen 45-60 wo der genannte 6700k flutschig weiter bei 60 Arbeitet. Bei Fallout hat man dieses Problem an gewissen Stellen aber selbst mit einem i7 in Verbindung mit einer NV Karte.

Rise of the Tomb Raider: Hier merkt man es auch sehr deutlich , zwar bricht hier und da auch der 6700k ein, aber der FX noch mal um die 10 FPS mehr an berüchtigten Stellen.

Das war es aber aktuell auch. Mit allen anderen Titeln aktuell und auch in der Vergangenheit die ich spielte, keine Probleme gehabt die 60 zu halten.
Beziehe mich bei der Aussage hauptsächlich aus der Sicht eines FX Users.

Ich weise daraufhin das dass Sys in der Sig mein zweit Sys ist. Das haupt Sys steht in der System Info ;)

Da wir dieses Thema aber insbesondere auch schon oft im 3DC hatten, hatte ich da schon mehr als genug rum getestet und die 390 zum FX gesteckt und umgekehrt uswusf.

Und ich denke an der Game Auswahl wird es nicht liegen mit knapp 100 Steam Spielen , etlichen Origin Titeln usw.

Kurz gesagt:

Ja der DX Overhead ist mehr als ärgerlich , nach all der Zeit möchte ich sogar behaupten unnötig.
Hat man sein Fokus auf 60 FPS so fällt es nur in wenigen Titeln auf und da gilt noch zu differenzieren ob man die, wenn auch nicht so stark, nicht auch mit einer NV Karte hat. (Fallout 4 z.B.)

Der FX ist aller spätestens jetzt 2016 wirklich am Ende bei aktuellen Titeln was das liefern von 60 FPS in aktuellen Titeln angeht, somit kommt es jetzt noch wesentlich stärker darauf an wie gut der Titel Multi Core optimiert ist oder nicht damit er es schafft.

JETZT ist er auf gar keinen Fall mehr zu empfehlen wenn der Anspruch eben bei 60 FPS liegt. Und dabei ist es egal wie hoch er getaktet ist. Hatte meinen ebenso mal auf 4,7 GHz zu test zwecken.

-----------

Was DX 12 angeht.

Viele scheinen hier zu meinen das wenn DX 12 Titel kommen und die CPU entlasten wie auch die Graka Power mehr freisetzen könnten sie mit ihrer bisherigen Hardware noch lange auskommen.

Das mag kurzfristig gesehen vll. sogar stimmen.

In der Realität , gerade wenn wir von Ports sprechen was der großteil aber ja nun mal ist (leider), wird es doch wohl eher so aussehen das die frei gewordene Performance entweder dazu genutzt wird mehr Details zu liefern, oder aber auch wohl leider die gewissen Studios animiert sich noch weniger mühe beim Port zu geben.
 
Zuletzt bearbeitet von einem Moderator:
Ehrlich gesagt, wenn ich an DX12 denke, gehts mir gar nichtmal um erhöhte GPU-Performance - die wird sich auf den GCN1.0-Karten vermutlich eh nicht massiv verbessern. Der eine Test auf Anandtech für AotS scheint zwar selbst auf der 7970 noch eine nette Verbesserung zu zeigen (30->36fps von DX11 zu DX12, sind immerhin gut 20%), aber das ist auch nur ein Benchmark der nicht zwingend aussagekräftig ist was andere Titel angehen wird.

Darum gehts auch gar nicht zwingend - wovon ich mir mehr verspreche, sind halt Titel die generell in DX12 (oder gerne auch Vulkan) von Entlastung der CPU profitieren würden, gerade Sims (Flight+Rennsims) oder RTS die mit viel KI immer noch gerne extrem CPU-Limitiert sind. Gerade die überalterten FluSi's (DCS, FSX) fressen CPU zum Frühstück.

Bisher hatte ich selbst mit der 7950 kaum Probleme, mit angepassten Settings sind pCARS, Assetto Corsa oder reichlich anderen Spiele auch kein Problem gewesen @60fps, wenn man Regler so bedient dass es passt. GTA 5 und Witcher 3 reichen mir auch 50fps , das geht noch halbwegs, und GTA5 selbst mit relativ viel Verkehr/Sichtweite/Passanten lief immernoch anständig, in W3 sind CPU-technisch 50fps überhaupt nicht kritisch.

RotTR scheint hier wirklich einer der Härtefälle zu sein, dass selbst ein 3570K @4,4 (in Verbindung mit AMD-Karte) nicht ausreicht um über 45 Min-fps zu kommen. Wenn es nur ein zwei Stellen wären, wär das gar nicht so kritisch, aber das kommt dann doch recht oft vor und stört den Spielfluss doch massiv. Scheint halt auf nV Karten nicht so extrem zu sein, wenn ein 3550@allCore 3,5 mit einer 960 auch 45fps zaubert, dabei aber eben nicht bei 95% rödelt sondern wesentlich niedriger (habs jetzt nicht genau im Kopf, aber waren definitiv weit unter 80%).

Wie gesagt, was in Tomb Raider nu genau das Problem ist, das weiß wohl nur Square Enix, aber ein mehr oder weniger Schlauch-SP-"Shooter" ohne viel KI darf einfach nicht so viel CPU fressen, das Problem haben ja auch nV-User, nur eben nicht so stark. Gibts keinen Grund warum das nicht CPU-technisch grundsätzlich mit 60fps laufen sollte wenn man GPU-Settings weit genug runter dreht, zumindest ein halbwegs aktueller Intel 4-Kerner mit starkem OC sollte das wohl stemmen...
 
Zuletzt bearbeitet:
@nightwatch
Genau das macht mich stutzig, du sagst erst 60 fps sind wirklich gut spielbar.
Ich spiele stellenweise mit 30fps und es läuft wirklich top auch der input ist einwandfrei.
Die 30fps liegen aber nur dann an wenn ich nicht auf die Bildqualität verzichten möchte, also mit vsr (downsampling) und mit einer hd 7970 bsp. Just cause 3.

Es kann doch nicht sein, das unser empfinden dermaßen unterschiedlich ist, oder doch?
 
Anscheinend doch...
Ich habe FreeSync und empfinde alles unter ca. 44 FPS auch als sehr unangenehm... (auch Just Cause 3) ;)
 
Bei konstant 30fps wird mir übel. Ab 50 gehts halbwegs. Und ich meine wirklich übel, im Sinne von krank. Mag auch mit meinem eh schon nicht besonders guten Gesundheitszustand zusammenhängen, das potenziert sich dann.

Und dass bei 30fps kein inputlag vorhanden ist, kannst du - mit Verlaub - deiner Oma erzählen... Das ist so übel daß es nicht mehr schön ist. Kannst ja mal versuchen in Assetto Corsa mit Wheel im Hotlapping Rundenzeiten auf RSR WR-Niveau @ 30fps zu fahren, da ist selbst der Unterschied 60->120fps teils noch ausschlaggebend.

Das ist aber auch nicht Thema dieses Threads...
 
@nightwatch
Genau das macht mich stutzig, du sagst erst 60 fps sind wirklich gut spielbar.
Ich spiele stellenweise mit 30fps und es läuft wirklich top auch der input ist einwandfrei.
Die 30fps liegen aber nur dann an wenn ich nicht auf die Bildqualität verzichten möchte, also mit vsr (downsampling) und mit einer hd 7970 bsp. Just cause 3.

Es kann doch nicht sein, das unser empfinden dermaßen unterschiedlich ist, oder doch?

Skyrim is das einzige Spiel, das für mich mit 35 fps noch flüssig ist. bei allem anderen hab ich "flüssig" erst ab 45, 50 fps.
 
*aufgeräumt* und da es das 2. mal binnen 24h ist, mache ich hier jetzt erst einmal für 24h zu.


€: Wieder auf - mal schauen, ob es jetzt wieder geordneter zugeht.
 
Zuletzt bearbeitet:
Lustig wie jetzt versucht wird krampfhaft die DX12-Spiele kleinzureden. Leute, die DX12-Titel sind für Grafikkarten eine richtige Last und die Grafik gewinnt deutlich - man macht sich was vor, wenn man denkt, dass die Reviewer nur auf DX11-Spiele setzen. Das tun sich auch, aber die richtig fordernden Titel nutzen die neue API. Und es sind mittlerweile 3 DX12-Exklusivtitel dazugekommen, dank M$s Aufgabe der Konsolenexklusivität, die grafisch wirklich heftig sind (wobei bei GoW AsyncCompute noch kaputt ist und nachgepatcht werden muss).
Auf Vulkan braucht man nicht setzen, zwar setzt Croteam das ein und auch Dice überlegt, die API zu unterstützen, man wird langfristig bei EA aber sicherlich ebenfalls auf DX12 setzen, Vulkan wäre dann nur optional.
Als Spieler kommt man um Win10 einfach nicht herum, wer das glaubt, der unterliegt einer riesen Illusion.
Nichtsdestotrotz denke ich, dass AMD den DX11-Treiber ebenfalls auf neue Füße stellen will, das dauert jedoch seine Zeit. Solange man Fortschritte vorm Polaris Release hinbekommt ist auch alles i.O.
 
Zuletzt bearbeitet:
Solange es aber nur einige wenige DX12 Spiele gibt und die Mehrheit in DX11, solange AMD keinen neuen Treiber für DX11 auf die Füße stellt, der diesen Umstand des Treiberoverheads beseitigt, bleibt das Thema aktuell. Oder meinst du, alle werden ab sofort nur DX12 Spiele zocken? Es gibt wohl ebenso noch weitaus mehr Spiele in noch älteren DX Versionen. Wurde abrupt damit aufgehört, nen DX10 spiel zu zocken, als DX11 rauskam?
Und sollte AMD eine Treiber herausbringen, der den Treiberoverhead in DX11 beseitigt, so könnte man dann ebenso in diesem Thread darüber reden, oder geht das dann wegen den DX12 spielen nicht mehr?
Nochmal, es ging hier nie darum, AMD Karten ins schlechte Licht zu rücken, sondern über ein "Performanceproblem" zu reden.
 
Zuletzt bearbeitet:
Ich werde noch ewig kein DX12 Spiel spielen. Die Ubisoft Spiele sind alles DX11 und das bleibt bei mir noch eine ganzeweile so.
 
Ob dieser TReiberoverhead existiert oder nicht, die preiswerten AMD Karten sind mit einer halbwegs potenten CPU trotzdem im direktvergleich schneller.
390>970, 380>960.
Zudem gibt es auch jede Menge Spiele mit einer schlechten Nvidia Performance, siehe meinen Beitrag vor ein paar Seiten.
 
schade das jeder, der hier meint mitreden zu können, gleichzeitig aber auch zu faul ist, um sich nen gleichwertigen grünes gegenstück zu seinem roten liebling zu bestellen und selber zu testen wie sich die dinger im cpu limit unterscheiden können.

https://www.youtube.com/watch?v=4rA0FruSO2g

"Damn, AMD drivers have high cpu overhead in dx11! You really need at least an i5 4460 just to push this card to full speed - "

Ein i5 4460 ohne OC pusht die Karte to full speed. Äh ja, wo ist da der Beleg für einen Overhead???
Ein FX-8350 sry, die CPU ist lahm , lahmer als ein i3.

Wenn du mit sowas zockst, dann wundert mich der Overhead kein Gramm.
 
"Damn, AMD drivers have high cpu overhead in dx11! You really need at least an i5 4460 just to push this card to full speed - "

Ein i5 4460 ohne OC pusht die Karte to full speed. Äh ja, wo ist da der Beleg für einen Overhead???
Ein FX-8350 sry, die CPU ist lahm , lahmer als ein i3.

Wenn du mit sowas zockst, dann wundert mich der Overhead kein Gramm.

Ähm ja... bei Games die nicht wer weiß wie Mehrkern optimiert sind und hauptsächlich IPC abhängig sind jo.

The Division auf einem i3 ist absolut keine Freude. Mit dem FX sehr wohl. (PCGH Benches darüber studieren)

Insgesamt ist aber korrekt das besonder der i3 6100 eine sehr attraktive alternative ist. Den ich heutzutage wohl auch vorziehen würde gegenüber dem FX, wenn es nicht höher als eben dieser Preis bereich sein darf was MB/CPU angeht.

Zitat von sTOrM41 Beitrag anzeigen
schade das jeder, der hier meint mitreden zu können, gleichzeitig aber auch zu faul ist, um sich nen gleichwertigen grünes gegenstück zu seinem roten liebling zu bestellen und selber zu testen wie sich die dinger im cpu limit unterscheiden können.

https://www.youtube.com/watch?v=4rA0FruSO2g

Hab ich doch gemacht, und so erst kürzlich von einer 390 auf eine 970 umgestiegen, auch wenn mir das im Grunde, gerade wegen dem VRam nicht schmeckt.
Aber jetzt vor Zen / Pascal / Polaris eine größere Investition zu starten erscheint mir nicht sinnig, auch wenn man hundert mal richtigerweise sagt, man solle neue Hardware kaufen wenn man die Leistung braucht ;) dank der NV Karte weiß ich, das ich sie aktuell nicht wirklich brauche...

Hab ja auch nen riesen Text drüber geschrieben. Liest nur keiner oder will keiner lesen :d

Dennoch halte ich die 390 im vergleich zur 970 für die eindeutig bessere Karte. Aber eben nur in Verbindung mit einer starken CPU.
 
Zuletzt bearbeitet von einem Moderator:
Ein i5 4460 ohne OC pusht die Karte to full speed. Äh ja, wo ist da der Beleg für einen Overhead???
Ein FX-8350 sry, die CPU ist lahm , lahmer als ein i3.

Nur das nicht jeder Gamer mindestens einen 4460 im PC stecken hat. Es gibt genug Spieler die eine GTX950 oder R7 370 mit einem i3 kombinieren.
Genau diese Spieler gucken mit der AMD Karte dann (trotz besserer Rohleistung) ziemlich schnell in die Röhre.

Nicht das Luxx als Maßstab für ganz Deutschland sehen... ;)
Ich zocke z.B. auf einem Dualcore i5 der ersten Gen mit einer Graka die etwa so schnell wie eine 9600gt ist. In 1080p.
 
Ich werde noch ewig kein DX12 Spiel spielen. Die Ubisoft Spiele sind alles DX11 und das bleibt bei mir noch eine ganzeweile so.

Hm, warum sollte das so bleiben? Bisher blieb das so, weil die die Spiele, die in der Pipeline waren nicht extra darauf angepasst haben. Das muss aber nicht für künftige Titel gelten, dafür gibts keine Garantie. Erst Recht, wenn der Druck weiter steigt, da andere Studios die neuen APIs verwenden. Im AAA-Bereich werden die neuen APIs zwingend aus meiner Sicht und das schon recht zügig. Ich halte das für illusorisch, sie da auf die alte API zu verlassen.
Natürlich werden viele Spiele weiterhin DX11 nutzen, aber das sind eher nicht die Titel, die im Grafikbereich den Ton angeben. Das werden die Knallertitel sein.
Das neue TR bekommt jetzt definitiv auch den DX12-Patch verpasst, die hatten offenbar mit NV eine Informationssperre diesbezüglich vereinbart und M$ hats dann rausposaunt.
 
Zuletzt bearbeitet:
Was soll ich jetzt dazu am besten dir antworten? machen können wir doch an der Situation doch eh nichts. Wir können nur das beste aus der miesen lage machen :)

Zu not bleibe ich halt stehen :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh