AMD und die bescheidene Performance im DX11 CPU Limit

Die Annahme, das DX12, AMD an Nvidia vorbeischießen wird entzieht sich vollkommen, meiner bisherigen Informationen. Wie gesgat, bisher gab es noch kaum brauchbare DX12 Software um sich ein Urteil zu bilden, das wird nur die Zeit ändern...

Ich kann mir aber auch vorstellen, das kleinere Studios dazu über gehen, Engines einzukaufen, wie zuletzt die Cryengine ja öfter auch genutzt wurde, ohne das crytek dahinter steht. So kann ich mir das auch mit der Frostbite usw vorstellen, dann könnte DX12, bzw Vulkan schnell dominant werden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dem schiebe ich jetzt einfach mal die R9290/390 entgegen :)

Gut dass du das hierhin schiebst denn da hat sich nichts getan.
Zu Relase der r9 390 war diese 5% vor einer Stock GTX 970 in Full HD 2015 bei Computerbase und 2016 zu Release der rx480 über ein Jahr später, dann genauso wieder diese 5% schneller, trotz ändern des Parcours und Directx12 Spiele und sowieso.:haha:
Die Langlebigkeit der AMD GPU´s ist wirklich hervorragend, ganz ohne Directx12.1. und einem nach wie vor eklatanten Directx11 CPU Limit was viele Early Acess und Directx11 Spiele mit mittelklasse CPU´s bei AMD zum Fiasko werden lässt. Da lob ich mir den Nvidia Treiber.

- - - Updated - - -

Du kennst keine Titel in denen DX12 was bringt und AMD schneller ist als vergleichbare Nvidia Karten?
AOTS?
Hitman?
Gears of War?
Quantum Break?
TW: Warhammer?
Mankind Divided?
Halo5 Forge?

Tolle Liste... Davon läuft gerade mal ein Titel auf AMD merkbar schneller, das ist Hitman.
AotS, Warhammer, Deus Ex auf ner AMD langsamer.
Directx12 ist ziemlich ausgeglichen zwischen einer GTX 1060 und rx480, während Nvidia unter Directx11 10% vorne ist.
Wenn Nvidia seine Directx12 Treiber wie so pusht als AMD Mantle herausgebracht hat, dann haste gar nix von deinem Directx12.
 
Eben nicht. Totale Fehlannahme. DX12/Vulkan verschiebt die Optimierung vom Treiberhersteller zum Spielehersteller. Die Treiberhersteller können nur für einen möglichst geringen Overhead sorgen.

Die Annahme, das DX12, AMD an Nvidia vorbeischießen wird entzieht sich vollkommen, meiner bisherigen Informationen. Wie gesgat, bisher gab es noch kaum brauchbare DX12 Software um sich ein Urteil zu bilden, das wird nur die Zeit ändern...
Man braucht sich da kein "Urteil bilden". Der Vorteil liegt glasklar auf der Hand - so krass, dass selbst bei NVs Preemtion Performancevorteile dabei herumkommen, obwohl man bei Pascal pro Shaderprozessor gar kein AsyncCompute beherrscht. Spätestens wenn AsyncCompute konsequent zum Einsatz kommt und/oder die erweiterten Featurelevels mit dem neuen Shadermodel 6 (ab FL12_0) richtig implementiert werden sieht DX11 überhaupt kein Land mehr. Wir sind in Pionierzeiten - die bisherigen Umsetzungen basieren fast ausnahmslos auf SM5.0 gepaart mit FL11_0 - dass das nicht ohne Blessuren abgeht ist wie gesagt wenig überraschend. Aber das lässt einfach keine pessimistische Prognose zu, DX12 wird nicht verschwinden und das wird auch keine Nische, das wird Regel, weil die Notwendigkeit besteht - allerallerallerspätestens dort, wo man DX11 mit Drawcalls überfordert.

Ich kann mir aber auch vorstellen, das kleinere Studios dazu über gehen, Engines einzukaufen, wie zuletzt die Cryengine ja öfter auch genutzt wurde, ohne das crytek dahinter steht. So kann ich mir das auch mit der Frostbite usw vorstellen, dann könnte DX12, bzw Vulkan schnell dominant werden.
Die Cryengine unterstützt DX12 schon länger, der Vulkan-Support ist nagelneu. Auch hier wird DX12 sicherlich primär genutzt werden, nicht Vulkan.

A propos Cryengine: Eines ist klar, StarCitizen wird der erste Titel, bei dem DX12 Pflicht wird. Chris Roberts ist bislang keine Kompomisse eingegangen und wird auch hier keine eingehen, zumal das grade für das Spiel mit dem anvisierten Detailgrad ein zu krasser Einschnitt wär. Da sind 15 NPCs mit Waffen im Bild und das Drawcalllimit ist überschritten....

Lesenswerter Artikel darüber:
http://wccftech.com/chris-roberts-on-using-dx12-compute-in-star-citizen/
da wird auch deutlich, was bei den bisherigen Impelemtationen der Pferdefuss ist.

StarCitizen für Windows PC bekommt DX12, da wird auch der komplette Grafikunterbau neu geschrieben, und die Unix/Linux-Variante bekommt Vulkan.
 
Zuletzt bearbeitet:
@HOT
Trotzdem sind es AMD und Nvidia, die die Befehle der API durch den Treiber an die Graka geben müssen.
Wie effizient das passiert (und wie effizient die Gpu ausgelastet wird) hat dann erstmal nix mit dem Spiel zu tun.

AMD hat ja mit dem neuesten Treiber offensichtlich einiges an Performance gefunden, sowohl was DX11 als auch DX12 angeht.
 
Es ist dennoch eine Tatsache, dass die DX12-Treiber deutlich weniger Optimierungsmöglichkeiten bietet, weil der Renderer einfach mehr Aufgaben übernimmt, auf die man dann im Treiber keinen Einfluss mehr hat. Deswegen ja Low-Level.
 
Natürlich. Das ist ja auch der Sinn von einer low-level API wie Mantle/Vulcan, Metal oder DX12.
 
Eben nicht. Totale Fehlannahme. DX12/Vulkan verschiebt die Optimierung vom Treiberhersteller zum Spielehersteller. Die Treiberhersteller können nur für einen möglichst geringen Overhead sorgen.


Man braucht sich da kein "Urteil bilden". Der Vorteil liegt glasklar auf der Hand - so krass, dass selbst bei NVs Preemtion Performancevorteile dabei herumkommen, obwohl man bei Pascal pro Shaderprozessor gar kein AsyncCompute beherrscht. Spätestens wenn AsyncCompute konsequent zum Einsatz kommt und/oder die erweiterten Featurelevels mit dem neuen Shadermodel 6 (ab FL12_0) richtig implementiert werden sieht DX11 überhaupt kein Land mehr. Wir sind in Pionierzeiten - die bisherigen Umsetzungen basieren fast ausnahmslos auf SM5.0 gepaart mit FL11_0 - dass das nicht ohne Blessuren abgeht ist wie gesagt wenig überraschend. Aber das lässt einfach keine pessimistische Prognose zu, DX12 wird nicht verschwinden und das wird auch keine Nische, das wird Regel, weil die Notwendigkeit besteht - allerallerallerspätestens dort, wo man DX11 mit Drawcalls überfordert.


Die Cryengine unterstützt DX12 schon länger, der Vulkan-Support ist nagelneu. Auch hier wird DX12 sicherlich primär genutzt werden, nicht Vulkan.

A propos Cryengine: Eines ist klar, StarCitizen wird der erste Titel, bei dem DX12 Pflicht wird. Chris Roberts ist bislang keine Kompomisse eingegangen und wird auch hier keine eingehen, zumal das grade für das Spiel mit dem anvisierten Detailgrad ein zu krasser Einschnitt wär. Da sind 15 NPCs mit Waffen im Bild und das Drawcalllimit ist überschritten....

Lesenswerter Artikel darüber:
Chris Roberts On Using DX12 & Compute In Star Citizen
da wird auch deutlich, was bei den bisherigen Impelemtationen der Pferdefuss ist.

StarCitizen für Windows PC bekommt DX12, da wird auch der komplette Grafikunterbau neu geschrieben, und die Unix/Linux-Variante bekommt Vulkan.

Bin ja klar deiner Meinung, nur heute braucht man nicht darüber urteilen, in wie weit AMD GPUs mit DX12, an Nvidia GPUs mit DX12 vorbei schießen! An den Vorteilen und aus meiner Sicht der Notwendigkeit von DX12 habe ich nicht gezweifelt!
Nur am Rande, ich glaube nicht das AMD zu Starkl von DX12 profitieren wird... Dennoch würde ich mich freuen und eine neue AMD GPU kaufen! Auch ärgern über meine GTX1070 werde ich mich bis dahin nicht, weil ich ja für das jetzt, eine Menge Spaß und Leistung damit habe...
 
Tolle Liste... Davon läuft gerade mal ein Titel auf AMD merkbar schneller, das ist Hitman.
AotS, Warhammer, Deus Ex auf ner AMD langsamer.

Und genau ab hier landest du auf meiner Clownliste :)

AOTS - 390 klar vor 970 (20%)
Warhammer - 390 klar vor 970 (10%)
Deus Ex - 390 vor 980 (10%) - und das in DX11 !!!!elf

Von Deus Ex hab ich nichtmal was geschrieben, danke für den Hinweis ;)
Hauptsache mit aller Gewalt grünen Quark schreiben .. tatsachenverdrängende Extremisten-Fanboys :rolleyes:
 
Zuletzt bearbeitet:
Und genau ab hier landest du auf meiner Clownliste :)

AOTS - 390 klar vor 970 (20%)
Warhammer - 390 klar vor 970 (10%)
Deus Ex - 390 vor 980 (10%) - und das in DX11 !!!!elf

Du weißt schon, dass ich die GTX 1060 mit der rx480 vergleiche?:haha:
Und jetzt nimmste ne olle GTX 970 mit 3,5GB Ram von 2014?:eek:

admfanuwe schrieb:
Directx12 ist ziemlich ausgeglichen zwischen einer GTX 1060 und rx480, während Nvidia unter Directx11 10% vorne ist.
 
Zuletzt bearbeitet:
Vor nicht einmal einem halben Jahr wurde die GTX970 hier noch rauf und runter empfohlen obwohl schon lange absehbar war, dass 8gb Standard werden.

Das sind ja echt tolle Premium-Karten. Wenn man die Leistung am ehesten braucht direkt veraltet.
 
Zwar bin ich enttäuscht was die Effizienz angeht aber ich hoffe das die Vega Karten besser werden oder zumindest mit Nvidia gleichziehen. Jetzt habe ich einen Freesync Monitor und brauche wennmöglich eine AMD Karte. Wenn der zweite Wurf nix wird, dann wohl nicht. Bin aber dennoch verwirrt weil bei den Tests die Ergebnisse überall unterschiedlich sind. Mal sind die RX480er Karten gleichauf wie mit der 1060 woanders schlechter. Da weiß man echt nicht auf was man sich da noch verlassen kann. Karten bestellen, testen und zurückschicken will ich natürlich nicht machen.
 
Das war bereits zum release ein Kritikpunkt. Technisch nun mal nicht anders umzusetzen selbst wenn man gewollt hätte.
Zu gute halten kann man da noch, dass diese sich aufgrund der rohleistung in Vulkan/DX12 sogar über der 1070 positioniert. Sofern der VRAM noch reicht.

Ich glaube auch nicht, dass die Karte ein kassenschlager war oder ein gewinnnummer für AMD. Eher ein testlauf für HBM.
 
Junkie:
OK mach doch einfach einen fred in der Kaufberatung zu dem Thema auf, dort kann dir bestimmt geholfen werden. ;)
 
Fury läuft below the line hat HBM ;)

"Auch bei der zweiten Messreihe, diesmal mit einer Radeon R9 Fury X nebst Radeon Software Crimson 16.8.2, liefert DirectX 12 nicht das, was von der neuen API erwartet wird: Auch die AMD-Grafikkarte rechnet unter DX12 langsamer als unter DX11 - obwohl Battlefield 1 in der spieleigenen Konsole sogar "with async compute" nennt und die Fiji-GPU somit optimal ausgelastet werden sollte. Immerhin fällt der Einbruch unter DX12 nicht so groß aus wie bei der Geforce, sofern man die höchste Auflösung ausklammert (Speichermangel)."


Quelle: PCGH
 
wenn meine GPU in kritische Bereiche von, ich sag mal, 40 fps kommt, was passiert denn dann, wenn sich die AMD-Leistung entfaltet? hat man dann doch wieder 50fps, oder wie darf ich das verstehen?

Genauso siehts aus. Jetzt hast dus auch endlich verstanden.
Das GPU-Limit muss nicht erst nach 4 Jahren eintreten, sondern dies kann auch bereits beim Release der Fall sein, nämlich in entsprechend hohen Eisntellungen. Je mehr die CPU in den Hintergrund und die GPU in den Vordergrund gerückt wird, desto mehr gewinnen die AMD Karten dazu. Also genau dann wenn man die Performance braucht. Ist ja auch logisch bedingt durch den Treiberoverhead.

AMD tut häufig nur noch das Notwendigste in den DX11 Titeln. Das CPU-Limt ist auch von Titel zu Titel sehr unterschiedlich. Das kann bei 60fps sein bei 80 oder aber erst bei 140fps. Deshab hat ein Gesamtrating auch keine Aussagekraft über die tasächliche Peformance der Karte. Als beispiel kann in einem Titel eine AMD Karte mit 100fps laufen und eine Nvidia Karte mit 200fps. Das sind mal eben 100% Unterschied, sagt aber nichts über die spielbarkeit.
Das gilt eben auch für DX12 Umsetzungen. Was bringt mir eine low-level-API umsetzung welche nichteinmal den CPU Overhead reduziert? Solche Titel muss man klar ausklammern und in die Beta Schublade stecken.

Ob ein Spiel im Treiberoverhead steckt sieht man häufig auch an der Fury. Wenn zwischen einer 390 und einer FuryX nur 5% liegen kann da etwas nicht stimmen. Da liegt einfach Leistung brach.

Viele vergessen einfach, dass die Karten von AMD eben auch bei Kauf preiswerter sind. Zusätzlich gewinnen diese ontop noch an Performance mit der Zeit.

Die 7970 duellierte sich die meiste Zeit preislich mit der GTX670 und nicht mit der GTX780, wie nun.
Die 290 duellierte sich die meiste Zeit mit der GTX780 und nicht mit der GTX780Ti oder GTX970.
Die 390 duellierte sich die meiste Zeit mit der GTX970 und nicht mit der GTX980 oder GTX980 Ti.
Genauso wird es auch bei der RX480 sein. Diese wird entsprechend weiter in DX12 zulegen oder eben mit der Zeit auch in DX11, wenn die Anforderungen weiter steigen.

Das sind dann keine paar Prozentpünktchen. Da liegen teilweise 2 Preisklassen dazwischen. Von diesen Kröten hätte man sich schon lange ein 2600k in der Bucht schießen können. Die Disskusion ist also nur bedingt nachvollziehbar wenn 95% der Titel problemlos mit 5 Jahre CPUs laufen.
 
Zuletzt bearbeitet:
Soll man jetzt heulen, lachen, hinweisen, mitmachen, ich weiß nicht weiter... Jeder beharrt auf sein Halbwissen und diskutiert wie im Kindergarten.
Den letzten Bench zu BF1 den ich gesehen habe, da sieht die Fury X übrigens, egal ob DX12 oder 11 kein Land, gegen die 1080... Auch gewinnt die nicht gegen eine 1070 mit nur 1683MHz...


Ich könnte ja jetzt auch einfach das als Fakt hinstellen (ich vertraue schon sehr auf diese Tester, weil die für mich immer am nächsten an der Realität waren, was meine Erfahrungen angeht), aber ich versuche es nochmal... Vielleicht einfach andere Settings, ne andere Szene... Wer weiß ;)

Manche Argumente hier sind echt ein Witz, nur kein guter...
 
@Derneuemann: ich gebe dir bezüglich des hier verbreiten Halbwissens auf jeden Fall recht und selbst wenn nicht, so sind das meiste hier nur Mutmaßungen.

Nichts desto trotz, ist das für mich im Moment der interessanteste Thread, da die Thematik einfach so wichtig ist.

Warum sollte die Fury denn mit der 1080 konkurieren, das ist Kåse, zumindest unter den gegebenen Umständen. Auch an die 1070 kommt sie nur unter Vulcan ran, aber die Fury ist auch schon eine Generation älter...

Und Bf1 hat momentan eine grottige DX12 Umsetzung...
 
Zuletzt bearbeitet:
Wurde hier von wem anders behauptet, das die Fury x in BF1 wie eine 1080 geht, Voraussetzung DX12 wird genutzt. Kam nicht von mir.

- - - Updated - - -

Grundproblem bleibt, nimm ein und das selbe Spiel in drei Szenen und du bekommst schon drei unterschiedliche Eindrücke, wie jede Hardware performt. Dann nimm nochmal unterschiedliche Settings, gerade bei der Kantenglättung werden oft unterschiedliche Verfahren getestet. Die Möglichkeit, für viele verschiedene Ergebnisse ist da... Vielleicht realistischer, als das hier nur Fanboys schreiben.

Meine Eigenen Erfahrungen sahen so aus, das von den letzten spielen, die ich gespielt habe... Wolfenstein TNO und TOB und Far Cry 3 und auch Crysis 3 (aber nur in Grenzen) mit einer R9 390, mir keinen Spaß gemacht haben. Einfach zu schlechte Frametimes und Texturestreaming und Treiberoverhead.
Mit der GTX970 gab es nur Schwierigkeiten in BF4, trotz I7 3820@4,3+GHz. 64Spieler, zwei drei Karten. Hier konnte ich die selbe CPU unter Mantle sogar mit nur 2,5GH laufen lassen, ohne Probleme.

Ich weiß noch von Dying Light und Projekt Cars mit Performanceproblemen auf AMD GPU basierten Systemen... Wenn ich länger drüber nachdenke, fallen mir noch ein paar ein...
Es ist immer éine Frage, was man will, was für eine CPU man hat. Mit einem hoch gezüchteten I7 hat man selten Probleme, wobei mir auch auffällt, das mache das Problem gar nicht erkennen, weil die es einfach noch nicht besser gesehen haben. Wieder andere haben einfach keine Empfindlichkeit dafür und könnten sogar mit 30-40Fps zocken...

Zu DX12, ich denke DX12 wird AMD etwas näher an Nvidia heran rücken lassen, aber mehr auch nicht. Das ergibt das Bild, der bisher getesteten DX12 Spiele für mich.
 
Was mich mal interessieren würde, liegt es an DirectX 11 oder am WDDM: https://de.wikipedia.org/wiki/Windows_Display_Driver_Model
Unter dxdiag wird mir bereits WDDM 2.1 gemeldet, da wurden wohl ein paar Feature hinzugefügt die auch DX11 betreffen. ;)

Windows 10 Anniversary Update (version 1607) includes WDDM 2.1, which supports Shader Model 6.0 (mandatory for feature levels 12_0 and 12_1),[43] and DXGI 1.5 which supports HDR10 - a 10-bit high dynamic range, wide gamut format[44] defined by ITU-T Rec. 2100/Rec.2020 - and variable refresh rates.[45]

Aber genug directX jetzt mal openGL: http://abload.de/img/gfxbench_stockrdjta.jpg
Dort gibt es auch ein Bild Qualitäts Test: http://abload.de/img/gfxbench_compareimagexgjt4.png
Der Unterschied ist nicht groß zu NVIDIA, aber doch deutlich. ;)
 
Das GPU-Limit muss nicht erst nach 4 Jahren eintreten, sondern dies kann auch bereits beim Release der Fall sein, nämlich in entsprechend hohen Eisntellungen. Je mehr die CPU in den Hintergrund und die GPU in den Vordergrund gerückt wird, desto mehr gewinnen die AMD Karten dazu. Also genau dann wenn man die Performance braucht. Ist ja auch logisch bedingt durch den Treiberoverhead.
Wieso sollte die AMD Karte "zulegen"? Woher soll das kommen?
Die Hardware ist doch fix, da wird also nix zugelegt...
Die gleiche Behauptung hattest du seinerzeit permanent über Kepler gesagt, nach dem Motto, Kepler verliert Leistung. Auch das war/ist doch quatsch...

Das gilt eben auch für DX12 Umsetzungen. Was bringt mir eine low-level-API umsetzung welche nichteinmal den CPU Overhead reduziert? Solche Titel muss man klar ausklammern und in die Beta Schublade stecken.
Gegenfrage, wer definiert was eine gute und was eine schlechte Umsetzung ist?
Sind gute Umsetzungen ausschließlich die, welche auf AMD Hardware skalieren? Und warum sollte das so sein?
-> einfach mal nüchtern ran gehen und nicht nur nach pro AMD Argumenten suchen :wink:

Ob ein Spiel im Treiberoverhead steckt sieht man häufig auch an der Fury. Wenn zwischen einer 390 und einer FuryX nur 5% liegen kann da etwas nicht stimmen. Da liegt einfach Leistung brach.
Bei der Fury kommt eher der Umstand zum tragen, dass diese (analog der Tahiti seinerzeit) mit 16x CUs pro Stück "FrontEnd" an den Start geht und damit (ebenso wie Tahiti seinerzeit bspw. ggü. PitCairn) in der Skalierung in so manchem Titel nicht nach oben streut. Das kann sonstwede Gründe haben -> aber ist keineswegs ausschließlich und sicher nur der Treiberoverhead. Bspw. Stichwort Tesselationleistung.

Viele vergessen einfach, dass die Karten von AMD eben auch bei Kauf preiswerter sind. Zusätzlich gewinnen diese ontop noch an Performance mit der Zeit.

Schon wieder so eine Behauptung... Da wird nix gewonnen. Die Karte liefert eine Leistung und die ist es dann.
PS: deine Gegenüberstellung halte ich weiterhin für wenig sinnvoll. Wie oben schonmal erwähnt, zwischen einer 1050MHz boostenden Tahiti im Vollausbau (aka 280X oder HD7970GHz) und einer von dir benannten HD7970 liegen gut ~10% Leistungsunterschied. Ziehst du aus dem aktuellen Rating von CB diese ~10% von der 280X ab, landest du ziemlich genau bei der 770er, welche wiederum ~4-6% über einer 680er von damals agiert. Ein Blick zum CB Rating des 770er Releaseartikels zeigt auch, dass du hier brachiale 3% propagierst, die zwischen dem damaligen Rating von 05/2013 und heute liegen.
Also ganz eherlich, so vehement, wie du diese angebliche Leistungssteigerung hier propagierst, ist es echt nervig...
(und wenn man dann ein 4GB Modell vom GK104 anstatt dem 2GB Modell ranziehen würde, wären es wohl nichtmal 3%, wie wir wissen -> hat CB jüngst ebenso nochmal schwarz auf weis geschrieben, dass 3GB heute teils weniger FPS und deutlich unruhigere Frametimes zeigen wie 4GB. Mit 2GB ist das also noch viel schlimmer der Fall.

Mal davon ab, das ganze Gesabbel über Preise und P/L ist sowieso für den Hintern, wenn man für diese Vergleiche sich nicht auf eine gemeinsame Basis verständigt, was "Leistung" alles beinhaltet. Für MICH! ist Leistung keineswegs und ausschließlich FPS in ein paar AAA-Titeln. Da zählen für JEDEN potentiellen Käufer andere Parameter mit rein, wie Verbrauch, Lautstärke, Featureset, Anschlüsse, Zusatzsoftware usw.

Mit einem hoch gezüchteten I7 hat man selten Probleme, wobei mir auch auffällt, das mache das Problem gar nicht erkennen, weil die es einfach noch nicht besser gesehen haben. Wieder andere haben einfach keine Empfindlichkeit dafür und könnten sogar mit 30-40Fps zocken...

Das ist eins der größten Probleme solcher Threads und läuft getreu dem Motto, was der Bauer nicht kennt das frisst er nicht.

Zu DX12, ich denke DX12 wird AMD etwas näher an Nvidia heran rücken lassen, aber mehr auch nicht. Das ergibt das Bild, der bisher getesteten DX12 Spiele für mich.

Die interessante Frage ist eher, um wie viel Potential reden wir überhaupt?
Eine 480er wird auch in DX12 und Vulcan, selbst wenn es perfekt funktioniert nicht deutlich über einer 1060er landen können. Woher soll das auch kommen? Der Rohleistungsunterschied ist viel zu gering, dass es da deutlich anders aussehen kann also es heute der Fall ist. Dafür ist die Pixelfüllrate deutlich höher beim GP106, die Texelfüllrate allerdings geringer, Tesselationleistung müsste man detailiert mal vergleichen. Möglicherweise wird auch Polaris deutlich Boden verlieren, wenn Games mehr Pixelfüllratenlastig werden? Wer weis das schon heute... Es kann in ALLE Richtungen gehen und hängt keineswegs nur an DX12/Vulcan.
Was dedizierte Optimierungen bei NV ausmachen, kennen wir ja zur genüge. Aber bei AMD findest sich das teils natürlich auch -> Hitman bspw. da kackt selbst in DX11 das NV Modell ggü. einem AMD Modell ab. Unter diesem Gesichtspunkt kann sich das Ruder auch rumreißen oder eben nicht.

Sind für mich viel zu viele offene Punkte um da Prognosen aufzustellen :wink:

@[HOT]
wie gesagt, bei DX12 müssen wir einfach abwarten, wie weit sich dort die Industrie drauf einschießen wird bzw. wie stark. Optimierungen seitens der Hardwarehersteller finden ja häufiger sowieso durch ganzes Austauschen von Shadern oder rumfingern/umbiegen von Instructions statt. Das geht auch weiterhin in DX12... Dort wird eher die viel spannendere Frage -> mehr Verantwortung für die Entwickler = mehr Bedarf in Sachen Zeit für Optimierungen. Dieser Umstand stimmt mich bei den teils desaströs schlechten Marktstarts so mancher Titel auch nicht sonderlich glücklich. Wir werden einfach sehen müssen, wie sich die Entwickler da "schlagen" werden. Im Moment glaube ich eher, für den Anfang wird das noch aufgehen... Wenn dann aber mal drei vier Generationen beider Hersteller zu "optimieren" sind?? Abwarten ;)
 
Ich kann mir gut vorstellen, das die RX480 so weit vor der GTX1060 landen kann, wie aktuell die 1060 vor der RX480. Den Absatz über DX12, hätte auch von mir kommen können, keiner weiß, keiner kann sagen wie DX12 in der Masse umgesetzt wird und DX12 ist auch nicht gleich DX12... Es gibt so viele tolle Features, nicht nur Async C. Hitmann ist auch so ein Beispiel, wenn ich mich recht erinnere, gibt es zu Hitman sehr unterschiedliche Ergebnisse...
Ich meine hier getestet mit MSAA und woanders mit TXAA, die FPS liegen bei TXAA, bei beiden Herstellern höher, als mit MSAA und Nvida liegt da weiter vorne als die Gegenstücke von AMD. Was ist also jetzt wichtiger? Der Test mit MSAA, oder der Test mit TXAA, was leistungsschonener ist, für beide.

Zu den Entwicklern und DX12
Wie gesagt, an der Stelle hoffe ich auch ein Stück weit, das kleinere Projekte sich Enginetechnisch, bei anderen großen Engines einkaufen! Warum selber programmieren, wenn man auf ein bestehendes System aufbauen kann... Ein Gefühl sagt mir, es könnte so laufen... ;)
 

"Auch bei der zweiten Messreihe, diesmal mit einer Radeon R9 Fury X nebst Radeon Software Crimson 16.8.2, liefert DirectX 12 nicht das, was von der neuen API erwartet wird: Auch die AMD-Grafikkarte rechnet unter DX12 langsamer als unter DX11 - obwohl Battlefield 1 in der spieleigenen Konsole sogar "with async compute" nennt und die Fiji-GPU somit optimal ausgelastet werden sollte. Immerhin fällt der Einbruch unter DX12 nicht so groß aus wie bei der Geforce, sofern man die höchste Auflösung ausklammert (Speichermangel)."


Quelle: PCGH

Danke, kannte den Test noch nicht. :eek:

www.pcgameshardware.de/Battlefield-...chnik-Systemanforderungen-Benchmarks-1206197/
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh