Ashes of the Singularity mit DirectX 12 und Asynchronous Shaders im Benchmark-Vergleich

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Natürlich unterstützt Maxwell AsyncCompute voll. Das sieht man ja, es funktioniert ja auch. Und NV wird das treibertechnisch sicherlich auch noch so hinbekommen, dass das jedenfalls nicht langsamer läuft als ohne. Jedoch heißt das doch alles nicht, dass es Maxwell auch was bringt. NV hat die Architektur schon so designt, dass man sie schon unter DX11, also mit "SyncCompute", optimal auslasten kann. Dabei bringt dann logischerweise AsyncCompute einfach keine Vorteile mehr, die sind ja schon gut ausgelastet. Zudem mangelt es dem sehr schmalen Maxwell-Frontend wohl zusätzlich noch an Rechenleistung, was die CPU übernehmen muss - die Maxwell-Architektur ist nunmal offensichlich auf DX11 optimiert - Maxwell1 ist ja auch 11_0 und die eigentliche Architektur wird sich bei Maxwell2 nicht viel verändert haben.
Werden die neuen APIs also flächendeckend eingesetzt, sieht es also plötzlich weit besser aus für das deutlich komplexere und universellere GCN.
Man darf sich da nicht von den Features blenden lassen. Das sind alles Implementationsmöglichkeiten, aber das ist ja keine festverdrahtete Hardware mehr wie bei DX7. Ob da der angepeilte Gewinn bei herumkommt ist eben nicht garantiert. Und ich hab trotz FL12_1-Support einfach massive Zweifel, dass Maxwell bei Vulkan und DX12-Implementationen überhaupt die Leistungsbereiche erreichen kann wie beispielsweise Hawaii ohne die entsprechende Rohpower bieten zu können. Aber das wird sich erst noch erweisen müssen.
Wenn man böse ist, könnte man schreiben, dass NV mit Absicht in eine reine DX11.0-Architektur mit DX12-Checklist-Features ausgestattet hat, um den Konsumenten eine Zukunftstauglichkeit vorzugaukeln. Aber wie gesagt, warten wir noch ein paar Spiele ab, ob das wirklich so ist. Schon Quantum Break könnte deutlich aussagekräftiger sein, da M$ ja gerne einen DX12-Vorzeigetitel daraus machen möchte und sicherlich alle Register ziehen wird.

Natürlich wird weiterhin DX11 stark genutzt, aber es gibt mittlerweile doch auch dank Microsoft selber eine Liste von Knallertiteln, die die neuen APIs wirklich nutzen können.
 
Zuletzt bearbeitet:
Könnt ihr das mit der neuen demo nachstellen?


Da sind relativ deutliche Unterschiede zu sehen bei den Triebwerken der Raumschiffe und den Rauchschwaden der Granaten.
Auch bei 5:20 fehlt irgendwie der Nebel in der Schlucht, ...
 
Hab ich das System auf dem getestet wurde überlesen?
Würde mich interessieren!
 
haben die das abgefilmt? liegt es daran? der unterschied der Triebwerke der Jets ist schon enorm.
 
Könnt ihr das mit der neuen demo nachstellen?

Wir können die Testsequenz sicherlich noch einmal mehrfach aufzeichnen. Aber was genau ist gemeint: DX11 gegen DX12 bei gleicher Karte oder DX12 einmal mit AMD und einmal mit NVIDIA?

Hab ich das System auf dem getestet wurde überlesen?
Würde mich interessieren!

Ist unter Grafikkarten-Testsystem:

Intel Core i7-3960X 3,3 @ 3,9 GHz
ASUS P9X97 Deluxe
OCZ Arc 100 240 GB
16 GB DDR3
 
Danke!

Ich glaube er meint DirectX 12 amd gegen nvidia. Ob ihr die im Video gezeigten Unterschiede bestätigen könnt.
 
Die ASync-Shader bringen nicht nur mehr Leistung, sondern ermöglichen gleichzeitig auch deutlich mehr Effekte.
Schon recht unglaublich wie die AMD-Karten da abgehen bei deutlich mehr Effekten als auf den Konkurrenzprodukten.
Meine R9 285 mit GCN1.2 kann ich mir also doch noch vergolden lassen. :d

Meine nächste Karte wird bestimmt eine Polaris werden, die wird weder beschnitten noch rückständig sein und genau das bieten, was auf der Verpackung drauf steht und in den Spezifikationen drin steht und vielleicht darüber hinaus sogar etwas mehr. ;)

AMD mach hinne, mit eurer neuen Architektur. Ich brauche eine ihrer Zeit vorauseilende hoch moderne Grafikkarte !
 
Zuletzt bearbeitet:
Ok, das Changelog führt jetzt nichts auf, wird wohl der Game Ready Treiber für Far Cry: Primal. Ich schaue jetzt mal, wie der Vergleich in DX12 zwischen AMD und NVIDIA aussieht.
 
Ok, das Changelog führt jetzt nichts auf, wird wohl der Game Ready Treiber für Far Cry: Primal. Ich schaue jetzt mal, wie der Vergleich in DX12 zwischen AMD und NVIDIA aussieht.

Ja denke ich auch. Wird denke ich kein Unterschied machen mit dem neuen Treiber.
 
Ohoh, NVidia Treiber Fail, heul heul...





Oder wie läuft das wenn es AMD betrifft?
 
Solche Post sind zwar nicht ganz so schlimm wie das "heul heul". Aber sie sind der erste Schritt dahin.

Also lass es doch einfach.
 
Genau das ist es - ich gebe auf beides nichts da keine gesicherten Erkenntnisse vorliegen. Reit du ruhig weiter darauf rum wie geil AMD gerade performed aber heul dann nicht sollte es nVidia doch wieder schaffen sie in die Tasche zu stecken.
Ich soll weiter drauf rumreiten? Wo hab ich denn draufrumgeritten? Quote bitte.
Und wo ist eigentlich der Beweis dafür, dass AMD das gleiche machen würde, was NVidia mit GameWorks macht?

Es ist mir echt scheiß egal was ich für eine GPU im System habe - mir geht es darum das sie meine Anforderungen erfüllt. So einfach ist das.
Man merkts...
 
Ich habe die AMD Radeon R9 Fury X und NVIDIA GeForce GTX 980 Ti mal in DirectX 12 durch die neuen Benchmark geschickt und beides per HDMI abgegriffen:


Youtube dürfte die Qualität bald hochschalten, das dauert nach den Upload ja immer.
 
Zuletzt bearbeitet:
Natürlich unterstützt Maxwell AsyncCompute voll. Das sieht man ja, es funktioniert ja auch. Und NV wird das treibertechnisch sicherlich auch noch so hinbekommen, dass das jedenfalls nicht langsamer läuft als ohne. Jedoch heißt das doch alles nicht, dass es Maxwell auch was bringt. NV hat die Architektur schon so designt, dass man sie schon unter DX11, also mit "SyncCompute", optimal auslasten kann. Dabei bringt dann logischerweise AsyncCompute einfach keine Vorteile mehr, die sind ja schon gut ausgelastet. Zudem mangelt es dem sehr schmalen Maxwell-Frontend wohl zusätzlich noch an Rechenleistung, was die CPU übernehmen muss - die Maxwell-Architektur ist nunmal offensichlich auf DX11 optimiert - Maxwell1 ist ja auch 11_0 und die eigentliche Architektur wird sich bei Maxwell2 nicht viel verändert haben.
Werden die neuen APIs also flächendeckend eingesetzt, sieht es also plötzlich weit besser aus für das deutlich komplexere und universellere GCN.
Man darf sich da nicht von den Features blenden lassen. Das sind alles Implementationsmöglichkeiten, aber das ist ja keine festverdrahtete Hardware mehr wie bei DX7. Ob da der angepeilte Gewinn bei herumkommt ist eben nicht garantiert. Und ich hab trotz FL12_1-Support einfach massive Zweifel, dass Maxwell bei Vulkan und DX12-Implementationen überhaupt die Leistungsbereiche erreichen kann wie beispielsweise Hawaii ohne die entsprechende Rohpower bieten zu können. Aber das wird sich erst noch erweisen müssen.
Wenn man böse ist, könnte man schreiben, dass NV mit Absicht in eine reine DX11.0-Architektur mit DX12-Checklist-Features ausgestattet hat, um den Konsumenten eine Zukunftstauglichkeit vorzugaukeln. Aber wie gesagt, warten wir noch ein paar Spiele ab, ob das wirklich so ist. Schon Quantum Break könnte deutlich aussagekräftiger sein, da M$ ja gerne einen DX12-Vorzeigetitel daraus machen möchte und sicherlich alle Register ziehen wird.

Natürlich wird weiterhin DX11 stark genutzt, aber es gibt mittlerweile doch auch dank Microsoft selber eine Liste von Knallertiteln, die die neuen APIs wirklich nutzen können.

Erklärt nur nicht, wieso Maxwell unter DX12 Async ON Leistung einbüßt.
Wenn man es nur im Treiber aktivieren muss, NV ist ja extrem schnell mit den Treibern, wieso macht man es nicht einfach?
Und nur weil etwas funktioniert, belegt das nicht, dass es neben der Emulation auch auf der Seite der HW unterstützt ist.

Wieso rückt man den Treiber nicht raus?
1) Man bekommt es nicht hin - Treiber verzögert sich.
2) Man will es nicht hinbekommen:
-> a) Maxwell KÖNNTE schlechte Performance liefern, wenn's doch nur emuliert wird oder die Leistung zu schlecht ist
-> b) Pascal als Maxwell Update+Shrink ist selbst nicht so extrem viel stärker in DX12 mit/ohne Async wie man es vorher dargestellt hat ( in BEZUG ZU MAXWELL ), also will man Pascal erstmal besser dastehen lassen
3) da fällt mir nichts andere mehr zu ein ...

Es muss doch einen logischen Grund geben, wieso man nicht auf der Hüfte kommt.
 
Ich habe die AMD Radeon R9 Fury X und NVIDIA GeForce GTX 980 Ti mal in DirectX 12 durch die neuen Benchmark geschickt und beides per HDMI abgegriffen:

Youtube dürfte die Qualität bald hochschalten, das dauert nach den Upload ja immer.

Vielen Dank für die Arbeit, echt spitze.

Ich habe das andere Video halt vor ein paar Wochen gesehen und da waren eben diese gravierenden Unterschiede trotz gleichem preset zu sehen. (gut ist schon etwas älter und könnten noch beta Treiber gewesen sein)
Was mich etwas wundert, alles, was mir in dem anderen Video aufgefallen ist, fehlt jetzt komplett, kein Nebel in der Schlucht, die Triebwerke haben keinen Abgasstrahl mehr, ... aber da könnt Ihr ja nichts für.

Ansonsten würde ich sagen, sieht identisch aus.
 
Alles bis auf Raketen sieht mMn. identisch aus, bei der Fury X sehen die irgendwie roter und leuchtender aus, bei der 980 Ti irgendwie blasser.
Aber diese Triebwerkseffekte vom anderen Video gibts ja jetzt gar nicht...
 
Zuletzt bearbeitet:
Erklärt nur nicht, wieso Maxwell unter DX12 Async ON Leistung einbüßt.
Wenn man es nur im Treiber aktivieren muss, NV ist ja extrem schnell mit den Treibern, wieso macht man es nicht einfach?
Und nur weil etwas funktioniert, belegt das nicht, dass es neben der Emulation auch auf der Seite der HW unterstützt ist.

Ein mögliches warum hat doch HOT schon gegeben?
Wenn die Karte mit sequenzieller rangehensweise quasi am Limit läuft, wie soll dann gleichzeitige rangehensweise mehr Performance raus holen? Es ist selbst nichtmal ausgeschlossen, wenn mehr gleichzeitig gemacht wird, dass eben die Geschwindigkeit in Summe etwas abnimmt. Eben dann, wenn das Stück Hardware dafür nicht primär gemacht ist/wurde... Ob die Maxwell oder welche Karten auch immer das nun in Hardware können oder nur via Software/Treiber dem System vorgaukeln, damit es zu keinen Dreckseffekten kommt, wenn der Entwickler der Software drauf besteht, ist doch auch völlig nebensächlich... Was hinten bei rum kommt, ist doch das entscheidende...

Was mir hier mal wieder auffält, ihr macht aus mer Mücke wieder mal nen Elefanten... DX12 besteht doch keineswegs ausschließlich aus ASync Computing. Wie kommt man eigentlich da drauf? Es ist doch nur ein Teil des Ganzen... Effektiv gesehen bestätigen sich mit den ganzen Benches zu Ashes auch die ganzen Unkenrufe zu AMD -> die Hardware bekommt AMD bis einschließlich DX11 nicht richtig ausgelastet und erst in höchsten Anforderungen geht dort die Post richtig ab... Mit DX12 (vor allem eben mit ASync ON) passiert der Fakt nun bedeutend eher.

Dreht man bspw. mal den Spieß um, so fällt genau so auf, dass die AMD Modelle mit DX11 kein Land sehen (vor allem bei High DrawCalls) -> mit DX12 (egal ob ASync ON/OFF) ist das nicht mehr der Fall. -> wieder eine Bestätigung der DX11 Schwäche bei AMD.
Schaut man sich die Werte von Don mal genauer an, so sieht man klar, dass die AMD Modelle gar nicht so massiv Performance aus ASync Shadern rausziehen... Zumindest in diesen Messungen nicht (scheint aber auch nicht 100% konstant zu sein, wenn andere Redaktionen im gleichen Benchmark bedeutend höhere Unterschiede ermitteln) Der Hauptvorteil scheint hier zumindest eher das wegkürzen der deutlich geringeren DrawCall Performance zu sein. -> einem Umstand, den Entwickler in Blogs im Netz seit Jahren schon kritisieren. Das war schon seit DX9 der Fall, auf DX10 hat man gehofft, wurde enttäuscht und DX11 brachte ebenso keine Besserung. -> nun zieht DX12 nach. Das erste DX, wenn man es so nennen will, was WIRKLICH sichtbar aufzeigt, was eine neue DX Generation eigentlich sein soll. Nämlich etwas Effizienteres... Bis einschließlich DX11 hat man in der Community das Ganze sogar nur in Verbindung mit hübscherer Optik gebracht ;) -> das folgt bei DX12 sicher ebenso noch. Mal gucken. Stichwort SM6.0 ;)

Kurzum, DX12 hat ne ganze Menge Potential. Bei AMD noch viel mehr als bei NV... Wie gut NV das "geregelt" bekommt, wenn sie ihren Overhead Vorteil einbüßen, wird sich zeigen müssen... Ggf. muss man dann einfach mal wieder in die Vollen gehen und kann nicht auf Sparflamme weiter fahren. Ob sie das machen und ob WIR uns das leisten können? Abwarten... Bis dahin rückt AMD als potentielle Alternative eben immer weiter nach vorn bzw. überholt auch. Dann dreht sich halt das Blatt und AMD hat die Nase vorn, wie es ATI seinerzeit vor dem R600 ggü. den G7x und älteren GPUs schon hatte.
 
Zuletzt bearbeitet:
Was war eigentlich die Platform für den Test der GK? Intel oder AMD CPU? Im Vulkan Test war es eine Intel Platform, mit der AMD CPU wäre die AMD GPU wieder untergegangen, mfg
 
Nur Kurz zu NVidias fehlenden Asynchronous Shader:

Entweder wird das noch gebracht oder es gibt einen riesen shitstorm.
 
Die gab es in der Vergangenheit ja öfters, am Kaufverhalten hat das aber nichts geändert...

Da waren dann aber meist die Balken noch die längsten.

Das ist jetzt nicht mehr der Fall.
 
Ein mögliches warum hat doch HOT schon gegeben?

Wo kann man denn nachlesen, dass Maxwell bereits gut ausgelastet wird? Ich würde sagen, dass das eher eine grobe Spekulation ist, als denn ein Argument gegen AsyncCompute.
Ich würde eher sagen, es liegt schlicht und einfach daran, dass Maxwell Asynccompute einfach nicht kann, denn Async Compute hat nichts mit einem TReiber oder CPU Overhead zu tun, sondern es ist eine Art "Interrupt".
Ein laufendes Programm zum Beispiel eine Wavefront eines Shaders wird ohne sein eigenes Zutun per Signal unterbrochen, während seine Daten dann im Chache bereit gestellt werden und die vom ihm genutzten Resourcen danach für etwas Anderes zur Verfügung stehen, bevor dann irgendwann später der Originalzustand wiederhergestellt wird.

Ähnlich dem CPU Hyperthreading, das auch ungenutzte Ressourcen nutzbar macht und das funktioniert sogut wie bei jedem workload und jeder software.
Deswegen sind die Entwickler von PS4 ja darauf auch so geil und sprechen von 20 bis 30% mehr Leistung.

DX12 besteht doch keineswegs ausschließlich aus ASync Computing. Wie kommt man eigentlich da drauf? Es ist doch nur ein Teil des Ganzen... Effektiv gesehen bestätigen sich mit den ganzen Benches zu Ashes auch die ganzen Unkenrufe zu AMD -> die Hardware bekommt AMD bis einschließlich DX11 nicht richtig ausgelastet und erst in höchsten Anforderungen geht dort die Post richtig ab.

Dies gilt es erstmal logisch zu belegen, warum dies so ist und die Frage zu klären, ob Maxwell nicht genauso zulegen könnte.
Ich habe das GEfühl dass es bei Maxwell genauso möglich ist und Nvdiai derzeit unter Directx11 einfach nur ein bisschen besser die CPU entlasten kann und das war es auch schon.

Was mir hier mal wieder auffält, ihr macht aus mer Mücke wieder mal nen Elefanten.

Naja ich weiß nicht. Sollte es so sein dass Directx12 und Async eine 390 oder 390x auf GTX 980 Ti NIveau anheben, was ja durchaus der Fall ist, dann ist das keine Mücke, sondern mal der Sprung über zwei Leistungsstufen nach oben.

Soviel ich gelesen habe sind die Hauptfeatures von Directx12 die am meisten Leistung bringen der niedrigere Overhead sowie AsyncCompute.
Wir werden ja sehen wie Ashes im fertigen Zustand oder Hitman dann von der Leistung ausfallen werden, ich tippe auf folgendes.

390x = GTX 980 Ti, ähnlich wie in Far Cry Primal, Hitman Directx11 oder Ashes.

Dreht man bspw. mal den Spieß um, so fällt genau so auf, dass die AMD Modelle mit DX11 kein Land sehen (vor allem bei High DrawCalls) -> mit DX12 (egal ob ASync ON/OFF) ist das nicht mehr der Fall. -> wieder eine Bestätigung der DX11 Schwäche bei AMD.

Bei niedrigen Draw Calls sind die AMD´s in Directx11 aber auch deutlich schneller und wer sagt dass AMD für den Directx11 Pfad überhaupt optimiert hat? Für eine BEstätigung der Directx11 Schwäche reicht das für mich nicht aus, zudem ist das Spiel rein für Directx12 entwickelt worden.

Async Compute hat nichts mit Treioberoverhead oder einer Directx11 Schwäche zu tun. Ohne Async Compute ist AMD in Directx12 auch schneller.
Es ist einfach eine höhere Auslastung der Hardware, ähnlich Hyperthreaing bei der CPU, Maxwell kann das übrigens genauso, wenn man sich die Auslastung und Hitzeentwicklung unter Computeberechnungen anschaut.

Mein Eindruck ist dass keine GPU auf dem Markt mit einer sequientiellen Abarbeitung von Instanzen,Warps, Wavefronts usw.. eine perfekte Auslastung der Hardware erreichen kann, das kann man mal komplett vergessen, es gibt immer Spielraum für Verbesserungen.
 
Die gab es in der Vergangenheit ja öfters, am Kaufverhalten hat das aber nichts geändert...

Mein Kaufverhalten ist nach den 2-3 Dingen die sich nV geleistet hat schon in Richtung AMD tendierend. Ich brauch die GTX980 nur noch wegen streamen und Skyrim.

Spätestens Zen könnte für eine reinen AMD 2.PC sorgen.
 
Zuletzt bearbeitet:
"Umgekehrt gilt dies ebenso und zeigt damit letztendlich ein recht verzerrtes Bild der aktuellen Situation. Ashes of the Singularity ist dabei sicherlich nur eine Ausnahmesituation, denn für alle kommenden Spiele erwarten wir dieses Bild nicht und gerade NVIDIA wird alles versuchen, hier zumindest im Leistungsgewinn gleichauf zu liegen."

Also neutral ist was anderes. Habt ihr in eine Glaskugel geschaut? AMD leistet echt gute Arbeit, aber ihr tut so als wäre es das blinde Huhn mit dem Korn. Hab ich bisher von Hardwareluxx anders kennengelernt.
 
Also neutral ist was anderes. Habt ihr in eine Glaskugel geschaut? AMD leistet echt gute Arbeit, aber ihr tut so als wäre es das blinde Huhn mit dem Korn. Hab ich bisher von Hardwareluxx anders kennengelernt.

Ist ein nachvollziehbarer Punkt und wir haben die Anstrengungen von AMD schon oft gelobt und tun dies auch in diesem Fall: Aber es ist doch schwer zu glauben, dass wir hier für Fury vs. GM200 für alle DX12-Spiele einen Unterschied von 20-30 Prozent sehen werden. Wenn es so kommt, dann ist es eben so und NVIDIA ist von Pascal abhängig was das betrifft, aber irgendwie mag ich das nicht so recht glauben.
 
Zuletzt bearbeitet:
Glauben ist aber nicht das, was ein Redakteur als objektiv darstellen sollte.

Und aktuell hat nVidia einfach nichts, aber auch absolut garnichts, vorzuweisen.

- irgendein Nachweis von Async-Unterstützung auf Hardwareebene? -> nicht vorhanden
- irgendein Hinweis oder Nachweis auf eine baldige oder überhaupt eine Unterstützung durch einen Treiber ( egal ob hw-seitig oder emuliert ) -> nicht vorhanden
- Pascal selbst in Form eines Samples oder gar eines Nachweises, dass hier zumindest Async vorhanden ist -> nicht vorhanden

nVidia hat aktuell tatsächlich mal nichts in der Hand, die können ja nichtmal interne Benchmarks vorweisen zu den Pascalkarten, wie sie es sonst manchmal machen / gemacht haben, damit man sieht, was möglich ist und welche Leistung man erwartet. Ein Diagramm von 2013 oder 2014 ersetzt das Ganze sicher nicht.

Zumindest was diesen Fakt zu DX12 und Async angeht sollte man wirklich mal objektiv sein und die Faktenlage klar äußern, oder bekommt ihr dann von nVidia aufs Dach?
Oder wisst ihr etwa etwas zu neuen Treibern und dürft es nicht sagen?

Das ist doch alles kein Glaubenskrieg wie sonst zwischen den beiden, es geht um die reine sachliche Faktenlage aktuell und da steht AMD deutlich besser da.

- - - Updated - - -

Was mir hier mal wieder auffält, ihr macht aus mer Mücke wieder mal nen Elefanten... DX12 besteht doch keineswegs ausschließlich aus ASync Computing. Wie kommt man eigentlich da drauf? Es ist doch nur ein Teil des Ganzen... Effektiv gesehen bestätigen sich mit den ganzen Benches zu Ashes auch die ganzen Unkenrufe zu AMD -> die Hardware bekommt AMD bis einschließlich DX11 nicht richtig ausgelastet und erst in höchsten Anforderungen geht dort die Post richtig ab... Mit DX12 (vor allem eben mit ASync ON) passiert der Fakt nun bedeutend eher.

Dreht man bspw. mal den Spieß um, so fällt genau so auf, dass die AMD Modelle mit DX11 kein Land sehen (vor allem bei High DrawCalls) -> mit DX12 (egal ob ASync ON/OFF) ist das nicht mehr der Fall. -> wieder eine Bestätigung der DX11 Schwäche bei AMD.
Schaut man sich die Werte von Don mal genauer an, so sieht man klar, dass die AMD Modelle gar nicht so massiv Performance aus ASync Shadern rausziehen... Zumindest in diesen Messungen nicht (scheint aber auch nicht 100% konstant zu sein, wenn andere Redaktionen im gleichen Benchmark bedeutend höhere Unterschiede ermitteln) Der Hauptvorteil scheint hier zumindest eher das wegkürzen der deutlich geringeren DrawCall Performance zu sein. -> einem Umstand, den Entwickler in Blogs im Netz seit Jahren schon kritisieren. Das war schon seit DX9 der Fall, auf DX10 hat man gehofft, wurde enttäuscht und DX11 brachte ebenso keine Besserung. -> nun zieht DX12 nach. Das erste DX, wenn man es so nennen will, was WIRKLICH sichtbar aufzeigt, was eine neue DX Generation eigentlich sein soll. Nämlich etwas Effizienteres... Bis einschließlich DX11 hat man in der Community das Ganze sogar nur in Verbindung mit hübscherer Optik gebracht ;) -> das folgt bei DX12 sicher ebenso noch. Mal gucken. Stichwort SM6.0 ;)

Und du sagst es doch schon selbst. Man bekommt die DX11 Karten nicht gescheit ausgelastet bei AMD, bei nVidia teilweise aber auch nicht.
Viele Games krüppeln auch bei nVidia unter DX11 dahin, nicht nur bei AMD und das liegt eben am Flaschenhals, den man mit DX12 ja umgehen will.

Und was juckt die Nutzer aktuell noch DX11, wenn man nicht für heute, sondern auch für morgen kauft?
Die Faktenlage HEUTE ist doch klar, es geht um morgen und die nächsten Jahre.
Ich kaufe heute keine GPU für DX11 mehr, sondern warte auf DX12 GPUs oder nehme heute eine, die DX12 beherrscht und zu großer Wahrscheinlichkeit auch in Zukunft bei DX12 gut dasteht.
Aktuell steht da AMD einfach besser da mit der Fury X und der Rest von nVidias aktuellen Karten schaut in die Röhre.

Und klar ist Async wichtig, warum auch nicht. Man lässt sich doch nicht die Butter vom Brot nehmen, wenn man sie haben kann.

Und hier kommt auchb das zu tragen, was mich am meisten ankotzt.

nVidia bekommt zum ersten Mal seit langer Zeit eine Leistungsklatsche auf einem Gebiet, bei dem mal vollmundig versprach bei Release, dass Maxwell DX12 kann und danach noch sagte, dass Async ebenfalls unterstützt wird und was passiert? Das genaue Gegenteil und im gleichen Zug schreien alle nV-Fanboys "Aber AMD ist bei DX11 immernoch schlechter!". Das ist erbärmlich.

Ich nutze selbst eine GTX980 und hatte auch davor AMD und nVidia im Wechsel - ich würde beide Firmen kaufen, wenn alles passt.

Wenn man wie nVidia allerdings Holzdummies zeigt, beim VRam lügt und bei Async große Versprechungen macht, dann komplett nichts sagt und nichts vorweisen kann, leidet irgendwie das Vertrauen in den Hersteller und seine Art mit den Kunden zu kommunizieren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh