Ashes of the Singularity mit DirectX 12 und Asynchronous Shaders im Benchmark-Vergleich

off topic entfernt
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@HW-Mann
Hast du einen Link zu der Grafik aus Post 81?

Übrigens war das nur slot108, deswegen ist der auch schon wieder gebannt.
 
Naja momentan in DX11 ist nvidia einfach mal näher an der "Praxis".
Das DX12 auf Maxwell schlecht läuft ist mir egal und wird erst mit Polaris/Pascal für mich interessant.
Glaube nicht das DX12 auf jetzigen AMD Karten das Verkaufsargument schlechthin ist wenn gleichzeitig die DX11 Performance zu wünschen übrig lässt.
 
Ich bin auch relativ der Meinung das DirectX 12 aktuell nicht aussagekräftig für die Zukunft ist, aber man rückblickend sagen kann, dass AMD Käufer es richtig gemacht haben im Bezug auf Zukunftssicherheit!

Bei Polaris kann ich meine Hand ins Feuer legen dass die DirectX12 Fähigkeit das sehr hohe Niveau der Fury X nochmal topt und die große Polariskarte relativ zukunftssicher sein wird. Bei Pascal kann aktuell niemand etwas sagen, es gibt keine Hinweise auf irgendwas...

Doch selbst wenn bei den 2016 Generationen AMD klarer Gewinner werden würde, mehr als 60(N)/40(A) maximal 50/50 wird AMD nicht reißen können.
Allerdings glaube ich nicht dass Nvidia bei Pascal am Markt und DirectX 12 vorbei entwickelt hat, notfalls sorgt man dafür dass der Markt gewisse Features die man nicht beherrscht nicht nutzt... (*hust* DirectX 10.1)

Ich bin mir für 2016 aber sicher dass Nvidia an einem Punkt wieder krass bescheißt, genauso wie dass AMDs Karten wieder einen unschönen und unnötigen Schnitzer haben werden wie z.B. das Debakel um den miesen Lüfter der 290X...
 
Glaube nicht das DX12 auf jetzigen AMD Karten das Verkaufsargument schlechthin ist wenn gleichzeitig die DX11 Performance zu wünschen übrig lässt.

Na, so schlecht ist die DX11 Performance bei AMD nun auch wieder nicht, als wenn man davon von unbrauchbar reden könnte. Da geht es nur um Prozentpunkte.
DX12 wird auf jeden Fall ein starkes Argument bleiben. Fast alle kommenden Blockbuster Spiele setzen auf DX12 als API und deren Release ist nicht erst im nächsten Jahr, sondern schon in diesem Monat ! Sogar Tomb Raider bekommt ein Update. ;)
In wie weit sie die Features nutzen werden ist allerdings noch offen.

Aber wenn z.B. eine R9 Nano von AMD dadurch abermals profitiert, dann könnte die gesamte Fury-Serie einen 2.Frühling erleben. :d

Aber wie schon geschrieben wird Polaris mein Favorit werden. Zwar kontert NVIDIA mit Pascal, aber das Wann und vor allem das Wie ist noch sehr unsicher und ob auch wirklich alles so ist wie NVIDIA es beschreibt, ist ja in letzter Zeit auch nicht gerade unwichtig geworden, dies erst einmal abzuwarten.
 
Zuletzt bearbeitet:
HW Im Vulkan Test nahm AMD Extra eine Intel Plattform schrieb:
- - - Updated - - -[/COLOR]

Nur zur Info, in meinem Shuttle arbeitet nur AMD, nix hier nur NV Fan !

- - - Updated - - -

Aber mit den 580er geht DX12 auch noch, was mit neuen Games kommt (Treiber,etc.) muss man abwarten. Ob Zen besser wird als Bulli wird man auch sehen, darum abwarten, mfg
 
Ich bin auch relativ der Meinung das DirectX 12 aktuell nicht aussagekräftig für die Zukunft ist, aber man rückblickend sagen kann, dass AMD Käufer es richtig gemacht haben im Bezug auf Zukunftssicherheit!

Fraglich, kann auch gut sein das wenn mal alle aktuellen Spiele DirectX 12 verwenden die Leistung der aktuellen AMD/NV Generation sowieso nicht mehr ausreicht...
 
lese mir gerade das von heute durch
"Gears of War: Ultimate Edition" entpuppt sich für Radeon-Nutzer als Problemfall

das hier? ^^

 
HBAO+ von NVIDIA...
na sowas es läuft nicht.
http://wccftech.com/amd-nvidia-gears-of-war-ultimate-broken/
Unterschreiben die Entwickler bei Verwendeung von NVIDIA Bibliotheken irgendeinen Vertrag, dass sie auf gar keinen Fall vor Veröffentlichung des Titels ihr Produkt mit AMD Hardware testen dürfen?
Weil das würde einiges erklären.
 
Zuletzt bearbeitet:
Bei Gears of war würde ich nicht unbedingt vorwerfen Nvidia hätte reingemischt sondern viel mehr dass das Game generell extrem "broken" ist.
 
Dort sieht es für mich so aus als wen 4GB Platt gemacht werden wegen den Rucklern.

Aber naja das Ram Thema und Zukunftssicher lass ich mal raus aus dem Thread.

Ambiente Oculusion sorgt für Grafikfehler bei AMD.
 
Zuletzt bearbeitet:
HBAO+ von NVIDIA...
na sowas es läuft nicht.
[UPDATE2] AMD / Nvidia Users Beware, Gears of War: Ultimate Edition Is Ultimately Broken On PC
Unterschreiben die Entwickler bei Verwendeung von NVIDIA Bibliotheken irgendeinen Vertrag, dass sie auf gar keinen Fall vor Veröffentlichung des Titels ihr Produkt mit AMD Hardware testen dürfen?
Weil das würde einiges erklären.
So ähnlich....
NVidia bietet dem Publisher viel Geld dafür, dass er einen Vertrag unterschreibt. In diesem verpflichtet sich der Publisher dafür zu sorgen, dass 1. GameWorks in Form der von NVidia gelieferten vorkompilierten Bibliotheken genutzt wird, 2. nicht mit AMD zusammen gearbeitet wird und 3. GameWorks und alle damit verbundenen Komponenten nicht verändert werden(auch kein reverse engineering).

Edit. Buchstabe falsch gelesen....
 
Zuletzt bearbeitet:
ja hast du:
Far Cry Primal & Gears of War: Ultimate Edition Game Ready Driver Released | GeForce
Game Ready For Gears of War: Ultimate Edition ... Furthermore, the PC edition's graphical fidelity is improved through the introduction of NVIDIA HBAO+ Ambient Occlusion shadowing, higher-quality visual effects, and the option to use higher-rendering resolutions, up to and including 4K.
So und was funktioniert gar nicht bei AMD? Eben NVDIA HBAO+ Ambient Occlusion.
Edit: Hab vergessen diese tolle inkompatible NVIDIA Technologie als NVIDIA zu branntmarken
Edit2: hm da war doch irgendwo so ein Post, dass in Gears of War: Ultimate Edition keine NVIDIA Bibliothek verwendet wird. Eigentlich sollte dieser Post eine Antwort darauf sein. Nuja nächstes mal zitiere ich.
 
Zuletzt bearbeitet:
Thx für Deine Arbeit Don !!!

Gibt es bei HWL die Möglichkeit das ganze mit einer reinen AMD Plattform zu testen? mfg
 
Linus Torvalds hatte ja schon passende Worte dafür :)

https://m.youtube.com/watch?v=_36yNWw_07g

Wobei man sagen muss, die NV Grakas haben sich unter Linux gut gemausert seit dem....

NVidia hat nur wohl noch nie die Worte "open source" gehört :)
 
Zuletzt bearbeitet:
Thx für Deine Arbeit Don !!!

Gibt es bei HWL die Möglichkeit das ganze mit einer reinen AMD Plattform zu testen? mfg

Haben wir aktuell leider nicht. Dazu müsste ich das komplette Grafikkarten-Testsystem umbauen.
 
ICh weiß ja nicht wie genau im Detail das implentiert wurde, aber wäre es im Mixed Mode, mit einer nvidia Karte als primär und einer AMD als sekundär, theoretisch möglich 3D-Vision zu nutzen? So hätte man das bessere P/L von AMD und das Feature von nvidia..
 
Frage zu DX12 und "mixed mode"

Wenn ich eine AMD und ein NV GPU drin hab,
kann ich dann FreeSync und G-Sync Monitore
nutzen?
 
Frage zu DX12 und "mixed mode"

Wenn ich eine AMD und ein NV GPU drin hab,
kann ich dann FreeSync und G-Sync Monitore
nutzen?

Ich vermute mal ganz stark, das die jeweilige Primär-Karte, da wo der Monitor angeschlossen ist, darüber befindet, welche Art von Features Unterstützung findet. Wobei es bei PhysX vielleicht anders sein kann. ;)
 
Frage zu DX12 und "mixed mode"

Wenn ich eine AMD und ein NV GPU drin hab,
kann ich dann FreeSync und G-Sync Monitore
nutzen?

Warum sollte das nicht gehen?
Ein FreeSync Monitor "läuft" auch an einer NV GPU wie auch ein G-Sync Monitor an einer AMD GPU grundsätzlich "läuft".
Ich frage mich allerdings, was das bei zwei Monitoren für einen Sinn haben soll? Welche Spiele willst du denn über beide Monitore spielen, dass es "Sinn" ergibt sich den Balken genau in der Mitte anzutun? Oder gehts nur immer um einen? -> dann hast du wohl so oder so das Problem, dass die Bildausgabe idR IMMER am primären Monitor ausgespuckt wird und du als Anwender in den meisten Fällen so oder so keine Wahl hast (außer bestenfalls physisch umzustecken)

Was funktionieren könnte, wenn du die primäre Ausgabe im Windows mal auf den G-Sync und mal auf den FreeSync Monitor legst. Diesem MGPU Mode dürfte das ziemlich egal sein unterm Strich. Es muss nur die GPU dann primäre GPU spielen, wo der eine oder andere Monitor dann dran klemmt. -> das geht imho aber auch schon mit DX11 und älter -> nur halt ohne MGPU, klar ;)

ICh weiß ja nicht wie genau im Detail das implentiert wurde, aber wäre es im Mixed Mode, mit einer nvidia Karte als primär und einer AMD als sekundär, theoretisch möglich 3D-Vision zu nutzen? So hätte man das bessere P/L von AMD und das Feature von nvidia..

Das wird wohl nix. 3D-Vision ist propritär NV. Entweder die lassen das zu (was unwarscheinlich ist) oder es geht einfach nicht... Technisch sollte MGPU dem Spaß nicht unbedingt was im Wege stehen, aber ich kann es mir nicht vorstellen.

Auf der anderen Seite, ich würde im ersten Step aber auch grundsätzlich erstmal bezweifeln, dass 3D-Vision überhaupt unter DX12 läuft :fresse:

So ähnlich....
NVidia bietet dem Publisher viel Geld dafür, dass er einen Vertrag unterschreibt. In diesem verpflichtet sich der Publisher dafür zu sorgen, dass 1. GameWorks in Form der von NVidia gelieferten vorkompilierten Bibliotheken genutzt wird, 2. nicht mit AMD zusammen gearbeitet wird und 3. GameWorks und alle damit verbundenen Komponenten nicht verändert werden(auch kein reverse engineering).

Gibt es dazu irgendeinen Beleg?
Weil das ist/wäre wirtschaftlich totaler unsinn. Der Entwickler der Bibliotheken, der den Aufwand hat, legt Geld drauf, dass es genutzt werden soll und macht den Knebelvertrag dass Dritte ausschließlich ihre Technik nutzen... Ich weis ja nicht.

Vielleicht liegt es viel eher im Rahmen des realistischen, dass der Dritte zu NV geht und dort Technik einkauft, sprich für Lizenzen zahlt (kann man bspw. auf der NV Dev. Page nachlesen/in Erfahrung bringen, wie die Lizenzmodelle sich zusammen setzen) und damit natürlich dann wohl ziemlich sicher auch primär auf NV Hardware testen wird. Keineswegs aber AMD vollig außen vor lässt oder sonstwede Sachen.
Man stellt sich zwar immer wieder die Frage, warum kann sowas passieren, dass muss doch auffallen. Aber ganz ehrlich, dass kann sonstwede Gründe haben. Von fehlenden Librarys auf dem PC des Endkunden über Treiber bis hin zu irgendwelchen Inkompatibilitäten und sonstwas.
 
Zuletzt bearbeitet:
Warum sollte das nicht gehen?
Ein FreeSync Monitor "läuft" auch an einer NV GPU wie auch ein G-Sync Monitor an einer AMD GPU grundsätzlich "läuft".
Ich frage mich allerdings, was das bei zwei Monitoren für einen Sinn haben soll? Welche Spiele willst du denn über beide Monitore spielen, dass es "Sinn" ergibt sich den Balken genau in der Mitte anzutun? Oder gehts nur immer um einen? -> dann hast du wohl so oder so das Problem, dass die Bildausgabe idR IMMER am primären Monitor ausgespuckt wird und du als Anwender in den meisten Fällen so oder so keine Wahl hast (außer bestenfalls physisch umzustecken)

Was funktionieren könnte, wenn du die primäre Ausgabe im Windows mal auf den G-Sync und mal auf den FreeSync Monitor legst. Diesem MGPU Mode dürfte das ziemlich egal sein unterm Strich. Es muss nur die GPU dann primäre GPU spielen, wo der eine oder andere Monitor dann dran klemmt. -> das geht imho aber auch schon mit DX11 und älter -> nur halt ohne MGPU, klar ;)



Das wird wohl nix. 3D-Vision ist propritär NV. Entweder die lassen das zu (was unwarscheinlich ist) oder es geht einfach nicht... Technisch sollte MGPU dem Spaß nicht unbedingt was im Wege stehen, aber ich kann es mir nicht vorstellen.

Auf der anderen Seite, ich würde im ersten Step aber auch grundsätzlich erstmal bezweifeln, dass 3D-Vision überhaupt unter DX12 läuft :fresse:



Gibt es dazu irgendeinen Beleg?
Weil das ist/wäre wirtschaftlich totaler unsinn. Der Entwickler der Bibliotheken, der den Aufwand hat, legt Geld drauf, dass es genutzt werden soll und macht den Knebelvertrag dass Dritte ausschließlich ihre Technik nutzen... Ich weis ja nicht.
Nein ist es nicht, weil GimpWorks dafür sorgt, dass Konkurenzprodukte extrem schlecht laufen und dass mehr NVidia-karten und weniger AMD-karten verkauft werden.
Spiele-Benchmarks sind extrem wichtig geworden, nicht nur für Enthusiaten wie uns.
Es entsteht auch ein langfristiger Imageschaden bei der Konkurenz wenn viele Spieler extrem schlechte Leistung und Grafikfehler mit AMD-Karten haben, weil NVidia mit GameWorks manipuliert.
Auch beim interessierten Laien entsteht ein schlechter Eindruck, wenn er immer wieder "Probleme mit AMD-GPUs bei SpielX/Y/Z" lesen muss.

- - - Updated - - -

Vielleicht liegt es viel eher im Rahmen des realistischen, dass der Dritte zu NV geht und dort Technik einkauft, sprich für Lizenzen zahlt (kann man bspw. auf der NV Dev. Page nachlesen/in Erfahrung bringen, wie die Lizenzmodelle sich zusammen setzen) und damit natürlich dann wohl ziemlich sicher auch primär auf NV Hardware testen wird. Keineswegs aber AMD vollig außen vor lässt oder sonstwede Sachen.
Ganz sicher wird er AMD völlig außen vor lassen, es sei denn er hat Bock Strafe zu zahlen.
 
Nein ist es nicht, weil GimpWorks dafür sorgt, dass Konkurenzprodukte extrem schlecht laufen und dass mehr NVidia-karten und weniger AMD-karten verkauft werden.
Spiele-Benchmarks sind extrem wichtig geworden, nicht nur für Enthusiaten wie uns.
Es entsteht auch ein langfristiger Imageschaden bei der Konkurenz wenn viele Spieler extrem schlechte Leistung und Grafikfehler mit AMD-Karten haben, weil NVidia mit GameWorks manipuliert.
Auch beim interessierten Laien entsteht ein schlechter Eindruck, wenn er immer wieder "Probleme mit AMD-GPUs bei SpielX/Y/Z" lesen muss.

Beleg?
Aus Entwicklersicht ist das halt unsinn... Dem Entwickler ist es total hupe, ob da nun NV oder AMD drauf steht. Da gehts bestenfalls um Werbung. Der Entwickler will doch nur seinen Titel verkaufen... Und ob der Endkunde nun AMD oder NV hat? Interessiert doch nicht... Es muss laufen. Und läuft es nicht gescheit, gibts negative Presse... Schau dir die ganzen Unkenrufe zu Ubisoft Titeln an... Auf der anderen Seite hat der Entwickler des Spiels aber auch das dringende Bedürfnis, seinen Titel anständig optisch in Szene zu setzen. Und das geht A) mit einer Eigenentwicklung von Features/Effekten oder B) mit dem Zukauf von eben solchen. Die Betonung liegt dort auf Zukauf... Unterm Strich ist das aus Spieleentwicklersicht ein rein wirtschaftliche Rechnung. Eigenentwicklung kostet genau so Geld wie der Einkauf. Die Frage ist, was wird am Ende wirtschaftlicher sein? Hat man das KnowHow um sowas in Eigenentwicklung hinzustellen oder ist die Lizensierung einer Bibliothek Dritter wirtschaftlicher?
Ich kann solche Pauschalaussagen pro oder kontra NV/AMD nicht nachvollziehen. Vor allem im Bezug auf Gameworks und dergleichen nicht... Ihr macht es euch zu einfach indem man einfach mal pauschal das eine annimmt, ohne über das Andere auch mal nachgedacht zu haben.

Mal ganz davon ab, es ist sogar noch ne Falschaussage, dass Gameworks dazu führt, dass Konkurenzprodukte extrem schlecht laufen. Oder wie erklärt man bspw. dass in sagen wir dem aktuellen Tomb Raider der eine aktuell aktive Gameworks Effekt (HBAO+) bei AMD und NV unterm Strich ca. gleich viel Performance kostet? Schalt HBAO+ aus und AMD läuft immernoch absolut schlechter... Wieso zieht man also den Schluss, es wäre Gameworks, wenn solche Sachen wie Tesselation (schalt es ein und die Performance bricht stärker weg bei AMD als bei NV), mögliche DrawCall Limitierungen in DX11 (siehe Benches hier im Thread, vor allem die HighDrawCall Werte) im Raum stehen?

Ganz sicher wird er AMD völlig außen vor lassen, es sei denn er hat Bock Strafe zu zahlen.

Wieder so ne Annahme... :rolleyes:
Stell dir doch einfach mal die Frage, wie das funktionieren soll? Wie soll NV das aktiv verhindern können und vor allem, wie soll NV das in Vertragsklauseln verankert, kontrollieren? Wenn sich die Entwickler dort ne AMD based Workstation hinstellen und ihren Titel darauf testen, was spricht ernsthaft dagegen?
 
Zuletzt bearbeitet:
Beleg?

...

Ich kann solche Pauschalaussagen pro oder kontra NV/AMD nicht nachvollziehen. Vor allem im Bezug auf Gameworks und dergleichen nicht... Ihr macht es euch zu einfach indem man einfach mal pauschal das eine annimmt, ohne über das Andere auch mal nachgedacht zu haben.

Schau dir doch mal die Spiele an, bei denen Nvidia beteiligt war. Da wird Tesselation ohne sin und Verstand auf höchster Stufe eingesetzt, weil Nvidia das besser kann. Beispiele: Witcher 3 mit Hairworks, Crysis (2 oder 3?) wo unter jeder Map Tesseliertes Wasser zu finden ist, egal, ob es auf der Map Wasser gibt, oder eine "Betonleitplanke", die mehr Poligone besitzt, als der Rest der Map, FarCry4 vs Primal, selbe engine nur ohne Gameworks, Tombraider läuft auch beschissen, ... soll ich weiter machen? Es zieht sich eigentlich wie ein roter oder soll ich eher sagen grüner Faden durch alle aktuellen Spiele, sobald Nvidia die Finder drin hat läuft es auf AMD relativ mieß.
 
Beleg?
Aus Entwicklersicht ist das halt unsinn... Dem Entwickler ist es total hupe, ob da nun NV oder AMD drauf steht. Da gehts bestenfalls um Werbung. Der Entwickler will doch nur seinen Titel verkaufen... Und ob der Endkunde nun AMD oder NV hat? Interessiert doch nicht... Es muss laufen. Und läuft es nicht gescheit, gibts negative Presse... Schau dir die ganzen Unkenrufe zu Ubisoft Titeln an... Auf der anderen Seite hat der Entwickler des Spiels aber auch das dringende Bedürfnis, seinen Titel anständig optisch in Szene zu setzen. Und das geht A) mit einer Eigenentwicklung von Features/Effekten oder B) mit dem Zukauf von eben solchen. Die Betonung liegt dort auf Zukauf... Unterm Strich ist das aus Spieleentwicklersicht ein rein wirtschaftliche Rechnung. Eigenentwicklung kostet genau so Geld wie der Einkauf. Die Frage ist, was wird am Ende wirtschaftlicher sein? Hat man das KnowHow um sowas in Eigenentwicklung hinzustellen oder ist die Lizensierung einer Bibliothek Dritter wirtschaftlicher?
Ich kann solche Pauschalaussagen pro oder kontra NV/AMD nicht nachvollziehen. Vor allem im Bezug auf Gameworks und dergleichen nicht... Ihr macht es euch zu einfach indem man einfach mal pauschal das eine annimmt, ohne über das Andere auch mal nachgedacht zu haben.

Mal ganz davon ab, es ist sogar noch ne Falschaussage, dass Gameworks dazu führt, dass Konkurenzprodukte extrem schlecht laufen. Oder wie erklärt man bspw. dass in sagen wir dem aktuellen Tomb Raider der eine aktuell aktive Gameworks Effekt (HBAO+) bei AMD und NV unterm Strich ca. gleich viel Performance kostet? Schalt HBAO+ aus und AMD läuft immernoch absolut schlechter... Wieso zieht man also den Schluss, es wäre Gameworks, wenn solche Sachen wie Tesselation (schalt es ein und die Performance bricht stärker weg bei AMD als bei NV), mögliche DrawCall Limitierungen in DX11 (siehe Benches hier im Thread, vor allem die HighDrawCall Werte) im Raum stehen?

Wieder so ne Annahme... :rolleyes:
Stell dir doch einfach mal die Frage, wie das funktionieren soll? Wie soll NV das aktiv verhindern können und vor allem, wie soll NV das in Vertragsklauseln verankert, kontrollieren? Wenn sich die Entwickler dort ne AMD based Workstation hinstellen und ihren Titel darauf testen, was spricht ernsthaft dagegen?
"Beleg" Frag Entwickler.
Du kennst ja nichtmal den Unterschied zwischen Entwickler und Publisher. Du bist nutzlos.
NEXT!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh