NVIDIA GameWorks 3.1 mit neuen Beleuchtungs- und Schattentechnologien (Update)

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.125
<p><img src="/images/stories/logos-2013/nvidia_2013.jpg" alt="nvidia 2013" style="margin: 10px; float: left;" /><strong>Anders als AMD konzentriert man sich bei NVIDIA auf die bisherige Kernkompetenz - jedoch nicht ohne das Thema Virtual Reality vollständig aus den Augen zu verlieren. Auf der Game Developer Conference liegt es natürlich Nahe, die Zusammenarbeit zwischen dem Hardwarehersteller, der NVIDIA weiterhin ist und den Softwareentwicklern in den Vordergrund zu stellen. GameWorks ist und bleibt ein strittiges Thema. Ist GameWorks nun eine Einschränkung für Entwickler und letztendlich auch den Nutzer oder eine Chance? Eine Antwort wollen und können wir heute nicht liefern, stattdessen wollen wir uns auf die Ankündigungen und Neuheiten konzentrieren.</strong></p>
<p>GameWorks...<br /><br /><a href="/index.php/news/hardware/grafikkarten/38448-nvidia-gameworks-3-1-mit-neuen-beleuchtungs-und-schattentechnologien.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"Volumetric Lightning"
"Volumetric Lighning"
...
Ich wollte schon immer volumetrische Blitze haben... ;)

EDIT: Danke fürs fixen, liest sich direkt besser!
 
Zuletzt bearbeitet:
Der Leistungseinbruch bei Verwendung von PhysX-GRB ist ja abartig. Von (capped?) 60fps fast auf ~40fps runter nur aufgrund der Physik Spielerei. Das wird kein Entwickler so implementieren.

Gerade solche dynamischen Elemente finde ich als Bestandteil des Gameplays aber sehr reizvoll, da soetwas nur kaum im großem Umfang genutzt wurde und deutlich mehr taktischen Tiefgang (vor allem im MP) bringen kann. Ich feiere heute immer noch die GeoMod-Technik von dem uralten Red Faction. Was war das im MP für ein Spaß, sich Gräben, Höhlen und Wege zu bauen.
 
Mich würde mal sehr interessieren was die Verwendung von PhysX oder Gamerworks die Entwickler kostet.
Zur Zeit nutzt Nvidia PhysX eher um die eigenen Grafikkarten zu verkaufen...

Ich fände es deutlich besser wenn Nvidia PhysX als Geschäftsmodell auslagern würde, sozusagen wie bei Havok: Entwickler zahlen viel Geld das nutzen zu können erreichen aber deutlich bessere Physik.

Wenn Nvidia PhysX für AMD öffnen würde, läge die Adaptionsrate der Spieleentwickler wahrscheinlich bei der 10 wenn nicht 20 fachen Häufigkeit und Nvidia würde damit sehr viel Geld verdienen.
 
Zuletzt bearbeitet:
Wenn Nvidia PhysX für AMD öffnen würde, läge die Adaptionsrate der Spieleentwickler wahrscheinlich bei der 10 wenn nicht 20 fachen Häufigkeit und Nvidia würde damit sehr viel Geld verdienen.

Es gab leider hier keine News dazu, aber NV will Gameworks öffnen ;)
Es fängt in erster Instanz mit den althergebrachten Sachen an, die neuesten Techniken sind noch nicht frei, es besteht aber durch diesen Schritt der Öffnung die Warscheinlichkeit, dass auch derartige Techniken frei werden...

Quelle:
Nvidia GameWorks: Quellcode für HBAO+ und weitere Effekte veröffentlicht - ComputerBase

Bin gespannt, was das am Ende bedeutet... Mit dem Öffnen der ganzen Sachen wäre es nämlich tendenziell recht einfach die vorgebrachten Vorwürfe gegen NV einfach mal zu überprüfen. Sprich ist da eine Benachteiligung drin oder nicht ;) Ich denke bei sowas werden sich einige der Kritiker am Gameworks Programm noch umgucken...
 
Die Frage ist ob es AMD dann erlaubt wäre PhysX Support zu bringen und ob Nvidia die AMD Sperre (Deaktivierung bei Erkennung von AMD HW) wieder raus nimmt!

Auf jeden Fall ein lobenswerter und Vernünftiger schritt von Nvidia!

Wenn schlagartig vor der Offenlegung die Leistung nochmal steigt kann das aber auch darauf hin deuten, dass die Bremsen raus genommen haben damit diese nicht öffentlich werden... :fresse:
 
Zuletzt bearbeitet:
Die Frage ist ob es AMD dann erlaubt wäre PhysX Support zu bringen und ob Nvidia die AMD Sperre (Deaktivierung bei Erkennung von AMD HW) wieder raus nimmt!

Welche Sperre soll das denn sein? Da gibst keine Sperre...
-> das was da aktuell läuft bei NV ist Cuda based. Wenn AMD kein Cuda kann, gehts eben nicht. Das ist weder eine Sperre noch absichtliches Aussperren oder sonstwas. Zumal dir doch auch auffallen sollte, das NV mittlerweile nicht zwingend mehr an Cuda hängt. Hairworks läuft in TW3 auch auf AMD. Lassen wir die Tesselation Schwäche mal außen vor, dann bliebt die reine Simulation, die auf AMD GPUs genau so tut wie auf NV GPUs.
Und die anderen Geschichten, potentiel wäre es möglich, das zu portieren auf OpenCL, DirectCompute ja sogar AMD Stream... Die Frage ist nur, macht das wer? Will das wer? Und wer braucht es am Ende? NV wird nen Teufel tun, das zu machen...

PS: Gameworks ist weit mehr als nur PhysX per GPU. Warum kommt das eigentlich immer als Einwand? Hier geht es neben ein paar Physikbibliotheken auch um optische Aufwertungen. Bspw. HBAO+ hat nicht viel mit PhysX zu tun und hängt weder an Cuda noch an NV GPUs.

Ist aber auch nur das alte Zeug, das AMD mittlerweile eh schon gut im Treiber unterstützt.

Dann würde ja nicht alle Nase lang kommen, Gameworks würde AMD aktiv benachteiligen ;)
 
Doch es wird ausgesperrt, Nvidia deaktiviert PhysX wenn eine AMD GPU erkannt wird, das ging sogar soweit das bei Verwendung von AMD APUs als CPU das PhysX deaktiviert hatte obwohl nru die Geforce genutzt wurde! Radeon + Geforce: Nvidia unterbindet GPU-Physx bei installierter AMD-Grafikkarte
Außerdem wird CPU Basiertes PhysX wie es unter Borderlands 2 (mit niedrigeren Frames) ging bei AMD karten gesperrt, Borderlands 2 kam aber raus bevor PhysX diese Sperre erhielt weshalb man heute noch mit AMD Karten und PhysX (auf CPU) ansehnlich spielen kann!

Fakt ist, dass Momentan eine Sperre für AMD GPUs besteht. AMD haben mit GPU Open und ihrem Cuda-Kompiler gezeigt das es scheinbar kein Problem ist, Cuda exklusive Technologien auf AMD Hardware zu laufen und das sogar ohne große Leistungseinbußen!


Und warum ich mich so sehr auf PhysX konzentriere: Weil es das bedeutendste proprietäre Technologie von Nvidia ist, die zwar einen deutlichen grafischen Mehrwert bietet, aber wegen ihrer exklusivität nur sehr selten umfangreich eingesetzt wird.
Wäre PhysX für AMD nutzbar hätte wahrscheinlich jedes große Spiel mittlerweile geile PhysX Effekte wie Borderlands 2 und Nvidia könnte daran sogar ordentlich Geld verdienen!
 
OK, da hast du recht... Diese Geschichte hatte ich nicht auf dem Schirm.
Auf der anderen Seite muss man aber auch klar sagen. Wenn NV meint, dass es nur mit NV GPU only geht, ist das trotzdem ihr gutes Recht.

Ich denke aber nicht, dass mit Öffnung von Teilen aus dem Gameworks Programm dort sich am Umstand, vor allem bei älteren Titeln was ändert, warum? Weil im Endeffekt der Treiber von NV diese Restriktion hat. Sprich GPU PhysX, also der Schalter dort im Treiber wird nur möglich, wenn die NV GPU die primäre GPU ist. -> bin mir allerdings nicht ganz sicher, ob das mit der AMD APU nicht seinerzeit sogar gelöst wurde? Hat NV das gefixt oder ist der Umstand immernoch der Fall?

Ansonsten, GPU PhysX ist quasi tod. Das neue Feature schimpft sich PhysX-GRB und kommt irgendwann im laufe der nächsten Monate. Das wird sicher für den Anfang NV only sein/bleiben. Übrigens, PhysX gehört neben Havok zur meist eingesetzten Physikengine ;) Einzig der GPU Part hat quasi keine Marktdurchdringung. Ob das nun im Endeffekt an der Herstellergebundenheit liegt oder vielleicht an anderen Themen wie dem allgemein sehr hohen Leistungsbedarf, lässt sich nur spekulieren. Aus meiner ganz persönlichen Sicht ist GPU beschleunigte Physik in Games so oder so eher der falsche Weg. Warum? Weil nicht jeder mit den dicksten HighEnd GPUs spielt... Im Mainstream oder bei betagteren GPUs ist einfach überhaupt keine Luft um da mal eben so 20 oder mehr Prozent in Physiksimulationen zu stecken. Die Demos sehen auf ihre Art zwar immer durchaus beeindruckend aus. Schaut man dann aber mal etwas genauer hin, fällt auf, dass A) da idR keinerlei optische Schmankerl drin sind -> sprich idR Textur/Shadereffektlose Simulationen. Und B) für die Simulationsdemos schon die dicksten GPUs zur Zeit verwendet werden und dennoch die Leistung eher "mau" ausfällt.
Sieht man auch schön an TressFX und Hairworks... Bisschen Haarsimulation = 10-30% Performanceverlust je nach Umsetzung, GPU, Situation und Settings.

Mir hat seinerzeit die Agaia PPU da mehr zugesagt. ;) Zumal die Leistungseffizienz von den Dingern ziemlich hoch war zur damaligen Zeit.
 
Dann würde ja nicht alle Nase lang kommen, Gameworks würde AMD aktiv benachteiligen ;)

Machts aber doch, mit unnötig hohe Tessellation und DrawCalls, die in Gameworks zu genutzt werden, dafür braucht es doch zwingend closed Source.
Sonst könnten die Entwickler ja etwas dagegen machen und die Shitstorms beim Erscheinen der Spiele würden weniger werden. Vermutlich aber dann auch Nvidias "Vorteil" in den ersten Benchmarks.
 
Nur ist die Definition vom Grad der Tesselation wie auch die Menge der DrawCalls schlicht nicht gegeben.
Es gibt nunmal keine Obergrenze, was sinnvoll/unsinnig ist bei der Menge der DrawCalls. Genau so wie Tesselation bis Faktor x64 quasi genormt ist... Wenn nun einer der Parteien genau zufällig Generationen lang dort "Probleme" hat, wo ist denn da bitte die Benachteiligung? Soll diese Partei doch die Leistung entsprechend anheben... Ich würde dir uneingeschränkt zustimmen, wenn es bspw. einen propriäten Sonderfaktor bei der Tesselation deutlich über 64x bei NV geben würde, den diese Effekte dann nutzen würden... Aber das ist doch nicht der Fall. 64x ist voll im Standard. Und AMD ist schnell (schneller sogar als NV im direkten Vergleich) bei niedrigen Faktoren, lässt obenraus aber Federn.

Man tut hier immer so, als wäre der Markt die Wohlfahrt und es darf einfach nicht sein, dass der "kleinere" Vertreter am Markt Nachteile hat/haben kann... Ausgeblendet wird dabei völlig, dass sich dieser "kleinere" Player eben diese Nachteile schlicht und ergreifend selbst eingebrockt hat bzw. dafür selbst verantwortlich ist... Der Part mit der Tesselationleistung in hohen Leveln ist seit dem Fermi bekannt. Der Part mit der DrawCall Performance spätestens seit AMD höchstselbst uns Endkunden erzählen wollte, dass DX11 zu lahm wäre und man Mantle als Problemlösung aufzeigte. Pustekuchen... Das ist alles eigen gemachtes Bier.

Übrigens, was Tesselation angeht, eigentlich ist das sowieso nur ne Krücke. Denn der Spieleentwickler trägt maßgeblich dazu bei, wie hoch die Faktoren ausfallen sollten/müssen, damit auch dort entsprechend Optik bei rum kommt. Die Tesselation, wie sie im Gaming idR genutzt wird wirkt halt auf ganze Objekte, obwohl man eigentlich nur die Wirkungsweise auf Teilen davon benötigt. Bspw. bei Displacement Maps um LowPoly Meshes "Form" zu geben. Dass man sich dann als AMD hinstellt und die Sinnhaftigkeit derartiger Faktoren in Frage stellt, ist zwar in gewisser Weise "menschlich", aber eben auch nur eine Floskel um die Hardwareproblematik aus dem Fokus zu nehmen. Mit einem Wireframe Mesh siehst du ziemlich exakt die Unterschiede bis in die hohen Tesselation Faktoren... ;)
 
Physik auf der GPU macht keinen Sinn. Wenn man die alte Graka als Co-GPU weiterverwenden könnte, aber das funktioniert ja (Überraschung) auch nur bedingtm, weil bei Nvidia nicht gewollt. Wenn nun die Coreanzahl seit ewiger Zeit mal wieder steigt und der CPU-Overhead dan DX12 zudem sinkt, dann ist CPU-physiX die erste Wahl. Zumal ja die Konsolen auch 8 CPU-Kerne haben.

Das Nvidia Ihren Gameworks-Krempel nun öffnen möchten ist offensichtlich. Man erhofft sich hierdurch eine Verwendung im nächsten DirectX oder Shader Model 6.0. Wenn aber wie bereits einige geschrieben haben das ganze Nvidia-typisch propritär bleibt, dann wird das mit Sicherheit nichts. DirektX und Shadermodelle sind ja gerade nicht propritär sonder ein offener Standard. AMD besitzt mit GCN nun auch eine 1D Architektur. Diese ganzen Spielerein lassen sich, passender Treiber vorrausgesetzt, nun ebenfalls auf AMD Karten ausführen. ;)

Dennoch wäre Physx als offener Standard auch für Nvidia ein Segen. Man verkauft ja keine CPUs. Mit 80% Marktanteil kann man das Risiko nun eingehen. Mit PhysX wollte man von Anfang an den Bedarf an GPU-Power steigern. PhysX konnte sich aber bis heute nicht durchsetzen. Es gibt kein Tripple-A Spiel mit PhysX. Häufig sind es sogar Publisher mit finanzielen Problemen. Mit dem Aufkommen breiter CPUs sieht Nvidia wohl die Felle davon schwimmen und auch die letzte Gelegenheit Physik auf der GPU durchzusetzen.

Wie aber bereits erwähnt werden Top-Engines (zB FrostBite) niemals Physik auf der (primären) GPU einsetzen sondern auf der CPU (oder höchstens auf der sekundären GPU).

Nur ist die Definition vom Grad der Tesselation wie auch die Menge der DrawCalls schlicht nicht gegeben.
Es gibt nunmal keine Obergrenze, was sinnvoll/unsinnig ist bei der Menge der DrawCalls. Genau so wie Tesselation bis Faktor x64 quasi genormt ist... Wenn nun einer der Parteien genau zufällig Generationen lang dort "Probleme" hat, wo ist denn da bitte die Benachteiligung? Soll diese Partei doch die Leistung entsprechend anheben... Ich würde dir uneingeschränkt zustimmen, wenn es bspw. einen propriäten Sonderfaktor bei der Tesselation deutlich über 64x bei NV geben würde, den diese Effekte dann nutzen würden... Aber das ist doch nicht der Fall. 64x ist voll im Standard. Und AMD ist schnell (schneller sogar als NV im direkten Vergleich) bei niedrigen Faktoren, lässt obenraus aber Federn.

Man tut hier immer so, als wäre der Markt die Wohlfahrt und es darf einfach nicht sein, dass der "kleinere" Vertreter am Markt Nachteile hat/haben kann... Ausgeblendet wird dabei völlig, dass sich dieser "kleinere" Player eben diese Nachteile schlicht und ergreifend selbst eingebrockt hat bzw. dafür selbst verantwortlich ist... Der Part mit der Tesselationleistung in hohen Leveln ist seit dem Fermi bekannt. Der Part mit der DrawCall Performance spätestens seit AMD höchstselbst uns Endkunden erzählen wollte, dass DX11 zu lahm wäre und man Mantle als Problemlösung aufzeigte. Pustekuchen... Das ist alles eigen gemachtes Bier.

Übrigens, was Tesselation angeht, eigentlich ist das sowieso nur ne Krücke. Denn der Spieleentwickler trägt maßgeblich dazu bei, wie hoch die Faktoren ausfallen sollten/müssen, damit auch dort entsprechend Optik bei rum kommt. Die Tesselation, wie sie im Gaming idR genutzt wird wirkt halt auf ganze Objekte, obwohl man eigentlich nur die Wirkungsweise auf Teilen davon benötigt. Bspw. bei Displacement Maps um LowPoly Meshes "Form" zu geben. Dass man sich dann als AMD hinstellt und die Sinnhaftigkeit derartiger Faktoren in Frage stellt, ist zwar in gewisser Weise "menschlich", aber eben auch nur eine Floskel um die Hardwareproblematik aus dem Fokus zu nehmen. Mit einem Wireframe Mesh siehst du ziemlich exakt die Unterschiede bis in die hohen Tesselation Faktoren... ;)

Gott bist du grün hinter den Ohren. Nimm mal die Brille ab.
dx12-980.png

Ja Nvidia kommt in DX11 mit dem CPU-Overhead noch besser zurecht. Das Grafikkarten Design hat zudem weniger Shader. Man ist also in der besseren Position. Da man sowieso alte Generationen durch den Treiber altern lässt, würde man bei Nvidia sogar keinen Handlungsbedarf sehen um den Fanboy weiter zu melken.
Man sieht aber klar, dass auch bei Nvidia der Treiberoverhead da ist. Es ist also mit Nichten AMDs Schuld wenn Sie frühzeitig an einer Lösung arbeiten und Wege suchen die GPU zukünftig weiterhin voll auszulasten. Ein bis zwei Generationen später wäre auch Nvidia in den Overhead gelaufen. Warum? Mit steigender GPU-Performance und Auslastung steigt auch die CPU-Auslastung. Wenn die CPU-Overhead so egal wäre tausch doch deinen 5960x wieder gegen einen Intel Pentium D.

Überingens zum Overhead:
http://www.pcgameshardware.de/Mafia-2-Spiel-13147/Specials/Vorbereitung-Mafia-3-Benchmarks-1166573/
In Mafia 2, einem 6 Jahre alten Spiel schafft eine 980Ti nicht einmal heute 100fps in FullHD. Interessant nicht? Man hat den Overhead also genau so im Griff, dass eine damals aktuelle High-End GTX480 38fps auf den Bildschirm zauberte. High-End + Mittelklasse und man errreicht 60fps.
http://www.gamestar.de/spiele/mafia-2/artikel/mafia_2,43581,2316960.html
Das zieht sich wie ein Roter Faden durch die PhysX Games. Gerade so, dass es High-End schafft. Und später kommen selbst 8x so schnelle Karten nicht an die 100fps Marke. Alte GPU als PhysX GPU weiterverwenden -> bremst.

Genauso bei der Tesslation. Nvidia steigert die Tesslationleistung weiterhin, obwohl es keinen sichtbaren Mehrwert mehr gibt. Das es die Tesslationsauflösung von 64 Fach überhaupt gibt ist ein Unding. Das ist aber kein Problem von AMD, da man über den Treiber (ohne optischen Nachteil) die Tesslationsleistung steuert. Ein Problem ist es aktuell nur für ältere Nvidia Karten in Gameworks Titeln. (Überraschung)
 
Zuletzt bearbeitet:
Es gibt kein Tripple-A Spiel mit PhysX. Häufig sind es sogar Publisher mit finanzielen Problemen. Mit dem Aufkommen breiter CPUs sieht Nvidia wohl die Felle davon schwimmen und auch die letzte Gelegenheit Physik auf der GPU durchzusetzen.

Wie aber bereits erwähnt werden Top-Engines (zB FrostBite) niemals Physik auf der (primären) GPU einsetzen sondern auf der CPU (oder höchstens auf der sekundären GPU).
Kann es sein, dass du die Unterschiede nicht verstanden hast?
Die PhysX Engine ist eine der meist verwendeten Physikbibliothen überhaupt. Havok wäre da noch zu erwähnen... Was hat das bitte mit der Möglichkeit zu tun, dies auf der GPU berechnen lassen zu können? Bitte nochmal informieren gehen.


Gott bist du grün hinter den Ohren. Nimm mal die Brille ab.
Wo ist in deiner Grafik, dazu völlig ohne Quellenangabe denn die gleichwertige AMD GPU?
Auch hier wieder, nochmal informieren gehen... Es hat keiner auch gesagt, dass NVs DX11 Umsetzung DX12 in irgend einer Weise in Sachen Leistung nahesteht. Nichtmal im Ansatz. Die Aussage war, dass es mehr, teils deutlich mehr, wie bei AMDs Umsetzung ist. Wie dir aber scheinbar völlig unbekannt ist, besteht dort eine Art Zusammenhang von der Leistung, die die Hardware kann und der Leistung, die die Software benötigt. Wenn nun DX12 in einem Overhead Test zugeschnitten auf genau diese Wertermittlung x-fach schneller ist, heist das lange nicht, dass es in den Titeln am Ende ebenfalls so aussehen wird. Genau so wenig wie die Höhe des Zuwachses etwas über die Performance bei DX11 aussagt. (auf NV bezogen)
Im Endeffekt ist es vom Spiel und deren Umsetzung abhängig. Gelinde gesagt nutzt dir DX12 gar nix, wenn der gespielte Titel nur DX11 kann... Und nun? Als Endkunde kannst du dir von der Zukunftsaussicht absolut NICHTS kaufen. Weswegen man Hardware normal nach dem aktuellen Bedarf kauft und nicht für den möglichen Bedarf in xx-Jahren in der Zukunft.

Genauso bei der Tesslation. Nvidia steigert die Tesslationleistung weiterhin, obwohl es keinen sichtbaren Mehrwert mehr gibt. Das es die Tesslationsauflösung von 64 Fach überhaupt gibt ist ein Unding. Das ist aber kein Problem von AMD, da man über den Treiber (ohne optischen Nachteil) die Tesslationsleistung steuert. Ein Problem ist es aktuell nur für ältere Nvidia Karten in Gameworks Titeln. (Überraschung)

Auch hier wieder, erst informieren, dann losquatschen... Natürlich gibt es einen sichtbaren Unterschied. Das du diesen nicht siehst, wenn du ihn nicht sehen willst, ist nicht verwunderlich... Ich hatte oben schon erwähnt, was man als optische Hilfsmaßnahme nutzen kann, damit die Unterschiede auch ohne geschulten Blick auffälliger werden. Ebenso trifft es sich hier wieder, dass du den Text nicht verstanden hat. Natürlich ist es AMDs Problem, wenn die Hardware für die hohen Tesselationstufen offenbar nicht schnell genug ist. Das kann NUR AMD selbst ändern. Oder eben auch nicht -> dann drosselt man die Qualität über den Treiber. Aber das sagte ich bereits... Wieso man dann aber alle Nase lang rumschimpft, ist mir schleierhaft... Das Mittel gibt es seit Jahren bei AMD. Wieder der Neid?

Man sieht aber klar, dass auch bei Nvidia der Treiberoverhead da ist. Es ist also mit Nichten AMDs Schuld wenn Sie frühzeitig an einer Lösung arbeiten und Wege suchen die GPU zukünftig weiterhin voll auszulasten. Ein bis zwei Generationen später wäre auch Nvidia in den Overhead gelaufen. Warum? Mit steigender GPU-Performance und Auslastung steigt auch die CPU-Auslastung. Wenn die CPU-Overhead so egal wäre tausch doch deinen 5960x wieder gegen einen Intel Pentium D.
Nochmal meine Ausführung lesen. Keiner gibt AMD die Schuld, dass sie frühzeitig an einer Lösung des Problems arbeiten. Es steht geschrieben, dass es AMDs eigens selbst eingebrocktes Bier ist, dies nicht mit Optimierungen für DX11 getätigt zu haben. Nämlich genau dort, wo es mit der eigenen Ausführung nicht mehr langt... Stattdessen wollte man mit Mantle vom eigenen DX11 Problem ablenken -> klappte bestenfalls kurzzeitig. Und DX11 ist nunmal da drin, was in den letzten 2-3 Jahre in den Titeln zu sehen ist/war. -> wenn man sich für diesen Weg entscheidet, bitte, kann man machen. Nur eben das rumgeheule auf die böse Konkurenz ist da doch etwas grenzwertig. Neidisch biste aber nicht, oder?

PW: was hat mein Prozessor mit dem Thema zu tun? Wie dir vielleicht geläufig sein dürfte gibt es neben Spielen andere Software, die ein PC abhandeln kann... Ich glaube nicht, dass du ansatzweise mit 3D Modeling/Rendering und Programmierung was am Hut hast. Also lass dir gesagt sein, es gibt dort durchaus Bedarf nach breiten CPUs. Ein vielleicht nur viertel so schneller Pentium D ggü. meinem Prozessor hätte da wenig Sinn.
Anhand deiner unsinnigen verbalen Angriffe entnehme ich aber wieder einmal, dass überhaupt kein Interesse deinerseits besteht, eine sachliche Diskusion führen zu wollen. Geh also bitte einfach woanders trollen...
 
Ich spare mit die Zitate:

1) Es ging weiter oben um PhysX und die öffnung von Gameworks. Also darf ich ja wohl meine Meinung kund tun. ;)
Im übringen müsste der Satz lauten:
"Die Havok Physik-Engine ist eine der meist verwendeten Physikbibliothen überhaupt. PhysX wäre da noch zu erwähnen, hat aber gemessen am Spielemarkt (4 Spiele 2015) keine Bedeutung."
https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support

2) 4) Rechtklick auf das Bild. Link folgen. Goolge hilft im Zweifel.
AMD R9 290X As Fast As Titan X in DX12 Enabled 3DMark - 33% Faster Than GTX 980
Und natürlich kauft man sich HW für die Zukunft. Bei 1000€ CPUs und Graka ist ein bischen Weitsicht nicht verkehrt.

Und natürlich sind das theoretische Werte, die jedoch eindrucksvoll zeigen wo die Probleme bei DX11 (und allen DX-Leveln zuvor) liegen. Nämlich im Overhead und der mangelnden Skalierung bei meheren Kernen. Je stärker die GPU wird, desto schlimmer wird sich das in Zukunft auf die Programmierung auswirken. Es ist ja nicht so das AMD sagt: "Mensch wir haben keinen Bock auf DX11, lass uns mal was ganz neues entwickeln. Wir nennen es Mantle und hier müssen wir alle Entwickler überzeugen es neben DX zuimplmentieren. Mit unseren 25% Marktantiel klappt das auch bestimmt."
Im übrigen kam der Druck bezüglich DX12 nicht von Microsoft selbst oder AMD und Nvidia sondern den Entwicklern. Da braucht man auch nichts wegreden. Das Problem ist ja auch, dass es eben nicht spürbar weitergeht mit der Singlethread Performance. Das betrifft vor allem die Konsolen und Notebooks und irgendwo am Ende dann den DesktopPC. Aber das hast du bis heute nicht verstanden.

Was willst du AMD jetzt vorwerfen? Das die 2 Gameworkstitel (Überraschung) einen besonders hohen CPU-Overhead in Dx11 haben?

3) Wo ist das der Neid? Du kommst doch wieder mit der "schlechten" Tesslationsleistung um die Ecke. Wenn überhaupt ist sie eben mehr als ausreichend. Problem sind eben Spieleseiten die einheitlich test, wenn man aber wie du schon ein Gitternetz braucht um Unterschiede zu sehen, ist das eben echt arm und traurig, eben ohne Mehrwert für den Verbraucher. Zeig mir mal ein Tesslationsscreen zwischen 16x und meint wegen 64x wo man noch Unterschiede sieht. Nur einen einzigen. Viel Spaß bei der Suche.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh