Rise of the Tomb Raider unter DirectX 12 und mit VXAO: Topmodelle von AMD und NVIDIA verlieren Leistung (Update)

Aber ist das nicht der "Sinn" hinter einer Low(er) Level API? -> eben den Entwicklern der Titel (viel) mehr Freiheiten und natürlich damit auch viel mehr Verantwortung zu geben?

Natürlich. Nur sollte man idealerweiser dieser Verantwortung auch gerecht werden können. Welchen Zweck hat DX12 wenn es nicht optimal vom Entwickler umgesetzt wird und am Ende sogar schlechter als DX11 da steht?

Das würde ich nicht sagen... Das, was bspw. in Ashes zwischen ASync ON/OFF bei rum kommt, ist weit weniger als das, was AMD auf seine Marketingfolien geschrieben hat. Real, und Ashes dürfte sich von der Art und Weise her dafür sogar recht gut anbieten, kommt da 5-10%+ raus, lass es 15% sein. Das ist nicht soooo viel. Keineswegs ein KO Kriterium, zumindest nicht was die überaus gute AMD DX12 Performance in Ashes angeht. Denn die ist auch ohne ASync enorm.

Naja, wie weit man an dem ideal der Marketingfolie herankommt ist eben auch eine Sache was der Entwickler daraus macht. Ich muss zugeben, dass ich mir bei Ashes of the Singularity noch keine Benchmarks ohne Async angesehen habe. Wusste gar nicht, dass man das auf AMD Karten auch abschalten kann. Trotzdem, ist es doch schon sehr seltsam, dass bei Tomb Raider hier selbst auf AMD Karten der DX11-Renderpfad schneller ausfällt als der DX12er. Ist das bei Ashes ohne Async auch der Fall? Ich würde vermuten das dies nicht der Fall ist...

Übrigens, was die Veröffentlichung angeht -> wenn ich das richtig sehe, warnt einen das Spiel sogar vor DX12 in aktueller Form. Aus meiner Sicht ist das kein Grund zu meckern/zu kritisieren. Ich finds sogar gut. Die Entwickler können/dürfen durchaus experimentieren. Warum auch nicht... Die Entwickler/Publisher und auch Partner haben weder Vor- noch Nachteile, sowas dem Kunden zusätzlich! bereitzustellen. Das Problem ist wie so oft die überzogenen Erwartungen. Man geht hier davon aus, das DX12 richtig viel mehr bringt und da fängt das Problem dann an, wenn es eben doch mal nicht mehr wird ;)
Schau dir die Foren an. Die AMDler kommen mittlerweile permanent mit ihren DX12 Vorteilen. Läufts dann mal (warum auch immer) nicht so gut -> wird wieder wer Anderes vors Loch geschoben. Von NV bis zum Entwickler über sonstwen. Das naheliegenste, das DX12 einfach in dem Fall, wie es einem das Spiel selbst mitteilt!, noch gar nicht fertig ist, man es aber dennoch schon nutzen kann/darf, wird ignoriert... Das ist ehrlich gesagt eher traurig :wink:

Ich verstehe worauf du hinaus willst und da stimme ich dir soweit auch zu. Nur die Erwartungen hat der Publisher/Entwickler aber auch irgendwo selbst zu verantworten, wenn er die Werbetrommel dafür laut aufschlagen lässt. Da sehe ich die Verantwortung nicht nur allein bei den Leuten in den Foren. Man ist sich doch bewusst welche Erwartungen z.Z. mit DX12 einhergehen wenn es ankündigt wird. Ich weiß jedenfalls nicht, ob das was hier abgeliefert wurde einfach nur experimentieren ist oder einfach nur Effekthascherei um ein paar Exemplare mehr zu verkaufen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im DX12 Modus von ROTTR scheint derzeit SLI nicht zu funktionieren. Zumindest bei meinen zwei 980Ti bleibt die zweite Karte immer bei 0% GPU-Last. Die FPS im Benchmark unter DX12 sind identisch mit den Werten bei abgeschaltetem SLI. Kann das jemand bestätigen? Treiber ist 364.51.

Anders als in dem Artikel geschrieben ist bei mir allerdings DX11 und DX12 (beides Single-GPU) exakt gleichschnell.
Getestet mit einem 3930K@4.8GHz und ner 980Ti@1520/4050MHz: ~74FPS bei ner Auflösung von 2560x1600, Grafik alles auf max. bis auf AA, das steht auf SMAA.

Mit SLI im DX11-Modus sind es immerhin dann ~102FPS, DX12 bleibt dann bei ~74FPS.

Weiterhin scheint VXAO auch nur unter DX11 zu funktionieren. Stellt man auf DX12 um, wird automatisch auf HBAO+ zurückgestellt und VXAO ist nicht mehr anwählbar.
 
Damit SLI in dx12 funktioniert müssen die Entwickler viel zeit und Arbeit investieren und das wird ganz sicher nicht passieren.
 
Damit SLI in dx12 funktioniert müssen die Entwickler viel zeit und Arbeit investieren und das wird ganz sicher nicht passieren.
Dann würde sie sich weniger bemühen als mit Mantle und DX11 den Tomb Raider 2013 bietet selbst unter DX11 Multi-GPU für alle Hersteller.

Irgendwie traurig, hab mich echt gefreut auf Rise of the TR aber so sehe ich kein Grund der 2013 Lara untreu zu werden.
Da gibt es wenigstens noch TressFX, Rise of the Tomb R. wirkt irgendwie Ge-game-works. :grrr:
 
Multi GPU ist in DX12 deutlich schwieriger hinzubekommen, das klassische SLI und Crossfire funktioniert nämlich da nicht.
In DX12 sind die Spiele Entwickler auf sich alleine gestellt und die GPU Hersteller können kein druck mehr machen wie zb. "Baut mal gefälligst SLI ein wir geben euch die Codes".
 
Multi GPU ist in DX12 deutlich schwieriger hinzubekommen, das klassische SLI und Crossfire funktioniert nämlich da nicht.
In DX12 sind die Spiele Entwickler auf sich alleine gestellt und die GPU Hersteller können kein druck mehr machen wie zb. "Baut mal gefälligst SLI ein wir geben euch die Codes".
Wieso sollte es schwieriger sein? Es wurde doch bereits mit sämtlichen Mantle Spiele gemacht, dort läuft es bereits bzw immer noch auch unter Windows 10.
Evt. sollte Nixxes einfach nochmal bei John Anderson oder Raja Koduri nachfragen, die haben es bei Thief auch hinbekommen SFR zu nutzen.

Klingt alles nach ner schlechten Ausrede, also nicht dich persönlich gemeint! ;)
 
In Mantle wurde bereits von Anfang an crossfire mit eingebaut, die Spiele Entwickler mussten also nichts nachträglich hinzufügen.

Multi GPU ist in DX12 deutlich schwieriger zu bewerkstelligen, da es hundert von verschiedene System Konfigurationen gibt.
Klar es wird dx12 spiele mit multi gpu unterstützung geben, es gibt sogar bereits eins(Ashes of the Singularity) aber die meisten werden darauf verzichten.
 
Zuletzt bearbeitet:
In Mantle wurde bereits von Anfang an crossfire mit eingebaut, die Spiele Entwickler mussten also nichts nachträglich hinzufügen.

Multi GPU ist in DX12 deutlich schwieriger zu bewerkstelligen, da es hundert von verschiedene System Konfigurationen gibt.
Klar es wird dx12 spiele mit multi gpu unterstützung geben, es gibt sogar bereits eins(Ashes of the Singularity) aber die meisten werden darauf verzichten.
Nein, CfX das wurde jeweils als Patch für das Spiel nachgeliefert, daher habe ich ja auch Thief erwähnt. ;)
Dann warten wir halt bis das Spiel vernünftig läuft, dann gibt es vielleicht auch Multi-GPU.
Bringt ja nichts in dem Zustand noch weitere Fehlerquellen zu provozieren. :coolblue:
 
https://youtu.be/3j7w8XMn7IE

hier mal etwas bessere quali, andere szene, 1080p und mit einsehbaren settings.

vram laut gpuz unter dx11 bei ~3,3gb und unter dx12 bei ~3,7gb.
 
RoTR%20VRAM%20fix.jpg

RoTR%20RAM%20Fix.jpg


Wie man sieht wirken sich die neuen Konsolen nun massiv auf die PC-Portierung aus. Bei der PS4 können 8GB flüchtiger Speicher als RAM und VRAM genutzt werden. Die Spieleengine schiebt nun also soviel wie möglich auf den schnellen Speicher der Grafikkarte. Der RAM-Verbrauch bei Karten mit viel VRAM sinkt entsprechend.

Das dies so kommt schrieb ich bereits 2013. Echt lustig die Kommentare. Die GTX670 wurde ohnehin bereits ersetzt. Die 7970 schägt sich nun mit der GTX970 rum. ;)
http://www.hardwareluxx.de/community/f306/2gb-oder-3gb-fuer-full-hd-958321.html#post20620372
Hitman - PC-Anforderungen - DirectX 12 gegen DirectX 11 - GameStar
 
Zuletzt bearbeitet:
Wie man sieht wirken sich die neuen Konsolen nun massiv auf die PC-Portierung aus. Bei der PS4 können 8GB flüchtiger Speicher als RAM und VRAM genutzt werden. Die Spieleengine schiebt nun also soviel wie möglich auf den schnellen Speicher der Grafikkarte. Der RAM-Verbrauch bei Karten mit viel VRAM sinkt entsprechend.

Ist doch aber schon immer so... Worauf willst du hinaus?
Immer höher auflösende Texturen müssen halt irgendwo hin... Mit der PS4 und XBox hat das wenig zu tun. Die 2GB beim GK104 waren damals schon "wenig" nur musste man sich damals eben doch etwas mehr anstrengen, diese zum überlauf zu bringen. Die 3GB der GK110 sind heute auch zu wenig, nur sind es die 4GB vom GM204 selbst bei voller Anbindung ebenso. Das gilt logisch auch für AMD... Selbst die 6GB der 980TI reichen in TR teils nichtmal mehr aus um Störungsfrei zu spielen -> Berichten zur Folge kommt es teils zu Framedrops durch Nachladeruckler (bei der TitanX hingegen nicht) -> was klar auf VRAM Limit schließen lässt.

PS: dein Vergleich mit der 670er/HD7970 hinkt übrigens... Einerseits gabs den GK104 auch mit doppeltem VRAM -> nur prädigten die Redaktionen damals, dass man das nicht brauch. Und andererseits ist/war Tahiti doch viel "fetter" vom Aufbau her. AMD hat halt die Leistung damals nicht auf die Straße bekommen. Mittlerweile klappt das aber immer besser. -> ein Resultat, was es bei AMD mindestens mal seit dem R600 zu beobachten gibt. Vor allem dann, wenn die Modelle länger als nur 1-2 Jahre nach Release in den Reviews/Tests mit betrachtet werden ;) Hintenraus zahlt sich mehr Power wie auch Speicher halt aus. Die Frage ist eher, was will der Kunde. Hat er die Karte -> wie du ja wohl auch, schon lange abgestoßen, bringt ihm das Wissen auch nix mehr. GK104 ist mittlerweile 4 Jahre alt. Tahiti sogar noch was länger...
 
Nö habe die Karte immernoch. Warum sollte ich diese abstoßen, wenn die Leistung doch noch reicht.
Der Vergleich ist in sofern fair, da es die gleiche Preisklasse war. Eine Vergleichbare Karte kostet heute auch noch mindestens 200€.
 
Was die Preisklasse angeht, ansichtssache... Tahiti ist mit 500€ gestartet und nach GK104 durch stark gefallen. Da lagen dann die GK104 Modelle mit 500€ (680) und 400€ (670) ne ganze Zeit lang vorn... Aber auch eben in den Benches, bis nach und nach die Rohleistung der Tahiti Modelle ausgespielt wurde. Mittlerweile ist Tahiti klar besser im Schnitt als GK104... Nur kauft heute kein Schwein mehr GK104 ;) Das ist der Punkt, wo dein Vergleich hinkt. Tahiti zwar auch nicht, aber Tonga ist effektiv nicht viel anders -> und bringt die Tahiti Vorteile ebenso mit. Nur ist mit 2GB da heute nix mehr zu gewinnen und 4GB sollten es schon sein. NIcht weil es 4GB brauch, sondern weil es mehr wie 2GB brauch.

Dazu kommt, es ist und bleibt eine Übergangserscheinung. Was passiert, wenn die 3GB ebenso zu wenig werden? Das ist HEUTE in höheren Leistungsklassen und neueren Titeln oftmals schon der Fall. Selbst bei FHD. Wart noch ein paar Monate und Tahiti geht genau so in den Keller ;)
-> sich also hinzustellen und genau den richtigen Zeitpunkt rauszupicken, halte ich für unsinn für eine Argumentation. Ein 4GB Modell der GK104 mag weniger FPS raus kloppen, als ein ein 3GB Tahiti, wäre aber bei unzureichenden 3GB durch zu hohe Texturbedarf wieder besser spielbar... Egal wierum man es dreht. Vor- und Nachteile hat es so oder so...

-> es bleibt die Frage, was will der Kunde. Ist ihm mögliche längere Nutzbarkeit in der Zukunft wichtig, oder will er beim Kaufzeitpunkt die Leistung haben.
Das Tahiti mal von den 3GB profitiert, war abzusehen. Selbst die 6GB Modelle können heute Sinn machen, vor allem wenn man CF nutzt und HighRes Texturen in einigen neuren Titeln will. Das Tahiti mal von der höheren Rohpower profitiert, zwar nicht direkt, aber man konnte zumindest darauf spekulieren (da AMDs Modelle mit zunehmendem Alter idR immer zugelegt haben ggü. den direkten NV Konkurenten)

PS: und klar hast du die 670er abgestoßen... Oder was bedeutet: "Die GTX670 wurde ohnehin bereits ersetzt" ??
 
Zuletzt bearbeitet:
Wow geniale DX12 Umsetzung von den Machern! Top!

Negativpresse ist auch Presse wa?

Hauptsache AMD ist nicht schneller. Und wenn DX12 dann langsamer als DX11 sein muss, dann ist es eben so. Ich bedanke mich im Name der Spielergemeinschaft bei nvidia.
 


meine kiste reicht unter 1440p für vsync60. *grandios*

anyway.. habs mir nur gezogen, weil ich mal gucken wollte. bis ich dazu komme, zuhause am PC irgendwelche games durchzuzocken, ist locker weihnachten. aber immerhin.. nice 2 see dass es mal weitergeht.



(..)

mfg
tobi
 
Hauptsache AMD ist nicht schneller. Und wenn DX12 dann langsamer als DX11 sein muss, dann ist es eben so. Ich bedanke mich im Name der Spielergemeinschaft bei nvidia.

gibts eigentlich irgendwas woran die grünen nicht schuld sind?

tomb raider kann unter dx12 durchaus besser laufen, sowohl bei grün wie auch bei rot.
https://www.youtube.com/watch?v=3j7w8XMn7IE
d77muiq19ke0kawjh.jpg

Steam Community :: Group Announcements :: Rise of the Tomb Raider

warum das ganze nun nicht auf jeder hardware Konstellation funktioniert könnte man natürlich untersuchen,
wobei es natürlich einfacherer ist das ganze auf gameworks zu schieben.
 
Zuletzt bearbeitet:
Sieht denn DX12 wenigstens besser aus?!
 
dx12 hat vorrangig nicht den auftrag spiele hübscher zu machen,
sondern (unter anderem) die drawcall problematik von dx11 zu beseitigen und das optimum aus den cpus raus zu holen.

es kann in zukunft aber natürlich sein das native dx12 spiele hübscher sind, da die entwickler die vorhandenen hardware resourcen besser nutzen können.

aber um deine frage zu beantworten: nein, tomb raider schaut unter dx12 nicht besser aus.
 
Zuletzt bearbeitet:
mag zwar sein das der Benchmark unter dx12 angeblich bessere min fps anzeigt, ist aber völlig belanglos.
Da es unter dx11 ein kleinen ruckler beim scenen wechsel gibt, dx12 bzw. der FPS counter zeichnet diese frame komischerweise nicht auf.

Insgesamt läuft dx12 deutlich unrunder als dx11.
 
Ich hab heute mit der aktuellen Version von RotTR gebencht

 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh