Hard- und Software: NVIDIA richtet sich vollständig auf das Ray Tracing in Echtzeit aus

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.151
quadro-rtx.jpg
Spätestens mit der Ankündigung von NVIDIAs RTX-Schnittstelle und der Kompatibilität zu Microsofts DXR-API für Ray Tracing ist klar, wohin die Reise mit der nächsten GeForce-Generation gehen wird. NVIDIA verspricht den Spielern den Heiligen Gral der 3D-Darstellung – eine mittels Ray Tracing unterstützte Darstellung von 3D-Objekten.Mit den ... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wenn man sich mal wirklich die alten artikel und kartenvon vor 20 jahren in erinnerung ruft, finde ich das einfach faszinierend was alles möglich ist. die menschheit kann schon toll sein, wenn sie es nur will
 
Ja wenn man nochmals 20 jahre wartet wird das für den Consumer interessant. Bis dahin muss man damit leben nur Aufnahmen im Kino anzusehen... Aber abgesehen davon werden bis dahin die Anwendungen begrenzt sein. Spiele leben von neuen Ideen und nicht Lichtreflexionen einer Metallfolie auf Kunststoffhelmen...
 
Ich bekomme grade einen Nerdgasmus.
 
AMD äußerte sich bereits zum Thema DXR:

"AMD arbeitet zusammen mit Microsoft daran, die Zukunft von DirectX12 und Raytracing zu bestimmen, zu verbessern und mitzugestalten. AMD bleibt Technologieführer der neuen Programmier-Modelle und Application Programming Interface (API) Innovationen auf der Grundlage einer zukunftsorientierten und grundlegenden System-Level-Kompetenz für die Grafik-Programmierung. Wir freuen uns darauf, mit Spielentwicklern Ihre Ideen und Ihr Feedback zur PC-basierten Raytracing-Technologie für Bildqualität, Effekte und Performance zu diskutieren."

Ist dieses Quote irgendwie aus dem Zusammenhang gerissen im Artikel, oder ist AMD echt so verblendet?
Da wird gerade der Boden aufgewischt mit AMD. Das hat nichts mit Technologieführer zu tun. Nicht im geringsten.

Wo man im Consumer Markt noch von Minimalem Rückstand reden kann, ist hier im Servergeschäft wohl jeder Vergleich lächerlich.
AMD ist in dem Segment bestenfalls Spielzeug für Kinder und kein ernstzunehmender Partner für Unternehmen.

Pff. Technologieführer.
Hoffe echt das ist von HWL aus dem Zusammenhang gerissen.
 
@Rattenmann
Wo ist den das Problem, ist doch gut das AMD Raytracing aktiv mit gestalten will, DirectX12 und Vulkan sind APIs, die von AMD gefördert werden.
 
Zuletzt bearbeitet:
Aber abgesehen davon werden bis dahin die Anwendungen begrenzt sein. Spiele leben von neuen Ideen und nicht Lichtreflexionen einer Metallfolie auf Kunststoffhelmen...

THIS! Wenn ich mir die lieblos hingeklatschten Spiele gerade aus dem Hause Ubisoft oder die immer gleichen COD-Ableger so angucke, dann haben das wohl einige vergessen. Im Menü finde ich mehr DLC und Shop Optionen als Spielmodi.
Und ausgerechnet auf den schwachen Konsolen, vorallem der PS4 kommen die wahren Spielekracher raus.
Ich würde jederzeit einen innovativen Stealth-Coop-Shooter mit HL2-Grafik einem Ghost-Recon-Wildlands 2 vorziehen.

Am Ende ensteht das schöne Bild in meinen Augen sowieso durch einen hochwertigen Bildschirm als durch ultrarealistische Grafik-Effekte.
 
Ist dieses Quote irgendwie aus dem Zusammenhang gerissen im Artikel, oder ist AMD echt so verblendet?
Da wird gerade der Boden aufgewischt mit AMD. Das hat nichts mit Technologieführer zu tun. Nicht im geringsten.
Kann grad nicht so 100% einordnen wo deine Schmerzen genau liegen, aber AMD backt mit MS grad die nächste Xbox. Und das wird DXR können.
Sony wird die PS5 auch nicht ohne bringen. Das wird ein AMD Navi + DXR-like Einheiten. Heisst dann halt nur nicht "DXR".

2/3 der GPU-Entwickler bei AMD sind nun erstmal an den Konsolenchips dran. Und das Geschäft damit ist für AMD gut. NV kann erstmal bis Frühling 2019 machen was sie wollen. Was egal ist. 2018 wird man keine DXR Spiele sehen. Es wird keinen Vorsprung geben, aka 2te Generation der DXR Karten bei NV, bevor AMD da was auf den Tisch legen kann.

Wenn man sich übrigens die Preise egal welcher GTX anschaut, dann wischt man den Boden aktuell mit dir und nicht mit AMD. Ja, das muß man in der Tat Vega ankreiden.
 
Danke für den guten Bericht, habe ich so nirgends gelesen.

Spannende Entwicklung, wobei wir anfangs sicherlich nur einzelne Effekte sehen werden weil die Leistung nicht ausreicht. Letztlich müssen die neuen Karten auch bei aktuellen Spielen liefern, was eine reine Ausrichtung auf die "neue" Technik verhindert. Spannend bleibt tatsächlich wie AMD hier abschneidet. Aber das ist seit langem mal wieder was neues von NV und falls es den Markt nicht spaltet absolut zu begrüßen.
 
Ist dieses Quote irgendwie aus dem Zusammenhang gerissen im Artikel, oder ist AMD echt so verblendet?

Das ist ein vollständiges Zitat von AMD zu Microsofts DXR und dem Thema Ray Tracing. Da ist nichts aus dem Zusammenhang gerissen.
 
Wird das wieder sowas wie physx und Gameworks, was jeder deaktiviert oder wird das was neues,was Pflicht für Spiele wird?
 
Zuletzt bearbeitet:
Ist dieses Quote irgendwie aus dem Zusammenhang gerissen im Artikel, oder ist AMD echt so verblendet?
Da wird gerade der Boden aufgewischt mit AMD. Das hat nichts mit Technologieführer zu tun. Nicht im geringsten.

Wo man im Consumer Markt noch von Minimalem Rückstand reden kann, ist hier im Servergeschäft wohl jeder Vergleich lächerlich.
AMD ist in dem Segment bestenfalls Spielzeug für Kinder und kein ernstzunehmender Partner für Unternehmen.

Pff. Technologieführer.
Hoffe echt das ist von HWL aus dem Zusammenhang gerissen.

Mit APIs ist AMD in dem Bereich nun mal deutlich besser als Nvidia. Nvidia baut beschissene APIs. Nvidia APIs wie z.B. Gameworks laufen auf AMD GPUs scheiße, auf ihren GPUs abseits der 1080ti und Titans scheiße und auf intel HD Graphics scheiße. Nvidia kann keine APIs entwickeln. G-Sync macht im Moment auch ärger (Freesync auch, ich weiß). Das einzige was auch nur irgendwie läuft ist CUDA und das auch nur weil Nvidia da eine dermaßen riesige Klage erwarten würde wenn da was schiefgeht nachdem das in Workloads verwendet wird wo oft keine Fehler akzeptabel sind. AMD hat Vulkan mitgestaltet (was echt gut ist), AMD hat ProRender was recht gut ist. GPUOpen (Sprich TressFX etc. etc.) ist auch ziemlich cool und AMD hat OpenCL mitgestaltet.

Weißt du, der unterschied zwischen Hairworks und TressFX ist, dass TressFX besser aussieht und überall gut läuft.

Nvidia mag anständige GPUs bauen, aber Nvidia APIs sind eigentlich persé beschissen. Mal abgesehen davon das im Server-Markt die AMD GPUs auch nicht schlecht sind und auch die Vega basierten Recheneinheiten nicht schlecht aussehen (Das wird sich mit Instinct nicht ändern). Sprich auch da wird nicht der Boden mit AMD aufgewischt. Vega was Rechenpower angeht ziemlich gut und das ist im Serverbereich wichtiger als Gaming-Performance.

Selbst im Pro-Bereich steht AMD nicht mehr so schlecht da. Die VERDAMMTE Frontier Edition hat es geschafft der Quadro P6000 an vielen Stellen performance-technisch den Rang abzulaufen. Die Karte kostet ein drittel. Die WX9100 macht das nicht anders.

Das Nvidia eine Ray-Tracing API stellen will ist eigentlich eher schlecht für die Gamer-Welt. Das wird eh wieder so laufen wie es immer mit deren Features läuft. Alles unter ner 1180ti(oder wie auch immer) kann das mäßig gut und wird ausgebremst und 1180ti aufwärts kann's dann normal. Wird halt Gameworks.
 
Zuletzt bearbeitet:
Da hat er sich extra angemeldet und postet nur scheiße :P

Also Gameworks Titel laufen auf meiner 1080 butterweich ... keine Ahnung welche Pillen du schluckst zu behaupten, dass sowas nur auf der 1080ti gehen würde. Man muss Regler halt auch bedienen können. Gameworks ist für kleine Spieleentwickler ein Segen, da sie die fertigen Effekte geliefert bekommen und nichts selbst tun müssen. Klar mag man kritisieren, dass solche Effekte auf AMD GPUs nicht gut laufen - sollte man auch ... aber hier nen Abgesang auf nVidia APIs zu starten ... bisschen übertrieben ne? :d
 
Ja wenn man nochmals 20 jahre wartet wird das für den Consumer interessant. Bis dahin muss man damit leben nur Aufnahmen im Kino anzusehen... Aber abgesehen davon werden bis dahin die Anwendungen begrenzt sein. Spiele leben von neuen Ideen und nicht Lichtreflexionen einer Metallfolie auf Kunststoffhelmen...
+1
 
20 Jahre? wohl eher vier bis fünf. Die Forschung müsste ja dann die nächsten jahre um 80% zurück gefahren werden, damit das geschieht.
Mit jeder Graka-Generation steigt die leistung ca 50% an. Da jetzt bei den StarwarsCinematic 25-30Fps erreicht werden, sollte es in spätestens zwei Generationen soweit sein, dass man diese Qualität sogar mit 60fps tracen kann. Zu bedenken ist, dass es sich grade um die ERSTE Generation an Grakas mit RT Cores handelt, man kann also davon ausgehen, dass grade diese in den nächsten Jahren ordentlich an Leistung gewinnen, weil es noch viel zu optimieren gibt(neuen Befehlssätze etc). Wie es bei den Tensorkernen auch war.
 
Zuletzt bearbeitet:
Gameworks ist für kleine Spieleentwickler ein Segen, da sie die fertigen Effekte geliefert bekommen und nichts selbst tun müssen.

Gerade kleine Entwickler fassen Gameworks eher mit der Kneifzange an, weil man von Nvidia nur anständigen Support sieht, wenn man AAA Player ist. Kleine Entwickler benutzen mitunter vielleicht die 0815 PhysX Unterstützung, die heutige Engines meist eben per default bieten. Darüber hinaus ist sehr mau.
 
Als uns vor rund 9 Jahren mein Informatik Lehrer am Gymnasium in dieses Thema eingeführt und auch etwas sehr simples Ray Tracing auf der CPU hat programmieren lassen, war schon klar dass das die Zukunft sein muss. Vorallem war aber schon damals klar dass dafür Hardwarebeschleunigung her muss, ohne die auch klassisches polygon-Rendering kaum möglich wäre.

Eher blöd dass das so lange gedauert hat, aber besser spät als nie!
Wird sehr spannend zu sehen sein wie sich das entwickelt.
 
20 Jahre? wohl eher vier bis fünf. Die Forschung müsste ja dann die nächsten jahre um 80% zurück gefahren werden, damit das geschieht.
Mit jeder Graka-Generation steigt die leistung ca 50% an. Da jetzt bei den StarwarsCinematic 25-30Fps erreicht werden, sollte es in spätestens zwei Generationen soweit sein, dass man diese Qualität sogar mit 60fps tracen kann.
Sehe ich das richtig, daß dies eine Art 3dmark ist? Also, die Berechnungen folgen vorgegebenem, festen Pfad? Ich überleg grad was mit den 25-30fps wäre, wenn man in der Szene bisschen mit der Maus interagieren könnte. Und in 2 Generationen mit den 60fps.
 
Nein, die "Reflections"-Demo (Star Wars Trooper und Captain Phasma) lief auf der SIGGRAPH mit festen 24 FPS um die 24-Vollbilder eines Kinofilms nachzustellen. Wie hoch die FPS hätten sein können, ist nicht bekannt.

Und nein, die "Reflections"-Demo ist auch interaktiv, also nicht komplett vorgerendert. Ich habe die Demo schon gesehen, wo bestimmte Effekte zu- und abgeschaltet werden und auch Objekte hinzugefügt werden konnten.
 
Sind die Szenen in 3dmark vorgerendert? Es war nicht die Frage, ob das nur eine Animation war ;) Mit "Interaktion" ist daher gemeint, ob man das mind. Anhalten und sich mit der Maus drehen kann usw. usä.

Wobei das auch schon eh nur das mind. wäre, um die reale Leistung mit Interaktion zu beurteilen.
 
@Don
Danke für die korrektur. Was wir aber schon wissen ist, dass es eine TitanV nicht flüssig schafft. So steht es zumindest im Artikel. Also wäre das mit den zwei Generationen doch wieder realistisch.
 
Schätze solange es sowas nicht like a Book Of The Dead gibt - wo es vielleicht auch wenigenstens einen kleinen aber realen optischen Mehrwert bietet - kann man sich dabei nur kaputtspekulieren ;) welche Spieleleistung sowas in der 1gen und 2gen RT-Grakas hat/hätte.

@Mo3Jo3
Die Leistung der Titan V hat damit nichts zu tun. Ohne RT-Kerne bekommst du auch damit nichtmal konstante 24fps. Ohne diese bekommt es auch eine Titan Super, Titan Duper und Titan Hyper nicht hin. Erst recht nicht spielbar bzw. ohne öftersmal Rucks.
 
Zuletzt bearbeitet:
Sind die Szenen in 3dmark vorgerendert? Es war nicht die Frage, ob das nur eine Animation war ;) Mit "Interaktion" ist daher gemeint, ob man das mind. Anhalten und sich mit der Maus drehen kann usw. usä.

Richtig, war von mir falsch augedrückt. Also: Ja, die "Reflections"-Demo ist interaktiv bzw. wurde schon in dieser Form präsentiert.
 
@BessereHälfte
Das Raytracing lief bei der Titan ja über die Tensorkerne. Diese bilden ja auch schon eine relativ effektive Hardwarebeschleunigung. Aber halt nicht so spezialisiert wie die RT-Kerne.

Wie groß da die Unterschiede zwischen den Kernen sind, ist auch noch unbekannt.
 
Ja, bilden sie. Nur halt nicht für spielbares RT.
Allerdings nicht extrem weit weg. Also 2-3 Generationen klingt plausibel.

Raytracing eröffnet auch ganz neue Möglichkeiten. Weis jetzt nicht genau wie es bei der Hardwarebeschleunigung sein wird, aber zumidnest bei der CPU-basierten Engine an die ich experimentieren konnte war das so dass zusätrzliche Objekte, die Renderzeit nur geringfügig erhöhte (sobald man keine Defaultwerte für die Skybox als Abkürzung nahm).
Der Grund ist dass sowieso für jeden Pixel der virtuellen Kamera, ein "Ray" ausgesendet wird. Das ist unabhängig von den Objekten in der Szene. Diese beeinflussen nur wie die Rays untereinander reflektiert und gestreut werden, aber in der Regel bricht man sowieso nach 2-4 Kollisionen ab, da es den resultierenden Pixelwert nicht mehr verändern würde.

Im Gegensatz dazu erzeugt jedes weitere Objekt bei polygonbasierten Systemen, mindestens den Rechenaufwand das oclusion fest zu stellen und es muss massiv getrickst werden um das zu beschleunigen.

Das heisst wir können noch viel mehr Objekte erwarten und da der Speicher inzwischen auch mitspielt, auch deutlich höhere Detailgrade.
 
Zuletzt bearbeitet:
Genau. Man kann Maps/Level mit sehr vielen Details vollstopfen ohne dass sich der Rechenaufwand stark erhöht, sobald die Hürde für eine flüssige Wiedergabe erreicht ist. Ich denke auch, das eröffnet nochmal ganz neue Möglichkeiten für Grafikengines und Games.
Eines der größten Schwachpunkte von Spielen ist in meinen Augen bis heute oft immernoch die „sterilität“ der Level.
 
Allerdings nicht extrem weit weg. Also 2-3 Generationen klingt plausibel.
Das rettet doch nicht die Tensors ;)

Das heisst wir können noch viel mehr Objekte erwarten und da der Speicher inzwischen auch mitspielt [...]
Hmm... Die 2080Ti bekommt wohl weniger Speicher als die 1080Ti.

Eines der größten Schwachpunkte von Spielen ist in meinen Augen bis heute oft immernoch die „sterilität“ der Level.
Ist dieser Ausdruck durchdacht? Weil ich kenne keine sterilelen Szenen als die, die bisher ein Raytracer produziert ;) Hat das vielleicht einen Grund gehabt warum die Szene die man zum Promoten von RTX gewählt hat, auf einem Raumschiff/einer Raumstation stattfindet? Mit Leuten, deren Anziehsachen eine Kunststoffschale ist?

Wie verhält sich das zum begehbaren "Book of the Dead", ohne RT?
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh