Raytracing in Spielen noch lange Zukunftsmusik oder wann wird es soweit sein?

Der R8 ist ein gutes Beispiel wie es zukünftig aussehen kann.

Um mal bei dem Beispiel des R8 zu bleiben:
Wenn man nun den Audi in Bewegung setzt + der Betrachter frei um das Fahrzeug sich bewegen kann + das ganze noch mit anderen Fahrzeugen + Physikberechnung und das ganze bei flüssigen 60FPS, dann - ja dann hast Du wirklich echtes Raytracing, welches spieletauglich ist.

Vielleicht leiht uns die Nasa ja ihren Supercomputer, wenn Sie nicht gerade das Universum durchrechnen. Damit könnts knapp hinhauen :bigok:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man kann das ganze auch so betrachten: es ist ein Ansatz, ein Schritt in eine komplett andere Richtung. Man weiß noch nicht genau wohin uns diese Reise führt, aber eins ist sicher: die Technik bleibt nicht stehen. Es braucht alles seine Zeit bis der Gamer auch wirklich 60FPS mittels Raytracing auf seinen Bildschirm zaubern kann, aber erinnern wir uns mal an die Grafik vor 10 Jahre. Da hat man bei manchen Screens schon gesabbert. Heute ist das alles Schnee von gestern.
 
stillstand wirds nicht geben, also nie denke ich. je grösser die rechner werden, desto ansprichsvoller werden die aufgaben. und komplexitätsklassen gibts es nach oben hin unendlich. leider gibt es nur 10^80 atome im universum, also kann ein rechner nicht beliebig gross weden ;)
 
es wird leider auch viel zu wenig proportional gerechnet,

Unreal3 würde zb. 20-30 fermi karten benötigen um es flüssig darzustellen.(1900*1200)
 
Zuletzt bearbeitet:
aber erinnern wir uns mal an die Grafik vor 10 Jahre

Hab ich vorhin vergessen, aber jetzt wo Du dieses Beispiel gebracht hast, passt es ganz gut.

Als grobe, aber wirklich nur ganz grobe Zahl, braucht man für echtes HD Raytracing etwa 600 bis 800 TFlop an Leistung.
NVidia stellt in Aussicht, bis (soweit mich mein Gedächtniss nicht täuscht) 2015 eine Grafikleistung von 15 TFlops je Karte. Die jetzigen Karten bringen zwischen 2,5 bis 4 TFlops.

Vor 2020 wird man wahrscheinlich nur Zwischenschritte sehen, wahrscheinlich AO/HDRi, Raytracing von Teilbereichen usw.

Davon abgesehen, freue ich mich auf die Zukunft. Mir wären bei den Games aber lieber mehr Substanz. (CoD 23 wie Cod 1bis22 - jetzt aber mit noch besserer Grafik!) :fresse:
 
Nicht schlecht.

Brute Force GI mit 3fach Bounce im Echtzeit. Auch die Polygonanzahl (200.000) ist erstmal ausreichend für ein Modell. Wobei man alleine für z.B.: einen optisch ansprechenden Baum etwa 50.000 Polygone braucht.
Und Fenstermodus in wahrscheinlich niedriger Auflösung (800*600?)


Von dynamischen Lichtquellen, hochauflösenden farbigen Texturen, usw ist nix zu sehen. Auch die allgemeinen Grundeinstellungen wären interessant.

Allerdings steigt wie hier schon "DerGoldeneMesia" gesagt hat, die Berechnungszeit enorm an für höhere Auflösungen. Darin sehe ich das größte Problem.
Bis die Karten die Leistung liefern können in Full HD, wird vielleicht die Auflösung schon doppelt Full HD sein. Und der Rechenaufwand steigt damit enorm an.


800*600= 0,48 Mio Pixel, 1*
1920*1080= 2,07 Mio Pixel, 4*
3840*2160= 8,30 Mio Pixel, 17*

Wird interessant, wie die Industrie diese Problematik lösen möchte.
 
Um mal bei dem Beispiel des R8 zu bleiben:
Wenn man nun den Audi in Bewegung setzt + der Betrachter frei um das Fahrzeug sich bewegen kann + das ganze noch mit anderen Fahrzeugen + Physikberechnung und das ganze bei flüssigen 60FPS, dann - ja dann hast Du wirklich echtes Raytracing, welches spieletauglich ist.

Das Problem ist ja nicht das Objekt ansich, sondern viel mehr die Umgebung...
Mir nutzt das bestaussehnste Objekt in einem Spiel (in dem Fall wohl Racingsimulation) nix, wenn die Umgebung total grottig ausschaut...

Da wurde doch teilweise immer bei NFS drauf rumgehackt, die Autos sahen immer recht gut aus, und die Umgebung war teils grottig schlecht dargestellt...

Klar hier gilt es Prioritäten zu setzen, was man wo mit welchem Detailgrad darstellen möchte...
Aber ich halte es durchaus im Bereich des Realistischen in den nächsten Monaten in Echtzeit wenige gutaussehende Objekte auf den Schirm zu zaubern... Aber von einer kompletten Spielwelt die dazu auch noch bombasisch ausschaut sind wir da noch weit weit entfernt...

Man muss sich doch nur mal aktuelle Konsolentitel anschauen, von der PS3 zum Beispiel, klar sind das idR Schlauchlevel oder es sieht an einigen Stellen nicht ganz so besonders aus, aber im Großen und Ganzen ist das schon teils deutlich mehr, als das, was wir auf dem PC sehen aktuell in ähnlichen Games...


Ich denke mal die Reise wird vorerst über einzellne Teilobjekte gehen, sprich Raytracing für Objekte wo mit recht wenig Aufwand ein sehr guter Effekt zu verzeichnen ist...
Ob man irgendwann Echtzeitraytracing komplett für Games nutzen wird, bleibt ungewiss, denn Raytracing hat auch deutliche Schwächen, wo die Rastergrafik punktet ;)
Ne Eierlegende Wollmilchsau ist Raytracing also nicht...


Mit ein bisschen Grundkenntnissen kann man derartiges aber auch mit Rastergrafik in Echtzeit berechnen lassen... ;)



Aber mal ne ganz andere Sache, meint ihr nicht, die Industrie will vllt gar nicht auf echt Fotorealistische Games raus?
Ich mein, man stelle sich die Deutschen Behörden vor, wenn wir nen Titel wie CoD hätten wo alles täuschend echt wie im Film dargestellt werden würde... Sowas hätten wir in Deutschland wohl nie als Spieler zugesicht bekommen :fresse:
 
ich will sicher nicht sehen wie es vor mir einen gegner in stücke zerreist wenn er von einer granate getroffen wird und alles korrekt dargestellt wird. oder n kopfschuss bei dem der schädel korregt zerlegt wird und das halbe gesicht übrigbleibt. bis jetzt fand ich diese gewaltdiskussion dämlich weil alles noch so unreal wirkt dass es einfach noch zu abstrakt ist. aber wenn engines irgendwann so gut werden dass sie als das realitätsgetreu darstellen können, dann weiss ich wirklich nicht ob ich das sehen/zocken will. und dann ist jugendschutz auch wirklich richtig nötig. solche möglichkeiten können natürlich auch in intensiveres spielgefühl hervorrufen, wenn sie echt wirken. zb die szene aus private ryan wo der eine vor der radarstation verblutet. an sich kein grossartiger effekt, aber mir wurde da mulmig. viel mehr als wenn ich in 2 minuten seh wie 1500 leute im dauerfeuer abgeballert werden.
 
Raytracing hat auch deutliche Schwächen, wo die Rastergrafik punktet

Hat aber auch viele Vorteile.
Beispiel Kollisionsmanagement:
Die Kollisionskontrolle wird heutzutage durch um das Objekt gelegte "Boxen" bewerkstelligt. Je nach Komplexitität und Aufbau dieser Box stößt diese auf ein Hinderniss (z.B.: Baum) um welchen wiederrum eine Box liegt.
Dadurch kommt es immer wieder zu schönen Ansichten, wie "mein Panzer steht halb im Baum".

Beim Raytraycing mit hoher Auflösung wäre das vorbei, da ja jeder Pixel einen Strahl aussendet und die Boxen damit hinfällig wären.
Eine Figur würde dabei völlig korrekt die Treppen hinaufgehen ohne in irgendeiner Weise in der Treppe zu verschwinden.


Aber mal ne ganz andere Sache, meint ihr nicht, die Industrie will vllt gar nicht auf echt Fotorealistische Games raus?

Sehr gute Überlegung.
Mafia Teil 3, GTA V oder Cod 7 in HD fotorealistisch.
Würde auf jeden Fall auf dem Index landen. Da gäbe es gar keine Möglichkeit der Diskussion.
 
Ich wollt eigentlich darauf hinaus, das zwar Raytracing viele Vorteile bietet, aber eben nicht alles besser macht als Rastergrafik ;)

Es gilt halt abzuwegen wann die Rastergrafik derart am Ende ist, das nur noch mit extrem viel mehr Rechenaufwand mehr Optik rauszukitzeln ist. Bzw. ab wann man die gleiche Optik mit Raytracing und weniger Rechenaufwand umsetzen könnte...

Wenn man sich nur mal die Techdemos der beiden GPU Hersteller anschaut, Rastergrafik ist im Grunde lange nicht am Ende, zumindest nicht wenns darum geht, derartige Optik auch in Games zu implementieren ;)

Auch gilt es in meinen Augen klar zu Unterscheiden zwischen ner in Echtzeit berechneten gescripteten Demo und nem in Echtzeit berechneten Game...
In den ganzen Techdemos usw. kann man idR wenn die Kameraposition verändern, aber nicht die Objekte ansich...
Da wäre auch haufenweise Optimierungsspielraum vorhanden, weil das ganze immer wieder das selbe ist. Bei nem Game kanns je nach Position der Objekte in jeder Sekunde anders ausschauen...
 
Rastergrafik wird weiterhin verbessert und die Featureliste ausgebaut. Das sollte in Verbindung mit höherer Auflösung den Spielen schon eine ordentliche Grafik ermöglichen.


Meiner Meinung nach wird aber das nächste große Feature, welches noch leistungsmäßig beherrschbar ist, AO (Ambient Occlusion) sein.

Sieht dadurch wesentlich lebendiger aus und braucht etwa geschätzt nur 40 bis 50% mehr Leistung. Und das sollte spät. mit der nächsten Kartengeneration möglich sein.

Alles andere ist utopisch.
 
Meiner Meinung nach wird aber das nächste große Feature, welches noch leistungsmäßig beherrschbar ist, AO (Ambient Occlusion) sein.

.

Umgebungsverdeckung wird doch schon jetzt im Nvidia Treiber genutzt u ist in dem Sinne auch schon Raytracing:)

Die Frage ist die wird Nvidia AO jetzt weiter so über den Treiber realisieren oder wird AO demnächst direkt von der Optix Engine berechnet werden,so wie das bei Physik Effekten auch geschieht mit einer PhysX Engine.

Wie fdsonne schon richtig anmerkte,wie viel lasse ich davon für eine bessere Optik in Games heute zu ohne die Performance zu stark zu drücken u was ist sinnvoll mit einem Raytracer darzustellen.

Es wird über kurz oder lang wohl einen Hybridmodus geben mit Rastergrafik u Raytracing
 
Zuletzt bearbeitet:
ATi probiert schon seit der HD2900XT mit Raytracing rum. Würde nicht sagen, dass die gar nichts machen. Sieht man ja auch an den Raytracing Demos von ATi.

Warum muss das denn unbedingt mit Stream gemacht werden? Das verstehe ich nicht.

In terms of performance, the Radeon 2900XT 1GB rendered Transformers scenes in 20-30 frames per second, in 720p resolution and no Anti-Aliasing. With the Radeon 3870, the test scene jumped to 60 fps, with a drop to 20 fps when the proprietary Anti-Aliasing algorithm was applied. Urbach mentioned that the Radeon 4870 hits the same 60 fps - and stays at that level with Anti-Aliasing (a ray-tracer is not expecting more than 60 fps.) JulesWorld’s technology also works on Nvidia GeForce 8800 cards and above, but the lack of a tessellation unit causes a bit more work on the ray-tracer side.
 
Nicht schlecht.

Brute Force GI mit 3fach Bounce im Echtzeit. Auch die Polygonanzahl (200.000) ist erstmal ausreichend für ein Modell. Wobei man alleine für z.B.: einen optisch ansprechenden Baum etwa 50.000 Polygone braucht.
Und Fenstermodus in wahrscheinlich niedriger Auflösung (800*600?)

.

Denke auch daran das diese Demonstration noch auf einem alten g200 Modell gelaufen sein muss,mit Fermi zieht eine Karte ein die ihre Shaderleistung für Cuda Raytracing was wir bis jetzt gesehen haben mindestens verdreifacht.Nvidia spricht sogar von bis zu 4 facher Leistung zum Vorgänger


Von dynamischen Lichtquellen, hochauflösenden farbigen Texturen, usw ist nix zu sehen.

Minute 4,17:)
 
Jetzt muss ich mal einen Screenshot bemühen.


Das NVidia AO in seine Treiber bereits bereitstellt, wußte ich. Wenn ich mir die Darstellungen dazu anschaue ist es aber eher ein über 7Ecken HilfskrückenAO.
Seis drum.

Die Frage müsste lauten, was will man mit Raytracing erreichen? Doch im Endstadium "fotorealistische" Grafiken. Alles vorher sind Zwischenschritte.

Und um diese "realen" Grafiken zu erzeugen brauche ich gewisse Werte bei den Einstellungen, ohne die das ganze nicht sauber dargestellt wird.

Oben hab ich euch mal die einzelnen Einstellungsmöglichkeiten bei C4D für AO eingefügt.
Ich kann jetzt die Einstellungen (mit GI) vornehmen, so daß ein normaler Rechner ein Bild in 10min rechnen kann.
Ich kann die Einstellungen auch so hoch schrauben, daß ein normaler Rechner
noch nicht fertig ist, wenn unser Zentralgestirn sein Leben aushaucht.
Beides ist aber Raytracing :bigok:


Avatar ist ja als Beispiel der Standard, wo auch Spiele letztendlich hinwollen.
Dazu:
Wir verfügen über eines der größten Rechenzentren der südlichen Hemisphäre:
- 4352 Computer zum Rendern
- 34816 CPU Kerne
- Speicherplatz: 2,5 Petabyte (2,5 Millionen GB)
Avatar erzeugte bis zu 10 bis 12 TB Daten pro Tag.
Das entspräche über 100 Millionen Stunden Renderzeit auf einem normalen PC mit Einzelkern-Prozessor.

Die renderintensivsten Frames wurden auf verschiedene Ebenen aufgeteilt, wovon jede zwischen einer und vier Stunden Renderzeit pro Frame benötigte. Eine der letzten Einstellungen bestand aus 90 Ebenen (weit über dem Durchschnitt), wovon die aufwändigste Ebene vier Stunden Renderzeit pro Frame benötigte.
 
Die Frage müsste lauten, was will man mit Raytracing erreichen? Doch im Endstadium "fotorealistische" Grafiken. Alles vorher sind Zwischenschritte.

:

Sehe ich anderst die Frage müsste wohl eher lauten was(welche Effekte) will ich überhaupt mit Raytracing darstellen z.B (Reflektionen,Umgebungsverdeckung Spiegelungen auf dem Primärobjekten in Games die im Fokus sind) u was geht eventuell leistungstechnisch noch nicht bzw macht gar keinen Sinn u muss weiterhin auf Rastergrafik bauen(gesamtes Drumherum):)
 
Zuletzt bearbeitet:
Aber eigentlich ist raytracing das beste überhaupt was realismus angeht! Autorennen wäre da für mich perfekt oder auch die hitboxen wären absolut genau.
Wände würden perfekt genau zerstört bei einem treffer!

Eigentlich müßte doch auch grade multigpu da richtig reinhauen und ne scalierung an die 100% drin sein!
Daher sollte nv und ati dahin drägen!
 
Aber eigentlich ist raytracing das beste überhaupt was realismus angeht! Autorennen wäre da für mich perfekt oder auch die hitboxen wären absolut genau.
Wände würden perfekt genau zerstört bei einem treffer
!
!


:confused:

Verwechselst du gerade etwas:cool:

Wir reden nicht von Physik:)
 
Zuletzt bearbeitet:
Nein nein habe da mal was über Raytrcing gelesen und da stand pixelgenaue zerstörung! War so ein riesen bericht von jemandem der Quake 3 in Raytracing umwandelte.. War glaube von intel!
 
ja kann sein da stand dann drin welche möglichkeiten man hätte..
da stand ein beispiel das man nen streifschuss am ohr simulieren kann da es pixelgenau ist. aber bis es soweit ist dauert das sicher ewig lang wenn man sieht welch krasser megacomputer avantar berechnet hat loool
ob wir sowas in echtzeit noch erleben werden ???
 
Kann ich leider nicht sagen da es wirklich sehr lange her ist!
Glaube das war auch sein erstes projekt und erst später kam er dann zu intel!
 
ja kann sein da stand dann drin welche möglichkeiten man hätte..
da stand ein beispiel das man nen streifschuss am ohr simulieren kann da es pixelgenau ist. aber bis es soweit ist dauert das sicher ewig lang wenn man sieht welch krasser megacomputer avantar berechnet hat loool
ob wir sowas in echtzeit noch erleben werden ???

Wenn du 2040 noch lebst, ist das stark anzunehmen ;) Wie lang hat es von Giga- zu TeraFLOPS gedauert? Gemessen an einem Menschenleben nicht wirklich lang. Und der Fortschritt beschleunigt sich, auch, wenn man aufgrund der ganzen Produktionsprobleme in der GPU-Fertigung gern anderes vermuten würde. ;)
 
Allerdings das mit Physik per Strahlenverfolgung zu berechnen ist gar nicht so weit her geholt u könnte praktisch für Lau beim eigentlichen Rendern mitberechnet werden stimmt:bigok:
 
Zuletzt bearbeitet:
ja kann sein da stand dann drin welche möglichkeiten man hätte..
da stand ein beispiel das man nen streifschuss am ohr simulieren kann da es pixelgenau ist. aber bis es soweit ist dauert das sicher ewig lang wenn man sieht welch krasser megacomputer avantar berechnet hat loool
ob wir sowas in echtzeit noch erleben werden ???

Ähnliches wäre aber mit Rastergrafik auch machbar...
Problem ist, es geht ja bei deinem Beispiel nicht nur um die schnöde Optik, um eine Wand oder was auch immer realistisch zu zerstören brauch es in erster Linie erstmal ne 1A funktionierende Physikberechnung im Hintergrund. Ohne diese Berechnungen vorher kann auch die Beste Optik nicht wissen, wo das Objekt nun hinfliegen soll. IdR scriptet man sowas, schön zu erkennen an den vielen Shootern, wo die Einschusslocherzeugung oder die Zerstörung von Objekten durch Waffen immer gleich ausschaut, bzw. sich sehr ähnelt...

Mit ner richtigen Physikengine im Hintergrund würde wohl jede Person oder jeder Gegenstand je nach Aufprallwinkel, Geschindigkeit (also Art der Waffe), Entfernung usw. anders zerstört oder beschädigt werden...
Diese Darstellung gilt es dann über eine Grafiklösung auf den Schirm zu bringen...

Und hier kommt dann Raytracing ins Spiel, denn idR gibts in irgend ner Weise ne Lichtquelle die Licht auf das Objekt wirft, je nach Art der Zerstörung und wie die Teile fliegen müssten diese auch realistischen Schatten werfen usw. Bzw. bei Glas oder Spiegelteilen müsste sich im Flut die Umgebung darin spiegeln je nach aktueller Position des Teils usw.

Schlussendlich kann man das ganze wohl bis ins unendliche Treiben...

Fakt ist aber eins, Raytracing hat einige erhebliche Vorteile gegen die Rastergrafik, vor allem wenn es um Lichtberechnung/Schattendarstellung usw. geht. Dazu kommen aber leider ein paar nicht ganz unerhebliche Nachteile, allem vorran der enorme Leistungshunger.

Bin mir nicht ganz sicher, aber ich meine mal gelesen zu haben, das mit steigender Strahlanzahl die benötigte Leistung nicht nur 1:1 steigt, sondern sich das ganze expotentiell verhällt, berichtigt mich wenn ich falsch liege ;)
 
Mit ner richtigen Physikengine im Hintergrund würde wohl jede Person oder jeder Gegenstand je nach Aufprallwinkel, Geschindigkeit (also Art der Waffe), Entfernung usw. anders zerstört oder beschädigt werden...
Diese Darstellung gilt es dann über eine Grafiklösung auf den Schirm zu bringen...

Und hier kommt dann Raytracing ins Spiel, ...

;)

Die Frage ist brauchts die separate Physik Engine überhaupt noch


Oder kann ich mit der Strahlenverfolgung(Raytracing) abprallen von Strahlen und umlenken nicht auch ein Physikmodell erstellen,was den Engines von heute ebenbürtig ist
 
Zuletzt bearbeitet:
ja habe auch gelesen das wenn nun aber ein gewisser grad an leistung ( der gebraucht wird) erreicht ist eine steigerung der details kaum mehr leistung bedarf was bei rastergrafik sofort explodiert!
allerdings ist die benötigte grund leistung von raytracing brutal!
Da gab es auch ein diagramm zu wie sich das dann verhält!

---------- Beitrag hinzugefügt um 21:06 ---------- Vorheriger Beitrag war um 21:05 ----------

Die Frage ist brauchts die separate Physik Engine überhaupt noch


Oder kann ich mit der Strahlenverfolgung(Raytracing) abprallen von Strahlen und umlenken nicht auch ein Physikmodell erstellen,was den Engines von heute ebenbürtig ist

ja so hatte ich das verstanden das es nicht nötig sein soll bei raytracing!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh