Raytracing in Spielen noch lange Zukunftsmusik oder wann wird es soweit sein?

Einfache Abfrage über "z" funktioniert beim Raytracing nicht, dort müsste man feststellen ob ein beliebiger Strahl aus Spielersicht das betreffende Objekt trifft, was ja z.B.: durch eine Spiegelung durchaus möglich ist.

Nochmal, das ist beim Raytracing nicht Sinn der Sache. Raytracing macht im Prinzp doch nichts anderes als Strahlen zu verfolgen.



Jackknife schrieb:
Macht 32 längliche Lichtquellen, die die Komplexität des Schattenwurfs gewaltig erhöhen. Dazu kommt noch die globale Illumination durch die Fenster.
Punktförmige Lichtquellen sind im RT ja kein Problem, aber korrekte Berechnung von länglichen Lichtquellen erfordert haufenweise Strahlen, und das kostet Zeit.
Harte, objektgenaue Schatten kann man einfach schaffen. Weiche und dennoch korrekte Schatten - das ist die Kunst.

Ist auch nicht das Problem, eine längliche Lichtquelle lässt sich auch aus einzelnen Punkten erschaffen.

Und Global Illumination ist eigentlich die Paradedisziplin von Raytracing
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Neuro, leider stimmt das nicht so ganz.
Wenn Du eine längliche Lichtquelle aus einzelnen Punkten erschaffst, dann ist das von der Rechenleistung her so, als ob Du sehr viele einzelne Lichtquellen nutzt. Um einen korrekten Schatten zu bekommen müsstest Du jetzt von jeder einzelnen dieser Lichtquellen eine Strahlverfolgung machen, und die daraus resultierenden Schatten alle miteinander kombinieren und dort, wo sie sich überlappen, einen Mittelwert errechnen - sonst hättest Du in einem längeren Schatten Streifen zwischen den überlappenden Teilen.
Vor allem muss von jeder dieser Lichtquellen ja auch jede Reflexion auf Objekten berechnet werden, also Spiegelungen, Glanzlichter usw... werden alle dadurch beeinflusst.

3 Dinge sind fürs Raytracing Leistungskiller:
- Bildauflösung
- Anzahl der Lichtquellen
- Tiefe der Strahlverfolgung (Anzahl Reflexionen, Verfolgungszeit ohne Objektkollision, Anzahl der Strahlen pro Pixel)

Oder vereinfachen wir das Ganze auf eine Sache:
Gesamtlaufzeit aller Strahlen (die natürlich durch die obigen Dinge beeinflusst wird).

Alles Andere (Material, Oberflächenkomplexität, Anzahl der Objekte, Schnittmengen von Objekten, Deformationen, Subtraktionen etc...) ist kappes und belastet höchstens einmal zur Zeit der Objekterstellung für die Generierung der Schnittmenge kurz die CPU/GPU.

Du hast Recht, dass es vom Prinzip her kein Problem ist, so eine Lichtquelle annähernd zu simulieren. Aber das ist dann einer der Punkte, in denen aktuelle Raytracing-Algorithmen tricksen müssen. Von den Cheats der Rasterizer an dieser Stelle reden wir mal lieber nicht :d
 
Zuletzt bearbeitet:
3 Dinge sind fürs Raytracing Leistungskiller:
- Bildauflösung
- Anzahl der Lichtquellen
- Tiefe der Strahlverfolgung (Anzahl Reflexionen, Verfolgungszeit ohne Objektkollision, Anzahl der Strahlen pro Pixel)

Richtig. Und auch auf die Gefahr hin mich zu wiederholen, genau da ist der Knackpunkt bei den ganzen Techdemos (egal welcher Hersteller).


Man erfährt nichts über die gemachten Einstellungen:

Auflösung?
Lichtquellen?
Tiefe (ok Nvidia spricht immerhin von 3 Bounces)
GI Einstellungen
AO Einstellungen
Polygone (auch hier werden Zahlen angegeben, wie z.B.: 200.000, aber eine komplexe Szene kann auch gut und gerne 5Mio haben, aufgelöst in vielleicht 150 bis 200 Mio Dreiecken!)
Welche Shader?
 
So ich hab da mal schnell was gebastelt und gerendert.

Einmal schnell in 720p und 128strahlen




Und einmal schnell:fresse: in 1080p und 2048 strahlen



Aber mit der Laptop CPU also kleinr DualCore mit 2,4GHz, leider geht das nicht auf der GPU , aber man es hat auch kaum details hat aber in Full HD mit max details fast mal eben 30min auf der CPU gedauert und jetzt stellt man sich mal paar lichtquallen und sowas wie ein Auto vor :d, also bricht sicher auch ein Fermi bei 2048 strahlen ein :d
 
Zuletzt bearbeitet:
Was man deutlich sieht:

Bei Bild 1 mit der niedrigen Auflösung ist die Spiegelung des Objekts auf dem Untergrund nicht ideal.

Erst beim 2 Bild sieht man das Objekt deatilreicher, schärfer und heller.

Das 2te Bild ist aber durch die Anzahl der Strahlen zu hell. Hätte man mit Farb-Mapping (dunkel und hell multiplizieren) noch besser herausarbeiten können.

Auch hier wieder sehr schön, erst ab einer gewissen Auflösung mit entsprechenden Einstellungen wirkt RT realer.
 
ja aber leider kann man hier die strahlen nicht so einstellen , oder ich hab es noch nicht gefunden, auch stellt er das AA selber ein. (find nur voreinstellungen wie "Preview, good , best .." und so)

Somit kann man es leider nicht vergleichen wie es sich von der rechenzeit verhällt wenn man die Strahlenanzahl erhöht, ob linear oder doch eher exponential.
 
vereinfacht ausgedrückt: "explodiert" :fresse:


Wenn du nur einen guten freien Renderer brauchst, kann ich dir
http://www.kerkythea.net/joomla/
empfehlen.

War ja jetz tnur was rumspielen , das ist bei meinem CAD prog dabei und benutz den teil ja eher selten.

Hab aber gerade weiter rumgespielt , wenn ich die Rolle jetzt zb aus glas mache mit leichter textur und noch den boden ne textur gebe, dann dauert selbst das rendern bei 720p und 128strahlen schon sehr länger als bei dem bild oben.


Wenn ich mit dann das ganze in einem Spiel vorstelle , overkill :d

 
Zuletzt bearbeitet:

Bild mit 4 Objekten (matt,spiegelnd,chrom,glas) - der Horror für jeden Renderer.

Quadcore, 4Ghz

320*240 Auflösung, Strahltiefe 1: 8min Rechenzeit
320*240 Auflösung, Strahltiefe 3: 36min Rechenzeit :fresse:
 
Ich spiel mit nem Tool von Solit Works rum.

Leider hab ich dafür nur aufm schleppi ne Lizenz von der arbeit und anders hab ich das "noch" net :d

Ich müsst mal was komplexes im CAD erstellen und rendern lassen :d
(Sone Rolle ist ja nicht gerade Komplex)
 
Kann bei Raytray eigentlich jeder strahl einzeln berechnet und behandelt werden?

Wenn ja müsste man es doch auch optimal auf Vec5 auslegen können , wenn es in SP läuft kann ja jeder der 1600 einheiten der 5870 zb ein strahl berechnen.

Somit hätte ATI mit ihrer architektur ja ein vorteil.

Wenn es so wäre.
 
Wie stellst du dir das denn vor? Das Tracen der Strahlen ist keine triviale Operation. Da irgendwie künstlich jeder ALU einen Strahl zu geben, ist nicht nur kontraproduktiv, vermutlich gehts auch nicht. ;) Du hast aber sicherlich recht, dass dickere Arithmetikleistung hier direkt in mehr Leistung umgesetzt werden kann. Trotzdem wäre dedizierte Hardware - und für sowas gibt es durchaus Designs - zur Berechnung der Intersections wohl schneller. Da kommt eine generische Lösung einfach nicht hinterher.
 
dass dickere Arithmetikleistung hier direkt in mehr Leistung umgesetzt werden kann

Das schöne an RT ist, daß ein mehr an Rechenleistung fast 1zu1 in Geschwindigkeit umgesetzt wird.

Sieht man sehr schön am Cinebench. 1Core 100%, 2Core 200%, 4Core 400% (genäherte Werte :) ) Die Rechenleistung skaliert damit eigentlich fast ideal, während bei anderen Verfahren für 100% Mehrleistung nur 50% oder noch weniger umgesetzt wird.

Deshalb gibt es ja irgendwann den "Breakpoint", ab dem RT schneller ist als andere Verfahren, die dann einfach zuviel Overhead brauchen.
 

Anhänge

  • 0277_01.jpg
    0277_01.jpg
    43,7 KB · Aufrufe: 36
Zuletzt bearbeitet:
Bin trotz allem mal gespannt wie das Projekt bei Caustic weitergeht,ist in letzter Zeit sehr ruhig geworden.

Nichtmal auf der Siggraph 09 hat man viel davon gesehen;)
 
Bin trotz allem mal gespannt wie das Projekt bei Caustic weitergeht,ist in letzter Zeit sehr ruhig geworden.

Nichtmal auf der Siggraph 09 hat man viel davon gesehen;)

Warst du dort (wenn ja: NEID!) oder meinst du nur, dass nichts darüber in den entsprechenden Pressemeldungen zu finden war?

Vielleicht lässt sich darüber näheres erfahren - ich grab bei Gelegenheit mal meinen Prof an, der sitzt im Auswahlkommittee für die Beiträge, die auf der SIGGRAPH gezeigt werden :)
 

Schön wärs nein zu meinem Bedauern leider negativ:)

, dass nichts darüber in den entsprechenden Pressemeldungen zu finden war?

Das meinte ich man kann sich in gewissem Sinne ja virtuell auf der Siggraph bewegen,Internet und You Tube sei Dank:)
Nur war von dem Caustic Projekt nicht all zu viel neues zu erfahren

Ich hoffe nicht das einer der drei global Player(Intel/AMD/Nvidia) schon wieder in Betracht zieht dieses Startup Unternehmen in irgend einer Weiße auf Eis zu legen:hmm:
 
Zuletzt bearbeitet:
Wird die Zusatzkarte speziell die Causticerzeugung beschleunigen, was ja sinnvoll wäre, weil sehr rechenintensiv.
Oder ganz allgemein das RT?

Und wie gross wäre die Beschleunigung mit der Zusatzkarte?
 
Wird die Zusatzkarte speziell die Causticerzeugung beschleunigen, was ja sinnvoll wäre, weil sehr rechenintensiv.
Oder ganz allgemein das RT?

Guten Morgen

Schau dir mal den "Nerd" in den Videos an,er erklärt das Projekt ein Bisschen,da sollten einige Fragen beantwortet werden:)

http://www.caustic.com/gallery_movies_global-illumination.php

Und schau mal auf den Aufbau unten im Bild,also nicht nur Caustic Software only;)





Und wie gross wäre die Beschleunigung mit der Zusatzkarte?


Das weiss z.Zt wohl niemand so richtig weil die Infos dazu noch sehr dünn sind,sie sprachen mal davon das das Caustic System jeden normalen GPU/CPU Renderer überlegen wäre
 

Anhänge

  • platform_chart.gif
    platform_chart.gif
    29 KB · Aufrufe: 49
Zuletzt bearbeitet:
"No Rays were harmed in this film" :bigok:


Die Szene mit dem Drachen ist beeindruckend. fast 1Mio Poly und GI "on the fly".
Der Vergleich NVidia RT und CausticOne, ist wie Steinschleuder zur Cruise Missle.

Interessant dabei ist, daß der Prozessor auf der Karte mit nur 100Mhz arbeitet und trotzdem RT um das 20fache beschleunigt gegenüber normaler Hardware.

Wobei eigentlich die Software das "geile" Stück ist, wo durch patentierte Algorithmen die sekundären Strahlen massiv beschleunigt werden.

Zitiere mich mal selbst:

320*240 Auflösung, Strahltiefe 1: 8min Rechenzeit
320*240 Auflösung, Strahltiefe 3: 36min Rechenzeit

Die Strahltiefe steigt ums 3fache, die Rechenzeit ums 4,5fache, und das bei einer simplen Berechnung.


Bleibt nur zu hoffen, daß nicht einer der großen 3 (Intel,Nvidia,AMD) die Firma mitsamt Patenten aufkauft und ein Hersteller-only Feature draus macht.
Allerdings glaube ich nicht dran, da haben Schwergewichte wie Autodesk mit (3DS MAX, AutoCAD und Maya), MAXON mit (Cinema4D), Adobe mit (Photoshop), usw, schon noch ein Wörtchen mitzureden.

Gäbe es Aktien der Firma zu kaufen, würde ich einsteigen.... :fresse:
 
Zuletzt bearbeitet:
Gäbe es Aktien der Firma zu kaufen, würde ich einsteigen.... :fresse:

Nicht zu euphorisch Lucid hat mit Hydra auch das blaue vom Himmel versprochen,bis jetzt ists dort aber auch mau mit der Umsetzung.

Leider stellt sich das bei Caustics imo auch noch nicht besser da:)

---------- Beitrag hinzugefügt um 12:17 ---------- Vorheriger Beitrag war um 12:13 ----------

Interessant dabei ist, daß der Prozessor auf der Karte mit nur 100Mhz arbeitet und trotzdem RT um das 20fache beschleunigt gegenüber normaler Hardware.

Und gerade deshalb will ichs erst glauben wenn ichs Live sehe,da jeder weiß was Ray bei herkömmlicher Berechnung für Leistung benötigt.

Ich frage mich welche Algorithmen hat Caustic mit dem Chip entwickelt um das mit 100MHZ 20mal schneller(laut Aussage) zu schaffen:hmm:
 
Zuletzt bearbeitet:
Interessant dabei ist, daß der Prozessor auf der Karte mit nur 100Mhz arbeitet und trotzdem RT um das 20fache beschleunigt gegenüber normaler Hardware.

Sooo interessant ist das nicht, wie ich finde... Denn eine Hardware die speziell für so eine Berechnung gebaut ist, ist weit aus schneller in ihrer Aufgabe, als beispielsweise ne CPU oder ne GPU, die dafür nur missbraucht wird...

Hat man ja auch schon schön an der Ageia PhysX PPU gesehen, das Teil genehmigte sich unter Volllast gerade mal 20-25W. Trotz des Alters agiert die Karte auf gleichem Leistungslevel wie ne 9600GT von NV.
Die dabei weit mehr Strom verballert und weit neuer ist, kleinerer Herstellungsprozess, geringere Spannung usw.

Ähnlich läufts hier mit Raytracing, das was NV GPUs berechnen ist zwar schnell, aber dennoch werden die freiprogrammierbaren ALUs der GPU nur dafür missbraucht. Freilich ist das immernoch weit schneller als auf ner CPU, aber dennoch wäre ne dedizierte Karte, die nur Raytracing berechnen kann immernoch weit schneller unterwegs, bei weniger Verbrauch und auch warscheinlich deutlich geringeren Herstellungskosten.
 
Zuletzt bearbeitet:
Sooo interessant ist das nicht, wie ich finde... Denn eine Hardware die speziell für so eine Berechnung gebaut ist, ist weit aus schneller in ihrer Aufgabe, als beispielsweise ne CPU oder ne GPU, die dafür nur missbraucht wird...

Wenn es aber so einfach wäre warum setzen es die Großen 3(Intel/Nvidia/AMD) nicht irgendwie mit ihrer Power Hardware u entsprechender Software um:)

Es kann nicht die Hardware sein es muss wenn einzig u allein nur an der Software liegen;)


Allerdings ist noch nix wirklich greifbares zu sehen von Caustic in realen Anwendungsgebieten
 
Zuletzt bearbeitet:
Sooo interessant ist das nicht, wie ich finde... Denn eine Hardware die speziell für so eine Berechnung gebaut ist, ist weit aus schneller in ihrer Aufgabe, als beispielsweise ne CPU oder ne GPU, die dafür nur missbraucht wird...

So wie ich das verstanden habe, basiert die Beschleunigung vor allem darauf, die "apprallenden=Bounce" Strahlen durch Software-Algorithmen zu beschleunigen.
Die Primären Strahlen skalieren fast 1:1 mit der Hardware, die sekundären und alle weiteren eben nicht. Und da setzt die Firma an.
Und man braucht halt gerade die Bounces um RT real erscheinen zu lassen.


Leider stellt sich das bei Caustics imo auch noch nicht besser da

An dieser Technologie (RT) sind aber Firmen interessiert, die mehrere Milliarden schwer sind und die vor allem kein Interesse haben an "gebundenen Systemen".
Und das ganze läuft ja über die OpenGL API ab und zeigt deutlich welch Potential darin steckt. Leider fristet es bei den Spieleherstellern nur ein Schattendasein.
 
Wenn es aber so einfach wäre warum setzen es die Großen 3(Intel/Nvidia/AMD) nicht irgendwie mit ihrer Power Hardware u entsprechender Software um:)

Es kann nicht die Hardware sein es muss wenn einzig u allein nur an der Software liegen;)


Allerdings ist noch nix wirklich greifbares zu sehen von Caustic in realen Anwendungsgebieten

Nur was hätten wir davon?
Gar nix... Es ist nunmal so, das in einem normalen PC nur maximal 7 Erweiterungsslots nutzbar sind.
Geht man nun mal von ner Dual Slot GPU aus, bleiben noch 5 Slots nutzbar... Steckst noch ne Soundkarte rein, sinds nur noch 4.
Dann kommt dazu, das aus Platzgründen oft nur 6 oder gar 5 Slots verbaut sind. Da bleibt für dedizierte Hardwarebeschleunigungskarten oft kein Platz...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh