Reichen 64kbyte doch? OpenGL Techdemo beweist es

SchneeLeopard

Legende
Thread Starter
Mitglied seit
10.10.2003
Beiträge
6.191
Ort
Berlin
In Saarbrücken wurde auf der Revision 2014 die Raytracing Timedemo "The Timeless" vom user Mercury gezeigt, die inklusive Musik lediglich 64kbyte groß ist.

Funktionieren soll sie allerdings nur mit nVidia Karten (Empfohlen wird ab GTX780 oder gleich eine Titan, mit dem GeForce 335), da AMD keine GLSL uniform default values unterstützt.

Für user ohne nVidia karte gibt es ein Video zu der Timedemo:


Und für user mit nVidia karte gibt es den Download bei pouët.net.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmmm weiß ja nicht, die Texturen sind ja nicht wirklich Detailreich. Sieht so aus als ob in den scenen nur eine begrentze Textur vielfallt ist. Warum wird so eine starke GPU empfohlen?
 
Hmmm weiß ja nicht, die Texturen sind ja nicht wirklich Detailreich. Sieht so aus als ob in den scenen nur eine begrentze Textur vielfallt ist. Warum wird so eine starke GPU empfohlen?

Weil der raytracing algorithmus hochgradig rekursiv ist. Die Berechnung eines einzelnen lichtstrahles ist vergleichsweise sogar recht simpel, aber wie gesagt wird diese immer und immer wieder aufgerufen. Das am handy zu erklaeren waere etwas muehsam aber es gibt da nette videos und artikel zu. Das versteht man dann auch recht zuegig.

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Ich sage nur *Farbrausch*.
Die Demos waren auch alle nicht sehr groß für damalige Verhältnisse.
 
Danke für den Post , so konnte ich noch ein bischen den Stream kucken. Hauptsponsor der Party war wohl DICE ... hätte garnicht gedacht, das die sowas unterstützen.
 
Muss schon sagen, das ist eines der beeindruckendsten demo Videos die ich je gesehen habe...


@Digifrag
Raytracing funktioniert genau wie der Name schon sagt, durch verfolgen von "Licht"strahlen, nur umgekehrt (zumindest soweit ich das einst gelernt habe). Dabei geht von jedem Pixel der der imaginären Kamera ein Strahl ausgesandt (also bei FullHD passiert allein das schon mal fast 2 Mio mal pro Bild). Trifft dieser Strahl auf einen Gegenstand, wird dessen Oberfläche analysiert und die Farbe und Schattierung berechnet (wobei Strahlen von umliegenden Lichtquellen einbezogen werden) und je nach Oberflächenbeschaffenheit, weitere Strahlen ausgesandt. Bei einem perfekten Spiegel wäre das nur ein einziger - bei einem Gegenstand das Licht difus spiegelt (wie praktisch jeder Gegenstand) müssen mehr Strahlen ausgesandt werden...


Es muss allerdings irgendwann mal ein Hersteller das Eis brechen und eine Grafikkarte auch hardwarenah für Raytracing optimieren. Schließlich ist solche Optimierung in Form von Textur- und Shadereinheiten, der Grund wieso es überhaupt Echtzeit Polygonbasierte Grafik gibt. Versuch mal die auf einer CPU-Architektur durchzuführen...
So ein ähnlicher Sprung wäre auch mit Raytracing möglich.
Das womit im Moment raytracing auf Grakas zu beschleunigen versucht wird, ist das was manche als "hacking" bezeichnen >_>
 
Schon krasser scheiß :d
Schade,dass das bei mir beim laden abschmiert.
Wär aber wohl auch eher nicht so flüssig gewesen

mfg
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh