Raytracing in Spielen noch lange Zukunftsmusik oder wann wird es soweit sein?

Die Presentation dort hat doch aber nichts mit der anderen Demo zu tun.

Nochmal es weiss keiner was für Mörder Renderaufgaben dort bewältigt werden mussten,in der Presentation,das die Bilder auf 0.6 gesunken sind.

Du vergleichst doch auch keinen Benchmark mit nem realen Game:cool:

Doch den Stalker Benachmark zb :d

Ja aber auch so denk ich das Raytray einfach noch zu viel leistung schluckt.

Man kann das da oben mit dem fahrenden Bugatti auch mit Rastergrafikl und Shader hinbekommen und es säh nicht schlechter aus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man kann das da oben mit dem fahrenden Bugatti auch mit Rastergrafikl und Shader hinbekommen und es säh nicht schlechter aus.

In keinem Fall bekommst du die realistischen Lichtbrechungen/Spiegelungen mit der GPU Leistung mit traditioneller Rastergrafik in den Griff,der Rechenaufwand wäre um ein vielfaches höher,da wendet sich das Blatt nämlich zum Vorteil von Raytracing

---------- Beitrag hinzugefügt um 20:39 ---------- Vorheriger Beitrag war um 20:22 ----------

Ja aber auch so denk ich das Raytray einfach noch zu viel leistung schluckt.

Finde ich nicht zumindestens wird es langsam Zeit Teile von Games mit einem Raytracer laufen zu lassen um die Optik weiter zu verbessern.


Nvidia scheint ja Optix(Nvidias Raytracingengine) nun auch für die Fermi Gamer Karte frei zu geben.

Vielleicht sehen wir in einen der nächsten "Nvidia Only Games" schon Experimente damit,wäre mir sogar lieber als Tesselation:).

So wie das bei Batman mit PhysX läuft:)

Das Potential hat Fermi jedenfalls dazu
 
Zuletzt bearbeitet:
Ein reines Raytray game ist aber trotzdemnoch zukuntfsmusik.

Und eine lösung ala Only NV setz sich dann so flächendeckend durch wie PhysX und ist somit auch nicht der rede wert, wenn zb nur eine sache im spiel geraytrayst wird aber rest raster bleibt.

Und lieber als Tesselation? also wär es dir lieber das alles eckig und glatt bleibt , dafür aber perfekt spiegelt?

Und ich find es kommt auf das spiel an , denn in einem egoshooter brauch ich es eher nicht so , aber bei einem Autorennspiel sieht es echt gut aus.

Oder Rollenspiel hab ich lieber grafik wie bei Heaven.
 
Zuletzt bearbeitet:
wenn zb nur eine sache im spiel geraytrayst wird aber rest raster bleibt.
.

So wird es aber wenn kommen um nach u nach sich an die Leistung aktueller Grafikkarten anzupassen,geht das nur Stück für Stück u Rastergrafik hat auch ihre Vorteile.

Vielleicht werden wir in Zukunft auch "Hybridgames" haben wo das beste aus beiden Welten vereint ist

Der Mod hier zeigt ja schon auf wo es hingehen könnte
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    78,4 KB · Aufrufe: 19
  • Unbenannt1.jpg
    Unbenannt1.jpg
    88,8 KB · Aufrufe: 25
  • Unbenannt2.jpg
    Unbenannt2.jpg
    48,5 KB · Aufrufe: 19
Zuletzt bearbeitet:
Wer träumt denn nun?
Nur du. Vielleicht solltest du endlich mal lesen lernen. So viel Ignoranz und Verbohrtheit für eine Firma tut ja schon weh. :stupid:
Doch, wenn du glaubst, Fermi sei generell 4 mal so schnell wie G200. Das wird definitiv nicht passieren. In einzelnen Workloads kann das durchaus der Fall sein. Auch mehr.
Ich sehe nichts Gegenteiliges. Und das wirst du auch nicht sehen. Erst recht nicht in realen Anwendungen statt irgendwelchen geschönten und bedeutungslosen Folien.
 
Zuletzt bearbeitet:
Ich sehe nichts Gegenteiliges. Und das wirst du auch nicht sehen. Erst recht nicht in realen Anwendungen statt irgendwelchen geschönten und bedeutungslosen Folien.


Ich u viele andere hier haben sogar schon einen Benchmark gesehen in der GF100 mindestens 3mal so schnell lief beim realen Raytracing wie der g200 keine bedeutungslosen Folien und nun?:cool:

Aber wahrscheinlich hast du das nur "grosszügig" übersehen mit deiner roten Brille stimmts?

http://www.youtube.com/watch?v=sD-lzVAlSDc&feature=channel
 
Zuletzt bearbeitet:
Da NV sich der Raster-Engine angenommen hat und ATI das mit ihrer nächsten Gen auch tun wird (muss!!!), kann es sein das Raytracing sich noch einige Jahre nach Hinten verschoben hat.
 
Ich u viele andere hier haben sogar schon einen Benchmark gesehen in der GF100 mindestens 3mal so schnell lief beim realen Raytracing wie der g200 keine bedeutungslosen Folien und nun?
Google mal nach "generell" und "einzelne Workloads". Vielleicht begreifst du ja den Unterschied. Meine Güte, so einen extremen F***** wie dich, der Null Ahnung von der Materie hat und nur mit Sinnlosigkeiten provozieren kann, habe ich hier noch nicht gesehen. Traurig, traurig ... :stupid:
 
kann es sein das Raytracing sich noch einige Jahre nach Hinten verschoben hat.


Muss nicht zwangsläufig sein,wenn das mit Optix genauso agressiv vermarktet u supportet wird wie Cuda selbst u Spieleentwickler auf den Zug aufspringen,könnte das auch früher was werden:)

Crysis war damals auch ein Spiel was von den Hardwarevorraussetzungen nicht jeder spielen konnte,trotzdem wurde es populär durch die überragende Grafik.

Wenn man einen Mix aus Rastergrafik u Optix schaffen würde der sich absätzen kann von allen bissher dagewesenen ist ein schneller Erfolg von Ray im Rahmen des Möglichen
 
Muss nicht zwangsläufig sein,wenn das mit Optix genauso agressiv vermarktet u supportet wird wie Cuda selbst u Spieleentwickler auf den Zug aufspringen,könnte das auch früher was werden:)

Crysis war damals auch ein Spiel was von den Hardwarevorraussetzungen nicht jeder spielen konnte,trotzdem wurde es populär durch die überragende Grafik.

Wenn man einen Mix aus Rastergrafik u Optix schaffen würde der sich absätzen kann von allen bissher dagewesenen ist ein schneller Erfolg von Ray im Rahmen des Möglichen

Bezweifel ich denn dann müssen beide Hersteller genug Leistung bieten UND auch die Konsolen müssen soweit sein.

Es geht ja um den Punkt in dem Raytracing schneller als Raster ist, und genau jener ist weiter nach hinten verrückt. Vorher braucht man, außer für gewisse Effekte nicht unbedingt Raytracing.
 
Ich bin mir nicht sicher, wo Ihr den Optimismus hernehmt, daß Raytracing die nächsten Jahre einzug in den Spielen hält.

Ein komplexes Bild in hoher HD Auflösung mit z.B. 300Strahlen für GI, benötigt selbst auf einem 2*Xenon 8Kerner noch ca. 24Stunden für EIN Bild.

Selbst bei Annahme, daß durch GPU der Faktor 1000 erreicht wird, reicht das bei weitem nicht.

24Std*60min*60sek=86400sek pro fps
86400sek/Faktor 1000=86,4sek pro fps
86,4sek/2 (SLI)= 43,2sek pro fps

Ergäbe etwa 0,023FPS für SLI :fresse:


Mehr als AO, am Anfang noch in Teilbereichen, wird es die nächsten 2-3 Jahre nicht geben.
Außerdem gibt es noch viele andere Teilbereiche, die man noch verbessern kann um die Optik "realer" zu gestalten, z.B.: Displacement Mapping.
 
Und bis Fermie mainstream wird dauert es ja wohl noch was und die firmen werden sicher nicht über die hälfte aller PC spieler und alle Konsolen ausgrenzen damit sie dann OptiX nutzen und es nur auf Fermi dann gut läuft.

Weil was nutz ein dann RayTray wenn ich es auf 512x512 runterschrauben muss damit es läuft, dann sieht es wieder bescheiden aus, denn nicht jeder hat dann paar fermis zuhause oder nicht jeder eine NV damit OptiX überhaupt läuft!

Das können die nicht stärker vermarkten als PhysX, da werden dann paar zusatz sachen in einer hand voll spiele kommen das war!

Und in 1-2jahren sehen wir da sicher nicht viel und somit noch zukuntfsmusik!
 
Zuletzt bearbeitet:
Ich bin mir nicht sicher, wo Ihr den Optimismus hernehmt, daß Raytracing die nächsten Jahre einzug in den Spielen hält.

Ein komplexes Bild in hoher HD Auflösung mit z.B. 300Strahlen für GI, benötigt selbst auf einem 2*Xenon 8Kerner noch ca. 24Stunden für EIN Bild.

Selbst bei Annahme, daß durch GPU der Faktor 1000 erreicht wird, reicht das bei weitem nicht.

24Std*60min*60sek=86400sek pro fps
86400sek/Faktor 1000=86,4sek pro fps
86,4sek/2 (SLI)= 43,2sek pro fps

Ergäbe etwa 0,023FPS für SLI :fresse:


Mehr als AO, am Anfang noch in Teilbereichen, wird es die nächsten 2-3 Jahre nicht geben.
Außerdem gibt es noch viele andere Teilbereiche, die man noch verbessern kann um die Optik "realer" zu gestalten, z.B.: Displacement Mapping.

ein hd bild mit 300 rays? wozu das denn? entweder nimmt man pro pixel ein strahl, dann hat man auch echtes hd, oder man lässt die auflösung gleich so niedrig, oder denke ich falsch?

und noch eine frage zur technik, wenn ich die strahlen losschicke und berechne wo sie auftreffen und im welchen winkel, werden kugeln dann durch echte kugeln repräsentiert (also schnittpunkt der geraden mit kugel) oder wird die form der kugel auch durch polygone angenähert? ersteres sähe glaub natürlicher aus, zweiteres liese sich schneller berechnen.
 
Beim echten Raytracing werden vom Betrachterstandpunkt "Strahlen=Ray" in die Blickrichtung des Betrachters ausgestrahlt.

Dabei trifft der Strahl z.B.: auf eine Wand, dann im Abstrahlwinkel auf das nächste Objekt usw. Entscheidend ist dabei auch die Tiefe, d.h. wie oft der Strahl reflektiert wird.

Bei jedem "weitersenden" des Strahls wird auch die Farbe, Helligkeit und Schärfe verändert und die Information im Strahl gespeichert. Trifft nun ein Strahl eine weiße Wand und danach eine rote Kugel (Textur spiegelnd), dann gibt es einen in der Spiegelung der Kugel sichtbaren weißen Teil der Wand. Eben wie in echt.

Die Kugel wird in kleinere Teile zerlegt, da es sich mathematisch leichter berechnen lässt. Je kleiner dabei die Dreiecke, desto realitätsnäher, abhängig von der Konstruktion und Auflösung. Zeichne z.B.: einen kleinen Kreis und zoome nur nah genug ran und man sieht daß der Kreis, je nach Auflösung aus kleinen Geraden besteht.

Wenn man nun noch die Berechnung der Lichtquellen mit einbezieht (jede eigenständige Lichtquelle erzeugt ebenfalls Strahlen) und noch andere Faktoren dann erhält man langsam "fotorealistische" Grafikqualität.

Gutes Beispiel dafür ist Avatar. Da haben ganze Rechnerfarmen die Bilder berechnet und trotzdem hat es Jahre gedauert bis zum Film.
 
das prinzip ist klar, meine frage war eben nur ob man mit echten kugeln rechnet (rechnen könnte) oder ob eben kugeln zwecks einfacherer schnittpunktberechnung mit polygonen angenähert werden.
 
games auf (mehr oder weniger) raytracing basis gabs schon
games mit voxel engine seien hier zu nennen
allen voran Outcast ;)
aber auch die deltaforce und comache reihe
voxel werden imho teilweise in der crysis engine verwendet

fuer 1999 waren die effekte schon genial
shadows, depth of field and reflections. Anti-aliasing ...
Water surfaces appear both translucent and reflective. The surface appears to reflect the environment (the skybox)[1] and appears rippled with moving waves, which react to the character's movement while in the water. The degree of translucency depends on the viewing angle. The more vertical the angle, the clearer the water appears while the more horizontal the angle, the stronger the reflections.
Other visual effects include bloom and lens flares, falling snow, fire, and other glowing particles
IXY2d.jpg

RkHQ3.jpg
 
Zuletzt bearbeitet:
Voxel und Raytrays ist aber jetzt nicht gerade das gleiche.

Bei voxel bekommt der pixel ja nur noch ein tiefenwert, hat aber nicht mit strahlen zu tuhen die komplett durch berechnet werden.
 
dafür konnt man bei Outcast aber die auflösung net so hoch stellen oder garnicht weiter verstellen oder wie war da snochmal , schon ewig her


so 512 x 384 , mehr ging doch net :d
 
Zuletzt bearbeitet:
Ich bin mir nicht sicher, wo Ihr den Optimismus hernehmt, daß Raytracing die nächsten Jahre einzug in den Spielen hält.

Ein komplexes Bild in hoher HD Auflösung mit z.B. 300Strahlen für GI, benötigt selbst auf einem 2*Xenon 8Kerner noch ca. 24Stunden für EIN Bild.

Ist dir das nicht komplex genug u läuft es nicht in Echtzeit u High Definition ab mit der Nvidia Optix Engine(damals zur Siggraph08 wo die Demo vorgestellt wurde hieß sie noch "nvirt")

http://www.youtube.com/watch?v=N0fKn81nhx8

Ab u zu sollte man den Thread auch mal lesen u auch mal auf das gesprochenen in der Demo achten:)

Und mittlerweile hat man mit dem Fermi mindestens die 3fache Leistung pro Karte im Gegenzug zu diesem Testsystem in der Demo mit "alten" g200ern


Auch ein Vorzeichen auf eine eventuell teilweisse Nutzung von Raytracing ist,das Optix nun auch ab dem Fermi für die Gamerkarten bereitgestellt wird u nicht mehr nur im proffesionellen Bereich bleibt.

Warum ein Feature auf Cuda Basis bringen,was dann nicht auch irgendwann Verwendung findet.

Vielleicht sogar auf die selbe Art u Weiße wie PhysX nur das man sich diesmal nicht eine PhysX Karte u oder Software,sondern eine Raytracingkarte oder die Optix Engine only per Treiber ins System dazusteckt/installiert,die zusätzliche Effekte für Games auf Raytracingbasis berechnet
 
Zuletzt bearbeitet:
Das Video beeindruckt mich aber nicht wirklich muss ich sagen ;)
Zumahl da auch jegliche Texturen usw. an der Häuserfront fehlen...

Da ist in meinen Augen die Ruby Demo aus dem Cinema 2.0 Programm was angeblich auf einer HD4870 in Echtzeit laufen soll schon deutlich beeindruckender ;)
http://www.youtube.com/watch?v=0YjXCae4Gu0

Hier wird aber nicht auf Raytracing gesetzt, sondern aus nem Mix aus Rastergrafik zusammen mit Voxel (laut PCGH)

Oder die schon recht altbackene ToyShop Demo von ATI (Techdome der X1800er Reihe)
http://www.youtube.com/watch?v=LtxvpS5AYHQ
 
Zuletzt bearbeitet:

Anhänge

  • Geforce-100-Fermi-Techdemo-Optix-Realtime-Raytracing-audi_evening.jpg
    Geforce-100-Fermi-Techdemo-Optix-Realtime-Raytracing-audi_evening.jpg
    187,6 KB · Aufrufe: 44
Zuletzt bearbeitet:
Das sieht natürlich schon ne Ecke besser aus...
Aber wenn ich mich recht entsinne, war das doch nur ein Standbild?
 
Das sieht natürlich schon ne Ecke besser aus...
Aber wenn ich mich recht entsinne, war das doch nur ein Standbild?

Nun ich kanns von dem Audi nicht sagen aber den Bugatti Veron haben sie auf nem Video gedreht u gewendet und gezoomt mit dem selben Hintergrund.

Aber unten am Rand steht was von Ray Demo:)
 
das war kein standbild das kam auf dem fermi auf sage und schreibe 0,6FPS ^^

oder auf der GTX285 auf ganze 0,2FPS :d
 
Die haben das doch am ersten Messetag der CES gezeigt als Video...
Und da kam mir das wie ein Standbild vor ;) könnte vllt an der niedrigen FPS Rate gelegen haben ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh