Raytracing in Spielen noch lange Zukunftsmusik oder wann wird es soweit sein?

Oh, das die erste Larabee-Generation nicht veröffentlicht wird, hab ich noch gar nicht mitbekommen. Also ist Rechenleistung wohl doch zu gering für ein konkurrenzfähiges Produkt und auch für Echtzeitraytracing.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Oh, das die erste Larabee-Generation nicht veröffentlicht wird, hab ich noch gar nicht mitbekommen. Also ist Rechenleistung wohl doch zu gering für ein konkurrenzfähiges Produkt und auch für Echtzeitraytracing.

Die Frage ist eher ob eine Multicore CPU Plattform wie Larrabee es werden sollte überhaupt gegen die Shaderperformance neuester Grafikkartenmodelle hätte bestehen können.

Denn wie schon gesagt auch die Shader einer Grafikkarte sind perfekt dazu in der Lage Raytracing zu berechnen.Erst recht nachdem Nvidia in diesem Bereich gewaltige Anstrengungen unternommen hat um die Performance zu steigern
 
Aber nur im zweidimensionalem Raum, der rest wird scheinbar hochgerechnet. Ob man das jetzt wirklich als Raytracing ansehen kann wage ich irgendwie zu bezweifeln.
 
Ob man das jetzt wirklich als Raytracing ansehen kann wage ich irgendwie zu bezweifeln.

Nun solange dabei "Strahlen verfolgt" werden ist es auch "Ray Tracing" :)

Allerdings ein wohl noch "relativ simpler" Algorithmus um die Performance nicht all zu stark einbrechen zu lassen
 
Zuletzt bearbeitet:
Mal eine ganz andere Frage: Wie viel würdet ihr denn dafür zahlen?


Könnte mir nämlich vorstellen, dass die Rechenleistung, die zum Darstellen der zukünftigen Games mit Raytracing bei der entsprechenden Detailtreue und entsprechend hohen Frameraten auch mittels 32 und 22 nm Chips nicht ganz so kostengünstig bereitgestellt werden kann. (Viel Silizium, evtl. mehrere Chips/Platinen, entsprechende Stromversorgung/Kühlung)
 
Naja es gibt ja in der Filmindustrie doch dann schon so einige Leute die für die Herstellung von Filmmaterial Raytracer einsetzen,Vielleicht könnte man sich bei denen Erfahrungswerte holen auch in Bezug auf die Softwarebasis.
Zwischen Echtzeit Raytracing und einer geraytraceden Szene Szene sollte aber auch ein nicht allzuvernachlässigbarer Unterschied sein. Sprich das was heuzutage in der Filmindustrie genutzt wird ist so in der Form wohl nicht in Echtzeit anwendbar...

Andererseits ist Nvidia ja auch schon eine ganze Weile an dem Thema dran u wird wohl wenn es zunehmend an Bedeutung gewinnt,die Gameschmieden unterstützen bei der Entwicklung von möglicherweisse Hybridlösungen für Games.

Es wäre ehrlich gesagt vermessen,wenn man schon eine GPU entwickelt hat wie dem Fermi,der im GPGPU Bereich predistiniert ist für so etwas,diese Leistung brach liegen zu lassen u sie ausschliesslich nur dem Professionellen Bereich zusprechen würde.

Das Problem liegt wohl eher darin, das im Profibereich viel mehr Geld fließt. Schon allein was Verkaufspreise angeht... Der Endandwender ist doch der Typische Sparfuchs, darf nix kosten und muss viel leisten...

Auch kommt das angesprochene Problem hinzu, das man erstmal flächendeckend Hardware über alle Bereiche vertrieben haben muss, damit überhaupt Raytracing in brauchbarer Performance genutzt werden kann.
Uns nutzt das beste Bild und die beste Optik nix, wenn einfach mal die Leistung fehlt.

Denn Grafikmässig wäre es bahnbrechend u würde wohl so wie Crysis damals in aller Munde sein.Dieses konnte damals auch nicht jeder mit seiner Hardware spielen,weil es Anforderungen stellte die jenseits von Gut u Böse waren,trotzdem wurde es ein Erfolg;)

Das sehe ich nicht ganz so, so bahnbrechend wie du das dir vorstellst wird es vllt gar nicht. Gerade im Bezug auf die Rechenleistung.
Die Bereiche die Raytracing nicht so gut kann mal außen vorgelassen...

Erst recht nachdem Nvidia in diesem Bereich gewaltige Anstrengungen unternommen hat um die Performance zu steigern

NV nimmt sich doch nur der DP Problematik an... Raytracing sollte doch auf SP bauen und von der DP Performance herzlich wenig beeinfluss werden!?
 
NV nimmt sich doch nur der DP Problematik an... Raytracing sollte doch auf SP bauen und von der DP Performance herzlich wenig beeinfluss werden!?
Das ist schon richtig aber ein positiver Nebenefekt(wenn man es so nennen will)ist ja,das die SP Performance fast im gleichen Maße mit angestiegen ist durch die optimierten Shader

---------- Beitrag hinzugefügt um 18:34 ---------- Vorheriger Beitrag war um 18:29 ----------

Mal eine ganz andere Frage: Wie viel würdet ihr denn dafür zahlen?

)

Also ich war schon immer ein Performancejunkie,Enthusiast,Verückter nenne es wie du willst;)

Von daher würde ich auch ein bisschen mehr Geld in die Hardware investieren als Otto Normal User,nur um Features auszuprobieren die noch nicht für den Massenmarkt tauglich sind.

Aber leider richtet sich der Gamer Markt nicht nach den Verückten auch wenn ichs mir wünschen würde;)
 
Zuletzt bearbeitet:
Das ist schon richtig aber ein positiver Nebenefekt(wenn man es so nennen will)ist ja,das die SP Performance fast im gleichen Maße mit angestiegen ist durch die optimierten Shader

Nicht wirklich, denn NV hebt das Verhältniss zwischen SP und DP Leistung nur drastisch an.
Beim G200 waren das noch 8/1 oder gar noch schlechter. AMD kommt auf 5/1 aufgrund der 5D Shader. Mit dem Fermi kommt NV auf 2/1. (zwei Shader ALUs berechnen einen DP Wert)
Optimiert ist da quasi gar nix, außer das nun zwei ALUs zusammen einen DP Wert berechnen können.
 
Die Single-Precision-Rechenleistung des Fermi auf einer Tesla S2070 liegt deutlich unter dem Cypress auf einer HD 5870, selbst in realen Benchmarks wie Linpack. Denn da bringt der Cypress immer noch mehr Rechenleistung auf die Straße als der Fermi theoretisch maximal erreicht.
 
Zuletzt bearbeitet:
Das wäre die Frage in wie weit das wirklich vergleichbar wäre...
Hast du dazu mal paar Links/Bench Daten parat...

Im Moment gibt es nicht wirklich viel Software die überhaupt GPGPU auf den RV870ern nutzt. Bei dem allseits beliebten Tool F@H zum Beispiel sieht eine RV870er keinen Stich gegen ne "poplige" 260GTX, selbst gegen ne 250er GTS hat sie es schwer...

Aussagekräftige Benchdaten über Tools, die wirklich mit 5D Shadern umgehen können (was F@H wohl nicht kann) würden hier Licht ins dunkle bringen...
 
Also ich war schon immer ein Performancejunkie,Enthusiast,Verückter nenne es wie du willst;)

Von daher würde ich auch ein bisschen mehr Geld in die Hardware investieren als Otto Normal User,nur um Features auszuprobieren die noch nicht für den Massenmarkt tauglich sind.

Aber leider richtet sich der Gamer Markt nicht nach den Verückten auch wenn ichs mir wünschen würde;)

du musst doch bloss den ganzen cs spielern erklären dass die hitbox unter einer raytracing nutzenden engine exakt ist, dann hast schonmal genug hardware verkauft um die entwicklungskosten einzuholen ;)
 
Das wäre die Frage in wie weit das wirklich vergleichbar wäre...
Hast du dazu mal paar Links/Bench Daten parat...
Superrechner mit Radeon-HD-4870-X2-Karten:
http://www.top500.org/system/details/10186
Theoretische Peak-Rechenleistung: 1206 Teraflops
Max. Rechenleistung in Linpack: 564 Teraflops
Etwas weniger als die halbe theoretische Peak-Rechenleistung wird hier also umgesetzt. Der Cypress sollte sich nicht viel anders verhalten als der RV770.
 
Superrechner mit Radeon-HD-4870-X2-Karten:
http://www.top500.org/system/details/10186
Theoretische Peak-Rechenleistung: 1206 Teraflops
Max. Rechenleistung in Linpack: 564 Teraflops
Etwas weniger als die halbe theoretische Peak-Rechenleistung wird hier also umgesetzt. Der Cypress sollte sich nicht viel anders verhalten als der RV770.

So richtig werde ich da nicht schlau...
Wie viele CPUs und GPUs sind denn nun da wirklich verbaut und wie viel Rechenleistung beim Ergebniss kommt schlussendlich von der GPU?
 
Ich muss mich korrigieren, die Rechenleistung dieses Superrechner wird bei Double Precision gemessen. Also kann man aus den Resultaten doch keine Schlüsse auf die umsetzbare Single-Precision-Rechenleistung ziehen.
Der Tianhe-1 verwendet 4096 Xeon-E5540-Prozessoren (2,53 GHz), 1024 Xeon-E5540-Prozessoren (3,0 GHz) und 2560 Grafikkarten (Radeon HD 4870 X2). Die Grafikkarten wurden aus Stabilitätsgründen von 750 MHz auf 575 MHz runtergetaktet.
Die theoretische Double-Precision-Rechenleistung verteilt sich wie folgt:
Grafikkarten: 2560*368 GFlops = 942080 GFlops
Prozessoren: 4096*40,48 GFlops + 1024*48 GFlops = 214958,08 GFlops
Summe: 1157038,08 GFlops
Die Differenz von 50 TFlops zur Angabe bei top500.org kann ich gerade nicht nachvollziehen, aber ist ja auch nicht die Welt angesicht von mehr als 1 Petaflops Gesamtleistung.
Das Verhältnis CPU-Rechenleistung vs. GPU-Rechenleistung (Double Precision) liegt bei ungefähr 2:9.
 
du musst doch bloss den ganzen cs spielern erklären dass die hitbox unter einer raytracing nutzenden engine exakt ist, dann hast schonmal genug hardware verkauft um die entwicklungskosten einzuholen ;)

Genau das ist die Lösung um Raytracing einen Entwicklungsschub zu verpassen,warum bin ich da nicht selber darauf gekommen:xmas:

Also ihr Killergamesspieler da draussen fleisig Highendhardware kaufen sonst wird das nix mit dem exakten Töten des Gegners:shot:

---------- Beitrag hinzugefügt um 21:09 ---------- Vorheriger Beitrag war um 21:04 ----------

Ich muss mich korrigieren, die Rechenleistung dieses Superrechner wird bei Double Precision gemessen.

Wird sie doch eigentlich immer
 
Zuletzt bearbeitet:
@Raytracing mit DP/SP : hängt es nicht davon ab, wie die Strahlen berechnet und verfolgt werden. Wenn man theoretisch kein echtes Raytracing verfolgt sondern am Ende hochrechnet, ist DP durchaus sinnvoll und macht sich im Endeffekt bemerkbar. Obendrauf würde man zusätzlich Leistung sparen. Allerdings sind dann evtl. Fehler bzw. "Features" nicht mehr in dem Maße kontrollierbar.
 
@Raytracing mit DP/SP : hängt es nicht davon ab, wie die Strahlen berechnet und verfolgt werden..

Glaube nicht das man für Raytracing DP Performance braucht,denn so genau soll u muss es ja nicht werden;)

SP reicht da vollends aus für z.B realistische Schatten Lichtbrechungsberechnungen,wir wollen ja nicht in den atomaren Bereich vorstossen
Aber ich denke du meinst es auch eher anderst herum als du es geschrieben hast stimmts?;)
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
@ scully1234

davon kann man ausgehen, wird wohl erst mit der GF100 was!
Für HD Auflösungen wird SLI empfohlen...

MfG
 
@ Scully1234

As with most ray traced rendering, higher resolutions take proportionally longer to render. A Quadro FX 3800 is recommended for basic operation, while multiple GPUs are recommended for HD resolutions. Multiple GPUs are supported if they are GT200 architecture (e.g., Quadro FX 3800 or higher) and not in SLI mode. NVIDIA does not recommend trying these examples with GPUs having less than 64 CUDA cores.

Also wenn es die alten GT200 Modelle sind (FX3800), wird Multi GPU empfohlen für HD Auflösungen.
;)
 
Neues aus dem Raytracingsektor

Nach neuesten Berichten zum kommenden G300 Chip von Nvidia,wurde angeblich Nvidia die Frage gestellt ob der Fermi eine komplette 3D Welt mit Hilfe eines Raytracers darstellen könne.

Daraufhin soll Nvidia geäussert haben das dieses Vorhaben mit dem Fermi möglich sei.

Sollte diese Aussage sich bewahrheiten das mit einer Singelcore GPU der Rechenaufwand gemeistert werden kann sind wir Echtzeitraytracing in Spielen ein gewaltiges Stück näher gekommen;)

http://www.gamestar.de/hardware/news/grafikkarten/2311434/nvidia.html

Das gute daran wäre,für Raytracing benötige ich kein SLI um die Leistung weiter zu pushen,dazu wird die Cuda Plattform genommen mit der Raytracing mit jedem weiteren Core nahe 100% skalliert.

Das sollte also bedeuten wenn eine Singelcore Fermi Echtzeitraytracing kann,mit sagen wir mal 25 Bildern/sec,sind es bei zwei Karten schon 50 Bilder usw usw;)

Wir spinnen das ganze noch weiter.Theoretisch könnte man mit 2Karten u Nvidias 3D Vision Raytracing in 3D geniessen,da für jedes Auge 25 Bilder bereit stehen würden;)
 
Zuletzt bearbeitet:
Copy&paste

RT in Echtzeit, ohne Angabe welche Effekte implementiert wurden, welche Auflösung verwendet wird und auf was für Spiele das zutreffen soll, ist erstmal mit jeder Karte möglich.
Nur wird sich das dann erheblich von dem unterschieden, wass erwaret wird...
 
Copy&paste

RT in Echtzeit, ohne Angabe welche Effekte implementiert wurden, welche Auflösung verwendet wird und auf was für Spiele das zutreffen soll, ist erstmal mit jeder Karte möglich.
Nur wird sich das dann erheblich von dem unterschieden, wass erwaret wird...

Schön aus dem 3DC ;)

Allerdings sagt NV klar das es bis zu 10 mal schneller sein soll und da ist die verwendete Szene erstmal relativ.
 
Copy&paste

RT in Echtzeit, ohne Angabe welche Effekte implementiert wurden, welche Auflösung verwendet wird und auf was für Spiele das zutreffen soll, ist erstmal mit jeder Karte möglich.
...

Ist es nicht,denn in der News steht eine komplette 3D Welt u nicht nur ein paar Effekte in Echtzeit.

Zeig mir eine Singelcore Grafikkarte die das zum heutigen Zeitpunkt kann mit 25 Bildern in der Sekunde,egal in welcher Auflösung;)
 
Zuletzt bearbeitet:
Sollte diese Aussage sich bewahrheiten das mit einer Singelcore GPU der Rechenaufwand gemeistert werden kann sind wir Echtzeitraytracing in Spielen ein gewaltiges Stück näher gekommen
Gebt euch bitte keinen Illusionen hin. Bis Echtzeit-Raytracing in Spielen ein Thema ist, ist Fermi schon lange wieder Geschichte. Einfache Szenen kannst du auch mit deiner CPU in Echtzeit berechnen. Die Frage ist doch, wie aufwändig ist eine Szene. Und da wird auch Fermi an der aktuellen Situation nichts ändern.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh