Raytracing in Spielen noch lange Zukunftsmusik oder wann wird es soweit sein?

Einfache Szenen kannst du auch mit deiner CPU in Echtzeit berechnen. .

Ich hab noch keinen Raytracingbenchmark gesehen der mit meinen 965 XE mit simpelsten 3D Szenen auch nur in die Nähe von Echtzeit gekommen wäre;)

Auf der ersten Seite hier im Thread sind ja ein paar zum selbst testen

Nur zur Erinnerung diese Demo lief auf einem Quadro Plex System mit 4x G200 Karten in Echtzeit

http://www.youtube.com/watch?v=BAZQlQ86IB4

Fermi müsste also bei GPGPU Berechnungen 4 mal schneller sein in SP als der G200 um dieses mit einer Singelcorekarte zu realisieren
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hab noch keinen Raytracingbenchmark gesehen der mit meinen 965 XE mit simpelsten 3D Szenen auch nur in die Nähe von Echtzeit gekommen wäre;)
Ich habe es dir ja schon im anderen Thread geschrieben. Heaven seven, laden, ausführen, Spass haben. Einfaches Echtzeit-Raytracing anno 2000. ;)

Nur zur Erinnerung diese Demo lief auf einem Quadro Plex System mit 4x G200 Karten in Echtzeit

http://www.youtube.com/watch?v=BAZQlQ86IB4

Fermi müsste also bei GPGPU Berechnungen 4 mal schneller sein in SP als der G200 um dieses mit einer Singelcorekarte zu realisieren
Hat nVidia gesagt, dass diese Demo mit nur einer Fermi Karte in Echtzeit läuft? Nein? Also bitte. Bleib mal schön bei den Fakten.
 
Zuletzt bearbeitet:
Hat nVidia gesagt, dass diese Demo mit nur einer Fermi Karte in Echtzeit läuft? Nein? Also bitte. Bleib mal schön bei den Fakten.

Fakt ist das : Diese Running Demo = Optix Engine auf Cuda Basis+Quadro Plex System(4XG200) also müsste Nvidia 4x schneller sein mit Fermi als der G200.Die Äusserungen gingen aber eher auf bis zu 8mal schneller hinaus;)

Ich zitiere

Wie Techradar nun in einem umfangreichen Artikel schreibt, der sich hauptsächlich um die internen Verbesserungen innerhalb des Fermi-Chips kümmert, soll die neue Geforce theoretisch sogar acht Mal schneller sein als die bisher schnellste Geforce-Karte von Nvidia.
 
Zuletzt bearbeitet:
Fakt ist das : Diese Running Demo = Optix Engine auf Cuda Basis+Quadro Plex System(4XG200) also müsste Nvidia 4x schneller sein mit fermi als der G200.
Wo bitteschön sagt nVidia, dass diese Demo auf einer Fermi Karte läuft? Quelle bitte! Ansonsten bleiben das nur hoffnungsvolle Hirngespinste deinerseits.

theoretisch sogar acht Mal schneller sein als die bisher schnellste Geforce-Karte von Nvidia
Wenn da das Wort theoretisch nicht wäre. Das bezieht sich sehr wahrscheinlich auf DP. Das ist für Grafik und Raytracing eh uninteressant. ;)
 
Zuletzt bearbeitet:
Wo bitteschön sagt nVidia, dass diese Demo auf einer Fermi Karte läuft? Quelle bitte! .

Lesen kannst du aber schon oder??

Nvidia behauptet das der Fermi bis zu 8mal schneller ist als der G200 bei GPGPU u da musst du glaub ich kein Matheass sein um zu sehen das die Leistung dann ein Quadro Plex System übertrumpfen würde

---------- Beitrag hinzugefügt um 21:48 ---------- Vorheriger Beitrag war um 21:47 ----------

Wenn da das Wort theoretisch nicht wäre. Das bezieht sich sehr wahrscheinlich auf DP. Das ist für Grafik und Raytracing eh uninteressant. ;)

Gings in dem Artikel um Raytracing oder um DP Performance?Ich glaube ersteres war der Fall u die Jungens dort sollten eigentlich wissen das man für Ray in Games kein DP braucht und demzufolge von SP ausgehen
 
Zuletzt bearbeitet:
Nvidia behauptet das der Fermi bis zu 8mal schneller ist als der G200 bei GPGPU u da musst du glaub ich kein Matheass sein um zu sehen das die Leistung dann ein Quadro Plex System übertrumpfen würde
Aha, also keine Quellen. Dann würde ich vorschlagen, du bleibst bei Fakten und saugst dir nicht irgendwas aus den Fingern.

Gings in dem Artikel um Raytracing oder um DP Performance?Ich glaube ersteres war der Fall
Dann solltest du nochmal gründlich lesen.
Wie Techradar nun in einem umfangreichen Artikel schreibt, der sich hauptsächlich um die internen Verbesserungen innerhalb des Fermi-Chips kümmert, soll die neue Geforce theoretisch sogar acht Mal schneller sein als die bisher schnellste Geforce-Karte von Nvidia.
Ich kann da nirgendwo erkennen, dass es explizit um Raytracing gegangen sein soll. :rolleyes:


Kleiner Tipp noch meinerseits, du solltest dir nicht zu viel zusammenreimen und irgendwelchen Hirngespinsten hinterherjagen. Es gibt Leute, die halten einem sowas später vor, wenn es völlig anders kommt. ;)
 
Zuletzt bearbeitet:
Kommt mal wieder runter....

Dude hat leider Recht. Bei Techradar steht nur das ganze mit 8 mal so schnell in DP (wie man in der Überschrift auf 10x kommt ist mir dann aber auch wieder schleierhaft, muss aber zugeben den text nur überflogen zu haben), wie es in Raytracing aussieht und ob das nun die Relevanz für Games erhöht steht auf einem anderen Blatt.

Zur Leistung der GF100 guckt mal in den entsprechenden Thread ;)
 
du solltest dir nicht zu viel zusammenreimen und irgendwelchen Hirngespinsten hinterherjagen. Es gibt Leute, die halten einem sowas später vor, wenn es völlig anders kommt. ;)

Schon wieder in der Wortwahl vergriffen?:shot:

Kleiner Tip meinerseits ich bleib bei meinen "Hirngespinsten" wie Du sie bezeichnest u wir werden sehen ob Du jemandem was vorhalten musst ;)

---------- Beitrag hinzugefügt um 23:10 ---------- Vorheriger Beitrag war um 23:10 ----------

Kommt mal wieder runter....

Wem sagst du das;)
 
Ist es nicht,denn in der News steht eine komplette 3D Welt u nicht nur ein paar Effekte in Echtzeit.

Zeig mir eine Singelcore Grafikkarte die das zum heutigen Zeitpunkt kann mit 25 Bildern in der Sekunde,egal in welcher Auflösung;)

Eine komplette 3D Welt ist aber auch ein sehr dehnbarer Begriff.
Und der dude hat recht, es gibt auch schon Echtzeit Raytracer, die nur auf der CPU rechnen und dazu noch brauchbare FPS Raten zustande bringen...

Das Thema hatten wir aber schonmal in nem anderen Thread vor ner ganzen Weile.
 
Und der dude hat recht, es gibt auch schon Echtzeit Raytracer, die nur auf der CPU rechnen und dazu noch brauchbare FPS Raten zustande bringen...

Eine komplexe 3D Welt für Games nach heutigem Masstab(siehe Bugatti Demo)gibt mit Sicherheit keine einzelne x86 CPU in brauchbaren(ab 25 Bildern aufwärts)Frame Raten wieder;)

Es sei denn das Wort "brauchbar" ist hier wiederum dehnbar

Es kann sich glaube ich noch jeder daran erinnern wie schwer sich Intel mit seinem Raytracer u mehreren zusammengeschalteten x86 CPUs bei dem total veraltetem Doom oder Quake4 getan hat u an der Situation hat sich seither nur geringfügig was verbessert durch die Mehrkernprozessoren

Soviele Raytracingdemos mit der Optix Engine hat Nvidia ja nun noch nicht präsentiert u wenn sie von Echtzeit reden sollte man annehmen,das sie an bestehenden Projekten weiterarbeiten u ihre Ausssage genau darauf auch beziehen.
 
Zuletzt bearbeitet:
Der Maßstab ist doch gar nicht gesetzt wurde...
Wenn du von einer kompletten 3D Welt sprichst, kann diese auch nur einen einzigen grotten hässlichen Baum enthalten. Wäre auch ne komplette 3D Welt.

Solange da nicht bekannt ist, um was es sich überhaupt für Szenen handelt und mit welchem Umfang, ist die Meldung nicht wirklich brauchbar. Weder aus optimistischer noch aus pessimistischer Sicht.
 
Hier nochmal ein Beispiel von Intel mit 256x256 Auflösung man kann sich vorstellen wo die Frameraten liegen würden bei einer brauchbaren 1024er Auflösung;)
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    188,2 KB · Aufrufe: 34
Der Maßstab ist doch gar nicht gesetzt wurde...
Wenn du von einer kompletten 3D Welt sprichst, kann diese auch nur einen einzigen grotten hässlichen Baum enthalten. Wäre auch ne komplette 3D Welt.

Solange da nicht bekannt ist, um was es sich überhaupt für Szenen handelt und mit welchem Umfang, ist die Meldung nicht wirklich brauchbar. Weder aus optimistischer noch aus pessimistischer Sicht.

Genau...mehr Geschwindigkeit durch kleinere Welt ;)

Ich denke Fermi wird sehr Potent in Sachen Raytracing, aber wie gesagt, selbst wenn er eine die Szene mit dem Bugatti in Echtzeit darstellen könnte würde das leider trotzdem noch nicht den Durchbruch bedeuten. Auch wenn die Karten gleich welchen Herstellers schnell genug sind, es fehlt die Unterstützung.
 
Solange da nicht bekannt ist, um was es sich überhaupt für Szenen handelt und mit welchem Umfang, ist die Meldung nicht wirklich brauchbar. Weder aus optimistischer noch aus pessimistischer Sicht.

Es aber als Phantasterei oder "Hirngespinst" wie gewisse Leute es bezeichnen hinzustellen ist in Anbetracht der schon laufenden Optix Demo einfach nicht wahr

Fakt ist 4 x g200 schaffen eine ansprechende 3D Game Grafik zu berechnen in spielbaren Frameraten,also kann man bei Fermi da nicht von einem Hirngespinst reden.

Selbst wenn es eine nicht schafft schaffen es aber möglicherweisse 2 im Verbund bzw eine kommende Dual GPU
 
Zuletzt bearbeitet:
Fakt ist 4 x g200 schaffen eine ansprechende 3D Game Grafik zu berechnen in spielbaren Frameraten,also kann man bei Fermi da nicht von einem Hirngespinst reden.
Doch, wenn du glaubst, Fermi sei generell 4 mal so schnell wie G200. Das wird definitiv nicht passieren. In einzelnen Workloads kann das durchaus der Fall sein. Auch mehr. Aber wie ich schon sagte, warte bis hier Fakten geschaffen wurden. Was du momentan machst sind leider nur Träumereien, falls dir das Wort besser gefällt. :rolleyes:
 
bin strikt gegen solche entwicklungen, bevor es rauskommt ist es schon längts veraltet und dann warten..
 
Raytracing ist in dem Sinne keine neue Entwicklung, tatsächlich exisitert das Prinzip bzw. die mathematischen Grundlagen schon seit ka irgendwann Mitte des 20. Jhd.

War die Rasterization etwa veraltet als sie "rauskam"? Würde ich so nicht sagen...


Das einzige Problem ist momentan noch, dass die Leistung für die Durchführung von Echtzeit - Raytracing in Spielen lange noch nicht ausreicht - um allerdings nahezu perfekte Realitätsnähe zu schaffen führt an dieser Methode im Prinzip kein Weg vorbei.
 
Zuletzt bearbeitet:
bin strikt gegen solche entwicklungen, ..

Du bist aber kein Inquisitor aus dem Mittelalter oder?:)

Die waren nämlich auch gegen sämtlichen Fortschritt:fresse:

Das einzige Problem ist momentan noch, dass die Leistung für die Durchführung von Echtzeit - Raytracing in Spielen lange noch nicht ausreicht.
Mit einer SingelKarte könnte es wohl noch 2-3Generationen dauern stimmt.

Nichts desto trotz gibt es ja schon Demos von Nvidia die in Realtime ablaufen.

Und wenn sich die Shaderleistung der neuen Karten tatsächlich so wiederspiegelt wie oben zu sehen

Although this raytracing demo shows GF100 with 3x performance improvement over GTX 285

http://www.youtube.com/watch?v=XFgzG9WyGNQ

Sollten solche Demos mit einer hochgetaktenten Dual Fermi Karte bzw eines Systems aus 2x 360ern sogar im Rahmen des möglichen sein.

http://www.youtube.com/watch?v=BAZQlQ86IB4
 
Zuletzt bearbeitet:
ich hab 1994 mit 486 DX2 66MHz angefangen. Zudem Zeitpunkt kam Doom raus, was wir damals alle begeistert spielten *g*Hatte mit die ersten 3d Beschleuniger bei mir zum Unrealrealse in meinem Amd drin. eine Diamond Vipter V330 zusammen mit einer Miro Media Highscore 6MB Voodoo 1 Karte. Forsaken, Unreal, GTA, kamen paar richtig geile Spiele raus.
Jetzt etwa 10-15 Jahre später hat man keine 300mhz mehr, sondern inzwischen um die 3000Mhz und das auch mal 4 genommen ;-)
Grafikkarten hab nicht mehr 4 MB Speicher, sonderen teilweise 2048MB, 1024MB dürften fast schon normal sein.
Vor 10 Jahren war noch der Stand da, das ein Spielen auf dem PC eigentlich Sekundär ist, mitlerweile ist ein Spiele Pc als Primäres Daddelgerät durchaus gebräuchlich und häufig vertreten.
Egal wie das realisiert wird, über Rechenleistung braucht ihr euch absolut keine Gedanken machen. 6 -8 Cores sind ja von AMD bereits angekündigt. INtel virtualisiert mal eben 4 Cores und aus einem I7 wird dann mal eben ein virtueller 8 Core.
Tripple SLI Lösungen sind möglich, teuer aber möglich.
Was in 5-10 Jahren passieren wird, kann keiner Vorraussehen, aber ich gehe stark davon aus, das irgendwann die Technik und Rechenleistung soweit ist, dass Fotorealisitische Spielgrafik und Geometrie möglich sind. Raytracing ist da ein Schritt in die richtige Richtung.
viele Entwickler werden sich damit auch beschäftigen und letztendlich wenn es soweit sein wird auf den MArkt werfen. Fast kein anderer Markt im PC bereich ist so schnelllebig wie der PC Spiele Markt. ein aktueller Daddelrechner, entwickelt für eine relativ große Zielgruppe greift auf gebräuchliche PC Komponenten zurück, geparrt mit Grafikkarten, deren Markt wiederum von lediglich 2 Herstellern im Moment kontrolliert wird. Nvidia und ATI, was wiederum heißt, dass das Geld, was durch diese Märke fließt gigantisch groß ist.
Spekuliert, Misstraut, oder macht sonstwas, aber ich warte einfach nur ab und freue mich auf die kommende Technik, weil ich weiß, dass diie Entwickler Ihren Arsch hoch bekommen.
 
Nur als Hinweis nebenbei...
Fakefactory wird in seinem Cinematic Mod für HL2, EP1 und EP2 demnächst via Raytracing annähernd Fotorealistische Augen auf die Karaktere zaubern... Mir realistischer Umgebungsspieglung usw. ;)
Sind schon sehr beeindruckend aus, was die auf den Videos zeigen...
 
hyperthreading ist raffiniert, aber auch kein hexenwerk. die threads werden beim scheduling anders verwaltet als mit 4 cores, dadurch ergibt sich (bzw kann sich ergeben) eine gewisse mehrleistung. aber 8 cores würde ich das nicht nennen, auch wenn win das so anzeigt.
aber hast schon recht, meine erste hdd hatte damals 1,2 gb und ich hab mir gedacht dass ist wahnsinnig viel. ne vollinstallation hat damals ~10mb gebraucht, ich hab mir gedacht die festplatte wird niemals voll. jetzt schieb ich in mein handy eine briefmarkengrosse sd karte mit 8gb.
 
scully12..,

du kannst dir auch keine 3 fermi karten leisten


Meinst du:cool:

Sind schon sehr beeindruckend aus, was die auf den Videos zeigen...

Hast du mal ein paar Links zu den Beispielvideos dazu bzw zu den Berichten:)

Edit:
Habs gefunden sieht echt nicht schlecht aus was die da abliefern,allerdings wäre ein komplett raytraced Mod noch schöner:bigok:

Aber auf die Art u Weiße kann man nach u nach Raytracing in Spielen einführen,ohne dabei die z.Zt bestehende Hardware von "normal" Usern zu überlasten;)

Allerdings finde ich die Anmerkung genial:fresse:
Performance Warning!:

The Orangebox/Source Engine is getting outdated and performs poor compared to newer engines like the Cry-Engine or the Unreal-Engine. It's almost impossible to get good framerates with enhanced viewrange, hires-textures and high polycount. Therefore prepare yourself for fps below 40 in some open areas, unless you're using the latest NASA supercomputer.
http://www.cinematicmod.com/cm_9.php
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    78,4 KB · Aufrufe: 42
  • Unbenannt1.jpg
    Unbenannt1.jpg
    88,8 KB · Aufrufe: 41
Zuletzt bearbeitet:
Aber in dem einen Video von NV , mit dem R8 und so ist das eine testsystem bei 0,2FPS und der Fermi bei 0,6FPS ca.

Und beides wär für spiele 0 geeignet :d

Man weiss doch gar nicht was da gerendert wurde u in welcher Auflösung.

Also ist eine Aussage Raytracing ist für Games mit Fermi null geeignet pauschal

Man vermutet lediglich das das eine ne 285GTX war u das andere Fermi,u der war wie zu sehen 3mal schneller.

Es gab doch mit dem g200 schon eine Demo die in Echtzeit ablief u die wurde hier auch schon zur Genüge gepostet

http://www.youtube.com/watch?v=BAZQlQ86IB4

Basis wahren dort 4 Karten der G200 Quadro Serie.
 
Zuletzt bearbeitet:
Ich mein so in der qualli wie in dem video nicht für spiele geeignet.

Im fenstermodus lief es da ja was besser :d

Aber das war eher auf dein , 4x schneller gemünzt , da es da selbst "nur" 3mal ist ^^


weil ich find 0,6FPS sind etwas wenig zum zoggen ^^
 
Zuletzt bearbeitet:
weil ich find 0,6FPS sind etwas wenig zum zoggen ^^


Die Presentation dort hat doch aber nichts mit der anderen Demo zu tun.

Nochmal es weiss keiner was für Mörder Renderaufgaben dort bewältigt werden mussten,in der Presentation,das die Bilder auf 0.6 gesunken sind.

Du vergleichst doch auch keinen Benchmark mit nem realen Game u sagst dann weill der Benchmark nur 0,6 liefert sind Spiele nicht möglich:cool:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh