[Sammelthread] Caustic Graphics - CausticGL - Raytracing Beschleuniger

  • Einleitung
Dies soll ein Sammelthread für den von Caustic Graphics angekündigten Raytracing-Beschleuniger werden.
Dieser Beschleuniger soll zusammen mit der Schnittstelle CausticGL als eigener Beschleuniger innerhalb eines PCs arbeiten und es ermöglichen Realtime-Raytracing Effekte für die Breite Masse z.B. in Games zu nutzen.



  • Bilder
pic_board_largelrbk.gif


platform_chart5vyx.gif


100elu.jpg


116ku0.jpg




  • Latest News
Caustic.com schrieb:
Caustic Graphics®, a new 3D computer graphics company, launches today with a fundamental breakthrough in raytracing acceleration that is set to define a new era in professional 3D production and interactive consumer graphics. Raytracing, the gold-standard for creating 3D imagery, duplicates the natural physics of light, creating stunning images by meticulously tracing the path of light to and throughout any given scene.

Caustic's first-generation technology will deliver an average 20X increase in the speed used to create stunning, realistic 3D imagery for film and video, game development, as well as automotive and consumer product design. The second generation of Caustic's technology, due early next year, is expected to gain an additional order of magnitude in performance, offering 200X speed over today's state-of-the-art graphics products. This massive speed jump is due to Caustic's patent-pending raytracing algorithms implemented in a semiconductor design.

The computational complexity of producing cinema-quality, raytraced 3D images involves large, downstream costs, including slow "black box" design iterations and costly "render farm" server infrastructures. These costs are symptoms of a problem with today's computer designs where CPUs and GPUs are efficient at accelerating the rasterized graphics in video games but woefully inefficient at accelerating cinema-quality raytraced graphics. Caustic's forthcoming standards-based CausticRT™ platform enables highly parallel CPUs and GPUs to massively-accelerate raytracing, putting it on par with rasterization and resulting in cinema-quality 3D delivered interactively on low-cost PCs.

"Real-time raytracing has been the holy grail of computer graphics since 1979 - a dream always on the horizon but never within reach," said Dr. Jon Peddie, of Jon Peddie Research, the computer graphics market research firm in Tiburon, CA. "Demos have been done with 16 or more processors, super computers, and other esoteric devices, but never anything that was within reach of a PC budget. Caustic Graphics has made the breakthrough with a combination of a small hardware accelerator and some very innovative software to be able to deliver real-time, complex, high-resolution raytraced images - this is an amazing accomplishment." The Caustic management team is made up of technical visionaries and graphics experts from Autodesk, Apple, ATI, Intel and NVIDIA. Before starting Caustic, company founders James McCombe, Luke Peterson and Ryan Salsbury worked together at Apple, where McCombe was a lead architect for the company's OpenGL Graphics system and Chief Architect of Apple's rendering algorithms for the iPhone and iPod.

"For years, 3D professionals in multiple industries have labored under the yoke of slow iterations and unwieldy offline render farms," said Caustic Graphics CEO, Ken Daniels. "Caustic puts the power of a render farm, operating at interactive speeds, on every desktop, enabling designers and animators to get from concept to product faster, better and at lower cost." The Caustic product offering will be announced in April 2009.


  • Links
Caustic.com
Computerbase Artikel
 
Zuletzt bearbeitet:
Du solltest vielleicht noch anmerken, dass die beiden Screenshots zu RTCW aus Intel's CPU-Raytracingstudie stammen, nicht etwa von Caustic.

Ich hab' leider nicht viel Vertrauen darin, dass bei der Sache was rumkommt. Aktuelle Grafikkarten haben an sich schon die Fähigkeiten, die für's Raytracing gefordert sind. Meine Kristallkugel sagt mir, dass das einen ähnlichen Weg wie mit Ageia nehmen wird, die Firma von einem der drei großen Grakahersteller gekauft wird und die API in deren Treiber wandert.
 
Na endlich kommt der stein bei raytracing mal ins rollen,das war schon lange fällig.:banana:

Das könnte die nächste revolution im spielesektor werden,wie damals die voodoo karten;)

Aber wenn ich mir die karte so ansehe,besonderst performant sieht sie nicht gerade aus als das sie extreme raytracing effekte berechnen könnte:hmm:



Meine Kristallkugel sagt mir, dass das einen ähnlichen Weg wie mit Ageia nehmen wird, die Firma von einem der drei großen Grakahersteller gekauft wird und die API in deren Treiber wandert.

Da brauchst du keine kristallkugel:haha:

Nvidia arbeitet an einem nahezu selben raytracingprojekt nur mittels cuda plattform u dessen grafikchips sind da gehe ich jede wette ein um meilen performanter als die obige abgelichtete zusatzkarte;)


Die firma bräuchte nen klangvollen namen wie 3dfx dann könnte es vielleicht was werden mit dieser zusatzkarte:d
 
Zuletzt bearbeitet:
also von der optik auf die leistung zu schließen ist etwas abenteuerlich, nur weil keine tollen aufkleber oder übertriebene kühler drauf sind ist das ding noch lange nicht automatisch langsam, ich finde es sogar vorbildlich dass auf lüfter verzichtet wird.
 
Na endlich kommt der stein bei raytracing mal ins rollen,das war schon lange fällig.

Intel is doch schon seit geraumer Zeit dabei. LRB zielt ja in gewisser Weise in diese Richtung.

Von der Zusatzkarte von Caustic halte ich überhaupt nüx. Die Bilder der Karte sind nur aus Photoshop weil wohl noch garkeine existiert. Zu der Technik und deren Wirkungsweise schreibt man auch nichts. Und selbst wenn ist das nen Markt der nicht einfach so richtung Raytracing zu bewegen ist. Spile als Beispiel würden dann nur auf Raytracing beschleunigern laufen. Bei Physix war das ein an oder abschaltbarer Zusatz, aber hier ginge ja nur Raster oder Raytracing, bzw könnte ich wohl auch Raytracing Technik mit Rastergrafik koppeln, müsste aber für den Übergang die Raytracingparts auch in Rastergrafik programmieren weil es sonst auf keinem andere System läuft. Im Prinzip bestimmt ne gute Idee (an sich) aber wohl 5 Jahre zu früh.
 
also von der optik auf die leistung zu schließen ist etwas abenteuerlich, nur weil keine tollen aufkleber oder übertriebene kühler drauf sind ist das ding noch lange nicht automatisch langsam, ich finde es sogar vorbildlich dass auf lüfter verzichtet wird.

Nur zum vergleich nichtmal die stärkste intel cpu core I7 965xe schafft es heut zu tage echtzeitraytracing effekte in einer flüssigen bildfolge darzustellen.

Nvidia hat es letztes jahr auf der nvision gerade mal geschafft mit einem tesla system auf cuda basis bestehend aus mehreren 9er grafikchips,akzeptable frame raten darzustellen.Was soll dann bitte eine!! passiv gekühlte zusatzkarte da ausrichten können:shot:

Von der Zusatzkarte von Caustic halte ich überhaupt nüx. Die Bilder der Karte sind nur aus Photoshop weil wohl noch garkeine existiert. Zu der Technik und deren Wirkungsweise schreibt man auch nichts..

Vollkommen richtig,wenn dann kann diese karte nur bruchteile von dem berechnen was notwendig wäre um anständige effekte zu erzeugen:)



Intel is doch schon seit geraumer Zeit dabei. LRB zielt ja in gewisser Weise in diese Richtung.

Das mit intel ist schon richtig nur sind grafikchips da um den faktor 100 besser für geeignet um diese effekte zu berechnen als eine x86er architektur;)
Aber vielleicht wird es ja mit laraabee der grosse durchbruch bei intel in der richtung


bzw könnte ich wohl auch Raytracing Technik mit Rastergrafik koppeln, müsste aber für den Übergang die Raytracingparts auch in Rastergrafik programmieren weil es sonst auf keinem andere System läuft.
Die plattform(cuda) ist schon vorhanden nur die rechenleistung wohl noch nicht:motz::motz:
Die sollen endlich mal hin machen u den GT300 bringen wo mit direkt x11 noch mehr möglichkeiten u auch rechenleistung zur verfügung ständen
 
Zuletzt bearbeitet:
Das mit intel ist schon richtig nur sind grafikchips da um den faktor 100 besser für geeignet um diese effekte zu berechnen als eine x86er architektur
Aber vielleicht wird es ja mit laraabee der grosse durchbruch bei intel in der richtung

laraabee = LRB :bigok:

LRB ist ja auch x86. Die Architektur ist weniger das Problem, es muss nur gegeben sein das man Parallel arbeiten kann. Shader dürften für die Berechnung, wenn ich nur einen anspreche, zu langsam sein. Da ist das Konzept von LRB wohl besser.

---------- Beitrag hinzugefügt um 16:46 ---------- Vorheriger Beitrag war um 16:45 ----------

Die plattform(cuda) ist schon vorhanden nur die rechenleistung wohl noch nicht

Aber nicht jeder hat Nvidia...
Jedenfalls ist Raytracing für Spieleprogrammierer noch vollkommen uninteressant.
 
Also eine funktionierende Raytracing-Karte wurde am MPII in Saarbrücken schon vor Jahren entworfen (Link zum ACM-Paper, Followup-Paper) aber die wollte niemand bauen. Damals war von Intel noch gar nix zu vernehmen und NVidia pocht ja nach wie vor darauf, dass Scankonvertierung dem RT überlegen ist.
Und die Übernahme durch einen anderen Hersteller könnte auch nach hinten losgehen. Intel hat schon angekündigt, eine eigene RT-API für den Larrabee zu entwickeln, NV hat ebenfalls schon den bereits erwähnten CUDA-Ansatz in petto und AMD scheint da mit OpenCL nachhelfen zu wollen.
 
Intel hat schon angekündigt, eine eigene RT-API für den Larrabee zu entwickeln, NV hat ebenfalls schon den bereits erwähnten CUDA-Ansatz in petto und AMD scheint da mit OpenCL nachhelfen zu wollen.
Das ist schon wieder der knackpunkt das es keinen einheitlichen standard dafür gibt:fire:

Jeder kocht hier wieder sein eigenes süppchen u der enduser wartet solange bis sich etwas durchgesetzt hat u das verhindert in gewisser weisse ein schnelles vorrankommen in der richtung:(

Vielleicht bringt ja die direkt x 11 schnittstelle mehr schwung u geradlinigkeit in der richtung:bigok:
 
Zuletzt bearbeitet:
Jeder kocht hier wieder sein eigenes süppchen u der enduser wartet solange bis sich etwas durchgesetzt hat u das verhindert in gewisser weisse ein schnelles vorrankommen in der richtung

Vielleicht bringt ja die direkt x 11 schnittstelle mehr schwung u geradlinigkeit in der richtung

Normalerweise sollte es nen völlig neuen Standard dafür geben. Also weg mit DX.
 
Das ist schon wieder der knackpunkt das es keinen einheitlichen standard dafür gibt
...
Vielleicht bringt ja die direkt x 11 schnittstelle mehr schwung u geradlinigkeit in der richtung:bigok:

Du forderst hier 'nen Standard und hoffst dann auf DX? Bist Du dir der Ironie bewusst?
 
Zuletzt bearbeitet:
Normalerweise sollte es nen völlig neuen Standard dafür geben. Also weg mit DX.

Ganz im gegenteil dann wäre das kaos perfekt wenn nicht microsoft noch ein bisschen die global player dazu bringt in eine richtung zu laufen:haha:
Du fragst hier nach Standard und hoffst dann auf DX? Das ist ja schöne Ironie ;)

Wieso ironie es ist wenigstens ein ansatz,sonst gibt es ja leider keinen den alle akzeptieren wollen oder besser gesagt müssen:bigok:
 
Zuletzt bearbeitet:
Ich schätze es wäre besser nen neuen Standard rauszubringen und ihn dann gleich von den Altlasten zu befreien. DX11 oder 12 kann ja bis dahin für Rastergrafik parallel weiter angeboten werden. Man muss es ja nicht mehr erweitern.
 
Audi R8 mit Caustic gerendert

hier der text dazu

Hab ich auf der Caustic Website gefunden, wenn das in echtzeit irgendwann mal auch so aussieht dann :eek:

und ich würde mal behaupten dass die karte möglicherweise besser raytracen kann als irgendein stromfressendes quad-sli, weil die eine für raytracing optimiert ist und das andere für "normale" grafikberechnungen...
 
Zuletzt bearbeitet:
Hab ich auf der Caustic Website gefunden, wenn das in echtzeit irgendwann mal auch so aussieht dann

Rendern is ja nicht gleich Echtzeit. Guck dir OTOY an...

und ich würde mal behaupten dass die karte möglicherweise besser raytracen kann als irgendein stromfressendes quad-sli, weil die eine für raytracing optimiert ist und das andere für "normale" grafikberechnungen...

Welche Karte......

---------- Beitrag hinzugefügt um 17:55 ---------- Vorheriger Beitrag war um 17:55 ----------

Hab ich auf der Caustic Website gefunden, wenn das in echtzeit irgendwann mal auch so aussieht dann

Rendern is ja nicht gleich Echtzeit. Guck dir OTOY an...

und ich würde mal behaupten dass die karte möglicherweise besser raytracen kann als irgendein stromfressendes quad-sli, weil die eine für raytracing optimiert ist und das andere für "normale" grafikberechnungen...

Welche Karte......
 
ich meine die dedizierte raytracing karte um dies in dem thread geht..ok zwischen rendern und echtzeit is schon ein gewisser unterschied...

edit: omg laggt forumdeluxx grade so derb oO
bin mal weg kann nicht ewig auf seite laden warten^^

Edit: falls ne karte in so ner form gebaut würde meint ich oben
 
Zuletzt bearbeitet:
Also ums mal Festzuhalten, Raytracing gibts eigentlich schon genausolange wie Rastern. Nur hat sich Rastern halt damals von der Performance her besser für Echtzeit angeboten.

Ich bezweifle irgendwie das es wirklich schon mehr als nen Konzept gibt. Wie gesagt, die Karte da oben is nen Photoshop Bild....vielleicht is die ja auch mit Raytracing gerendert^^

edit: omg laggt forumdeluxx grade so derb oO
bin mal weg kann nicht ewig auf seite laden warten^^
ja...bei mir auch
 
. DX11 oder 12 kann ja bis dahin für Rastergrafik parallel weiter angeboten werden. Man muss es ja nicht mehr erweitern.
Rastergrafik ist an sich nicht verkehrt genausowenig wie echtzeitraytracing ich denke die mischung aus beiden wird in zukunft das rennen machen.

Und spieleentwickler wirklich zu bekehren von der jahrelang bewehrten dx api abzulassen ist wohl auch ne lebensaufgabe für sich,genauso wie microsoft das auszureden:shot:.DX würde sich für beides anbieten als schnittstelle für raytracing genauso wie für rastergrafik.Nur braucht man für raytracing ne einheitliche engine sonst steigen da die softwareentwickler auch nicht drauf ein;)

---------- Beitrag hinzugefügt um 18:28 ---------- Vorheriger Beitrag war um 18:20 ----------

und ich würde mal behaupten dass die karte möglicherweise besser raytracen kann als irgendein stromfressendes quad-sli, weil die eine für raytracing optimiert ist und das andere für "normale" grafikberechnungen...

Diese karte dort oben wird definitiv nicht in der lage sein irgendwelche komplexen szenen in echtzeit zu raytracen soviel ist sicher.

Auch pys x karten von ageia wurden explizit für physik entwickelt liegen aber trotzdem hinter der rohleistung aktueller grafikchips zurück,weil einfach das know how u die erfahrung fehlen die die grossen 3 aufweisen können.Ist eine gute programmierplattform vorhanden wie cuda sieht diese karte dort oben kein land gegen highend gpus;)
 
Zuletzt bearbeitet:
Das neue an dem Konzept soll ja anscheinend auch die gute Softwarelösung sein die es dazu gibt. Also ein sehr guter Algorithmus der mithilfe von einer abgewandelten OpenGL Schnittstelle funktioniert.

Also quasi ein extra beschleuniger für raytracing effekte.
 
Das neue an dem Konzept soll ja anscheinend auch die gute Softwarelösung sein die es dazu gibt. Also ein sehr guter Algorithmus der mithilfe von einer abgewandelten OpenGL Schnittstelle funktioniert.

Also quasi ein extra beschleuniger für raytracing effekte.
Diesen raytracing algorithmus kann man aber auch vorzüglich in gpus integrieren wenn auch durch andere softwarelösungen wie z.B cuda.Deshalb sehe ich da ehrlich gesagt keine chance für eine solche karte auf dem markt,da einfach die rohleistung der karte nicht konkurenzfähig wäre um sich mit ati nvidia oder intels laraabee projekt zu messen;)
 
Zuletzt bearbeitet:
Rastergrafik ist an sich nicht verkehrt genausowenig wie echtzeitraytracing ich denke die mischung aus beiden wird in zukunft das rennen machen.

Das wäre aber eigentlich unsinnig, da Raytracing ja gerade den Vorteil bietet ab einem bestimmten Level den Berechnungsaufwand zu minimieren und so bestimmte Grafiktechniken oder Features überhaupt erst möglich werden. Wenn ich das wieder mit Rastern koppel ist die Geschichte ja dahin. Als Übergang würde sich sowas höchstens anbieten.
 
Zuletzt bearbeitet:
Der größte Vorteil von RT ist aber gleichzeitig auch der größte Nachteil: Man kann globale Beleuchtung realisieren, aber damit steigt der Aufwand für die Berechnungen linear mit der Anzahl an Lichtquellen und man muss pro Lichtquelle eventuell zig Polygone mit berücksichtigen, die bei Scankonvertierung einfach weggecullt würden.
 
Zuletzt bearbeitet:
Nur zum vergleich nichtmal die stärkste intel cpu core I7 965xe schafft es heut zu tage echtzeitraytracing effekte in einer flüssigen bildfolge darzustellen.

Nvidia hat es letztes jahr auf der nvision gerade mal geschafft mit einem tesla system auf cuda basis bestehend aus mehreren 9er grafikchips,akzeptable frame raten darzustellen.Was soll dann bitte eine!! passiv gekühlte zusatzkarte da ausrichten können:shot:

mag ja sein, aber kuck dir den mirror´s edge test mit physix ppu auf computerbase an, da ist die kleine unscheinbare karte die keiner haben wollte immer noch schneller als cpu physix oder so manche nv karte. wenn so ne gpu/ppu oder was auch immer speziell auf irgendwas optimiert wurde kann sie zwar nur die eine sache, aber dennoch schneller als andere produkte
http://www.computerbase.de/artikel/software/2009/test_mirrors_edge/4/#abschnitt_benchmarks_mit_physx
 
Der größte Vorteil von RT ist aber gleichzeitig auch der größte Nachteil: Man kann globale Beleuchtung realisieren, aber damit steigt der Aufwand für die Berechnungen linear mit der Anzahl an Lichtquellen und man muss pro Lichtquelle eventuell zig Polygone mit berücksichtigen, die bei Scankonvertierung einfach weggecullt würden.

Stimmt schon leistung ist unerlässlig für diese technik,aber das sollte in den nächsten jahren zu realisieren sein wenn die gpu power weiter so steigt:)

Hab gerade noch was gefunden raytracing auf 3 playstations mit cell prozessor:banana:
http://www.youtube.com/watch?v=oLte5f34ya8

---------- Beitrag hinzugefügt um 19:07 ---------- Vorheriger Beitrag war um 18:59 ----------

mag ja sein, aber kuck dir den mirror´s edge test mit physix ppu auf computerbase an, da ist die kleine unscheinbare karte die keiner haben wollte immer noch schneller als cpu physix oder so manche nv karte. ]
Das eine für parallele berechnung ausgelegte phys x karte von ageia schneller ist als eine intel x86er architektur sollte ja verständlich sein.Nur sieht es bei gpus wieder ein bisschen anderst aus,da diese nunmal auch mit parallelen berechnungen bestens klar kommen(raytracing brauch diese parallelen berechnungen ungemein) u einfach eine solche karte oben in grund u boden stampfen würden schon von der reinen rohleistung her egal wie gut die integrierung des raytracingalgorithmus auch ausfällt bei diesem projekt dort oben:)
 
Zuletzt bearbeitet:
bis jetzt sind ja noch keine daten von der karte vorhanden, also würde ich noch keine aussagen zur rohleistung treffen. also abwarten und tee trinken ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh