[Sammelthread] Caustic Graphics - CausticGL - Raytracing Beschleuniger

  • Einleitung
Dies soll ein Sammelthread für den von Caustic Graphics angekündigten Raytracing-Beschleuniger werden.
Dieser Beschleuniger soll zusammen mit der Schnittstelle CausticGL als eigener Beschleuniger innerhalb eines PCs arbeiten und es ermöglichen Realtime-Raytracing Effekte für die Breite Masse z.B. in Games zu nutzen.



  • Bilder
pic_board_largelrbk.gif


platform_chart5vyx.gif


100elu.jpg


116ku0.jpg




  • Latest News
Caustic.com schrieb:
Caustic Graphics®, a new 3D computer graphics company, launches today with a fundamental breakthrough in raytracing acceleration that is set to define a new era in professional 3D production and interactive consumer graphics. Raytracing, the gold-standard for creating 3D imagery, duplicates the natural physics of light, creating stunning images by meticulously tracing the path of light to and throughout any given scene.

Caustic's first-generation technology will deliver an average 20X increase in the speed used to create stunning, realistic 3D imagery for film and video, game development, as well as automotive and consumer product design. The second generation of Caustic's technology, due early next year, is expected to gain an additional order of magnitude in performance, offering 200X speed over today's state-of-the-art graphics products. This massive speed jump is due to Caustic's patent-pending raytracing algorithms implemented in a semiconductor design.

The computational complexity of producing cinema-quality, raytraced 3D images involves large, downstream costs, including slow "black box" design iterations and costly "render farm" server infrastructures. These costs are symptoms of a problem with today's computer designs where CPUs and GPUs are efficient at accelerating the rasterized graphics in video games but woefully inefficient at accelerating cinema-quality raytraced graphics. Caustic's forthcoming standards-based CausticRT™ platform enables highly parallel CPUs and GPUs to massively-accelerate raytracing, putting it on par with rasterization and resulting in cinema-quality 3D delivered interactively on low-cost PCs.

"Real-time raytracing has been the holy grail of computer graphics since 1979 - a dream always on the horizon but never within reach," said Dr. Jon Peddie, of Jon Peddie Research, the computer graphics market research firm in Tiburon, CA. "Demos have been done with 16 or more processors, super computers, and other esoteric devices, but never anything that was within reach of a PC budget. Caustic Graphics has made the breakthrough with a combination of a small hardware accelerator and some very innovative software to be able to deliver real-time, complex, high-resolution raytraced images - this is an amazing accomplishment." The Caustic management team is made up of technical visionaries and graphics experts from Autodesk, Apple, ATI, Intel and NVIDIA. Before starting Caustic, company founders James McCombe, Luke Peterson and Ryan Salsbury worked together at Apple, where McCombe was a lead architect for the company's OpenGL Graphics system and Chief Architect of Apple's rendering algorithms for the iPhone and iPod.

"For years, 3D professionals in multiple industries have labored under the yoke of slow iterations and unwieldy offline render farms," said Caustic Graphics CEO, Ken Daniels. "Caustic puts the power of a render farm, operating at interactive speeds, on every desktop, enabling designers and animators to get from concept to product faster, better and at lower cost." The Caustic product offering will be announced in April 2009.


  • Links
Caustic.com
Computerbase Artikel
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der größte Vorteil von RT ist aber gleichzeitig auch der größte Nachteil: Man kann globale Beleuchtung realisieren, aber damit steigt der Aufwand für die Berechnungen linear mit der Anzahl an Lichtquellen und man muss pro Lichtquelle eventuell zig Polygone mit berücksichtigen, die bei Scankonvertierung einfach weggecullt würden.

Da gabs doch das Beispiel von Daniel Pohl bei Computerbase. Die haben doch in Quake Wars nen Trick angewendet um den Berechnungsaufwand zu minimieren.

http://www.computerbase.de/artikel/...ke_wars_raytracing/3/#abschnitt_transparenzen
 
Da gabs doch das Beispiel von Daniel Pohl bei Computerbase. Die haben doch in Quake Wars nen Trick angewendet um den Berechnungsaufwand zu minimieren.

http://www.computerbase.de/artikel/...ke_wars_raytracing/3/#abschnitt_transparenzen

Dort wurde lediglich das Problem der teiltransparenten Polygone angegangen. Und selbst danach gehören Objekte mit transparenten Texturen immernoch zum Aufwändigsten in der Szene, wie ebenfalls in dem Artikel vermerkt wird.
 
Es ist klar das auch Raytracing enorme Leistung bei der Berechnung erfordert, das wird sich auch nicht ändern. Aber beim Rastern ist das ebenfalls so. Man erinnere sich an den Nebel in früheren Spielen der auch nur dazu diente Rechenleistung zu sparen.
 
Rasterisierung braucht für realistische Darstellung sogar mehr Aufwand als Raytracing. Das Problem ist nur, dass es im Realtimebereich nicht darauf ankommt, dass etwas realistisch aussieht, sondern darauf, dass es cool aussieht. Und da ist Raytracing eben aufgrund seiner logarithmischen Rechenaufwandskurve nicht gut geeignet, weil du den effizienzschwachen Teil der Kurve noch nicht verlässt.
 
Rasterisierung braucht für realistische Darstellung sogar mehr Aufwand als Raytracing. Das Problem ist nur, dass es im Realtimebereich nicht darauf ankommt, dass etwas realistisch aussieht, sondern darauf, dass es cool aussieht. Und da ist Raytracing eben aufgrund seiner logarithmischen Rechenaufwandskurve nicht gut geeignet, weil du den effizienzschwachen Teil der Kurve noch nicht verlässt.

Stimmt rasterisierung kostet mehr power je realistischer es werden soll,deshalb hat man ja das ehemals verworfene raytracing wieder aus der schublade rausgeholt.Aber wir werden in 2 bis 3 jahren mit sicherheit,von der dann zur verfügung stehenden rechenleistung aktueller gpus in der lage sein um einige (real world)berechnungen in echtzeit auf nem effizienten raytracingalgorithmus ausführen zu können einschliesslich transparenter texturen.
Nur ist intels ansatz mit der x86 cpu falsch gewählt,aber laraabee steht ja in den startlöchern für effizientere parallele berechnungen;)

---------- Beitrag hinzugefügt um 06:30 ---------- Vorheriger Beitrag war um 05:34 ----------

Da gabs doch das Beispiel von Daniel Pohl bei Computerbase. Die haben doch in Quake Wars nen Trick angewendet um den Berechnungsaufwand zu minimieren.

http://www.computerbase.de/artikel/...ke_wars_raytracing/3/#abschnitt_transparenzen

Ich muss dich aber auch daran erinnern das daniel pohl bei intel arbeitet u das ist auch schon der grösste nachteil performancetechnisch dies mehreren cpus anzuvertrauen ,ansatt eine dafür spezalisierte parallele recheneinheit oder auch mehrere zu nutzen.

Ich zitiere:
Performance ist der Hauptgrund, warum Raytracing derzeit noch nicht in kommerziellen Spielen benutzt wird. Verglichen mit einer spezialisierten Rasterisierungshardware (beispielsweise aktuelle GPUs von ATi oder Nvidia) ist Raytracing relativ langsam. Die fehlenden Hardware-Textureinheiten in unserem CPU-basierten Ansatz bringt einen großen Performanceeinbruch beim trilinearen Filtern aller Textursamples. Mit dem neuesten Intel-Quad-Socket-System (ausgestattet mit einem 2.66-GHz-Dunnington-Prozessor (6 Kerne) in jedem Sockel; macht insgesamt 24 Kerne) erreichen wir im Spiel zwischen 20 und 35 Frames pro Sekunde bei einer Auflösung von 1280 x 720 Pixel.

1280x720 auflösung mit 20-35 bildern auf 24!!! kernen

Und nun das selbe auf einer gpu ich zitiere

Nvidia zeigte auf der Haus-Entwicklermesse Nvision einen in Echtzeit mittels Raytracing berechneten Bugatti Veyron - inklusive Antialiasing, den für Raytracing üblichen Mehrfachspiegelungen - in der Full-HD-Auflösung von 1.920x1.080 Pixeln mit 30 Fps. Nötig war dazu allerdings ein Quadro-Plex 2100 D4 mit insgesamt 4 G92-basierten GPUs.

Full HD auflösung mit durchgängig 30 bildern u Kantenglättung auf "lediglich" 4!! kernen

Ich glaube das zeigt eindeutig,das gpus in dem bereich cpus um längen vorraus sind;)
 
Zuletzt bearbeitet:
Nvidia hat es letztes jahr auf der nvision gerade mal geschafft mit einem tesla system auf cuda basis bestehend aus mehreren 9er grafikchips,akzeptable frame raten darzustellen.Was soll dann bitte eine!! passiv gekühlte zusatzkarte da ausrichten können:shot:

Du vergisst, eine spezielle Recheneinheit auf ihrem Gebiet bietet weit mehr Leistung als eine Multitalent CPU. Ist doch ähnlich der Ageia Karte. Diese erreicht beispielsweise in Mirrors Edge bei Physikberechnungen die gleiche Leistung wie eine 9500-9600GT. Bei weit weniger Verbrauch.


Das mit intel ist schon richtig nur sind grafikchips da um den faktor 100 besser für geeignet um diese effekte zu berechnen als eine x86er architektur;)
Aber vielleicht wird es ja mit laraabee der grosse durchbruch bei intel in der richtung

War es nicht eher so, das die GPUs aktuell eher denkbar ungeeignet sind für Raytracing? Hab das mal irgendwo gelesen, weis aber net mehr wo...

Rastergrafik ist an sich nicht verkehrt genausowenig wie echtzeitraytracing ich denke die mischung aus beiden wird in zukunft das rennen machen.

Sehe ich auch so, aber ob das mischen beider Techniken am Ende noch Sinnvoll ist, bzw. der Aufwand sich lohnt, bleibt erstmal abzuwarten.

Auch pys x karten von ageia wurden explizit für physik entwickelt liegen aber trotzdem hinter der rohleistung aktueller grafikchips zurück,weil einfach das know how u die erfahrung fehlen die die grossen 3 aufweisen können.Ist eine gute programmierplattform vorhanden wie cuda sieht diese karte dort oben kein land gegen highend gpus;)

Bedenke wie "alt" die Ageia Karte mittlerweile schon ist und vor allem, wie stark sie gegen aktuelle GPUs darsteht.
Klar kann diese nicht gegen eine GPU ala 285GTX siegen. Aber eine einzige winzige PPU mit einem Gesamtleistungsbedarf von um die 20W (glaub soviel war das) zieht bei Physikberechnungen an einer 9500-9600GT vorbei, welche deutlich mehr Strom verballern.
Würde PhysX sich weiter durchsetzen und wäre Ageia noch alleine, hätte es sicher auch schnellere Lösungen gegeben.

Das wäre aber eigentlich unsinnig, da Raytracing ja gerade den Vorteil bietet ab einem bestimmten Level den Berechnungsaufwand zu minimieren und so bestimmte Grafiktechniken oder Features überhaupt erst möglich werden. Wenn ich das wieder mit Rastern koppel ist die Geschichte ja dahin. Als Übergang würde sich sowas höchstens anbieten.

Raytracing bietet aber auch nicht zu vergessende Nachteile, was wiederum eben zum Beispiel der Leistungsbedarf ist.
Im Artikel von CB zum Beispiel steht auch drin, das für weiche Schatten überdurchschnittlich viel Rechenleistung benötigt wird usw.
Raytracing stellt ebenfalls nicht die optimale Lösung dar.
Ich gehe sogar soweit, das es sich wenn dann nur sehr schwer durchsetzen wird. Vllt sogar überhaupt nicht.

Stimmt rasterisierung kostet mehr power je realistischer es werden soll,deshalb hat man ja das ehemals verworfene raytracing wieder aus der schublade rausgeholt.Aber wir werden in 2 bis 3 jahren mit sicherheit,von der dann zur verfügung stehenden rechenleistung aktueller gpus in der lage sein um einige (real world)berechnungen in echtzeit auf nem effizienten raytracingalgorithmus ausführen zu können einschliesslich transparenter texturen.
Nur ist intels ansatz mit der x86 cpu falsch gewählt,aber laraabee steht ja in den startlöchern für effizientere parallele berechnungen;)

Die Frage ist doch eher, wie stark sieht in 2-3 Jahren die herkömmliche Hardware im Grafikkartenmarkt aus.
Wenn es so weiter geht wie bissher, dann können wir da sicher eine Verdopplung bis Vervierfachung aktueller Leistungen bestaunen, mit Mutli-GPU Systemen sicher noch mehr.

Ich muss dich aber auch daran erinnern das daniel pohl bei intel arbeitet u das ist auch schon der grösste nachteil performancetechnisch dies mehreren cpus anzuvertrauen ,ansatt eine dafür spezalisierte parallele recheneinheit oder auch mehrere zu nutzen.

Ich zitiere:


1280x720 auflösung mit 20-35 bildern auf 24!!! kernen

Und nun das selbe auf einer gpu ich zitiere



Full HD auflösung mit durchgängig 30 bildern u Kantenglättung auf lediglich 4!! kernen

Ich glaube das zeigt eindeutig,das gpus in dem bereich cpus um längen vorraus sind;)

Du vergleichst Äpfel mit Birnen, bei dem CB Fazit wurde die Raytracing Demo von Quake 4 genommen, beim NV Test wurde ein "Bugatti Veyron - inklusive Antialiasing" gezeigt.
Das sind 2 völlig unterschiedliche Sachen und damit überhaupt nicht miteinander zu vergleichen...
 
Du vergleichst Äpfel mit Birnen, bei dem CB Fazit wurde die Raytracing Demo von Quake 4 genommen, beim NV Test wurde ein "Bugatti Veyron - inklusive Antialiasing" gezeigt.
Das sind 2 völlig unterschiedliche Sachen und damit überhaupt nicht miteinander zu vergleichen...
Mit nichten es wurde nicht nur der veyron gerendert sondern eine komplett lauffähige demo inklusive stadtumgebung;)
Die in ihrer komplexität sicherlich so aufwendig war wie das veraltete quake 4;)

War es nicht eher so, das die GPUs aktuell eher denkbar ungeeignet sind für Raytracing? Hab das mal irgendwo gelesen, weis aber net mehr wo...

...
Ganz im gegenteil,selbst der intelmitarbeiter daniel pohl bestätigt indirekt das gpus die aufgaben besser erledigen können als eine aktuelle intel cpu

Die fehlenden Hardware-Textureinheiten in unserem CPU-basierten Ansatz bringt einen großen Performanceeinbruch

Bedenke wie "alt" die Ageia Karte mittlerweile schon ist und vor allem, wie stark sie gegen aktuelle GPUs darsteht.
Klar kann diese nicht gegen eine GPU ala 285GTX siegen. Aber eine einzige winzige PPU mit einem Gesamtleistungsbedarf von um die 20W (glaub soviel war das) zieht bei Physikberechnungen an einer 9500-9600GT vorbei, welche deutlich mehr Strom verballern.
Würde PhysX sich weiter durchsetzen und wäre Ageia noch alleine, hätte es sicher auch schnellere Lösungen gegeben.

...

Gebe dir vollkommen recht ;) Nur ist es bei der ageia physx so das nvidia keinen grossen entwicklungsaufwand getrieben hat um diese technik auf ihre gpu architektur zu portieren(sieht man am besten daran,das viele der physx treiber auch problemlos mit der ageia karte funktionierten),das sieht im falle von raytracing aber anderst aus,dort hat nvidia eine speziell auf ihre gpus angepasste engine u mit cuda ne potente programmierplatform;)
 
Zuletzt bearbeitet:
Mit nichten es wurde nicht nur der veyrom gerendert sondern eine komplett lauffähige demo inklusive stadtumgebung
Die in ihrer komplexität sicherlich so aufwendig war wie das veraltete quake 4

Ich find sowas ist immer schwer zu sagen. Klar hätte NV nicht die Möglichkeit gehabt an die Demo von Intel zu gelangen, aber ein Test mit einem Raytracing Benchmark (es sollte ja mal einer kommen) den beide Hersteller nutzen wäre interessanter.
 
Ich find sowas ist immer schwer zu sagen. Klar hätte NV nicht die Möglichkeit gehabt an die Demo von Intel zu gelangen, aber ein Test mit einem Raytracing Benchmark (es sollte ja mal einer kommen) den beide Hersteller nutzen wäre interessanter.

Wäre interresant aber da käme im endeffekt das selbe bei rum,optimierte parallele recheneinheiten,die dutzende threads zur gleichen zeit ausführen können sind dort einfach performanter als eine extreme flexible x86er architektur;)

Das weiss auch intel u entwickelt deshalb laraabee

Auch wenn sie es ungern zugeben;)
 
Zuletzt bearbeitet:
Mit nichten es wurde nicht nur der veyron gerendert sondern eine komplett lauffähige demo inklusive stadtumgebung;)
Die in ihrer komplexität sicherlich so aufwendig war wie das veraltete quake 4;)
Das Problem ist doch, das wir es eben nicht genau wissen...
Ohne genaue Fakten über die verwendeten Szenen lässt sich da nix gescheit vergleichen und das ist doch der Punkt.

Also zu sagen, mit 4 G92 GPUs kommt man hier auf 30FPS mit AA und HD Auflösung und in einem gänzlich anderen Szenario schaffen es 24 Intel CPU Kerne nur auf 25-30FPS ohne AA bei kleinerer Auflösung ist also sehr sehr waage... Eben Äpfel mir Birnen.
Ohne eine der beiden Szenen bei beiden Platformen zu testen lässt sich ein Vergleich also nicht anstellen.

Wie gesagt, ich schließe nicht aus, das die GPUs das vllt sogar mindestens genau so gut können, aber eben lässt sich nicht sagen, wie gut sie es besser können, weil ein Vergleich derzeit nicht gegeben ist.

Ganz im gegenteil,selbst der intelmitarbeiter daniel pohl bestätigt indirekt das gpus die aufgaben besser erledigen können als eine aktuelle intel cpu

Ja kann gut sein, wie gesagt, ich hab da nur was in Erinnerung, weis aber nicht mehr wo und in welchem genauen Zusammenhang das war.
Ich finds auch net wieder :heul:

Zu der Hardware Textureinheit, ist ja das gleiche wie bei Larrabee, dort baut Intel ja auch auf Hardwaretextureinheiten, obwohl man das ganze auch Softwareseitig lösen könnte, aber eben mit deutlichen Performenceeinschränkungen.
Vorteil für die GPU, da hast du recht, aber wer sagt, das eine spezielle Raytracingkarte nicht auch Hardwaretextureinheiten verpasst bekommt um genau diesen Punkt auszubügeln. Vor allem, ich denke mal das man eben die Engine bzw. Software erstmal anpassen muss, um eben diese Hardwaretextureinheiten nutzen zu können. Ohne spezielle Anpassung läuft da sicher auch nix...

Ich denke mal, Echzeit Raytracing auf CPU Basis ist sowieso für den Massenmarkt in Form von Spielen untragbar...


Gebe dir vollkommen recht ;) Nur ist es bei der ageia physx so das nvidia keinen grossen entwicklungsaufwand getrieben hat um diese technik auf ihre gpu architektur zu portieren(sieht man am besten das viele der physx treiber auch problemlos mit der ageia karte funktionierten),das sieht im falle von raytracing aber anderst aus,dort hat nvidia eine speziell auf ihre gpus angepasste engine u mit cuda ne potente programmierplatform;)

Neja was heist keinen großen Entwicklungsaufwand... Im Falle von PhysX ist die Engine ja vorhanden. NV stellt mit Cuda nur eine Schnittstelle bereit, welche eben diese Engine Hardwarebasiert auf der GPU berechnen lässt.

Im Falle von Raytracing lässt sich das so einfach nicht machen. Schließlich kann man ja Raytracing noch über viele Wege realisieren. Es fehlt neben der speziellen Hardware eben auch die Software ansich und ein einheitlicher Standard, welcher 100% vergleiche zulässt.
 
Zuletzt bearbeitet:
Im Falle von Raytracing lässt sich das so einfach nicht machen. Schließlich kann man ja Raytracing noch über viele Wege realisieren. Es fehlt neben der speziellen Hardware eben auch die Software ansich und ein einheitlicher Standard, welcher 100% vergleiche zulässt.
Richtig aber vielleicht bringt ja microsofts direkt x 11 schnittstelle da ein bisschen geradlinigkeit u standardisierung rein,auch wenn es nicht unbedingt ich weiss:fresse: die beste lösung ist.



Zu der Hardware Textureinheit, ist ja das gleiche wie bei Larrabee, dort baut Intel ja auch auf Hardwaretextureinheiten, obwohl man das ganze auch Softwareseitig lösen könnte, aber eben mit deutlichen Performenceeinschränkungen.

.
Genau das ist eigentlich schon die indirekte bestätigung von intel dafür,das die gpu architektur gewisse sachen besser kann.Denn welcher grosse hersteller würde denn fertigungs u entwicklungskapazitäten verschwenden in eine hardwarelösung die keine vorteile birgt
 
Zuletzt bearbeitet:
Richtig aber vielleicht bringt ja microsofts direkt x 11 schnittstelle da ein bisschen geradlinigkeit u standardisierung rein,auch wenn es nicht unbedingt ich weiss:fresse: die beste lösung ist.
Abwarten, bis jetzt scheint es aber noch nicht so...
Ich denke mal, es wird irgendwann da mal in der Richtung was kommen, wenn nicht von MS, dann eben von jemand anderen...
Der Punkt, ob sich das durchsetzen wird ist aber ein anderer, dem ich sehr skeptisch gegenüber stehe (bezogen auf genannte Nachteile beim Raytracing)


Genau das ist eigentlich schon die indirekte bestätigung von intel dafür,das die gpu architektur gewisse sachen besser kann.Denn welcher grosse hersteller würde denn fertigungs u entwicklungskapazitäten verschwenden in eine hardwarelösung die keine vorteile birgt

Ganz im Gegenteil, denn bis auf die Textureinheiten, die wohl Hardwarebasiert gelöst werden, baut Larrabee eigentlich gänzlich auf Softwarelösungen auf. Sprich man verwirft aktuell gute Ansätze im GPU Bereich bei Intel gänzlich und kocht mit einer x86 kompatiblen Hardware ein eigenes Süppchen... Mit Grafikhardware an sich hat das eher gar nix mehr gemein. Aktuelle Technik in GPUs scheint zumindest für das Larrabee Projekt so eben nicht die optimale Lösung zu sein.
Wobei man sagen muss, das Larrabee eben nicht speziell für Raytracing entwickelt wurde, lässt sich daher also nur vermuten. Bestätigt aber meine obige Ausasge zumindest ansatzweise, das eben aktuelle GPU Technik eher ungeeignet für Raytracing sei.

Im Technik-Diskusionsthread hab ich aber schon meine Bedenken bzgl. Larrabee geäußert, so eine Softwarelösung kann schnell nach hinten los gehen...
 
Abwarten, bis jetzt scheint es aber noch nicht so...

Ich bezweifel auch das das mit DX11 schon was wird. Wohl eher mit DX12...wenn überhaupt.

Wobei man sagen muss, das Larrabee eben nicht speziell für Raytracing entwickelt wurde, lässt sich daher also nur vermuten. Bestätigt aber meine obige Ausasge zumindest ansatzweise, das eben aktuelle GPU Technik eher ungeeignet für Raytracing sei.

Das Denke ich auch. Raytracing ist wohl nur ein Mittel zum Zweck für Intel. Der LRB wird sich wohl anbieten Raytracing zu berechnen, aber nur dafür wird er wohl nicht entworfen sein. Das wäre auch zu gewagt.
 
Im Technik-Diskusionsthread hab ich aber schon meine Bedenken bzgl. Larrabee geäußert, so eine Softwarelösung kann schnell nach hinten los gehen...

Genau das ist eine sehr überhebliche sichtweisse von intel:rolleyes:

Wie kann das unternehmen davon ausgehen das der markt der jahrelang auf gpu basis entwickelte hardware von ati u nvidia setzt im grafikbereich,auf einmal alles anderst macht nur wegen intel.

Der einzige grund warum intel zu so einer unkonventionellen lösung greift ist,das es ihnen schlichtweg nicht möglich ist in dieser kurzen entwicklungszeit eine in dem masse konkurenzfähige Laraabee grafikeinheit herzustellen,wie das bei ati u nvidia GPUs der fall ist:)

Sowas kann man nicht einfach herbeizaubern,auch wenn man massivst finanzielle mittel zur verfügung hat wie intel


Genausowenig wie es für nvidia möglich wäre auf die schnelle eine konkurenzfähige x86er architektur im desktop u workstation markt zu etablieren,obwohl nvidia dringenst eine lösung bräuchte in der richtung.

Da fusion von cpu u gpu in zukunft ein wichtiges thema werden wird:)
 
Zuletzt bearbeitet:
Da fusion von cpu u gpu in zukunft ein wichtiges thema werden wird:)

Dieser Schritt wird sich aber denke ich mal nur im Office oder Mobil Bereich durchsetzen.
Für Gamingkisten oder anderweitige HighEnd Rechenmaschinen wird sowas nicht kommen. Kann ich mir ehrlich gesagt zumindest nicht vorstellen.
Vor allem, so schrenkt man den Kunden drastisch ein. Wärend zu heutiger Zeit die CPU eigentlich nur noch alle 1-2 Jahre gewechselt werden (auch im Gamingbereich) wechseln viele Gamer ihre GPU deutlich öfters.

Wie für mich als Endkunde die Grafikkarte am Ende aufgebaut ist, ist mir eigentlich total Banane. Auch ob nun Raytracing oder Rasteriesierung eingesetzt wird.
Solange das Bild gut ist werden sich die Produkte weiterhin verkaufen... Aber Dingen, welche auf Krampf versuchen am Markt was zu verbiegen. Mhhh ich weis nicht, stehe ich irgendwie skeptisch gegenüber.

Ich hab so das Gefühl Intel stört sich daran, das man nun bei AMD alles aus einer Hand bekommt und will deswegen auch im Grafikbereich mitmischen...
 
Ich hab so das Gefühl Intel stört sich daran, das man nun bei AMD alles aus einer Hand bekommt und will deswegen auch im Grafikbereich mitmischen...

Jepp 100 prozent zustimm:)


Und nvidia versucht in den cpu sektor hineinzustossen um irgendwann auch alles aus einer hand fertigen zu können.Wenn auch zuerst nur im atom sektor.

Im Highendsektor wird es für nvidia nichtmal so von bedeutung sein eine potente cpu zu haben,da man im prinzip ja nur das os(windows) kontrollieren müsste mit dem cpu teil da microsoft ja explizit auf die x86er architektur setzt,andere programme unter windows könnte man aber sehr wohl über die gpu u die cuda schnittstelle laufen lassen.
http://www.computerbase.de/news/hardware/prozessoren/2009/maerz/nvidias_x86-prozessor_2-3_jahren/

Obwohl dort aus meiner sicht eine kooperation mit via der finnanziell bessere u schnellere weg wäre um zu einer funktionell guten cpu zu gelangen:)
 
Zuletzt bearbeitet:
Jepp 100 prozent zustimm:)


Und nvidia versucht in den cpu sektor hineinzustossen um irgendwann auch alles aus einer hand fertigen zu können.Wenn auch zuerst nur im atom sektor.

http://www.computerbase.de/news/hardware/prozessoren/2009/maerz/nvidias_x86-prozessor_2-3_jahren/

Obwohl dort aus meiner sicht eine kooperation mit via der finnanziell bessere weg wäre:)

NV hat aber noch keine x86 Lizenz von Intel, auch wenn sie VIA übernehmen sollten, bzw. eine kooperation mit dehnen eingehen sollten, wird das sicher wieder ein hitziges Streitthema mit Intel werden ;)
Aber dafür gibts ja im CPU Bereich nen eigenen Thread...

Mal was zum Thema, gibts denn eigentlich irgendwo irgendwelche Raytracing Geschichten zum Download? Wo man halt mal selbst testen kann?
Oder muss man sich quasi immer auf die Hersteller und deren oft "schwammige" Vergleichstests verlassen?
 
Mal was zum Thema, gibts denn eigentlich irgendwo irgendwelche Raytracing Geschichten zum Download? Wo man halt mal selbst testen kann?
Oder muss man sich quasi immer auf die Hersteller und deren oft "schwammige" Vergleichstests verlassen?
Mir ist noch keine freigegebene demo bekannt,die man selber mal austesten könnte.

Interessant wäre es auf jedenfall,sowas mal selber zu testen um sich einen eindruck zu verschaffen:banana:

Hab hier noch ein paar beeindruckende bilder zur nvidia raytracingdemo gefunden:)

http://www.computerbase.de/bildstrecke/22661/

Besonderst diese berechneten reflektionen sind:hail::hail:

 
Zuletzt bearbeitet:
eben...
Oder wir müssen selbst mal was zusammen Proggen, wer erklärt sich bereit?
Entwicklungsumgebungen müssten doch quasi frei zugänglich sein, nicht oder?
 
eben...
Oder wir müssen selbst mal was zusammen Proggen, wer erklärt sich bereit?
Entwicklungsumgebungen müssten doch quasi frei zugänglich sein, nicht oder?
Ich glaube dafür fehlt mir das nötige know how im schädel um sowas zu programmieren:fresse:

Sagt mal hab das gerade gesehen bei dem bild von der demo heisst das oben ganz links im blauen bereich wx RTRT:hmm:
Vielleicht mal nach dem namen der app googeln
 
Zuletzt bearbeitet:
auf welchem Bild meinst?

EDIT:
man gucke hier...
http://www.realstorm.de/

Die Benches sind zwar schon bissl älter und laufen only auf der CPU, aber immerhin echtzeit Raytracing :fresse:
 
Zuletzt bearbeitet:
jup, das steht da, aber die können ja ihre Ausführbare Datei nennen wie sie wollen :fresse:
Müsste mal jemand in einschlägigen Fileshareingnetzen danach suchen, vllt lässt sich da was auftreiben, glaube aber nicht dran...
 
jup, das steht da, aber die können ja ihre Ausführbare Datei nennen wie sie wollen :fresse:
Müsste mal jemand in einschlägigen Fileshareingnetzen danach suchen, vllt lässt sich da was auftreiben, glaube aber nicht dran...

Hab schon gegoogelt nach der exe finde aber nur unter rtrt was über raytracing:confused:


Hab hier gerade was gefunden aber die kann doch nicht nur n paar kb gross sein die demo :fresse:
http://forums.nvidia.com/index.php?showtopic=75332


Genial hab den raytracer gerade mal laufen lassen u habe phantastische 0.8 frames:banana::banana: auf nem core i7 mit 4ghz

Schade das es nicht mit cuda läuft:motz::motz:

Sonst hätte ich es mal auf 3 grafikkarten angetestet:)


So hab jetzt n vergleich gefunden zwischen cpu u cuda raytracing

erster Benchmark mit cpu raytracing auf Intel core I7 965xe



Und der zweite benchmark war mit 3 x 280er GTXen mit cuda raytracing




Wer es selber mal ausprobieren möchte hier ist der benchmark:)
Ihr müsst alle drei dateien in einen ordner kopieren u dann nur die jeweilige exe ausführen
 

Anhänge

  • RayTraceCUDA.zip
    48,7 KB · Aufrufe: 78
  • RayTraceCPU.zip
    43,2 KB · Aufrufe: 79
  • cuda dll.zip
    78,8 KB · Aufrufe: 86
Zuletzt bearbeitet:
meine :fresse: stinkt der i7 ab... Blos weg mit dieser lahmen CPU :fresse:

Aber ich denk mal, das zeigt wie extrem der Rechenaufwand bei Raytracing ist, und das sieht nicht mal irgendwie besonders aus muss ich sagen ;)
Und wieder nur harte Schatten, oder?

So ein Mist, jetzt bin ich schon über die 8888 Posts...
 
meine :fresse: stinkt der i7 ab... Blos weg mit dieser lahmen CPU :fresse:

Aber ich denk mal, das zeigt wie extrem der Rechenaufwand bei Raytracing ist, und das sieht nicht mal irgendwie besonders aus muss ich sagen ;)
Und wieder nur harte Schatten, oder?

So ein Mist, jetzt bin ich schon über die 8888 Posts...

Jepp lahme cpu das triffts:lol:

Würde mich jetzt nur interresieren ob der benchmark jetzt alle 3gpus genutzt hat oder ob die performance nur von einer kommt:hmm:

Normalerweisse ist cuda ja nicht an den treiber bzw sli gekoppelt u müsste eigentlich jede gpu ansprechen können zur berechnung:)
 
Zuletzt bearbeitet:
kannst ja mal testen, einfach SLI ausschalten und gucken was raus kommt...
 
jo, ich hab den Bench grad mal im Dual Laber Thread gepostet, in der Hoffnung, das sich mal jemand mit nem Dual S771 System und 2 Quads dort meldet, der das mal testen könnte...
Mal gucken wie die Core Architektur dort so skaliert ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh