Bericht/News: Echtzeit-Raytracing mit ATIs HD4800 Serie

whippersnapper

Enthusiast
Thread Starter
Mitglied seit
01.08.2006
Beiträge
1.329
Ort
München
It appears that the buzz about 3D graphics has been focused on a feature that is not even integrate din today’s games – ray-tracing. Intel is beating the RT drum for its upcoming cGPU, which is still 18 months away. But it appears that Intel may be defeated in its own game, as AMD’s graphics chips are supporting a 100% ray-traced pipeline, TG Daily learned.
In terms of performance, the Radeon 2900XT 1GB rendered Transformers scenes in 20-30 frames per second, in 720p resolution and no Anti-Aliasing. With the Radeon 3870, the test scene jumped to 60 fps, with a drop to 20 fps when the proprietary Anti-Aliasing algorithm was applied. Urbach mentioned that the Radeon 4870 hits the same 60 fps – and stays at that level with Anti-Aliasing (a ray-tracer is not expecting more than 60 fps.)
So, what about photo-realism of these scenes? Unlike the general “3-5 years” answer you are hearing in the industry right now, he believes that this goal could be achieved by the end of the year. A ray-tracer is limited by the amount of local memory on your video card, so if you are able to get a Radeon 4850 or 4870 with 1 GB or even more of on-board memory, you have very capable hardware. JulesWorld’s LightStage technology can take wireframes consisting of an insane 32 million vectors to enable real world characters and their expressions. That means: Extra memory on your graphics card doesn’t hurt.

Dann hätte ATI heute schon etwas geschaffen, was bei Intel erst im Jahr 2009/2010 möglich ist :d

http://www.tgdaily.com/content/view/38145/135/
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich glaub da steht das die Raytracing kann. :d
 
Wenn das von solch einfachen Faktoren abhängt, wieso dann nicht schon früher?
Aber so darf man auf die 1GB Versionen gespannt sein.
 
Aha, sehr schon von ATI :)

und die GTX280 Chips von Nvidia könnten das nicht?!
 
übersetz mal halbwegs in deutsch mein english ist net so toll :fresse:

Och neee, grob übersetzt: Die Grafikkarten aus der "HD-Serie" Supporten anscheinend schon Raytracing. Mit einer HD 2900 XT ist es möglich ein 720p Bild mit etwa 20 - 30 Frames zu rendern, bei einer HD3870 waren es schon 60fps, mit AA ging es runter auf 40 fps, die hd4800er Serie schafft die Auflösung mit 60fps.

Theoretisch wäre es mit einer HD4k Karte und 1GB VRAM möglich (sofern es Softwareentwickler verwenden würden) eine fotorealistische Welt mit etwa 32 Mio Vektoren und der Full HD Auflösung (zum Vergleich aktuelle Spiele arbeiten mit ewta 500k - 2 Mio. Vektoren) zu berechnen. Zudem ist die Speicherbandbreite nichtig, es kommt primär auf den VRAM an.

Außerdem wurden einige kurze Trailer aus Transformers mit der HD 2900 in Echtzeit geraytraced.
Hinzugefügter Post:
Aha, sehr schon von ATI :)

und die GTX280 Chips von Nvidia könnten das nicht?!

Theoretisch ja, allerdings kann das Raytracing die brachiale Rohleistung des R600/R700 fast vollständig ausnutzen.

Das zu NV:

JulesWorld’s technology also works on Nvidia GeForce 8800 cards and above, but the lack of a tessellation unit causes a bit more work on the ray-tracer side.

Edit: Ich hätte den Titel auf "ATI Bashed Nvidia - 280 GTX stinkt" ändern sollen, dann hätte ich wohl eine größere Benutzergruppe angesprochen :haha:
 
Zuletzt bearbeitet:
Wer schonmal Bilder gerendert hat (z.B. mit Cinema4d) weiß was für eine brachiale Rechenpower notwendig ist um eine Szene Echtzeit zu rendern.

Ich würde mich echt langsam mal freuen wenn sich auch auf den GPGPU Sektor endlich mal wieder ein bißchen mehr Schwung in die Hütte kommt. Daher freu ich mich über diese News. Liegt nur noch an den Softwareschmieden jenes auszunützen.
 
toll, das weiss ich auch :fresse:

:haha:


Aber Back to Topic: Ich finde es Klasse wen die HD4xxx das können und vorallem so schnell nicht nur mit 10 fps sondern direkt mit 60 fps echt beachtlich.:bigok: Glaube aber kaum das das Standart wird dafür wird Nvidia schon sorgen. ;)
 
Das klingt schon mal sehr vielversprechend und 60 FPS :eek: ich brauche mit meinem q6600@3.2 Ghz Minuten für meine einfachen Modelle in C4D :fresse:sind dann wohl so 0.0001 FPS :lol:

änder doch bitte den Titel, ich habe es so als Fragestellung verstanden und dachte da ist ein noob der den CB Artikel über Raytacing gelesen hat und jetzt solche Fragen stellt :fresse:

Und eine Übersetzung könntest du für die faulen Leute auch reineditieren ;) dann spricht es, bei passendem Titel, schon viel mehr an.

MFG :wink:
 
Das klingt schon mal sehr vielversprechend und 60 FPS :eek: ich brauche mit meinem q6600@3.2 Ghz Minuten für meine einfachen Modelle in C4D :fresse:sind dann wohl so 0.0001 FPS :lol:

änder doch bitte den Titel, ich habe es so als Fragestellung verstanden und dachte da ist ein noob der den CB Artikel über Raytacing gelesen hat und jetzt solche Fragen stellt :fresse:

Und eine Übersetzung könntest du für die faulen Leute auch reineditieren ;) dann spricht es, bei passendem Titel, schon viel mehr an.

MFG :wink:
Naja, der Titel geht doch in Ordnung? Den CB Artikel zu Raytracing habe ich übrigens auch gelesen, fand ihn aber seeehr schlecht, da lieber den Entwicklerblog von Intel :bigok:

Ich hoffe, jetzt passt der Titel für dich :d
 
Zuletzt bearbeitet:
ich find den artikel so gut und hoffe das AMD/ATI den vorteil auch ausspielen kann
englisch sollte doch heute für keinen mehr eigentlich ein problem sein...^^
 
nun kriegt nVidia auch die teuren Profikarten nicht mehr an den Mann :d
 
jetzt bräuchte man nur noch ein spiel mit Raytracing :haha:

Ich denke, das wird es so schnell nicht geben, da die Zielgruppe bei etwa 0,0001 % aller PC user liegt. Auf jeden Fall schick, das man sich bald seinen eigenen Videofilm in Echtzeit rendern lassen kann ... und das in Kinoqualität :shot:
 
Also war die Ruby demo geraytraced? Hätte nicht gedacht dass ATI so schnell auf das Raytracing thema eingehen würde, nachdem ich den atrikel auf CB gelesen hatte.
Ich hoffe wir können bald die Ruby demo runterladen um selbst mal n bisschen zu raytracing :bigok:
 
Also war die Ruby demo geraytraced? Hätte nicht gedacht dass ATI so schnell auf das Raytracing thema eingehen würde, nachdem ich den atrikel auf CB gelesen hatte.
Ich hoffe wir können bald die Ruby demo runterladen um selbst mal n bisschen zu raytracing :bigok:
Ja, das wär echt schick :d
Von wegen, das dauert noch ein paar Jahre mit dem Raytracing... bei Intel vielleicht, aber nicht bei Ati/Amd :banana:
 
Yeah, find ich toll von ATI, dass die jetzt zusammen mit Nvidia durch Vorstellung ihrer GPU Rechenkraft gemeinsam gegen Intel und dem verkackten Larrabee bashen. :d

Zurück an die CPU Entwicklung, Intel, habt bei der GPU Abteilung nix verloren. :d

Naja, warten wir mal ab, was noch so kommt. Aber bis es reine Raytracing Spiele gibt, werden wohl noch ein paar Jährchen vergehen.
 
Yeah, find ich toll von ATI, dass die jetzt zusammen mit Nvidia durch Vorstellung ihrer GPU Rechenkraft gemeinsam gegen Intel und dem verkackten Larrabee bashen. :d

Zurück an die CPU Entwicklung, Intel, habt bei der GPU Abteilung nix verloren. :d

Naja, warten wir mal ab, was noch so kommt. Aber bis es reine Raytracing Spiele gibt, werden wohl noch ein paar Jährchen vergehen.

:lol:

Hast du das jetzt selbst gereimt aus den Wörtern die hier vorkommen?

280Gtx+ATI+Intel+Rayracing
Yeah, find ich toll von ATI, dass die jetzt zusammen mit Nvidia durch Vorstellung ihrer GPU Rechenkraft gemeinsam gegen Intel und dem verkackten Larrabee bashen.

:d

Topic:

Ich will es selber ausprobieren, ob es wirklich so schön ist, wie bis jetzt da gewesene. Mit diesen unscharfen Screenshots kann ich nichts anfangen. Hatte ich schon mal mit GTA4. Und als ich mir GTA4 und XBOX Elite dafür extra gekauft habe, habe mich fast angespieben (erbrochen).

mfg
 
Naja, warten wir mal ab, was noch so kommt. Aber bis es reine Raytracing Spiele gibt, werden wohl noch ein paar Jährchen vergehen.

Ich Tippe auf mindestens 5 bis 10 Jahre. Außerdem, was bringt es den Herstellern von Grafikkarten, dass die Karten schon theoretisch Heute in Full HD-Auflösung mit AA bei konstant 60fps fotorealistische Welten rendern können? Richtig, nichts, denn so verkaufen die ja keine Karten mehr, spiele könnten dann auch nicht mehr aufwendiger werden (realistischer als realistisch geht halt nicht :shot:).

Für die Filmindustrie ist das aber auf jedenfall eine Revolution, wo man früher noch fast Stunden (Herr der Ringe zb) an einem Frame gerendert hat, geht das heute in Echtzeit:love:
 
das raytrace bild auf wiki sieht zwar sehr gut aus, aber wenn es sich auf video beschränkt kann ich damit eh nichts anfangen.

waiting for games
 
Wenn da ATI mal richtig Druck macht und auch Entwickler unterstützt, dann kann es schon sein, dass Spiele schon "recht bald" auf den Markt kommen... Immerhin hat sich das bei der HD3er Generation nicht gelohnt, weil die £Karten zu schlecht waren, aber bei der neuen Generation.... Wenn ATi jetzt richtig einnimmt und das dann auch investiert, dann, sehe ich die ersten Spiele Ende Q1 2009 kommen.. Vielleicht sogar früher *hoff*hoff*hoff*;)

Ach habe jetzt gerade gelese, dass ihr reine Raytracing spiele meint. Das ist natürlich was anderes, ich wäre froh, wenn man in den Optionen zwischen Raster und Raytracing wählen könnte, das müssen die Entwickler auch machen, denn ien Spiel nur für ATi zu entwickeln könnte ein Flop werden. Auf jeden Fall freu ich mich schon auf die ersten Demos und Spiele. Da sieht man mal, wie gut die Karten ausgelastet sind...;) Wenn man die richtig auslasten könnte, dann stände uns eine Leistungsflut entgegen, und das schon seit der 2900XT:d Vielleicht hätte es der Karte gut getan, wenn ein Spiel "für sie" entwickelt worden wäre...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh