Crytek zeigt Ray-Tracing-Demo auf einer Radeon RX Vega


Was reimst du dir da eigentlich zusammen?

Wieso sollte es auf ner V56 nicht in 4K60 laufen können? Ne V56 schafft normale Spiele auch auf 4K60, wenn mans richtig einstellt. Hier haben wir eine kurze Demo, spezifisch auf diese eine Szene optimiert. Klar kriegste sowas auf ner V56 flüssig.
Nebenbei, ich meine im Video ist erwähnt, dass es 4K30 sind.

Dann, seit wann ist ne GTX16xx low end? Hab ich was verpasst? Das sind >200€ Karten. Was sind dann <200€ Karten für dich? Inexistent? Super low end?

An sich mal wieder geballtes Unwissen hier im Thread. Natürlich gehen solche Dinge wie im Video, also Reflektionen, GI, AO auch ohne RT cores. Echtzeit Raytracing demos gibts seit Jahren, gar Jahrzehnten. Der Punkt an RT cores von Nvidia ist es, den langsamsten Teil der RT Berechnung in Hardware zu beschleunigen, sodass solche Effekte in Echtzeit mit brauchbarer Auflösung in normalen Games möglich sind, ohne da jeden Winkel extra optimieren zu müssen.

Die RT cores werden damit nicht überflüssig oder gelogen oder sonstwas. Wenn eine non-RTX Karte das Zeug hier mit x fps schafft, dann würde eine RTX Karte mit genutzten RT cores es eben in x+y fps schaffen.

Zumal es sich hier nicht um volles Raytracing handelt, sondern um Cone tracing, mit deutlich niedrigerer Genauigkeit und ganz eigenen Artefakten und Unzulänglichkeiten.

Hier trifft mal wieder Unwissen auf Fanboys und resultiert in komplett peinlichen Beiträgen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ganze RT cores gedöns von NV ist ein witz wie man hier ja wohl sehn kann geht das auch ohne RT cores das was NV und die NV fans so hypen.
Ob die rechenleistung dann reicht steht auf nem anderen blatt.

nein?

wenn die Technik RT-Cores nutzt ist sie den Radeons natürlich überlegen
 
Jetzt wird auch klar warum es Nvidia so eilig hatte ihren Kram auf den Markt zu bringen und zu rufen "Erster!".

Dann ist aber Nvidia mit ihrem RTX etwa 7 Jahre zu spät dran sherlock.
https://brage.bibsys.no/xmlui/handle/11250/2370620
Implemented ray tracing in sparse voxel octrees is eine uralte Geschichte.


Verstehe ich das hier richtig, dass Crytek demonstriert, dass Nvidia geflunkert hat und die RT Cores nicht wirklich nötig sind für brauchbare RT Leistung!?

Manchmal habe ich den Eindruck, dass du generell gar nichts verstehst.:wink:
Aber um darauf dennoch mal einzugehen: Nein.

Ich kann auf YouTube 4K@60Hz auswählen.
Das geht normal nur wenn das Quell Material auch mit dieser Auflösung vorgenommen wurde.

Dann berechnet deine 7970 das ganze Video in 4K sogar in realtime.:coffee:

Läuft, würde ich sagen und dies auf einer 300 Euro Karte ohne RT und Tensor-Cores...

Doom raytraced läuft sogar auf einem Phenom2, zieh dir das mal durch die Nase.
So einem Phenom bekommt man schon für 10 Euro.
 
Zuletzt bearbeitet von einem Moderator:

Doch?
Es ist bestenfalls irreführend.
Weder eine Vega 56, noch eine GTX 1070 werden die Optik des gezeigten Videos in Echtzeit berechnen können.
Das Raytracing auf Softwarebasis läuft, ist auch mitnichten neu, sondern gibt es seit Jahrzehnten und wird auch seit Jahrzehnten benutzt für alle möglichen Anwendungen. Vorwiegend für Trailer, Filme und co.

Hier wird behauptet, eine Vega 56 würde mit der magischen Engine ECHTZEIT Raytracing in annehmbaren FPS machen. Das ist ganz eindeutig gelogen, oder etwas freundlicher gesagt: Stark übertrieben und falsch dargestellt.
Ob Du das als Manipulation ansiehst, oder als Flunkern, ist Wortklauberei. Am Ende ist das Gezeigte ein Fake, dass nicht die Realität darstellt, sondern ein Marketingding mit gestreckter Realität ist.
 
@Ryze

Deine Ausführungen beinhalten im Grunde ein erfrischendes Maß an Objektivität, lassen beiden Herstellern eine gewisse Pflege angedeihen und wirken so zumindest auf mich iwi erdend und beruhigend in diesen stürmischen Zeiten. :)
 
Zuletzt bearbeitet:
Das ganze RT cores gedöns von NV ist ein witz wie man hier ja wohl sehn kann geht das auch ohne RT cores das was NV und die NV fans so hypen.
Ob die rechenleistung dann reicht steht auf nem anderen blatt.
Da merkt man das du nichts verstanden hast von der Thematik.
 
Dann ist aber Nvidia mit ihrem RTX etwa 7 Jahre zu spät dran sherlock.
https://brage.bibsys.no/xmlui/handle/11250/2370620
Implemented ray tracing in sparse voxel octrees is eine uralte Geschichte.

Voxel (SVO) ray tracing demo - YouTube
Danke für..nichts. Weder diese Seite noch dieses absurd hässliche Video helfen hier weiter.
RTX ist der Aufbruch zum ray tracing - erstmalig - in AAA games. Den gab es davor nicht. Und jetzt komm mir nicht wieder mit deinen lächerlichen tech demos die niemand kennt, nichts können und gleichzeitig auch noch schlechter aussehen als Gothic2.

Du kommst mit deinen niedlichen amateur-Video... dann komm ich hier mit:

Atomic Heart: Official GeForce RTX Real-Time Ray Tracing Demo - YouTube
Da kannst du einpacken mit RTX ist eben doch 7 Jahre zu spät mit RTX: :-D

Fakt ist, das was in den RTX Spielen passiert, ist für die hardware noch heute eigentlich zu heftig (höher als 1080p max 1440p..vergiss es). Und das obwohl die denoiser Technik genutzt wird um es überhaupt lauffähig zu machen. Also verfolgt man doch lieber weiterhin Tricks wie die angewendeten von Crytek.

-
Klar ist, die hardware, die schiere GPU Leistung ist in den Jahren endlich in Regionen vorgestoßen, die richtig gute Effekte erst zulassen. Was damals zwar schon softwareseitig möglich war, wurde entweder von der hardware gebremst oder durfte sich nicht voll entfalten um der niedrigen HW-Leistung gerecht zu werden.
Das ändert sich jetzt aber stetig aber braucht auch noch seine Zeit.
 
Zuletzt bearbeitet:
Dann berechnet deine 7970 das ganze Video in 4K sogar in realtime.:coffee:
Ähm, nein, aber wie geschrieben zeigen Videos die Hochgeladen werden bei Youtube nur 4K@60Hz wenn es das Quell Material hat.
YouTube wird dir nie im Leben ein Video Hoch-Skalieren, wohl eher herunter um nicht zuviel Bandbreite zu benötigen.

Zudem müsst ihr die Videos schon mit Google Chrome Anschauen, sonst gibt es keine 60FpS. ;)
 
Man was Marketing Geschwätz aus Menschen macht. Tech, das Video wurde in Echtzeit auf einer Vega 56 gerendert und du redest hier von

Weder eine Vega 56, noch eine GTX 1070 werden die Optik des gezeigten Videos in Echtzeit berechnen können.

Cryengine: Crytek zeigt Raytracing auf Radeon Vega 56 - Golem.de

Ja, ich behaupte keine der zwei genannten Karten macht das in Echtzeit und erst recht nicht in 4k@60.
Beide Karten machen ja nicht mal ohne Raytracing 4k@60. Da müsste man die Slider schon SEHR extrem nach links schieben und dann würde das Bild sicher nicht mehr wie im Video aussehen.

Du glaubst also ernsthaft, dass eine Vega 56 irgendwas in 4k@60 mit Raytracing macht?
Du glaubst ungesehen, dass es hier Echtzeitrender ist, ganz ohne einen Ruckler oder einen dropped Frame?
Also wirklich, ernsthaft? Die behaupten es und Du kaufst es, egal wie viel dagegen spricht und wie weit von jeglicher Realität das ist?

Es spricht quasi nichts dafür, dass dieses gezeigte Video kein Fake von Crytek ist. Wenn doch, können sie das Ding ja öffentlich machen und jeder kann es einfach selber ausprobieren.
Danach gehen alle anderen Engines und Nvidia pleite, weil CryTek eine Wunderengine bringt, die uns alle 4k@60fps mit Raytracing für unter 300 Euro erlaubt.

Es sollte eigentlich offensichtlich sein das hier geflunkert wird.
Ich bin ehrlich gesagt schockiert, dass manche Leute das echt abkaufen, nur weil eine sterbende Firma das in den Raum wirft.
So gerne ich diese Story glauben würde, weil ich gerne Raytracing bei jeder GPU sehen würde, aber die Story wirkt eher wie ein Märchen als sonst was.
Zumindest nicht so, dass man es ohne unparteiische Beweise einfach glauben sollte, da es sich um ein kleines Wunder handeln würde.
 
Verstehe ich das hier richtig, dass Crytek demonstriert, dass Nvidia geflunkert hat und die RT Cores nicht wirklich nötig sind für brauchbare RT Leistung!?

Siehst du falsch. Es gibt einen riesen Unterschied zwischen echten RT und SVOGI wie es Crytek nutzt.
 
Danke für..nichts. Weder diese Seite noch dieses absurd hässliche Video helfen hier weiter.

Widerlegt dich halt, wenn dus nicht einsehen willst, dann kann ich dir auch nicht helfen.
Dein Beitrag hierzu war halt einfach nur Fanboygelaber.:-[
 
Zuletzt bearbeitet von einem Moderator:
Ohne die Implementierung und weitere Details zu wissen, kann man jetzt aber nicht sagen "mit einer Radeon RX Vega 56 geht das, wozu bei NVIDIA eine GeForce RTX 2080 Ti benötigt wird." Es wird einen Grund haben, warum Crytek das in dieser Form präsentiert und nächste Woche (während und nach der GDC) werden wir sicherlich schon mehr wissen.

naja, AMD karten sind ja compute Monster, evtl. wird das endlich mal genutzt in speilen anstelle die Transistoren dafür schlafen zu lassen. o_O

ausserdem wird ja auch gesagt das ein teil auf der CPU berechnet, wird... wenn da nen TR 2990WX mit im spiel war, sollte es eh flüssig laufen mit Software basierten RT.
 
Man muss mal genau sagen das hier glaube ich viele nicht wissen was RT ist bzw. was dafür geht. Im Grunde kannst du Raytracing gar mit deinem Handy nutzen, hast halt exytrem miese performance. Ja, RT geht auch ohne NVidia RTX, aber diese fixed function Units können das eben sehr effektiv und schnell und bieten daher den Leistungsvorteil.

Ergo -> Raytracing geht auch ohne Nvidia und deren RTX units, aber eben viel langsamer.
 
Ähm, nein, aber wie geschrieben zeigen Videos die Hochgeladen werden bei Youtube nur 4K@60Hz wenn es das Quell Material hat.
YouTube wird dir nie im Leben ein Video Hoch-Skalieren, wohl eher herunter um nicht zuviel Bandbreite zu benötigen.

Zudem müsst ihr die Videos schon mit Google Chrome Anschauen, sonst gibt es keine 60FpS. ;)

Man kann auch Material nehmen, das NICHT 4K60 hat, es auf 4K60 upsamplen, dann zu Yt hochladen. Machen viele Youtuber mittlerweile gerne, dass sie zB 1080p Quelle nehmen, auf 4K upsamplen, das hochladen. Dann wählt der Nutzer den 4K Stream, der zwar am Ende nur 1080p Quelle ist, aber von Youtube mehr Bandbreite bekommt, und deshalb besser aussieht als der native 1080p Youtube stream.
 
Ja, ich behaupte keine der zwei genannten Karten macht das in Echtzeit und erst recht nicht in 4k@60.
Beide Karten machen ja nicht mal ohne Raytracing 4k@60. Da müsste man die Slider schon SEHR extrem nach links schieben und dann würde das Bild sicher nicht mehr wie im Video aussehen.

Du glaubst also ernsthaft, dass eine Vega 56 irgendwas in 4k@60 mit Raytracing macht?
Du glaubst ungesehen, dass es hier Echtzeitrender ist, ganz ohne einen Ruckler oder einen dropped Frame?
Also wirklich, ernsthaft? Die behaupten es und Du kaufst es, egal wie viel dagegen spricht und wie weit von jeglicher Realität das ist?

Es spricht quasi nichts dafür, dass dieses gezeigte Video kein Fake von Crytek ist. Wenn doch, können sie das Ding ja öffentlich machen und jeder kann es einfach selber ausprobieren.
Danach gehen alle anderen Engines und Nvidia pleite, weil CryTek eine Wunderengine bringt, die uns alle 4k@60fps mit Raytracing für unter 300 Euro erlaubt.

Es sollte eigentlich offensichtlich sein das hier geflunkert wird.
Ich bin ehrlich gesagt schockiert, dass manche Leute das echt abkaufen, nur weil eine sterbende Firma das in den Raum wirft.
So gerne ich diese Story glauben würde, weil ich gerne Raytracing bei jeder GPU sehen würde, aber die Story wirkt eher wie ein Märchen als sonst was.
Zumindest nicht so, dass man es ohne unparteiische Beweise einfach glauben sollte, da es sich um ein kleines Wunder handeln würde.


Ich hab nie behauptet das es in 4k mit 60 fps läuft, ich sagte nur, dass es auf einer Vega 56 lief, was halt auch so war.
Du unterstellt der Firma das sie lügt, hast du dafür einen Beleg, außer deine Meinung?
Es gab schon früher von der unreal engine demo´s die sahen 10x besser aus als jedes unreal game...

Unreal Engine 4 | Infiltrator Tech Demo DX11 Test GTX680 - YouTube

zeig mir mal ein game was so gut auf einer gtx 680 aussieht ^^


Techdemo´s darf man nicht als Spiel sehen.
Sie sehen immer gut aus.
Die RTX techdemos sehen auch besser aus, als die beiden RT games.

Vielleicht kommt die techdemo noch online, wer weiß :d
 
Zuletzt bearbeitet:
Ja, ich behaupte keine der zwei genannten Karten macht das in Echtzeit und erst recht nicht in 4k@60.
Beide Karten machen ja nicht mal ohne Raytracing 4k@60. Da müsste man die Slider schon SEHR extrem nach links schieben und dann würde das Bild sicher nicht mehr wie im Video aussehen.

Du glaubst also ernsthaft, dass eine Vega 56 irgendwas in 4k@60 mit Raytracing macht?
Du glaubst ungesehen, dass es hier Echtzeitrender ist, ganz ohne einen Ruckler oder einen dropped Frame?
Also wirklich, ernsthaft? Die behaupten es und Du kaufst es, egal wie viel dagegen spricht und wie weit von jeglicher Realität das ist?

Es spricht quasi nichts dafür, dass dieses gezeigte Video kein Fake von Crytek ist. Wenn doch, können sie das Ding ja öffentlich machen und jeder kann es einfach selber ausprobieren.
Danach gehen alle anderen Engines und Nvidia pleite, weil CryTek eine Wunderengine bringt, die uns alle 4k@60fps mit Raytracing für unter 300 Euro erlaubt.

Es sollte eigentlich offensichtlich sein das hier geflunkert wird.
Ich bin ehrlich gesagt schockiert, dass manche Leute das echt abkaufen, nur weil eine sterbende Firma das in den Raum wirft.
So gerne ich diese Story glauben würde, weil ich gerne Raytracing bei jeder GPU sehen würde, aber die Story wirkt eher wie ein Märchen als sonst was.
Zumindest nicht so, dass man es ohne unparteiische Beweise einfach glauben sollte, da es sich um ein kleines Wunder handeln würde.

wieso stemmst du dich so enorm dagegen, dass es echt ist? Klar kann ne V56 4K in Echtzeit in einer speziell optimierten Szene. Das Teil hat 11 Teraflops Rohleistung. Abseits der RT Effekte ist die Szene hier kein Meilenstein und braucht auch nicht solch enorme Rechenleistung. Für RT kann man hier also einiges reservieren, zumal es voxel/cone basiert und nicht vollständiges Path Tracing ist.

Echtzeit RT Videos gibts seit Jahrzehnten. Schon zu Phenom Zeiten gabs da witzige low res RT Demos mit Quake oder Doom oder was es war. Darauf über 10 Jahre Fortschritt und vielfaches schnellere GPUs mit deutlich optimierten APIs.
Das ganze wirkt nur "geflunkert", wenn man keinen Dunst hat, wie lange schon an RT für Games geforscht und gebastelt wird.
 
Ich stemme mich nicht dagegen, ich bin mir einfach nur 100% sicher, dass die angegebenen Daten nicht zusammenpassen. Wenn das so möglich wäre, wäre da andere Firmen schon vor Jahren drauf gekommen.
Glaubst Du NVidia bastelt RT Kerne in die GPUs, mit dem Wissen, dass die GPUs dadurch sau teuer werden und sauber negative Kritik einheimsen,... wenn es einfach ne Softwarelösung auch tun würde?
Glaubst Du die ganzen Filmstudios investieren gerne unheilige Beträge in reine RayTracing rigs, die dann Wochen arbeiten, nur um nen Trailer hübsch zu machen und Monate um einen Film zu animieren?

Es spricht einfach alles dafür, dass dieses Video ein reiner Marketing Stunt ist. Genau so wie all die Akku "Durchbrüche" der letzten Jahre, wird das so nicht auf dem Markt erscheinen.

Kann schon ne Vega 56 gewesen sein. Dann war es aber kein 4k, keine 60fps, oder nicht gar nicht Realtime.
Alles zugleich? Nö.
Einfach nur Marketinggedöns, dass in der Realität sicher ganz anders abgelaufen ist als behauptet / suggeriert wird.

Aber wenn es doch real wird, bin ich sicher der erste, der seine Fehleinschätzung korrigieren wird.
Wie gesagt wünsche ich mir RT für jederman und jede GPU. Das macht mich nur nicht komplett leichtgläubig für Marketing.

- - - Updated - - -

Du unterstellt der Firma das sie lügt, hast du dafür einen Beleg, außer deine Meinung?

Nur meine Meinung unterstrichen durch einige nachweisliche Fakten und Beobachtungen.
Ist das 100% sicher? Nö.
Ich behaupte trotzdem, dass sie hier massiv faken im Rahmen des Marketings und bin extrem gespannt, wie das Ding aussieht, sobald es auf den Markt kommt. Wenn es jemals kommt.
 
Was is wenn das meiste mit der CPU berechnet wurde, RT muss ned Zwingend auf RT-Cores berechnet werden. Ich kapier manche Leute im Forum ned aber tendenziell erkennt man wenn man viel in Foren liest wie engstirnig und verbohrt Deutschland is, glaub langsam das sowas von den Politikern aufs Volk übertragen wird, manchmal sogar samt der Blödheit die so manche Politheinis in Berlin an den Tag legen. Am Schluss kommt raus das die Demo auf nem 32-Kerner lief und alles CPU-seitig berechnet wurde und sogar ne RX560 ausgereicht hätte. :haha:
 
Das wäre durch die neuen 8-Kern+ CPUs im Mainstream durchaus denkbar.
 
Diese Techdemo läuft vermutlich in 4K bei 30 FPS. Mehr FPS gibt das Youtube-Video nicht her, egal in welcher Auflösung. Würde die Demo mit mehr FPS laufen, würde man diese Version sicher auch hochladen.

Techdemos sind in der Regel extrem optimierte feste Szenarien, die daher deutlich besser und flüssiger laufen, als z.B. Spiele. (bei gleicher Hardware und optischer Qualität)

NEON NOIR sieht sehr interessant aus, aber meiner Einschätzung nach keine besonders fordernde Levelgeometrie. Packt man da irgendwo einen Baum mit Blättern hin, am besten noch nass, gehen die FPS in den Keller.

Crytek hat sich vermutlich bewusst für so ein "Level" entschieden, um das Ray-Traycing hervorzuheben, worum es ja auch hauptsächlich geht.

Inwiefern sich diese Technik in Zukunft bei Spielen einsetzen lässt, kann nur der sagen, der weiß, wie Crytek das gemacht hat.
Es wäre schön gewesen, wenn Crytek in der Techdemo Infos zur CPU-Last, Anzahl der gerenderten Polygone, etc.. eingeblendet hätte.
Es ist im Prinzip nur bekannt, dass eine Vega 56 genutzt wurde. Im Worst-Case-Szenario lastet die Techdemo einen 32 Kern CPU zu 90% aus, um die gezeigten 30 FPS zu halten.
 
Ich stemme mich nicht dagegen, ich bin mir einfach nur 100% sicher, dass die angegebenen Daten nicht zusammenpassen. Wenn das so möglich wäre, wäre da andere Firmen schon vor Jahren drauf gekommen.
Glaubst Du NVidia bastelt RT Kerne in die GPUs, mit dem Wissen, dass die GPUs dadurch sau teuer werden und sauber negative Kritik einheimsen,... wenn es einfach ne Softwarelösung auch tun würde?

das du dich dagegen stemmst ist deine ansicht, dein gefühl.
das hat mit realem was crytech da gemacht hat nicht viel gemein.

NV hat nicht umsonst JETZT diese RT-cores in ihre karten eingebaut:
die haben jahrelang daran geforscht.
kann sein das man gemerkt hat, das man die ganze reingesteckte arbeit in baldiger zukunft 'in die tonne treten' kann, wenn man die jetzt nicht noch auf den markt bringt, weil es auch ohne RT-cores ginge.

also bringt man es JETZT, auch wenn es nur wenige spiele können und die einführung sehr sehr holprig ist.

man versucht schlicht die forschungs-investitionen noch soweit möglich zu geld zu machen, also wieder rein zu holen.
jedenfalls ist meine these eine erklärung dafür warum NV diesen so teuren und steinigen weg mit den RT-cores gegangen ist.

ich finde diese raytracing-technik toll und hoffe das es bald viele spiele gibt, die diese verwenden, möglichst, wenn die grafikkarten dafür die leistung bereit stellen, global in jedem spiel.

ob mit oder ohne RT-cores ist mir dabei völlig wurscht, aber, ich werde keine biszu 1300€ dafür hin legen, ich warte bis das 250€ karten können....

DLSS hingegen finde ich absolute grütze, WENN dann will ich den umgekehrten weg sehen: AA-filter weg lassen oder runterschrauben und spiele in zb 4k rendern um dann in 1080p aus zu geben, also runter skallieren.
das ganze dann mit stabilen 60fps.

die erste bezahlbare karte die das für ca 250€ kann, wird gekauft, fullcover-wasserkühler drauf und eingebaut.
 
Zuletzt bearbeitet:
a) Es kann doch gut sein, dass man hier einen neuen (unkonventionellen) Ansatz gewählt hat, auf den noch niemand zuvor gekommen ist.
Wäre ja nicht das erste mal, das so etwas passiert.

b) Nur weil es ohne RT Kerne super zu laufen scheint, heist das ja noch lange nicht, das es mit RT Kernen sehr viel besser laufen könnte. (ob mit denen von nVidia, oder noch einmal überarbeiteten, ist eine andere Geschichte).

c) einfach einmal Abwarten, wann das ganze öffentlich zugänglich in die CryEngine integriert wird (so wie Raytracing aktuell öffentlich in die Unreal Engine integriert wird).

d): Kann auch gut möglich sein, das Crytek hier schon seit längerem daran arbeitet und deswegen ihre Engine an Amazon verkauft haben (in dem Wissen, dass sie bald wieder ein Alleinstellungsmerkmal haben werden). (PS: Ich weiß aber nicht, ob Amazon die Technik nicht auch noch bekommt oder so, also reine Hypothese basierend auf mangelhaften Hintergrundwissen hier)
 
Zuletzt bearbeitet:
Crytek braucht Geld und vermutlich haben sie mit einem AMD-Deal eine annäherung von Raytracing in so einer Szene darstellen wollen um zu zeigen das man nicht unbedingt extreme GPU-Leistung bzw. so ne RTX-Karte benötigt. Deswegen wird ja auch ein Teil der Arbeit an die CPU übertragen. Sobald die Szenen komplexer werden, fallen die FPS in den Keller.
Gibt genug Beispiele auch in Produkteentwicklung, wenn man Szenen zwischen "echte" Renderings oder für einfache Kataloge/Manuals macht. Die eine Szene benötigt gerade mal wenige Sekunden, die andere Stunden um zu Rendern. Das Resultat sieht für den Laien fast identisch aus, im Detail gibt es aber doch deutlich grössere Unterschiede.
 
Was is wenn das meiste mit der CPU berechnet wurde, RT muss ned Zwingend auf RT-Cores berechnet werden.

Du kannst RT auch auf nem Taschenrechner berechnen, wenn Du genug Zeit aufbringst.
Die Rechenleistung von CPUs ist denen von GPUs halt dramatisch hinterher. Egal wie viele hundert Kerne die CPU hat. ;-)

Vorteil von CPUs ist, dass sie einen vergleichsweise riesen Controller haben und damit mit sehr viel von Haus aus umgehen können. GPUs haben nen mini Controller und sind daher relativ "dumm". Aber was sie machen, ist deutlich schneller erledigt als von einer CPU.

Edit:
Das Video ist übrigens nur noch in 30fps verfügbar. Auch auf Chrome.
Da hat wohl jemand bemerkt, dass die Fragezeichen zu groß sind und angefangen vorsichtig mit Backpaddeling anzufangen. ;-)
 
Zuletzt bearbeitet:
Morgen gibt es eine kleine Presentation, hab da ein Interessante "Überschrift" gesehen:

Enabling Real-Time Light Baking Workflows in Saber Engine with AMD Radeon Rays Dmitry Kozlov (AMD), Max Gridnev (Saber) Room 3001, Moscone West Wednesday 09:00-10:00 TBA
GDC 2019 Presentations - GPUOpen
Scheint wohl ne Menge los zu sein :fresse2:
 
...

Mich stört an dem Ganzen einfach, dass die es so dermassen übertreiben müssen

Der Heli und auch andere Spiegelungen sehen einfach aufgesetzt und zu künstlich aus.

...
 
Naja ist eine RT Demo, um zu zeigen das die RT-Effekte gehen …
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh