SIGGRAPH: NVIDIA präsentiert Turing-Architektur und dazugehörige Hardware

754mm² für Consumer+Tensorarea? Was wollt ihr dafür bezahlen? Eine 2080ti wird es wohl nicht geben, eher eine Titan RTX für 3000$ und eine ganze zeitlang erst Mal nix, bis die 2080 kommt, dass könnte auch ein Pascalrefresh sein.

Das Event war an gespielter Witzigkeit ala Trump nicht übertreffen.

Genau das habe ich ja auf der letzten Seite schon gesagt:
RTX wird für den Mainstream aber noch etwas dauern glaube ich. Für vernünftiges raytracing braucht man Tensorkerne. Die sind sehr groß und damit die Chips in der Fertigung relativ teuer.

Davon sind wir noch etwas entfernt im Desktopmarkt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also wenn NVIDIA die Entwickler dazu bringt Raytracing in die Spiele/Engines einzubauen sollte man in diesen Titeln einen riesen Vorsprung vor AMD haben, das wird nicht einfach werden, mal sehen ...

Raytracing wird schon durch Engines unterstützt (Dice, Unreal und andere), wüsste nicht wenn man wie dazu bringen sollte. Es gibt Effekte die über Raytracing und DirectCompute berechnet werden, frag dich mal was die Spieleentwickler verwenden werden. DXR oder Nvidias SDK. Echtzeit Tensor oder eher Compute?

Ich kann mir eine 2080 180w Karte für 700$ mit Tensor jedenfalls nicht vorstellen, die abgespeckte Tensor in HWLs Liste wird die Titan RTX sein für Comsumer. Aber sicher kein Vollausbau als 2080ti. Das gabs noch nie und wo bleibt die Titan?

Die 2080ti ist damit die Titan RTX und 2080 in HWLs Liste die 2080ti, die später kommen wird. Alle anderen Karten werden Pascalrefreshs in 12nm sein, GTX 1100 Serie.

Nvidia würde professionelle Feature und Ausstattungen (Deep Learning, AI, Tensor) viel zu sehr mit Consumer vermischen und die Rules sagten schon bei der Titan V aus, dass man diese nicht für professionelle Zwecke einsetzen darf. Das ginge diesmal viel zu schnell was Tensorcores betrifft, kann ich mir ehrlich gesagt nicht vorstellen. Lasse mich aber gerne überraschen.
 
Zuletzt bearbeitet:
Irgendwie finden sich da im Internet auch widersprüchliche Angaben. Laut denen können die Tensor Cores FP16, INT8 und INT4. Könntet ihr da noch mal nachhaken und das Ganze vielleicht auch etwas genauer erklären. Ein paar Zeilen drunter schreibt ihr ja, dass die Eingangswerte für die Matrizen A und B in FP16 sind, und nicht FP32. Ich glaube, hier ist noch Klärungsbedarf.

Tensor Cores nur bis FP16, Kollege Lederjacke sagte dazu irgendwas von wegen, wenn du mehr Genauigkeit willst, nimmst du FP16, wenn nicht, dann INT8 oder INT4 mit entsprechend mehr Durchsatz. FP32 können die Teile hingegen wohl gar nicht.

Aber bringen die Tensor Cores jetzt etwas in Spielen? So wie ich das lese, muss es von der Engine explizit unterstüzt werden richtig?

Nein - was sollen die auch bringen?
Das, was dort gezeigt wurde lief wohl maßgeblich auf den RT-Cores. Die Tensor Cores waren für das AI Zeug zuständig - frag mich nach den genauen Begriffen, die hab ich nicht im Kopf, aber die sind am Ende wohl für Denoising und sodden Kram zuständig. Das heist, das eine baut wohl aufs andere - zumindest bei Turing. Volta hat keine RT-Cores, wahrscheinlich lief also damals das Raytracingzeugs der GV100 auf den Shader Units und dem anderen AI Stuff auf den Tensor Cores. Jetzt gibts wohl Hardwarebeschleunigtes Echtzeitraytracing auf den TR Cores.
Mal schauen was davon in den Gamingablegern über bleiben wird - diese 750mm² sind schon recht "fett". Und wollen unter Last sicher auch gekühlt werden. 250W sehe ich da noch nicht - oder sagen wir es anders, nicht mehr ;)

Das war sicherlich bei den Fermi 480ern so, bei den "Titan" Kühlern hört man nur das Luftrauschen, das Gebläse selbst pfeift nicht mehr.

Verglichen mit damaligen Vertretern sind die aktuellen Modelle wirklich eher leise. Dreh mal ne HD4870X2 oder HD2900XT auf 100% Lüfterspeed - das ist ne ganz andere Hausnummer.

Also eine proprietäre Raytracing Implementierung, haben wir wirklich darauf gewartet?

Nö - DXR und Vulcan wurden explizit genannt. NV scheint fast alle größeren Studios mit ins Boot geholt zu haben. Adobe, Autodesk, Dassault Systèmes usw.
Kann man das dann noch proprietär nennen? Das Konstrukt hat das Zeug zu einem Standard zu werden... WIE die GPUs das dann drunter umsetzen, ist ja völlig latte, solange du oben HighLevel immer gleich den Stuff reinkippst.

Die Videos haben zwar weniger beeindruckt, aber das Gesamtkonstrukt ist schon fett. Wer mal mit Blender und ein paar GPUs Echtzeitraytracing im Viewport gesehen hat, weis durchaus, dass das ne ziemlich krasse Kiste ist. Da kommst du mit 4x1080TIs nicht weit, es ruckelt, es sieht scheiße aus (weil zu wenig Rays), es ist noisy - und die Büchse säuft 1000W allein für die Viewport Darstellung :fresse:
Sowas mit keine Ahnung 250-300W und mehr Performance zu machen ist schon ne nette Sache...

Aber man sollte sich da mMn auch nix vor machen - das wird so schnell nicht in Games einziehen. Nicht in der Art und auch nicht in dem Maßstab. Vllt in 5-10 Jahren? Abwarten. Für NV gilt es bei der Thematik erstmal die Masse mit der Hardware zu versorgen, die das auch entsprechend kann. Bis dann mal flächendeckend die Leistung der RTX6000 im Feld ist, dürfte ne Menge Zeit vergehen.
Ebenso sollte man klar auch dazu sagen, Echtzeitraytracing ist gut, wenn richtig umgesetzt, aber die aktuelle Umsetzung ohne Raytracing sieht schon auch bei richtiger Umsetzung ziemlich fett aus - ob sich da die Schatten noch bisschen bewegen oder da Echtzeitberechnete Spiegel-Lichteffekte zeigen -> dürfte für viele nichtmal wirklich auffallen ;) Sprich das haut die Leute weniger vom Hocker als wenn der Gesamteindruck rund(er) ist (als vorher)

RTX wird für den Mainstream aber noch etwas dauern glaube ich. Für vernünftiges raytracing braucht man Tensorkerne. Die sind sehr groß und damit die Chips in der Fertigung relativ teuer.

Nö - nach der Vorstellung brauchst du für das Raytracing in erster Linie die RT-Cores...
Es verdichten sich nun nach der Vorstellung die Gerüchte, dass die kommenden Gamer-GPUs ebenso GT104 und GT102 sein sollen... Das heist, der große Ableger bekommt das 750mm² Monster. Ob da alles aktiv ist wie bei der Quadro - abwarten. Aber das könnte schneller gehen als du es annimmst. Von mehr als 8/12GB VRAM kann man sich mMn aber verabschieden. Die normale Quadro bekommt meist doppelt so viel VRAM wie die Gamer-Ableger... Und die hat halt 16-24GB. Bleiben 8-12 fürs Gaming. Vllt noch ne TitanT oder sowas hinterher mit mehr Speicher?

Turing scheint der Voltanachfolger zu sein, Amperearchitektur die auf RT setzt. Anders kann man das nicht auslegen.

Nein, Volta ist HPC mit vollem FP64 Speed. Turing ist nach der Präsi eher ein Pascal (exkl. GP100) Nachfolger - kann kein FP64 bzw. nur sehr langsam.

Das läuft nur über Nvidias SDK und das ist nunmal Gameworks, Träumer.

Und schon gehts wieder los mit dem Fanboy Unsinn...
Schau dir bitte die Präsi nochmal an. Es wird explizit DXR und Vulkan Support genannt... Nix Gameworks. Es gibt Gameworks Effekte - ziemlich sicher sogar. Aber das wird ein quasi Standard, zumindest wenn man DXR und Vulkan als "Standard" bezeichnen will - den NV halt irgendwie proprietär in ihrer Hardware umsetzt, genau so wie es bei jeder anderen AMD und NV GPU intern eine proprietäre Umsetzung der genutzten Standards gibt.
Ob es sich über kurz oder lang durchsetzen wird, bleibt abzuwarten... Da die Konsolen weiterhin auf AMD bauen dürfte das die Spaßbremse auf absehbare Zeit werden...
 
Befürchte trotzdem, dass Raytracing so etwas ist wie Tessellation und man wird vermutlich dann viele raytracing gameworks Effekte sehen.
Inwiefern AMD hier überhaupt noch Möglichkeiten hat mitzuhalten könnte echt fraglich sein ...
 
Nur auf den ALUs bei AMD sehe ich da keine gute Performance... Aber nur auf den ALUs bei NV auch nicht. ;)

Wahrscheinlich wird es vorerst nur Gameworks Raytracing in den Games geben. Einfach weil wie immer kein Entwickler Geld und Zeit in Effekte verblasen wird, die dann kein Mensch auf seiner Hardware ausführen kann - NV gibt wieder die Libs, wie es heute schon in vielen Teilen der Fall ist. Kostet den Entwickler vllt bisschen, in Summe aber weniger als das alles selbst zu machen...
Ab dem Punkt, wo sowas in Fläche machbar ist, also in 3-5 Jahren, wenn JEDER Hansel da seine RT-Cores (oder was auch immer da in 5 Jahren aktuell ist) drin haben wird - werden die Entwickler das auch nutzen. Die Spaßbremse sind dann die Konsolen... Die werden es nicht können. Oder wir sehen NV based GPUs auf Konsolen? Wäre auch nicht so ultra abwägig.


PS: was MIR persönlich aber bisschen besser gefallen würde wäre, wenn man diese RT Cores und ggf. auch die Tensor Cores aus der GPU rauslöst und dediziert als Beschleuniger verbaut... Denn dann hat klein User die Wahl, wie er wo skaliert. Wer das nicht will, kaufts nicht. Wer mehr will, steckt mehr rein (der Spaß skaliert auf dem Papier quasi Endlos mit der Anzahl der Recheneinheiten). UND es wäre ggf. sogar ne Kombo mit AMD denkbar. ;)
 
Und schon gehts wieder los mit dem Fanboy Unsinn...
Schau dir bitte die Präsi nochmal an. Es wird explizit DXR und Vulkan Support genannt... Nix Gameworks. Es gibt Gameworks Effekte - ziemlich sicher sogar. Aber das wird ein quasi Standard, zumindest wenn man DXR und Vulkan als "Standard" bezeichnen will - den NV halt irgendwie proprietär in ihrer Hardware umsetzt, genau so wie es bei jeder anderen AMD und NV GPU intern eine proprietäre Umsetzung der genutzten Standards gibt.
Ob es sich über kurz oder lang durchsetzen wird, bleibt abzuwarten... Da die Konsolen weiterhin auf AMD bauen dürfte das die Spaßbremse auf absehbare Zeit werden...

Könntest du bitte aufhören jedes Postiung mit deinem Fanboymüllwars zu markieren und falls du dich bilden willst klick einfach mal auf "Learn More" auf Nvidias Seite zur Quadro RTX.

Die Ausführungen der HWL Redaktion und deren Tabelle sind ein Witz und absolutes Wunschdenken, das Echtzeitrendering mit Cuda und Tensorcores ist nur über Gameworks möglich, oder von mir aus RTX SDK und setzt auf DXR auf. Turing ist bisher reine HPC Structur für On-Demand-Rendering, mehr hat Jensen dazu auch nicht verlauten lassen. Die Plattform umfasst dabei eine eigene APIs für Raytracing und alle weiteren Techniken und der Zugriff ist nur über Quadro RTX möglich.

Was du von einer Präsentation ablesen willst ist dein Ding, aber es gibt offizielle Pressemitteilungen dazu in PDF Form.

Hier zu schreiben AMD könnte das wieder nicht, ist reines Fanboygequatsche sonders gleichen und das du darauf anspringst ist mir schon klar.
 
Zuletzt bearbeitet:
Volta
Turing
Ampere

Was ist jetzt was? Mir wächst diese Nomenklatur langsam über den Kopf :confused:

Volta ist im Moment HPC only. Es gibt nur eine GPU -> GV100. Verbaut auf der TitanV/TitanV CEO, irgend so ner Tesla V100 und ich glaube auch auf ner Quadro
Turing ist die neue RTX Quadro - und eher Nachfolger der Reihe Maxwell - Pascal - Turing. Fokus auf AI/Gaming/Graphics
Ampere ist im Moment noch unklar. Könnte der 7nm Volta Nachfolger werden? Könnte der Gaming only Turing Abklatsch werden? Könnte ne eingestellte Serie sein?

- - - Updated - - -

Könntest du bitte aufhören jedes Postiung mit deinem Fanboymüllwars zu markieren und falls du dich bilden willst klick einfach mal auf "Learn More" auf Nvidias Seite zur Quadro RTX.

Was willst du bitte von mir?
Wenn du nix zum Thema beizutragen hast - geht einfach wieder... Seit 7 Tagen angemeldet und hier rumhupen und Halbwissen verbreiten?
Du warst der, der hier die Gameworks ist Scheiße Keule losgetreten hat. In der Präsi wurde nix von Gameworks erwähnt. Da wurde sogar ne Echtzeitgerenderte (wenn man der Lederjacke glaubt) UE4 Demo vorgeführt. Kein Plan was du hier willst...
:btt:
 
Was willst du bitte von mir?
Wenn du nix zum Thema beizutragen hast - geht einfach wieder... Seit 7 Tagen angemeldet und hier rumhupen und Halbwissen verbreiten?
Du warst der, der hier die Gameworks ist Scheiße Keule losgetreten hat. In der Präsi wurde nix von Gameworks erwähnt. Da wurde sogar ne Echtzeitgerenderte (wenn man der Lederjacke glaubt) UE4 Demo vorgeführt. Kein Plan was du hier willst...
:btt:
Sag mal merkst du es noch?

NVIDIA RTX and GameWorks Ray Tracing Technology Demonstration - YouTube
 
Zuletzt bearbeitet:
Ich merke, dass du hier völlig OT Unsinn lostrittst. Und dich über die btt Ansage offenbar hinwegsetzen möchtest.

Nur so als Randinfo:
"Ray tracing

Ray tracing, which has long been used for non-real-time rendering, provides realistic lighting by simulating the physical behavior of light. Ray tracing calculates the color of pixels by tracing the path that light would take if it were to travel from the eye of the viewer through the virtual 3D scene. As it traverses the scene, the light may reflect from one object to another (causing reflections), be blocked by objects (causing shadows), or pass through transparent or semi-transparent objects (causing refractions). All of these interactions are combined to produce the final color of a pixel that then displayed on the screen.

RTX-capable GPUs include dedicated ray tracing acceleration hardware, use an advanced acceleration structure and implement an entirely new GPU rendering pipeline to enable real-time ray tracing in games and other graphics applications. Ray tracing acceleration is leveraged by developers through NVIDIA OptiX, Microsoft DXR enhanced with NVIDIA ray tracing libraries, and the upcoming Vulkan ray tracing API.
"
NVIDIA RTXâ„¢ platform | NVIDIA Developer

Mit diesem Gameworks Geschwafel, noch dazu ohne Quelle, ohne Infos/Backgrounds oder dergleichen widersprichst du A) den Aussagen in der Präsi und B) den Infos, die es bei NV dazu auf der Page zu lesen gibt... Steh dazu oder lass es halt. Mir solange egal, wie du hier nicht OT Unsinn rumpostest.
Also ein letztes Mal :btt:
 
Das Video stammt von Nvidia und ist auf deren Gameworkspräsens (dev Forum verlinkt).

Es bleibt aber deine Interpretation, dass das nur über Gameworks geht... Warum zur Hölle blendest du das so derart in den Fokus? Es gibt noch mehr neben Gameworks... Dass NV ihr propritäres Gameworkszeugs zeigt, dürfte auch keinen Verwundern. Dich etwa? Der Unterschied ist aber, dass das nicht die einzige Möglichkeit ist. Meist du Adobe, Autodesk und Co bauen auf Gameworks? So ein Unsinn... Sorry, aber ich versteh ehrlich gesagt nicht, was du hier bezweckst... Und natürlich muss das "andere" erst noch geschaffen werden. Bis heute nacht wusste doch "niemand" von dieser Technik - wo soll sie also herkommen, wenn nicht von NV selbst??
Du gehst ja nichtmal auf den von mir genannten Teil ein - stattdessen irgendwelche Unsinnigen Unsterstellungen und dieser Haterscheiße.

Aber gut, dann mach es anders - und halt dich an die Regeln ;)
 
Zuletzt bearbeitet:
Nein ich glaube du merkst es nicht - du hast den Stein ins Rollen gebracht mit Vemrutungen und wurdest widerlegt und dann fängst du mit Fanboygequatsche an ... schleich dich!
 
Nö - nach der Vorstellung brauchst du für das Raytracing in erster Linie die RT-Cores...

So wie ich es verstanden habe braucht man wohl beides, also Tensor,- und RT-Kerne um das Raytracing in Echtzeit vernünftig berechnen zu können. Das hier gezeigte Raytracing scheint mir zunächst das klassische Rasterizing auch nicht komplett abzulösen, es setzt eher mit gezielten einzelnen Effekten oben auf, also eine Hybridlösung aus Rasterizing und RT. Ich finde den Vorstoss bzgl. RT wirklich sehr interessant und lobenswert, denn das könnte in den kommenden Jahren die Grafikqualität von Games enorm steigern.
 
Nein ich glaube du merkst es nicht - du hast den Stein ins Rollen gebracht mit Vemrutungen und wurdest widerlegt und dann fängst du mit Fanboygequatsche an ... schleich dich!

Wen meinst du?

So wie ich es verstanden habe braucht man wohl beides, also Tensor,- und RT-Kerne um das Raytracing in Echtzeit vernünftig berechnen zu können. Das hier gezeigte Raytracing scheint mir zunächst das klassische Rasterizing auch nicht komplett abzulösen, es setzt eher mit gezielten einzelnen Effekten oben auf, also eine Hybridlösung aus Rasterizing und RT. Ich finde den Vorstoss bzgl. RT wirklich sehr interessant und lobenswert, denn das könnte in den kommenden Jahren die Grafikqualität von Games enorm steigern.

OK ich habe mich da ggf. etwas falsch ausgedrückt. Ich meinte, das Raytracing selbst läuft auf den RT-Cores. Also die Strahlenberechnung. Der AI Part mit dem denoising und die anderen Teile, Kollege Lederjacke sprach noch was von wir machen ne Art Upscaling, berechnen in weniger hochauflösenden Bildern und skalieren dann usw. dürfte auf den Tensor Cores laufen. Das klassische Raster-Backend dann halt für üblich auf den normalen Teilen der GPU. In der Präsi wurde was von 6x ggü. Pascal genannt. Real dürfte das weniger sein. Der Raytracing Anteil ist deutlich geschrumpft, was wahrscheinlich daran liegt, dass der AI Teil eben auch die absolute Menge der notwendigen Berechnungen für gleichen Effekt verringert. Also ja, stimmt recht sicher, dass das in Kombination am sinnigsten zu Betrachten geht.
So wie das dort aber erklärt wurde, könnte man! aber scheinbar den AI Stuff komplett runter nehmen - und RT läuft vollständig auf den RT-Cores. Also die reine Strahlenberechnung für die Beleuchtung bspw. Der Rechenaufwand dürfte dann eher dem klassischen Raytracing beim 3D Rendering entsprechen - also ohne "Optimierung". Man hatte ja damals mit Volta schon vermutet, dass das schon bisschen mit Trickserei verbunden ist... Das wird in Teilen der Demo auch wieder deutlich.
 
Zuletzt bearbeitet:
So wie ich es verstanden habe braucht man wohl beides, also Tensor,- und RT-Kerne um das Raytracing in Echtzeit vernünftig berechnen zu können. Das hier gezeigte Raytracing scheint mir zunächst das klassische Rasterizing auch nicht komplett abzulösen, es setzt eher mit gezielten einzelnen Effekten oben auf, also eine Hybridlösung aus Rasterizing und RT. Ich finde den Vorstoss bzgl. RT wirklich sehr interessant und lobenswert, denn das könnte in den kommenden Jahren die Grafikqualität von Games enorm steigern.

Ja komplettes Rt ist noch Zukunftsmusik. Wird bei den aktuellen Modellen dann wahrscheinlich eher Spielerei sein. Wäre aber cool wenn es in ein paar Games für nette Lichtspielchen sorgt.
Sobald Spiele komplett auf Rt setzen, sind ja auch die aktuellen Grafikkarten und Konsolen für den Müll.
 
So wie das dort aber erklärt wurde, könnte man! aber scheinbar den AI Stuff komplett runter nehmen - und RT läuft vollständig auf den RT-Cores. Also die reine Strahlenberechnung für die Beleuchtung bspw. Der Rechenaufwand dürfte dann eher dem klassischen Raytracing beim 3D Rendering entsprechen - also ohne "Optimierung". Man hatte ja damals mit Volta schon vermutet, dass das schon bisschen mit Trickserei verbunden ist... Das wird in Teilen der Demo auch wieder deutlich.

Ja, scheint so. Ohne AI ist es für Echtzeitanwendungen wohl nicht zu gebrauchen. Aber egal wie, ich feiere das schon als kleinen Durchbruch. Seit langem tut sich wieder was in puncto Bildqualität. Wenn das die nächsten Jahre konsequent weiter an Fahrt aufnehmen sollte, dann sind in 10 Jahren vielleicht schon fotorealistische Games möglich.
 
Ich denke ohne Tensorkerne hat man damit Diashow. Also wer DXR-Hardwareunterstütung hat, ist halt dabei. Wer nicht, der ist es nicht. Denke "massiv im Vorteil" ist nicht der passende Ausdruck. Entweder man hats (schon) oder (noch) nicht.

Nvidia hat in diesem Bereich die Forschung voran getrieben
Meinst du damit, MS wird DXR auf Geheiß von NV in Windows integrieren oder was bedeutet das?
 
Zuletzt bearbeitet:
Ist eigentlich schon klar ob die Raytracing cores nur bei den noch nicht vorhandenen Spielen was bringen oder in irgendwelchen Entwickler Programmen? Mich würde vor allem interessieren ob man das zügig in z.b. 3ds nutzen kann, Echtzeit wenns geht. Hat jemand was aufgeschnappt in der Richtung?
 
Also GPU Monopol incoming…
900€ sind eigentlich viel zu wenig für eine RTX.
Aber eventuell ist Nvidia ja gnädig solange es noch keine Spiele dafür gibt.
 
Mmh... also 2x RTX 5000 mit 32GB und 12 Gigarays/s für $4600 und 1x RTX 6000 mit 24GB und 10 Gigarays/s für $6300? Interessant...
 
Wohl eher 48 GB und 20 Gigarays/s ... da nennt man sich schon numerobis und stellt trotzdem komplett falsche Vergleiche auf :d
 
Wohl eher 48 GB und 20 Gigarays/s ... da nennt man sich schon numerobis und stellt trotzdem komplett falsche Vergleiche auf :d

Eine RTX 6000 mit 48 GB und 20 Gigarays/s für 6300€? Aha...
Also in der Tabelle, die ich hier sehe, hat die nur die Hälfte und die RTX 8000 ist die dickste Karte mit 48 GB...
 
Zuletzt bearbeitet:
ihr habt feuchte träume

Nun das turing zur quadro Karte wird war abzusehen
allerdings glaube ich nicht an einer gt104 gt106 chips das wird eher ampere sein ga104 ga106 in nicht geplanten 12nm

hier hat nvidia einfach vorgezogen
man beachte das volta gv100 immer noch die max shader Anzahl hat (5120) und die höchste compute Leistung
Die RT core sind neu und völlig offen was diese tun
tensor cores sollen für ai sein was in workstation eher theoretischer natur ist als praxis

Bleibt ein neuer renderer raytraced + rasterizer
das dies jetzt mit den quadro in echtzeit geht glaube ich nicht eher wird es in echtzeit encodiert (pre rendert)
ähnlich wie bei volta mal demonstriert wurde
also in games wird raytraced noch laaaaaaaaaaange auf sich warten lassen.
Viele aussagen gehen dahin das man mindestens 21 tfops benötigt um dieselbe demo in genauer wie mit rasterizer bei 13 tflops
benötigt.
da ist nichts mit live gaming demo und Echtzeit raytraced also um dann das in Echtzeit abzuspielen zu können bräuchte man min das zehnfache an tflops also um die 100 tflops
mit Glück kann man ab 7nm die chips auf 8000 shader aufbohren big chip
Nur haben wir ein CPu limit ab 3584 shader bei 1080p in dieser Auflösung lief die raytraced demo.

aber abgesehen von raytraced ist das auffallende bei dieser demo das sehr gute texturen verwendet wurden die Farben sind schon lange in realfarbraum möglich nur hat man da extreme probleme beim datendurchsatz. Da hilft breites Si und viel schnellen vram ab 16gb
Der Hauptgrund dafür das es noch keine realitäts nahen farben in games gibt was viel an der beleuchtung +schatten liegt ist vram und cpu drawcalls
das erste kann man ausbessern auch die compute leistung wäre kein problem einfach mehr shader auf dem chip aber CPu singlecore leistung geht nicht viel mehr.
Darum der Ansatz zu RT cores was so ziemlich cpu cores entspricht die speziell eine Aufgabe haben Lichtquelllen mit schattenwürfen ohne mapping zu realisieren.Nur blöd das gerade der standard directx keinen multi render zulässt.
es ist alles auf einen thread als leistungs maßgebend
in raytraced hofft man das man die Bilderstellung per strahlen der Beleuchtung das Bild gerendert wird. nur da sind wir noch lange nicht angekommen ab 200 tflops denken wir mal darüber nach. und die derzeitigen shader erreichen diese effizienz einfach nicht und es hilft nur mehr shader die man dank cpu limit nicht auslasten kann.
Also ist bei den gamer gpu definitiv keine turing (ampere) gpu drin
Sondern die pascal refresh und später volta mit geringeren tensor cores aber ohne RT cores die kommen erst mit ampere 2022

Würde mich echt überraschen wenn nvidia ohne druck einfach die aktuellste gpu arch für gamer bringt + volta völlig ungenutzt lässt und das in einen Fertigungsprozess der dafür nicht geeignet ist.
chips werden teurer größer und benötigen mehr vram (SI halbiert würde ansonsten die Datenrate beim weniger als 12gb limitieren)
daher kann die Überraschung am 20.8 nur bedeuten volta in 7nm als neue high end oder pascal refresh als 11 series
Das teaser video ist ein hoax mehr als das was kommt sagt es nicht also pures es kommt was am 20.8 mehr sagt das nicht aus.
geheime Botschaften sind da keine.
 
das dies jetzt mit den quadro in echtzeit geht glaube ich nicht eher wird es in echtzeit encodiert (pre rendert)
ähnlich wie bei volta mal demonstriert wurde
also in games wird raytraced noch laaaaaaaaaaange auf sich warten lassen....

......da ist nichts mit live gaming demo und Echtzeit raytraced........

Liest du dir die Artikel und Kommentare der Redakteure überhaupt durch? Das was du leugnest, steht doch schwarz auf weis.
Auf einer der neuen Quadro RTX 8000 soll die "Reflections"-Demo mit 24 FPS gelaufen sein. Grund dafür sollen aber die 24 Vollbilder pro Sekunde bei Kinofilmen gewesen sein.
Quelle:Hard- und Software: NVIDIA richtet sich vollständig auf das Ray Tracing in Echtzeit aus - Hardwareluxx

Und sie ist Interaktiv, wird also Live gerendert.
Nein, die "Reflections"-Demo (Star Wars Trooper und Captain Phasma) lief auf der SIGGRAPH mit festen 24 FPS um die 24-Vollbilder eines Kinofilms nachzustellen. Wie hoch die FPS hätten sein können, ist nicht bekannt.

Und nein, die "Reflections"-Demo ist auch interaktiv, also nicht komplett vorgerendert. Ich habe die Demo schon gesehen, wo bestimmte Effekte zu- und abgeschaltet werden und auch Objekte hinzugefügt werden konnten.


Edit:
Ich versteh auch nicht, warum du die Leistung so stark abhängig von Shadern machst. Vertex-, Tesselation- und Geometry-Shader welche alle drei für geometrische Berechnungen genutzt werdem, wären stark entlastet, eben weil keine geometrischen Berechnungen durchgeführt werden müssen.
Sogar die Tflops der Graka sind nebensache, am ende kommt es doch nur da drauf an, wieviele Strahlen von den RT Cores berechnet werden können(Giga-Rays).
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh