Irgendwie finden sich da im Internet auch widersprüchliche Angaben. Laut denen können die Tensor Cores FP16, INT8 und INT4. Könntet ihr da noch mal nachhaken und das Ganze vielleicht auch etwas genauer erklären. Ein paar Zeilen drunter schreibt ihr ja, dass die Eingangswerte für die Matrizen A und B in FP16 sind, und nicht FP32. Ich glaube, hier ist noch Klärungsbedarf.
Tensor Cores nur bis FP16, Kollege Lederjacke sagte dazu irgendwas von wegen, wenn du mehr Genauigkeit willst, nimmst du FP16, wenn nicht, dann INT8 oder INT4 mit entsprechend mehr Durchsatz. FP32 können die Teile hingegen wohl gar nicht.
Aber bringen die Tensor Cores jetzt etwas in Spielen? So wie ich das lese, muss es von der Engine explizit unterstüzt werden richtig?
Nein - was sollen die auch bringen?
Das, was dort gezeigt wurde lief wohl maßgeblich auf den RT-Cores. Die Tensor Cores waren für das AI Zeug zuständig - frag mich nach den genauen Begriffen, die hab ich nicht im Kopf, aber die sind am Ende wohl für Denoising und sodden Kram zuständig. Das heist, das eine baut wohl aufs andere - zumindest bei Turing. Volta hat keine RT-Cores, wahrscheinlich lief also damals das Raytracingzeugs der GV100 auf den Shader Units und dem anderen AI Stuff auf den Tensor Cores. Jetzt gibts wohl Hardwarebeschleunigtes Echtzeitraytracing auf den TR Cores.
Mal schauen was davon in den Gamingablegern über bleiben wird - diese 750mm² sind schon recht "fett". Und wollen unter Last sicher auch gekühlt werden. 250W sehe ich da noch nicht - oder sagen wir es anders, nicht mehr
Das war sicherlich bei den Fermi 480ern so, bei den "Titan" Kühlern hört man nur das Luftrauschen, das Gebläse selbst pfeift nicht mehr.
Verglichen mit damaligen Vertretern sind die aktuellen Modelle wirklich eher leise. Dreh mal ne HD4870X2 oder HD2900XT auf 100% Lüfterspeed - das ist ne ganz andere Hausnummer.
Also eine proprietäre Raytracing Implementierung, haben wir wirklich darauf gewartet?
Nö - DXR und Vulcan wurden explizit genannt. NV scheint fast alle größeren Studios mit ins Boot geholt zu haben. Adobe, Autodesk, Dassault Systèmes usw.
Kann man das dann noch proprietär nennen? Das Konstrukt hat das Zeug zu einem Standard zu werden... WIE die GPUs das dann drunter umsetzen, ist ja völlig latte, solange du oben HighLevel immer gleich den Stuff reinkippst.
Die Videos haben zwar weniger beeindruckt, aber das Gesamtkonstrukt ist schon fett. Wer mal mit Blender und ein paar GPUs Echtzeitraytracing im Viewport gesehen hat, weis durchaus, dass das ne ziemlich krasse Kiste ist. Da kommst du mit 4x1080TIs nicht weit, es ruckelt, es sieht scheiße aus (weil zu wenig Rays), es ist noisy - und die Büchse säuft 1000W allein für die Viewport Darstellung
Sowas mit keine Ahnung 250-300W und mehr Performance zu machen ist schon ne nette Sache...
Aber man sollte sich da mMn auch nix vor machen - das wird so schnell nicht in Games einziehen. Nicht in der Art und auch nicht in dem Maßstab. Vllt in 5-10 Jahren? Abwarten. Für NV gilt es bei der Thematik erstmal die Masse mit der Hardware zu versorgen, die das auch entsprechend kann. Bis dann mal flächendeckend die Leistung der RTX6000 im Feld ist, dürfte ne Menge Zeit vergehen.
Ebenso sollte man klar auch dazu sagen, Echtzeitraytracing ist gut, wenn richtig umgesetzt, aber die aktuelle Umsetzung ohne Raytracing sieht schon auch bei richtiger Umsetzung ziemlich fett aus - ob sich da die Schatten noch bisschen bewegen oder da Echtzeitberechnete Spiegel-Lichteffekte zeigen -> dürfte für viele nichtmal wirklich auffallen
Sprich das haut die Leute weniger vom Hocker als wenn der Gesamteindruck rund(er) ist (als vorher)
RTX wird für den Mainstream aber noch etwas dauern glaube ich. Für vernünftiges raytracing braucht man Tensorkerne. Die sind sehr groß und damit die Chips in der Fertigung relativ teuer.
Nö - nach der Vorstellung brauchst du für das Raytracing in erster Linie die RT-Cores...
Es verdichten sich nun nach der Vorstellung die Gerüchte, dass die kommenden Gamer-GPUs ebenso GT104 und GT102 sein sollen... Das heist, der große Ableger bekommt das 750mm² Monster. Ob da alles aktiv ist wie bei der Quadro - abwarten. Aber das könnte schneller gehen als du es annimmst. Von mehr als 8/12GB VRAM kann man sich mMn aber verabschieden. Die normale Quadro bekommt meist doppelt so viel VRAM wie die Gamer-Ableger... Und die hat halt 16-24GB. Bleiben 8-12 fürs Gaming. Vllt noch ne TitanT oder sowas hinterher mit mehr Speicher?
Turing scheint der Voltanachfolger zu sein, Amperearchitektur die auf RT setzt. Anders kann man das nicht auslegen.
Nein, Volta ist HPC mit vollem FP64 Speed. Turing ist nach der Präsi eher ein Pascal (exkl. GP100) Nachfolger - kann kein FP64 bzw. nur sehr langsam.
Das läuft nur über Nvidias SDK und das ist nunmal Gameworks, Träumer.
Und schon gehts wieder los mit dem Fanboy Unsinn...
Schau dir bitte die Präsi nochmal an. Es wird explizit DXR und Vulkan Support genannt... Nix Gameworks. Es gibt Gameworks Effekte - ziemlich sicher sogar. Aber das wird ein quasi Standard, zumindest wenn man DXR und Vulkan als "Standard" bezeichnen will - den NV halt irgendwie proprietär in ihrer Hardware umsetzt, genau so wie es bei jeder anderen AMD und NV GPU intern eine proprietäre Umsetzung der genutzten Standards gibt.
Ob es sich über kurz oder lang durchsetzen wird, bleibt abzuwarten... Da die Konsolen weiterhin auf AMD bauen dürfte das die Spaßbremse auf absehbare Zeit werden...