SIGGRAPH: NVIDIA präsentiert Turing-Architektur und dazugehörige Hardware

DDragN

Enthusiast
Thread Starter
Mitglied seit
22.01.2006
Beiträge
119
Ah, eine erste Nachricht aus der Zukunft!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein ist immer so, der Artikel ist vorbereitet aber noch nicht freigeben.
 
quadro-rtx.jpg
Nicht etwa zur GamesCom nächste Woche, sondern zur aktuell stattfindenden SIGGRAPH im kanadischen Vancouver stellt NVIDIA eine neue GPU-Architektur namens Turing vor und präsentiert auch gleich die erste Hardware. In Anbetracht der Tatsache, dass die Vorstellung auf der SIGGRAPH stattfindet, ist der Fokus auf professionelle, sprich Workstation-Hardware, nicht weiter verwunderlich.Mit der Ankündigung von NVIDIA RTX und Microsoft DXR will NVIDIA das Ray-Tracing in Echtzeit möglichst bald in die Realität...

... weiterlesen
 
Wichtigster Bestandteil der Turing-Architektur sollen neue Tensor Cores sein. Diese kennen wir bereits von der Volta-Architektur. Mit diesen konnte NVIDIA die Leistung in den für Deep Learning wichtigen FP32-Berechnungen auf 120 TFLOPS steigern.
Irgendwie finden sich da im Internet auch widersprüchliche Angaben. Laut denen können die Tensor Cores FP16, INT8 und INT4. Könntet ihr da noch mal nachhaken und das Ganze vielleicht auch etwas genauer erklären. Ein paar Zeilen drunter schreibt ihr ja, dass die Eingangswerte für die Matrizen A und B in FP16 sind, und nicht FP32. Ich glaube, hier ist noch Klärungsbedarf.
 
OK also gibts die neunen Geforces zur Gamescom, nochne Woche warten halte ich aus.. :hail:
 
Cool, dass sich in Sachen Raytracing etws tut. Und auch cool, dass die Quadros angekündigt sind. Das heisst, GeForce sind nicht mehr weit. Inkl. GDDR6.
Aber bringen die Tensor Cores jetzt etwas in Spielen? So wie ich das lese, muss es von der Engine explizit unterstüzt werden richtig?
 
Hoffentlich kommt das Referenzdesign für die Geforce Karten auch mit dem abgebildeten Kühler.
Dann bekommen zwei Karten dicht an dicht verbaut endlich wieder etwas mehr Luft, so wie es jahrelang vorher der Fall war.
Schön, schlicht und funktional.
 
Irgendwie finden sich da im Internet auch widersprüchliche Angaben. Laut denen können die Tensor Cores FP16, INT8 und INT4. Könntet ihr da noch mal nachhaken und das Ganze vielleicht auch etwas genauer erklären. Ein paar Zeilen drunter schreibt ihr ja, dass die Eingangswerte für die Matrizen A und B in FP16 sind, und nicht FP32. Ich glaube, hier ist noch Klärungsbedarf.

Die "alten" Tensor Cores der Volta-Architektur verwenden Eingangs-Matrizen aus FP16-Einheiten (die dazugehörige Akkumulation kann eine FP16- oder FP32-Einheit sein), die neuen Tensor Cores können auch INT8 und INT4.
 
Und Sound wie eine Gasturbine :teufel:

Das war sicherlich bei den Fermi 480ern so, bei den "Titan" Kühlern hört man nur das Luftrauschen, das Gebläse selbst pfeift nicht mehr.
So lange die Drehzahl im Leerlauf endlich weiter reduziert wurde (deutlich unter 1000 Umdrehungen) und unter Last die Abwärme mit moderater Geräuschkulisse abgeführt wird,
ist alles in Ordnung. Dafür sind die Karten mit Radialkühler ja da. Mit Axialgebläsen sollen die auch nicht (in Sachen Akustik) konkurrieren.
 
Ah das wusst ich nicht. Meine letzte Radiallüterkarte war eine Gtx275 :fresse:
Bei den aktuelle temps hat sogar meine 1080TI mit Axiallüfter höhrbar Mühe alles zu kühlen.
 
Gibt es schon andere Bilder der Karten? Würde gerne die NVLink Stecker sehen.
 
Ich schätze 4 Jahre noch, dann werden wir... Mainbords... auf die Grafikkarten stecken...
 
Also eine proprietäre Raytracing Implementierung, haben wir wirklich darauf gewartet?
 
OK, wird es vorerst RTX parallel geben, oder wird es bisherige Karten ablösen?
 
Nein, Microsofts DXR ist die Grafikschnittstelle dafür, ähnlich wie DirectX 12 oder DirectX 11. Die RTX-Technologie von NVIDIA ist im Grunde nur eine Entwickler-Schnittstelle – bzw. darüber geht es dann weitergegeben an Microsoft DXR. Per Direct Compute und Microsofts DXR können theoretisch alle GPUs ein Echtzeit-Ray-Tracing. Die Frage ist wie schnell bzw. Volta und Turing haben eben eine Hardwarebeschleunigung dafür.

Es wird aber auch GameWorks-Effekte für Ray-Tracing geben.
 
Welche Produktstrategie Nvidia verfolgt wissen wir nicht. Spiele werden wohl vorerst beides unterstützen (wenn die Entwickler es ins Spiel implementieren). RTX wird für den Mainstream aber noch etwas dauern glaube ich. Für vernünftiges raytracing braucht man Tensorkerne. Die sind sehr groß und damit die Chips in der Fertigung relativ teuer.
 
Nein, Microsofts DXR ist die Grafikschnittstelle dafür, ähnlich wie DirectX 12 oder DirectX 11. Die RTX-Technologie von NVIDIA ist im Grunde nur eine Entwickler-Schnittstelle [...]
Technologie? Entwickler-Schnittstelle?

Ist das nicht schon seit Urzeiten so, daß die GPU-Hersteller Funktionen die in DirectX oder OpenGL existieren, in die Hardware gießen? Also etwas ganz normales ist, daß man GPU-Hardware im Bezug auf DXR (und bald wohl auch die Ideen von Vulcan dafür) leistungsfähiger zu machen versucht?

Läuft das nicht schon seit spätestens DirectX 6 so ab? Verstehe grad nicht warum hier alle so erregt tun... (?)

@Mo3Jo3
Lässt sich nicht so 100% sagen. Nachdem sie DX11 mal quasi gehackt haben und damit einen signifikanten Vorteil gegenüber AMD bekamen, haben sie DX12 so gut es ging auszubremsen versucht. In DX12 sind sie bestenfalls gleichwertig.
Jetzt, wo sie einen zeitlichen Vorteil mit DXR haben, werden sie das wohl wie blöde pushen. Die einzige Bremse welche AMD die nötige Zeit verschaffen kann wird wohl nur MS selbst sein ;)
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Als wenn ich das jetzt richtig verstehe gehört das RTX Feature zu DX12 bzw. ist teil von DX12 oder?
 
Sehe ich auch so. Schätze wenn man das DirectX "DXR" auf sein Win10 spielt, die DX12 Treiber wie gewohnt laufen. Es fehlt halt nur das Raytracing. Alles andere wäre schwer blöde von MS.
 
Nein das hat nichts miteinander zu tun. DXR ist eine API genau wie DX11/12 oder Vulkan.(Edit: evtl war dx12 die Vorlage) Alle Hersteller können darauf zugreifen. Nvidia hat in diesem Bereich die Forschung voran getrieben und die neue eigene HardwareTechnologie RTX genannt. Vor allem aufgrund der Hardwarebeschleunigung durch die tensorkerne sind sie dort so massiv im Vorteil. AMD besitzt sowas noch nicht.
 
Zuletzt bearbeitet:
Darf ich mal fragen woher die Erkenntnisse zur 2080ti und 2080 stammen, darüber hat Jensen kein Wort verloren?

754mm² für Consumer+Tensorarea? Was wollt ihr dafür bezahlen? Eine 2080ti wird es wohl nicht geben, eher eine Titan RTX für 3000$ und eine ganze zeitlang erst Mal nix, bis die 2080 kommt, dass könnte auch ein Pascalrefresh sein.

Das Event war an gespielter Witzigkeit ala Trump nicht übertreffen.
 
Zuletzt bearbeitet:
Also wenn NVIDIA die Entwickler dazu bringt Raytracing in die Spiele/Engines einzubauen sollte man in diesen Titeln einen riesen Vorsprung vor AMD haben, das wird nicht einfach werden, mal sehen ...
 
Turing scheint der Voltanachfolger zu sein, Amperearchitektur die auf RT setzt. Anders kann man das nicht auslegen.

Gibt dann wohl noch Pascal Refreshs, wie auch immer die heißen. Wenn 8 Karten an 7 aufeinanderfolgende Szenen bis zu einem Tag rendern, naja.

Bei HWL scheint irgendein Wunschdenken Einzug gehalten haben, oder die haben mehr Infos alle anderen. Die gezeigten Szenen wurden auf einer P8000 für 10000$ gerendert und ruckelten zeitweise merklich. Jensen hielt die Karte einige Minuten lang hoch.
 
Warum sollte das nicht einfach werden? Raytracing kann jeder nutzen, aber nur auf nVidia läuft es in der hardware aktuell ... somit Vorteil gegenüber AMD und das ganz ohne Gameworks - das noch on top und AMD ist wieder um Jahre abgeschlagen.
 
Warum sollte das nicht einfach werden? Raytracing kann jeder nutzen, aber nur auf nVidia läuft es in der hardware aktuell ... somit Vorteil gegenüber AMD und das ganz ohne Gameworks - das noch on top und AMD ist wieder um Jahre abgeschlagen.

Das läuft nur über Nvidias SDK und das ist nunmal Gameworks, Träumer. Als wenn Jensen was zu verschenken hatte. Für Gamer war da überhaupt nichts dabei und wurde auch nichts angesprochen. Kein einziges Wort.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh