HotChips32: AMD gibt Ausblick auf RDNA 2 mit Raytracing-Beschleunigung

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.965
xbox_scorpio_soc.png
Auf der HotChips-Konferenz hat Microsoft die System Architecture der Xbox Series X vorgestellt. Fast alle technischen Daten des Custom-SoCs, den man gemeinsam mit AMD entwickelt hat, kennen wir bereits. Für uns besonders interessant ist das, was man über die verbaute GPU-Architektur verraten hat, denn die acht Zen-2-Kerne kennen wir bereits von den Desktop- und Mobile-Prozessoren.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bin echt gespannt auf BIG NAVI und deren Leistungsfähigkeit!
Interessant finde ich auch das man anscheinend was ähnliches wie DLSS nachliefern könnte!
 
Eigentlich wollte ich meine 1080ti durch eine 3080/3090 austauschen.
Mich stört aber die Stromversorgung.

Hoffentlich bietet Navi da eine Alternative.
1080ti +>40% würde mir reichen, mehr nehme ich aber gerne ;)
 
Sieht so aus als würde der Sprung dieser Konsolengeneration gut gelungen. Recht viel Leistung für einen schmalen Thaler.
Hoffentlich geht es auch mit der Auflösung der Exclusivität weiter. Das aktuelle System gefällt mir schon gut, wenn Spiele nach 1-2 Jahren auch für PC erscheinen.

Jetzt fehlt nur noch USB-4.0 für ein Standalone-VR-Headset, das vollwertig am PC angeschlossen werden, WQHD/4K@144hz+ darstellen kann und vernünftige Controller bekommt.
FUTURE ! FUTURE !!!
 
Bin echt gespannt auf BIG NAVI und deren Leistungsfähigkeit!
Interessant finde ich auch das man anscheinend was ähnliches wie DLSS nachliefern könnte!
AMD arbeitet ja mit Microsoft zusammen an DirectML es wurde ja auch schon anhand von Forza gezeigt und sah echt gut aus.
Was mich stört, wenn es stimmt das 4xRT Cores pro CU drin sein soll.
Da hätte Big Navi bei 80CUs nur 320 RT Cores und man wäre der 2080Ti und sogar der RTX2080 deutlich unterlegen.
Entweder ist das falsch mit den RT Cores und deren Menge oder AMD hat wie immer wieder mal scheiße gebaut

Kann mir nicht vorstellen das AMD weniger RT Leistung als bei der RTX2080Ti haben wird
 
Zuletzt bearbeitet:
Kann mir nicht vorstellen das AMD weniger RT Leistung als bei der RTX2080Ti haben wird
Ich mir schon.

Immerhin will AMD günstiger sein und das geht eben nur indem man abstriche hinnimmt.
 
Da hätte Big Navi bei 80CUs nur 320 RT Cores und man wäre der 2080Ti und sogar der RTX2080 deutlich unterlegen.
Entweder ist das falsch mit den RT Cores und deren Menge oder AMD hat wie immer wieder mal scheiße gebaut
Völlig anderer Signalweg, andere Berechnungsverhältnisse und Ansätze. Du kannst die "RT-Cores" nicht 1:1 übersetzen. Halt das Pferd ruhig und guck dir die Ergebnisse an, wenn die Reviews aufschlagen. Wie immer also.
 
Bei Gran Turismo auf der PS5 hat man ja auch schon gesehen wie viel RT eine 36CU RDNA2 Custom-GPU kann.
Da lief RT ja in 1080p+Checkerboard rendering und der rest in 4k@60FPS und daher sollte man eigentlich eine 2080Ti in RT deutlich schlagen.
Wie gesagt ich kann mir kaum vorstellen das man gegen eine 2080Ti verliert in RT sondern eher deutlich mehr RT Power haben wird.

@Shevchen ich werde sowieso auf die Tests warten wie ich es auch schon bei der Radeon 7 gemacht habe und dann gezwungen wurde auf die 2080Ti zu gehen weil die Radeon 7 so reingeschissen hatte :fresse:
 
Ich bin so gespannt, wenn beide Konsolen auf dem Markt sind und verglichen werden können. Ich kann mir auch gut vorstellen, dass Sony eine Pro-Version (schneller, besser, VR-Monster und mehr SSD Speicher) im neuen Jahr nachreicht, zusammen mit VR. Dann greif ich zu. Wird mir sicher einen Tausender kosten, aber man gönnt sich sonst alles 😄
 
Ich bin so gespannt, wenn beide Konsolen auf dem Markt sind und verglichen werden können. Ich kann mir auch gut vorstellen, dass Sony eine Pro-Version (schneller, besser, VR-Monster und mehr SSD Speicher) im neuen Jahr nachreicht, zusammen mit VR. Dann greif ich zu. Wird mir sicher einen Tausender kosten, aber man gönnt sich sonst alles 😄

Wird sehr sicher passieren. Denke das lief mit der PS4 Pro schon sehr gut.
 
Ähm, eine 2080ti hat 68RT Cores. 1 pro SM.
Warum soll dann eine Navi mit 320 langsam sein?

Was mich stört, wenn es stimmt das 4xRT Cores pro CU drin sein soll.
Da hätte Big Navi bei 80CUs nur 320 RT Cores und man wäre der 2080Ti und sogar der RTX2080 deutlich unterlegen.
Entweder ist das falsch mit den RT Cores und deren Menge oder AMD hat wie immer wieder mal scheiße gebaut
 
Ähm, eine 2080ti hat 68RT Cores. 1 pro SM.
Warum soll dann eine Navi mit 320 langsam sein?
Oh mist... Stimmt ich habe das mit den TensorCores verwechselt :wall:
Also dann ist Big Navi echt Big wenn das stimmt :hail:
 
Also dann ist Big Navi echt Big wenn das stimmt :hail:
Nur weil man (grob) 5x so viele Einheiten wie eine 2080TI hat, muss das nicht bedeuten, dass man 5x so schnell ist. Wie oben schon von Anderen geschrieben, erst mal auf das Release und die Tests warten. Bis dahin kann man ja Daumen drücken, dass es wieder Konkurrenz für NV gibt und dadurch die Preise mehr in Bewegung kommen.
 
Die Anzahl der RT cores kann wohl direkt mit Nvidia nicht verglichen werden, weil die Ansteuerung ganz anders erfolgen wird.
Würde da zunächst mal von einer Leistung ausgehen, die auf etwa dem Niveau einer 2080ti liegt etwas darüber sicher aber mit Luft nach oben.

Grundsätzlich gehe ich weiter davon aus, dass letztlich die Unterstützung der native shader bei BN den Ausschlag geben wird, denn auf jeden Fall findet das ganze ja bei MS bei der XBoxX Verwendung.
Durch die Optimierung von DX 12 in der Hinsicht erhoffe ( erwarte ) ich auch eine Verwendung im reinen PC Bereich .

Durch die Positionierung von Zen und Navi im Konsolenbereich ist hier diesmal eine echte Chance da mit Hilfe von Codeoptimierung einiges an Qualität aus Navi zu ziehen. Ich denke die brutale Rechnenleistung kommt hier dank der Konsolen auch endlich mal auf die Straße.
 
Interessante Vermutungen zu der Leistung hier.
Könntet ihr bei den Vermutungen kurz dazu schreiben, wie man auf die Werte kommt und warum man davon ausgeht?

Ich habe bisher keinen Hinweis gesehen, der eine Hochrechnung von BigNavi vs eine 2080ti erlaubt. BN könnte 2x so gut sein, oder nur 50% erreichen. Genauere Hinweise finde ich nicht.
 
Bei Vollausbau Turing GA102 machen die 10 Magic-Rays, Jiga-Rays, ehhh, Gigarays, real 3,2 Gigarays https://www.reddit.com/r/nvidia/comments/9jfjen/10_gigarays_translate_to_32_gigarays_in_real/
Die "95G/sec ray-tri peak" sind dann dreißigmal so schnell?
Aber wie Don erwähnt passt der Vergleich nicht so ganz " AMD scheint auch die Shadereinheiten zur Berechnung der Bounding Volume Hierarchy (BVH) verwenden zu können. ".
Dennoch mehr als beachtlich. Turing wird diesbezüglich quasi mehrmals überrundet, oder fehlen noch Faktoren zur Beurteilung?
 
Warum sollten 320 RT-Cores langsamer sein? Es ist durchaus möglich dass sie effizienter werden. Das erwarte ich bei NVIDIA genauso, falls Echtzeit-Raytracing tatsächlich möglich werden soll. Bei höheren Auflösungen wird es dann ohnehin nur über reduzierte Auflösung beim RT gehen.

Wenn die Leaks stimmen und AMD sich zwischen 3080 und 3080 Ti einordnen sollte könnte ich mich damit durchaus anfreunden. Die 3080 könnte echt zur Lachnummer werden wenn sie für 10 GB 1000+ verlangen sollten, die 3080 Ti wird vermutlich dermaßen viel kosten dass selbst Titan- und 2080 Ti Käufer sie verschmähen. Irgendwo ist auch mal Schluss. Die Titan RTX kostet beispielsweise rund 2700 €, hier muss man einfach mal schauen wie viele selbst im Hardwareluxx-Forum sich so eine Karte gekauft haben - Im TRTX-Thread befinden sich ganze sieben Seiten mit Posts.

Jetzt fehlt nur noch USB-4.0 für ein Standalone-VR-Headset, das vollwertig am PC angeschlossen werden, WQHD/4K@144hz+ darstellen kann und vernünftige Controller bekommt.
FUTURE ! FUTURE !!!

Das wäre nicht schlecht. 90 Hz reichen ja schon völlig, die Auflösung muss aber steigen. Wirklich überzeugend ist das Angebot im VR-Bereich nicht. Spiele gibt es auch nicht viele, da das meiste nur halbgare Early-Access-Klone von normalen Spielen sind, die mangels Interesse von größeren Studios auch weiterhin unangefochten bleiben. Oculus scheint auf Exklusivität zu setzen, HTC zockt ab, die einzige Hoffnung bleibt HP. Sollte sich da eine günstige Wechseloption bieten die Vive Cosmos umzutauschen könnte das ein gutes Headset werden. Nicht jeder ist bereit über 1000 € für eine Index auszugeben, die selbst noch weniger Auflösung bietet als die neue HP. Da würde ein neuer Monitor mehr Sinn machen, denn VR funktioniert mit den meisten Spielen. Was ein Traum wäre das, Vermin-/Darktide in VR mit vollem Controllersupport... Oder ein Battlefield.
 
Zuletzt bearbeitet:
Ich gehe fest davon aus, dass AMD einfach andere Werte nutzt und die einfach nicht vergleichbar sind.
Niemals würde AMD 30x die Leistung bringen können. WENN das so wäre, dann wäre RT vor vielen Jahren schon auf GPUs aufgetaucht und man bräuchte Rasterperformance gar nicht mehr. Dann wäre RT ja schon allumfassend für jeden Pixel drin.

Ich glaube eher, dass sie es wie gegen Intel machen. Einfach ne Zahl um 1 erhöhen, damit es neuer / besser aussieht.
 
Also, die erste AMD Graka die RT unterstützt als "Die erhöhen die Zahl um 1 anstatt wirklich was reingesteckt zu haben" zu bezeichnen - und das wo die Folien von MS schon einen Ausblick auf die Neuerungen geben - ist schon ziemlich pessimistisch. Ich meine: Klar, kann man sagen. Man kann auch einfach AMD komplett ignorieren.

Das Teufelchen auf meiner Schulter möchte immer noch, dass AMD sich 5 Jahre aus dem GPU Markt zurück zieht, damit der "Kunde" dann mal zahlen darf, was er "möchte".
 
Eben, primitiv bzw. native schader support ist das worauf es diesmal ankommen wird, wenn das endlich begriffen wird, sind wir einen Schritt weiter. :)
 
Woher habt ihr das mit 320 RT-Cores???

Da steht, 4 Ray Ops/cycle per CU. Und "380G/sec ray-box peak" und "95G/sec ray-tri peak".
Wie kommt man da auf 320 RT-Cores?

Auch wird das bei NV scheinbar mindestens in Teilen anders gehandhabt als bei der AMD Umsetzung. Offenbar nutzt AMD den für BHV den Umweg über die Shader während das bei NV nicht der Fall ist.
Solange da keine Details bekannt sind, kann das alles und nix sein. :wink:
 
Was für Werte sind es den Tech Enthusiast? Frage ich mich ja auch.

Rein von den Zahlen her ist alles erklärt. Die rtx quadro 6000 hat 72 SMs und somit 72 RT-Beschleuniger.
Bei der gezeigten rdna 2 Gpu sind es 4 pro CU, also 56 * 4 = 224 RT-Beschleuniger.
Ray-box intersections sind es 380 G/s gegen 10 G/s, bei trianlge-intersection halt 95 vs. 3,2. Aus 95 könnten halt 80 werden, 70. k.A.
Triangle ist halt wichtiger als Boounding box.

Interessant ist dies hier " ... im Vergleich zur um den Faktor drei bis zehn höheren Leistung durch deren Unterstützung."
Als Lederjacke vorne stand und die Jiga-Rays und den Turing Frame erklärt hat, sagte er irgendwas von 780 Rtx-Ops für die quadro 6000.
Diese war laut seiner Folie in der spezifischen Raytracing-Berechnung (war die Star Wars Demo) zehnmal schneller als die Gtx 1080 ti.
Nun sind es halt keine 10 G/s, sondern real 3,2. Mal angenommen die 10 sind auch irgendwie erlogen und es sind ähnlich wie bei Nvidias Quadro real dreimal weniger, sind die 95 G/s dann immer noch 10-mal so schnell wie Turings Ansatz.
Ist jetzt natürlich nur eine Milchmädchenrechnung. Wenn es irgendwo so hinhaut muss sich selbst Ampere warm vor BigNavi anziehen wenn es um RT geht.
 
Ohne AMD sähe es ganz düster aus. Dann wäre es Monopol und das sah man bei Intel ja schon wo es hinführt. Intel steigt zwar nun ebenfalls in den GPU-Markt ein, ich rechne da aber höchstens mit ein paar mittelklassigen Karten und ob die Treiber dann gut sind wird sich noch zeigen.

Gibt es die Messeinheit "Gigaray/s" überhaupt oder ist das Marketing?
 
Also, die erste AMD Graka die RT unterstützt als "Die erhöhen die Zahl um 1 anstatt wirklich was reingesteckt zu haben" zu bezeichnen - und das wo die Folien von MS schon einen Ausblick auf die Neuerungen geben - ist schon ziemlich pessimistisch. Ich meine: Klar, kann man sagen. Man kann auch einfach AMD komplett ignorieren.

Das Teufelchen auf meiner Schulter möchte immer noch, dass AMD sich 5 Jahre aus dem GPU Markt zurück zieht, damit der "Kunde" dann mal zahlen darf, was er "möchte".

Ich bezog mich auf die [insert Name der Rays] Leistung.
Die könnten mir aus schreiben "Wir packen da 3000 GigaRays!", während NVidia 10 GigaRays bewirbt.
Solange die zwei nicht von derselben Messung reden, sind die Zahlen einfach nicht vergleichbar.

Das wäre, als ob Audi nen Auto verkauft, dass "schnell" ist. Und ich ein Auto, dass "sehr schnell!" ist. Wie schnell die zwei Autos aber sind, kann man halt nicht vergleichen.
Beitrag automatisch zusammengeführt:

Solange da keine Details bekannt sind, kann das alles und nix sein. :wink:

Genau mein Punkt.
Die messen das anders, nennen es anders, bewerben es anders,... nix davon gibt auch nur im Ansatz einen Hinweis auf die echte Leistung.

Nur eine Sache traue ich mich zu behaupten:
WENN AMD hier RT mit 10x-30x Leistung bringen KÖNNTE, dann wäre das ein kleines Wunder und man müsste sich fragen, wozu es dann normale Rechenkerne überhaupt noch gibt. Kann ja dann alles mit RT gemacht werden. Da das wohl sehr unwahrscheinlich ist, halte ich es für gesichert, dass sie sicher keine RT Lösung haben, die auch nur in die Nähe dieser Werte kommt.
 
Peak Triangle einer 2080ti soll bei etwas über 30 liegen. Bei der Xbox mit 96 angegeben. Sollte sich am ehesten vergleichen lassen.
4x so viele RT Berechnungen pro Sekunde würden dann gut die 3fache Leistung bedeuten.
Nvidias RT dürfte dann etwas effizienter arbeiten.
Dann wird es spannend wie viele RT Cores eine 3080/90 pro SM haben wird. Sicher auch 3+
 
Die Anzahl der RT cores kann wohl direkt mit Nvidia nicht verglichen werden, weil die Ansteuerung ganz anders erfolgen wird.
Würde da zunächst mal von einer Leistung ausgehen, die auf etwa dem Niveau einer 2080ti liegt etwas darüber sicher aber mit Luft nach oben.

Grundsätzlich gehe ich weiter davon aus, dass letztlich die Unterstützung der native shader bei BN den Ausschlag geben wird, denn auf jeden Fall findet das ganze ja bei MS bei der XBoxX Verwendung.
Durch die Optimierung von DX 12 in der Hinsicht erhoffe ( erwarte ) ich auch eine Verwendung im reinen PC Bereich .

Durch die Positionierung von Zen und Navi im Konsolenbereich ist hier diesmal eine echte Chance da mit Hilfe von Codeoptimierung einiges an Qualität aus Navi zu ziehen. Ich denke die brutale Rechnenleistung kommt hier dank der Konsolen auch endlich mal auf die Straße.
Würde ich auch in etwa so schätzen, mehr RT Leistung kann man später auch noch bringen. Reine Leistung wird auch nicht so ganz so relevant sein eher Software backend, wenn die Entwickler RT einzusetzen wird das dem Konsolero nicht schmecken wenn es dann ruckelt 🤪 , und nachschieben wird auch schwieriger.
Aber speziell bei Ratchet and Clank sah das schon ziemlich gut aus, da erspähte ich schon einige Schmankerl, wobei ich mal davon ausgehe das Sony ähnliches bietet bzw. mich frage ob es dort Vulkan support gibt.
 
Nvidias RT läuft so ziemlich in Hardware gegossen - vor allem was demnächst so rauskommt. RDNA2 wird sich entsprechend gegen Ampere vergleichen dürfen und nicht mit der 2080Ti. Ansonsten haben wir schon 2 Demos von PS5/Xbox gesehen, welche die neue Grafikpracht zeigen - und das ohne besondere Optimierungen. Das kann man wie immer schlecht auf PC übertragen, weil dort halt noch Hardware von 1990 unterstützt werden muss - aber wenn wir mal grob mit dem Daumen in den wind peilen, dürfte die RDNA2 circa die RT-Performance von Turing haben - da ja noch ein Teil in Software läuft.
 
Stopt den Hypetrain...
Microsoft hat auf einer Konferenz Einblicke in sein Design der Hardware gegeben, welches von AMD befeuert wird.
Ob der Zug nun schneller als die Konkurrenz fahren wird? Keiner weiß es, AMD hält die Infos noch zurück.
Es könnte genauso wie beim Vega Launch aussehen, wo das Topmodell nichtmals gegen "alte Technik" der Konkurrenz ankam (ok und alle Chips irgendwie viel zu viel Spannung bekamen, undervolting kam etc...), die Rohleistung las sich gut und wurde in den höchsten Tönen gelobt, aber es kam nicht mehr als brauchbare Hardware bei rum. Keine Wunderkarte die es Team grün so richtig zeigte.
Warten wir ab, in den nächsten Wochen wirds mehr Infos geben.
 
Ohne AMD sähe es ganz düster aus. Dann wäre es Monopol und das sah man bei Intel ja schon wo es hinführt.

Man muss aber auch sagen, dass NVidia trotz quasi Monopol immer gut gepusht hat. Die Steigerungen von Generation zu Generation waren immer solide.
Bei Turing mögen manche enttäuscht gewesen sein, weil statt dicker Mehrleistung halt neues Rendering kam,... aber im Nachhinein wird jeder dankbar für Turing sein.
NVidia muss man da also nichts vorwerfen.

Ich stimme aber zu: Intel hat das Monopol hart missbraucht (hust, KabyLake, hust).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh