Big Navi: Angebliches Foto soll Details zu Größe und Zahl der Transistoren verraten

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.571
amd.jpg
Dem YouTuber Coreteks soll angeblich ein Bild eines AMD-Big-Navi-Chips zugespielt worden sein. Darauf will der Kanal-Betreiber unter anderem die Größe des Chips und andere technische Details erkennen können.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da fällt mir nur noch eins ein:

Even Bigger Navi :d
 
Geht jetzt die nächste Katastrophe los ? Müsste, könnte, man vermutet..... Lass das Ding rauskommen, ärgert euch über die Verfügbarkeit und in ein paar Monaten sind Nvidia und AMD in der Realität angekommen.
 
Geht jetzt die nächste Katastrophe los ? Müsste, könnte, man vermutet..... Lass das Ding rauskommen, ärgert euch über die Verfügbarkeit und in ein paar Monaten sind Nvidia und AMD in der Realität angekommen.
Bis die GPUs der beiden Konkurrenten am Markt angekommen sind kann man eig. gleich auf Hopper warten :p
(was ich vermutlich auch tun werde)
 
Oder auf RDNA3 - soll ja nächstes Jahr wieder was Neues geben. ^^
 
nun, wenn 20 cu von 80 cu für rt verwendet werden können beim zuschalten von rt, bedeutet das für mich im umkehrschluss bei eingeschaltetem rt ein leistungsverlust von ~33%.

mit blick auf die rtx 3080 verliert diese 35% in uhd und 32% in wqhd. also scheint mir die amd lösung potentiell nicht langsamer zu sein als nvidias.
 
Zuletzt bearbeitet:
Hurra, ein Leak :d
Danke für den Hinweis darauf, mal etwas schmökern!

Will nicht mehr länger auf was neues warten! *Stampf*
 
Da wollen einfach zu viele Unternehmen die Silizium Fertigungsprozesse am Ende des Jahres in Anspruch nehmen.
Zen3, rdna2, Intel rocket lake, PS5, xbox, ergeht es nicht anders.

Nur Nintendo ist schlauer und verschiebt auf irgendwann nächstes Jahr. :sneaky:
 
nun, wenn 20 cu von 80 cu für rt verwendet werden können beim zuschalten von rt, bedeutet das für mich im umkehrschluss bei eingeschaltetem rt ein leistungsverlust von ~33%.

mit blick auf die rtx 3080 verliert diese 35% in uhd und 32% in wqhd. also scheint mir die amd lösung potentiell nicht langsamer zu sein als nvidias.

also 20 von 80 sind immer noch 25%....
 
Gibts eigentlich schon einen richtigen Test im Bezug auf die RT-Mehrleistung von Ampere zu Turing? Gerade bei der 3070 fände ich das interessant, aber auch die 3080 dürfte gut als Referenzpunkt herhalten können, schließlich hat sie wohl die gleiche Menge RT-Cores wie die 2080 Ti.

Oder mal so gefragt: Wer zockt mit der 3080 BFV in 4K, was bekommt ihr an FPS raus wenn ihr alles auf "Ultra" setzt? Bei mir mit der 2080 Ti sind es da ~40 FPS als Minimum. DXR an, DLSS aus, 3840 x 2160 nativ ohne Bewegungsunschärfe, DX12 (wobei das für DXR sowieso nötig ist).

Schaltet man nur DXR auf "Mittel" und alles andere auf Maximum bleiben die FPS übrigens über 60. Der optische Verlust (der dann ohnehin nur DXR betrifft) hält sich wohl in Grenzen:

Raytracing-Halle.jpg RTX. IT'S ON..jpg
 
Ja den Test gibt es von hardwareunboxed GeForce RTX 3080 Ray Tracing & DLSS Performance, RTX ON vs OFF
Die Erkenntnis ist diesselbe wie bei Luxx und anderen Tests. Ampere agiert bezüglich raytracing/dlss on/off nur geringfügig besser als Turing.
Und dies obwohl die höchsten Raytracing Einstellungen gewählt wurden.

Die rtx 3070 müsste sich irgendwo im nahen Feld der RT/DLSS-Leistung der 2080 ti einpendeln.
Die Werbeversprechen greifen in der Praxis noch nicht. Falls überhaupt nur bei sehr starken und auf rtx gut optimierten Spielen wie Quake 2 oder Minecraft.
 
Cool, ein Thread zu BigNavi und dann nach der RT-Performance von Ampere fragen. Macht echt sinn. *kopfschüttel*

Cunhell
 
also 20 von 80 sind immer noch 25%....

das problem mit prozentrechnung ist, es kommt drauf an von welcher richtung man guckt.
60 * 1,33 = 80 -> von 60 auf 80 braucht man 33% mehr
80 * 0,75 = 60 -> von 80 auf 60 sind es 25% weniger

um dir jetzt darzulegen wieso ich mich für ersteres entschieden habe, nehme ich ein beispiel.

battlefield 5:
rx 5700 xt @ 1800mhz 125,5 fps (40 cu)
rx 5500 xt @ 1830mhz 71,4 fps (22 cu)

22 * 1,818181 = 40
40 * 0,55 = 22

71,4 * 1,818181 * 1,00167 = 130 -> 3,58% abweichung von der realität
125,5 * 0,55 / 1,00167 = 67,9 -> 5,15% abweichung von der realität

die werte sind ohne jegliche skalierungsverluste durch größere chips, zeigen aber schon den trend auf das die sichtweise von unten nach oben genauer ist.
und wenn es dann wirklich nur 25% verlust sein sollten. umso besser. dann wäre amds rt dem von ampere deutlich überlegen. :)
 
Es ging aber darum von den 80 20 für Raytracing weg zu nehmen. Ergo: -25% der Einheiten.

Andersrum gewinnst du +1/3 beim deaktivieren von Raytracing.
 
nun, wenn 20 cu von 80 cu für rt verwendet werden können beim zuschalten von rt, bedeutet das für mich im umkehrschluss bei eingeschaltetem rt ein leistungsverlust von ...
Hab mich mal mit ein paar Leuten unterhalten, die mehr davon verstehen als ich und das soll eine dynamische Zahl sein. Das sind keine festen CUs die "reserviert" werden, sondern je nach Szene/Auslastung etc werden die eben dafür verwendet. Die ~20CUs (ganz wichtig das "~") sind ein Durchschnittswert, kein Festwert. Da AMD die Shader nie zu 100% ausgelastet bekommen hat, ist das auch ne ziemlich clevere Methode brach liegende Rechenpower anderweitig zu nutzen. Der Leistungsverlust wird entsprechend weniger radikal sein, als dargestellt. ;)

PS: Mal zur groben Abschätzung der reinen RT-Rohleistung eine kleine Grafik:
EjhhJR2UcAITXen


Twitter-Quelle

PS: Ein böser Schelm könnte sich auch dabei denken: Je unoptimierter ein Spiel ist und je mehr Rechenleistung brach liegt, desto mehr RT kann AMD in das Spiel pumpen. Somit sind Sabotageaktionen durch gewisse Marketing-Funds nicht mehr ganz so... effektiv. ;)
 
Zuletzt bearbeitet:
Vor allem muss man nur kurz in das Patent schauen und sieht das jeder diese Funktionsblöcke (mit mehreren Einheiten), dedizierte Raytracing-Kerne hat.
Ich erinner mich dass ein bestimmtes Verhältnis an Raytracing-/-Shader/-Texture etc. pro Clock Zyklus es dennoch gibt. Ob nun 1:4?
K.A. Rdna2s Ansatz ist wie Shevchen schon schreibt deutlich flexibler als Amperes. Gedacht um vor allem Konsolenentwickler in dieser "Raytracing-Anfangszeit" die Wahl zu lassen wo sie die Tflops einsetzen und nicht.

Im verlinkten Twitter Bild sieht man dass es für Turing ein 1:2 Verhältnis ist, Ampere 1:2 und Konsolen 1:4. Rdna2 folglich auch 1:4.
 
Muss man schauen wo die Leistung hingeht, bezogen auf brach liegende Leistung..... User CPU Power... Da muss definitiv auch was dynamischer werden. Nicht weil Spiele die Kerne nicht optimal nutzen, auch die Grafikkarten könnten einen Teil der leeren Kerne als Co Prozessoren verwenden wie z. B Raytracing... War da nicht mal was Software based Raytracing? Wäre das nicht ein " heureka " das zu kombinieren?
Beitrag automatisch zusammengeführt:

It seems they’d been doing so for quite some time. A patent application came to light in July 2019, which pointed to AMD utilizing a hybrid hardware and software approach to ray tracing. This patent suggests that AMD’s plan for ray tracing involves leveraging bespoke hardware to accelerate it while performing the bulk of the work on more general hardware via software. This leveraging, it claims, makes it so that there isn’t too much of a performance hit, without requiring game developers to work with its precise definition of ray tracing rendering.

Quelle: https://www.google.com/amp/s/www.digitaltrends.com/computing/what-amd-plans-ray-tracing/?amp
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh