AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

8K :ROFLMAO:
Inzwischen werden hier schon sehr kleine Brötchen gebacken, aber meinst du BN Cut?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
8K ohne Tricks ist ein netter Traum hehe.
Aber hey, solange die "Tricks" bessere Ergebnisse liefern, als natives Rendern... nehme ich die Tricks.
Warum sollte man freiwillig ein schlechteres Bild UND geringere FPS wollen?
 
Die Navi ist nur als Übergangskarte in den Rechner gewandert. Der Rechner wurde im Frühjahr aufgebaut. Ich wusste damals schon, dass eine 2080Ti aus wirtschaftlichen Gesichtspunkten überhaupt keinen Sinn mehr macht. Dann lieber eine Navi und diese ein halbes Jahr später verticken und eine 3000er oder BN rein. Und was soll ich sagen? Die Entwicklung gibt mir recht. ;)

Edit: Und selbst wenn ich die Navi behalten würde und mir jetzt eine 3080 FE hole, bin ich mit meinen Gesamtausgaben für beide Karten noch unter den Preisen der günstigsten 2080Ti‘s. Nur dann hätte ich sogar noch eine Backup-Karte oder etwas für ein Zweitsystem. Von deutlich mehr Rechenleistung mal ganz abgesehen. Gib es ruhig zu... das war ziemlich geschickt von mir.

Siehst Du und schon verstehe ich, dass Du nachgedacht hast und nicht einfach nur Blind gekauft hast.

Trotzdem bleibt abzuwarten was die Karten wirklich können.
Die 8GB der 3070 finde ich zu wenig, da müssten 12GB drauf und auf der 3080 16GB.
 
Ich hätte gerne eine effiziente Karte, die für die nächsten Jahre auf 1440p alles auf Anschlag reicht.
Dazu noch einen Algorithmus, der bei Erkennung eines einzigen Etherumhashes direkt die Selbstzerstörung auslöst :d

Meine Güte, erst auf das Nvidia Event, nun auf das AMD Event warten... ich brauch eine Kälteschlafkammer.
 
4k wird es bei mir die nächsten Jahre auch nur auf dem TV geben. Und das wird wenn überhaupt dann Tony Hawks Pro Skater 2 Remaster^^ Davor wurde nur mal MK gezockt auf dem TV.
Also 1440p muss rennen, Stalker2 muss rennen^^
 
Trotzdem bleibt abzuwarten was die Karten wirklich können.
Die 8GB der 3070 finde ich zu wenig, da müssten 12GB drauf und auf der 3080 16GB.

Wenn man mal von den meisten aktuellen Games ausgeht dann bekommt man selbst die 8 GB nicht voll. Wenn man nicht noch den Extra-Super-Duper-Texturepack installiert hat gammelt man meist bei 4 GB VRam rum. Und bei den meisten Programmierern/Publishern wird man eher auf dem niedrigsten Level rechnen und programmieren. Der Großteil der Spieler ist eher mit Hardware von Vorgestern unterwegs, der eine oder andere dürfte sogar erschrocken sein das es inzwischen Grafikkarten gibt die mehr als 16 Farben darstellen können, und auf diesen Löwenanteil konzentriert man sich eher. Und wenn man sich so die Steam-Hardwareübersicht ansieht dann denke ich nicht das sich das so schnell ändern wird. Ich habe letztens eine AMD HD 5850 verschenkt, der Empfänger war hocherfreut über diese "schnelle" Grafikkarte. Im Rechner meiner Mutter steckt eine HD7870 drin. Und man staunt was die Teile noch bringen, Ja, man braucht den Ultra-Schalter nicht einmal ansehen um das System zu Stillstand zu bekommen. Aber für viele reichen Detailstufen aus die solche Karten noch darstellen können. Wir hier im Forum sind Freaks.
 
Was Viele vergessen, alte Spiele laufen auch mit alten Karten weiterhin gut. Allerdings laufen neue Spiele auf einer HD 5850 zum Beispiel gar nicht. Selbst vor ein paar Jahren war das grenzwertig, ich kannte einen der diese Karte mit 1 GB hatte, BF1 lief da noch mit ~30 FPS und Division (1) in niedrigster Auflösung mit noch weniger FPS. Die ganzen Alten "Esports"-Titel hingegen waren nie ein Problem, selbst BF4 lief erstaunlich gut in 1080p Mittelhoch. Natürlich ist sowas immer die Basisausführung, da kann man froh über 1080p mit 60 FPS und möglichst mittleren Details sein. Alles darüber wird nicht laufen. Karten wie die 3080 sind ganz klar an Enthusiasten gerichtet, die damit definitiv nicht in 1080p zocken werden.
 
hier ein altes bild und neue spekulationen.

es ist ein virtual reality benchmark, ich nehme den 87.13 wert für die 2080ti, weil hier mit einem intel 10900k getestet wurde und vermutlich die karte nicht oc ist.
die unbekannte amd karte hat hier anfang 2020 103.32 punkte. das sind ~19% mehr leistung als die 2080ti.

bignavi soll in 2 versionen kommen, eine 12gb version mit 4608 shadern und die 16gb version mit 5120 shadern.
ich vermute jetzt einfach mal, das der vr benchmark der 12gb version ist, woraus sich 114.8 punkte in diesem benchmark ergeben könnten für die 16gb version
und so ~32% schneller wäre als eine 2080ti.

das würde zu igors einschätzung passen, das bignavi nicht ganz 3080 niveau erreicht, aber mit höherem powerlimit es doch schaffen könnte.
oder igors einschätzung basiert nur auf dieser info. zudem liegt die performance von prototypen meist deutlich unter dem finalen produkt.
hier wurde in 9 monaten sicher noch an hardware und software gefeilt.

in diesem video wird auf die raytracing fähigkeiten von rdna2 eingegangen und den vorteil, daß diese techniken in den kommenden konsolen genutzt wird.
laut video ist amd raytracing schneller als nvidias raytracing. das einzige manko ist, daß raytracing berechnung sich die resourcen mit textur shading teilen und
so bei schlechter unterstützung in spielen die raytracing performance stark einbrechen kann.
die verteilung der tasks (texturen und raytracing) soll aber recht einfach sein. da hilft die erfahrung der spieleentwickler mit den konsolen.

ich frag mich da halt, wie groß nvidias "werbebudget" ist, um schlechte amd raytracing leistung bei spieleentwicklern einzukaufen.

edit:
ich hab mir den benchmark noch genauer durchgelesen,
also eine normale 2080 ti schafft ca 80 punkte in dem genannten benchmark, die beiden werte waren mit oc 2080tis.

das wären dann ~29% schneller als eine 2080ti, bzw sogar 43,5% mehr wenn meine annahme von oben stimmt.
 
Zuletzt bearbeitet:
8K ohne Tricks ist ein netter Traum hehe.
Aber hey, solange die "Tricks" bessere Ergebnisse liefern, als natives Rendern... nehme ich die Tricks.
Warum sollte man freiwillig ein schlechteres Bild UND geringere FPS wollen?

Weil die Karte 1499 € kostet. Selbes Problem wie bei der 2080 Ti zuvor. 699 € und man könnte auch mit den Tricks leben. Jedoch passt hier wieder das Gebotene und der Preis nicht, einzig die 24 GB sind mal ein Fortschritt. 16-20 wären auch völlig in Ordnung um die 1 K.
 
Weil die Karte 1499 € kostet. Selbes Problem wie bei der 2080 Ti zuvor. 699 € und man könnte auch mit den Tricks leben. Jedoch passt hier wieder das Gebotene und der Preis nicht, einzig die 24 GB sind mal ein Fortschritt. 16-20 wären auch völlig in Ordnung um die 1 K.

ich hab auch nichts gegen tricks. wäre nur schön, wenn diese tricks auch immer funktionieren und nicht nur in wenigen unterstützten titeln.
ich denke an motion interpolation, wie konsolenspieler es durch ihre fernseher nutzen.

der vorteil, es funktioniert immer. ich hab vor ca. 4 jahren amd per email den vorschlag gemacht. und weitere male im amd forum.
es wird nicht ernst genommen. :unsure::rolleyes2:
 
Weil die Karte 1499 € kostet. Selbes Problem wie bei der 2080 Ti zuvor. 699 € und man könnte auch mit den Tricks leben. Jedoch passt hier wieder das Gebotene und der Preis nicht, einzig die 24 GB sind mal ein Fortschritt. 16-20 wären auch völlig in Ordnung um die 1 K.

Die Logik erschließt sich mir nicht.

Selbst mit der 3090 werde ich liebend gerne diese "Tricks" nutzen, wenn damit das Bild besser wird.
Wo ist da der Nachteil und wo ist der Bezug zur Leistungsklasse? Die "Tricks" sind doch komplett losgelöst davon als zusätzliches Schmankerl obendrauf.
 
mehr potentielle leistungsinfos:

x box series x:
8 core zen2 @ 3.6ghz
20 cu rdna2 bei 1825mhz (bei der ps5 2230mhz)
12+4gb gddr6 shared ram (4gb gpu)

timespy score 4373 -> vermutlich im windows modus der konsole laufend.

hier werte meiner leicht übertakteten rx 5700 xt, radeon nano oc und der unbekannten apu/konsolen gpu.
vergleich.jpg


damit läge die leistung von rdna2 unter rdna, was ich mir nicht so wirklich vorstellen kann. eventuell liegts am windwos modus der konsole.
laut amd soll rdna2 1,25 fach mehr takt schaffen als rdna, was 1800 * 1,25 = 2250mhz wären, also fast der wert den die ps5 schafft.
ich rechne jetzt einfach mal mit 20% mehr takt. 1800 * 1,2 = ~2150mhz

bleibt die frage, wie gut die leistung mit der anzahl der cus skaliert.

rx 5500xt 22 cu:
vergleich2.jpg

rx 5700 xt: 40 cu = ~9400 -> 235,0 pro cu
rx 5500 xt: 22 cu = ~5000 -> 227,3 pro cu
x box s. x.: 20 cu = ~4350 -> 217,5 pro cu

sieht für mich bei rdna dannach aus, das mit höherer cu zahl die leistung zunimmt.
ähnlich war das ergebnis beim vergleich mit rtx 3070 zu rtx 3090, wo gemutmaßt wurde, daß die leistung mit einem größeren chip weniger gut skaliert.
ergebnis war das bei 60% größerem chip, 74% mehr leistung herauskommt.

die cu leistungsteigerung von 22 cu auf 40 cu beträgt ~3,38%.
von 40 cu auf 80 cu wären das 4,13% mehr leistung.
(zusätzlich zu einer reinen multiplikation der cus)

mit der rx 5700xt hatte ich mit 10% mehr takt ca 7% mehr leistung erhalten.
4 x 4365 = 17460 -> 17460 / 1800 * 2150 = 20855 -> 20855 / 1,07 = 19491 -> 19491 + 4,13% = 20296

edit:
mir ist ein fehler unterlaufen, ich habe die geringere mehrleistung des höheren taktes für das ganze ergebnis abgezogen und nicht nur für den steigerungswert.
20855 - 17460 = 3395 -> 3395 / 1,07 = 3173 -> 17460 + 3173 = 20633 -> 20633 * 1,0413 = 21485

time spy rasterleistung:
rtx 3080: ~17800
rtx 3090: ~21360 (extrapoliert)
big navi: ~20296 (basierend auf x box series x leistungswert, mit rdna skalierung und rdna2 taktsteigerung)
big navi: ~ 21485


fazit:
sicher sind konsole und pc nicht 100% vergleichbar, es ist aber ein gutes indiz, daß big navi unterschätzt wird.
es wurde zuvor ja schon angenommen, das big navi 50% mehr leistung als eine 2080ti haben wird und das wären ~14000 * 1,5 = 21000 punkte im time spy.
 
Zuletzt bearbeitet:
Ich poste es einfach mal....


Ich bin bis zur Hälfte des Videos gekommen, dann hab ich den Typen nicht mehr ausgehalten.

Hier ein von Reddit geklautes TL: DW
  • 60% improved perf/w with most of that from architecture, not process
  • Not a 512 bit bus
  • 128mb of 'infinity cache' to make up for lack of bandwidth
  • No HBM on consumer cards
  • Clocks speeds up to the 'console level', ie implies 2.3ghz
  • 80CUs for top SKU
  • 6700 - 3070 level
  • 6800 - around 3080
  • 6900 - faster than 3080 and may 'nip at the heels' of the 3090
  • AMD considered undercutting NV but may price the same
  • AMD are 'very competitive, this is not Vega 64'
 
6900 - schneller als 3080 und kann dem 3090 auf den Fersen sein.

Meine übersetzung Lügt mich bestimmt an ^^
 
Klingt wie "wünsch dir was".
Wann hat AMD zuletzt 60% mehr Effizienz geschafft ohne verbesserte Fertigung??
Wenn wirklich so kommt: wunderbar.

Aber dann muss man sich fragen wieso haut AMD diese Vorstellung nicht bis zum 14.09. raus?
 
Ich denke das Video hat in etwa den Salzgehalt des toten Meeres.
 
Kein HBM und kein 512-Bit-Interface würde dann ja für ein (ggf. beschnittenes) 384-Bit-Interface beim Topmodell und somit eher gegen 16 GB VRAM sprechen, oder? 256 Bit ist heutzutage ja eher was für die zweite Reihe.
 
Wenn sie das hätten, würden sie damit gerade dick auf die Kacke hauen und sich nicht 6 Wochen ausschweigen.
Welchen halbwegs realistischen Grund würde es geben zu warten, bis alle ne Ampere haben... und dann was Besseres releasen?

Ich verstehe ja die Hoffnung auf BN, wirklich, aber ein klein wenig Realismus muss da schon bleiben, sonst ist die Enttäuschung doch nur noch größer.
 
mehr potentielle leistungsinfos:

x box series x:
8 core zen2 @ 3.6ghz
20 cu rdna2 bei 1825mhz (bei der ps5 2230mhz)
12+4gb gddr6 shared ram (4gb gpu)

timespy score 4373 -> vermutlich im windows modus der konsole laufend

Das ist aber recht wenig. Die BN 10 - 20 % hinter der 3090 hätte ich so auch erwartet. Wäre toll und dann bitte in bezahlbar. Die 3090 ist teuer, die 3080 irgendwie auch nicht so verlockend - Auch wegen des kleinen Speichers. So langsam hoffe ich echt auf eine Reduzierung und Preisverfall bei den Turingkarten.
 
Das ist aber recht wenig. Die BN 10 - 20 % hinter der 3090 hätte ich so auch erwartet. Wäre toll und dann bitte in bezahlbar. Die 3090 ist teuer, die 3080 irgendwie auch nicht so verlockend - Auch wegen des kleinen Speichers. So langsam hoffe ich echt auf eine Reduzierung und Preisverfall bei den Turingkarten.

das liegt dann wohl daran, das die x box series x hier im windows modus läuft, und daran das es nur 20 cus sind.
umgekehrt gesehen ist damit ein kleinerer chip im verhältnis weniger stark.
kann also sein, das ein um 50% kleinerer chip dann nur 46% der leistung bringt. 9400 * 0,46 = 4324

der ryzen 3 3400g hat 11 cus und schafft nur ~1300 punkte im timespy. kann aber auch nur auf ddr4 zurückgreifen.
 
Wenn sie das hätten, würden sie damit gerade dick auf die Kacke hauen und sich nicht 6 Wochen ausschweigen.
Welchen halbwegs realistischen Grund würde es geben zu warten, bis alle ne Ampere haben... und dann was Besseres releasen?

Ich verstehe ja die Hoffnung auf BN, wirklich, aber ein klein wenig Realismus muss da schon bleiben, sonst ist die Enttäuschung doch nur noch größer.
Jo wen Big N 6900 so ein Brett ist könnte AMD für Aufruhr sorgen und nen Spiele Benchmark 2080Ti Founders vs. 6900 zeigen !
Aber nein!
Man überlässt NV die Spielwiese schon komisch was AMD da macht wen die so eine Hammerkarte am Start haben sollten .
Sind halt selbst Schuld wen dann alle bei der Konkurrenz ihr Geld abgeben .
 
Zuletzt bearbeitet:
hatten wir das hier schon?
 
Auch wieder nur ne Zusammenfassung von dem was schon seit Monaten bekannt ist 🙈
 
wir müssen wohl noch bis zum 28.10 warten
wenigstens sehen wir schon am 8.10 die neuen cpus
entweder wirds der große gpu fail oder alle sind erstaunt
bei den cpus haben dies ja auch geschaft :)
 
Das wird wohl nur navi21 sein!
 
Hör doch endlich auf AMD ins Rote Meer zu stellen. Warte einfach ab Holzi.

Ich gehe schon von das Max aus was möglich ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh