Gaming-Blackwell Ende 2024: GeForce RTX 5090/80 sollen den Anfang machen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich mag mein Wireview am 600W Kabel:d
 
okay hätte mich auch gewundert.

das display ist zwar nice, jedoch schaue ich nur rein weil wakü und hardtubes.
 
Bin auf die Leistungsaufnahme gespannt wen das mit 70% Mehrleistung stimmen sollte läuft das bestimmt auf über 500W+ hin aus.
Das wird dann der Punkt sein wo der Mora zum Einsatz kommt.
 
Was mir gerade einfallen tut bei der RTX 4000 Leaks gabs es zum damaligen Zeitpunkt (April/Mai) schon viel viel mehr und handfestere Infos als jetzt bei RTX 5000 alleine damals das Gerücht das angeblich schon im August hätte der Verkauf stattfinden sollen etc

Ich denke eher sollte wirklich Q4 gehalten werden dann eher Ende Nov / Anfang Dez oder Nvidia will wirklich warten auf TSMC N3 was in meinen augen der Richtigere Schritt wäre ausser TSMC konnt besser bzw schneller vorran bei N3 als die öffentlichkeit bisher weiß
Beitrag automatisch zusammengeführt:

Das wird dann der Punkt sein wo der Mora zum Einsatz kommt.
Soll die 5090 ruhig brauchen mein Super Nova 1260 freut sich und dank XOC Bios auf meiner 4090 habe ich null Bedenken bei einer 5090 :ROFLMAO:
 
Ich denke eher sollte wirklich Q4 gehalten werden dann eher

Soll die 5090 ruhig brauchen mein Super Nova 1260 freut sich und dank XOC Bios auf meiner 4090 habe ich null Bedenken bei einer 5090 :ROFLMAO:
Aktuell muß der Mora nur passiv den 7800X3D kühlen wen da noch eine 5090 zu kommt wird man wohl 1-bis 2 200mm drauf bauen müssen :wink:
 
Ein gb207 misst grob 289mm² 48$ oder 65$ 48sm 192alu per sm und 48rop 1,8ghz-2,0ghz 60er/60ti er sku 96bit (samsung sf4x) 2gpc 24sm per gpc renderengine 1 tpc
Ein gb206 mist grob 442mm 75$ und 115$ 96sm 192alu per sm 96rop 1,8-2,0ghz 70 70ti er sku 128bit (samsung sf4x) 4gpc 2tpc
Ein gb205 misst grob 530mm² ein chip 207$ 80er sku 120sm 2,3ghz 160bit (tsmc n4x) 5gpc Sonderform 3tpc
ein gb203 misst 598mm² ein chip 220$ 90r sku 144sm 2,3ghz 256bit 6gpc 3tpc
Ein gb202 mist 806mm² ein chip 392$ 192sm 2,3ghz profi only 320bit 8gpc 4tpc

Der gb205 ist Odd aber notwendig da der gb206 nen tick zu langsam wäre als 80er sku und gleiche sm menge kein Sinn ergibt das problem ist die renderengine die vermutlich dann per software auf 3*40sm zugeordnet wird das bedarf viel Treiberarbeit
Und wie immer bei nvidia neue gpu gen die Treiber sind erstmal bis q3 2025 bedingt brauchbar.
Die wenigsten problem dürfte der gb207 haben die meisten der gb205
was den vram angeht ist das auch ein problem erst der refresh q1 2026 mit 24gbit wird bis 2028 ausreichen für FHD mit 15gb beim gb207 mt 38sm
zuvor wird der gb207 mit 12gb geben quasi ein ersatz für die rtx4070 der vram wird zum problem ab 2026
Die Bandbreite dürfte bei gb203 gb205 32gbps und bei gb206 gb207 28gbps werden
Der Wechsel wird schwierig die dxr perf Steigerung von min 70% bis maxed je sku auf 120% aber überzeugend amd hängt wieder hinterher um 50%
amd konkurriert dann mit dem gb207 mit allen rdna4 sku
Folgende Entscheidung rtx5060 470€ 12gb oder amd rdna4 min um 10% hinter dxr perf aber mit 16gb für 450€ (rx8700 56cu)
am ende entscheidet das die tbp den die wird nvidia bei grob 180w tbp sein amd bei 200w mit Pech
 
Meine 4x a20 laufen entspannt bei 500 U/min im idle und beim Gaming auf 600 U/min und sind unhörbar

Ich hatte die mit 370 U/min laufen lassen.
Also 600U/min finde ich bei 200mm Lüfter jetzt nicht leise. Da kann man mal sehen wie unterschiedlich das Empfinden der Leute ist.
Also höchsten habe ich die mal mit 450U/min laufen lassen. Das war ok für mich.
Schneller bringt eh wenig beim Mora 420 , weil der Lamellenabstand eh groß ist und ein leichtes Lüftchen ausreicht.
 
Kommt wohl auf den Release an. Wenn die noch 2024 kommen wird es wohl der selbe bzw. leicht modifizierte 4nm Prozess, da Nvidia keine Kapazitäten dieses Jahr bei TSMC hat. Bei einem 2025 Release würde man eher den 3nm Prozess erwarten. Letzteres wäre eigentlich für uns viel besser, sonst wird die 5090 ein massiver Stromfresser um akzeptable Mehrleistung gegenüber der 4090 zu erreichen. Die Architektur allein wird wohl kaum ausreichen. Ich hoffe daher wirklich, dass die neuen GPUs erst nächstes Jahr kommen weil wir dann höchstwahrscheinlich einfach das bessere Produkt bekommen.

Die 4090 war ja hauptsächlich so stark, weil die 3090 noch in 8nm Samsung gefertigt war und die 4090 dann eben in 4nm TSMC. Das war ein gewaltiger Sprung.
 
Das würde es wenn nvidia weiterhin das gleiche design umsetzen würde dann aber müste man kleienre sku mit deiutlich größerem si ausstatten udd as wird zum problem
Schon jetzt ist in einen ad107 70% des chips analog und beim ad102 etwa 55% die 50-55% werden vond en ad103 ad104 und ad106 gehalten

wenn nvidia lediglich die gpc sm menge nur ändert ansonsten nix und dann von 12gpc auf 8gpc reduziert würde man maximal in high end grob 15% zulegen und in low end die sku anders planen. Die chips allerdings extrem teuer werden da ein 192bit und ein 256bit si min einstieg sein muss
bsp gb207 48sm(2gpc a 24sm) wäre bei grob 300mm² wovon 70% Si sind
So ein chip würde min 84$ kosten vs derzeit 30$
Die perf wär nah der rtx4070 und ne sku müsste min 519€ kosten als 60 class dann kann man auch die aktuelle rtx4070 einfach im preis senken
diese ist trotz eines 72sm chips (90$) billiger da der vram preis drastisch geringer ist ein 16gbit gddr6x chip kostet maximal 5$ ein gddr7 16gbit chip min 10$
Und nvidia verdient beim vram mit da deren marge darauf setzt. einfach nen Fantasie preis für hardware kann man nur in einen Monopol machen
Das ist quasi faktisch der fall aber genau genommen aber auch nicht. leider ist der Preisvorgeber nicht mehr amd sondern Sony mit den preis der ps5 und der wird sinken. (300$)
Zurück zum bsp ein gb207 mit gddr6 und eine breiterem si ist also keine Lösung daher muss das Si kleiner werden darum die Idee von 96bit das reduziert den chip auf etwa 195mm² bei gleicher alu menge wie ne rtx4070 grob 37-46$ dazu 6 gddr7 chips und man hat nen einstieg bei 429€ (38sm perf ähnlich zur rtx4070)
Das würde gehen aber man wäre stark Bandbreiten limitiert von nur 336gb/s vs derzeit 504gb/s der rtx4070 da hilft nur 36gbps und die chips gibt es nicht vor q2 2025

also was tun?
Man könnte den ad106 chip mit gddr6x bestücken und den Vollausbau nutzen was 36sm sind bei grob +30% schneller nur durch mehr Bandbreite
Die sku wäre bei nur 379€ mit 16gb gddr6x 22gbps=352gb/s auch konkurrenzfähig und das bei nen refresh auf n4x node.
das aber wird die dx perf kaum bis gar nicht beschleunigen maximal sind da 3% drin
Womit dies maximal als super modell gehen würde. das dies nicht so kommt hat nen Grund die 8/16gb sku sind aib exklusiv sku nvidia vertreibt keine 60 class gpu mehr
darum gibt es auch keine da nur gddr6 verfügbar ist und gddr6x gibt es nicht für die aib das kaufen die brav bei nvidia im bundle ein.
Da micron kein gddr6 mit mehr als 18gbps hat, samsung gddr6 20gbps ist teurer

Darum sehe ich es eher das man mit gb207 nen 46sm und 38sm sku kommen mit gddr7 28gbps in eine neuen Architektur design von 128fp32 auf 192fp32
das alleine steigert die perf auf über 70% in dxr in raster analog zum Takt den der sinkt von 2,8ghz auf nur noch 1,8-2,0ghz
Das Endergebnis ist mehr dxr Leistung bei gleicher teraflops bei deutlich mehr alu was die Effizienz steigert grob sind die 22tf mit nur 170w drin statt den aktuell 200w
interessant wird aber mit 36gbps vram mit 24gbit chips 2026 =18gb vram bei 432gb/s es ist zwar unwahrscheinlich das man 6 24gbit chips verbaut da diese analog zur menge im preis steigt und gddr7 erwarte ich min bei 12$ pro chip womit klar ist das dass si auf nur noch 80bit gesenkt wird. =360gb/s
alles steht und fällt mit dem gddr7 preisen womit davon ausgehen das es bei ende 2024 dieser für 16gbit bei 10$ ist und ende 2025 bei 6$ und 24gbit mit dann 12$ einsteigen werden Sku ab 479€ aber mehr vram 15gb vs 12gb
Das ist der moment wo dies meine nächste gpu wird. Das wäre kaufzeitpunkt q1 2026

Was hat amd zu dieser zeit
nun nen saubilligen n48 den man ab 300$ mit ner Riesen marge verkaufen kann der im Vollausbau etwa 30tf hat
folgende Szenario
q1 2026 amd rdna5 high end am markt angefangen bei 100cu mit 3,9ghz (54tf) als rx9800xt ab 650€ und darunter Abverkauf der rdna4 mit rebrand als rx9000 low end gpu startend bei 250€ 17tf bis maximal 400€ 30tf
nvidia hat da nix und muss den vollen gb207 mit dessen 28tf bei 479€ darum erwarte ich sogar da man von den teureren gddr7 24gbit 36gbps auf die billigeren 24gbit 32gbps gehen wird. Wenn diese kommen
beim vram preis dürfte samsung gnädiger sein als micron und dann bei grob 8$ sein für 32gbps mit maximal 18gb macht also ne sku ab 439€

amd rdna5 wird 3 gcd mit je 60cu haben high end bei grob 3,9ghz das ist ein design wo die mcd auf den gcd sitzt ohne diese Technik wäre der Takt bei 5,0ghz davon wird es zwei chips geben n51 und n52 einmal 180cu, 160cu und 120cu, 100cu
amd wird definitiv aufschließen zum gb203 chip mit 144sm aktiv vermutlich 128sm (+- 89tf vs 94tf)
Wer vorne liegt hängt dann von cpu limit und der dxr perf ab. Das dürfte eher ada level sein bei amd und da nvidia mit blackwell min +70% in dxr perf besser performt per sm dürfte das wieder so aussehen das amd etwa 25% billiger sein wird.
man sieht nvidia kann gar nicht ein lauen ada refresh bringen dafür sitzt amd mit dem mcm chip im Nacken
Darum der drastische Änderung auf 192 alu per sm wo die sku preise landen hängt dann primär vom gddr7 preis ab, amd wird angreifen mit rdna4 das steht sicher.
Antreiber ist hier die ps5 pro womit folgende gpu ab q4 2024 Sinn machen

rx8600xt 16gb 359€ 100% (14,8tf dxr auf level der rtx4060ti) 32cu
rtx5050ti (ad106 16gb 20gbps) 389€ 120% (dxr level auf rtx4060ti) 36sm
rtx5060 12gb 439€ 140% (dxr level auf der rtx4070ti super) 38sm
rx8700 16gb 449€ 175% (dxr level auf der rtx4070ti super) 56cu
rtx4070 12gb Abverkauf 409€ 140% 46sm
rx8700xt 16gb 550€ 200% (dxr level auf der rtx4080) 64cu
rtx5070 16gb 650€ 221% (dxr level auf der rtx4090) 60sm
Die namen können abweichen das aber ist das wahrscheinichtse szenario

Der wahre Preisvergleich wird die dxr perf sein und da wird amd nochmal zulegen auf ampere level cu vs sm menge an rt perf. oder +15%
Das reicht nicht im Ansatz um vs Nvidia blackwell perf per sm auf +70% kommt daher braucht amd min den 56cu chip für die 38sm sku

Die nächsten benchmarks in dxr sind
star wars outlaws, stalker 2, indianer jones der goldener kreis (ue5), control 2, tomb raider ue5 und until dawn remake.

swo pathtraced nvidia showcase
stalker 2 amd sponsored
indianer jones dgk nvidia pathtraced showcase
Control 2 unabhängig normales dxr
tomb raider ue5 nvidia showcase pathtraced
until dawn sony port (nixxes) normales dxr.

Diese dxr spiele aber sind 30fps 720p upscaled bei pathtraced und dxr nativ 720p ps5 specs

Der Rest dürfte noch die ps5 specs haben also maxed 10tf mit maxed 300gb/s 60fps 1080p was noch dieses Jahr herauskommt

ps5 specs gpu's derzeit

rx6600 220€ 100%
rx6600xt 250€ 115%
rx6650xt 250€ 120%
rx7600/xt 300€ oder 350€ 115% und 130%
rtx3060 12gb 290€ 100%
rtx4060 300€ 120%

zeit für ne neue gpu
 
Wer sind die anderen 4? :fresse:
Mit mir sinds dann nur noch drei... Wobei ich auch wegen Linux keine nVidia mehr kaufen würde, es sei denn der Treiber wandert Open-Source in den Kernel und es gibt kompatibiliätsseitig keine Unterschiede mehr zu AMD.
 
Och wenn die Performance stimmt könnte ich schwach werden. Wenn die ähnlich lange hält wie meine 1070 ist das nichtmal ein Euro pro Tag. :fresse2:
 
Stimmt wohl kaum...
Natürlich, Gaming ist nicht mehr nur für 15jährige Nerds mit wenig Taschengeld. Ähnliche Leute, die vor 10-20-30 Jahren sich ein neues teures Auto, Motorrad, Wohnmobil oder sonst was unnötiges gekauft hätten, heute in ihrer Freizeit aber lieber auf dem PC spielen, geben heute das Geld für einen PC aus und so lustig es ist, sie werden mMn nur durch die maximalen Preis und Möglichkeiten der aktuellen Technik gebremst - wäre SLI noch da, die Leute würden sich 2-3 4080/90er in den Rechner ballern. Das ist keine Nische mehr, sondern ein riesiges Geschäftsfeld und da ist Platz für das Analog zu Ferraris und Maseratis, Edelprodukte für eine minimale Käuferschicht, die das nötige Geld hat. Es gibt über 16 Millionen Millonäre auf der Welt, mehr als genug um jedes Jahr tausende Edel GPUs abzusetzen.

Fertigsysteme gibt es schon länger in der Preisklasse:
Und bei Sonderwünschen oder kompletten Custombuilds sind 5stellige Summen angesagt.

Edit: Um das klar zu stellen, mir gefällt der Trend auch nicht, aber das ist nun mal wie die Welt tickt - ignorieren hilft nicht. Siehe Apples teures 3D Headset, hat auch Käufer gefunden und ist der Ferrari und den aktuellen 3D Headsets.
 
Zuletzt bearbeitet:
Natürlich, Gaming ist nicht mehr nur für 15jährige Nerds mit wenig Taschengeld. Ähnliche Leute, die vor 10-20-30 Jahren sich ein neues teures Auto, Motorrad, Wohnmobil oder sonst was unnötiges gekauft hätten, heute in ihrer Freizeit aber lieber auf dem PC spielen, geben heute das Geld für einen PC aus und so lustig es ist, sie werden mMn nur durch die maximalen Preis und Möglichkeiten der aktuellen Technik gebremst - wäre SLI noch da, die Leute würden sich 2-3 4080/90er in den Rechner ballern. Das ist keine Nische mehr, sondern ein riesiges Geschäftsfeld und da ist Platz für das Analog zu Ferraris und Maseratis, Edelprodukte für eine minimale Käuferschicht, die das nötige Geld hat. Es gibt über 16 Millionen Millonäre auf der Welt, mehr als genug um jedes Jahr tausende Edel GPUs abzusetzen.

Fertigsysteme gibt es schon länger in der Preisklasse:
Und bei Sonderwünschen oder kompletten Custombuilds sind 5stellige Summen angesagt.
Die glaskugel meint sli kommt mit der 5090 wieder
 
Ich glaube zwar nicht, dass ich von einer 4080 auf eine 5080/90 Upgraden werde, da die Leistrung in 2K/4K mehr als ausreichend ist. Und wenn es mal knapp werden sollte, gibt es ja noch DLSS.

Bin aber trotzdem mal gespannt, was Nvidia da raushaut und ob die Kühler für die 5080/90 genbau so großzügig dimensioniert werden wie bei der 4080/90.

Bin nach 10 Jahren Custom Wakü back to Oldschool Luftkühlung und komischerweiße ist mein Rechner genau so leise wie mit Wakü. :-)
 
Bin aber trotzdem mal gespannt, was Nvidia da raushaut und ob die Kühler für die 5080/90 genbau so großzügig dimensioniert werden wie bei der 4080/90.
Das war genau der Punkt warum viele (inklusive mir) von der 3080/3090 auf die 40er gewechselt sind.

Ich bin auf jeden Fall vorbereitet:
img_0627-jpeg.991584
 
Ich glaube zwar nicht, dass ich von einer 4080 auf eine 5080/90 Upgraden werde, da die Leistrung in 2K/4K mehr als ausreichend ist. Und wenn es mal knapp werden sollte, gibt es ja noch DLSS.

Bin aber trotzdem mal gespannt, was Nvidia da raushaut und ob die Kühler für die 5080/90 genbau so großzügig dimensioniert werden wie bei der 4080/90.

Bin nach 10 Jahren Custom Wakü back to Oldschool Luftkühlung und komischerweiße ist mein Rechner genau so leise wie mit Wakü. :-)
Haben wir alle durch, glaub mir du landest früher oder später wieder bei custom wakü :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh