Neue Gerüchte zur "RTX 5090": NVIDIAs Blackwell-GPUs könnten auf Chiplets basieren

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gabs da nicht mal eine aussage von Nvidia, dass die Firmen deutlich mehr zahlen als Private Desktop Nutzer, vor allem jetzt beim KI-Boom?
Wenn das stimmt, haben wir ja schlechte Karten gut versorgt zu werden, wenn die großen alles aufkaufen.
Aber egal, bis 2025 ist es noch eine ganze Ecke hin, bis dahin bin ich sehr gut versorgt :geek:
 
Alle jammern und trotzdem wird gekauft als wenn es kein Morgen gibt.
Das ist die Definition von "keine Eier haben".
Alle reißen das Maul auf aber wollen nicht verzichten.
Das einzige, was hier wirkt ist, liegenlassen.
Erst wenn die Karten in den Regalen vergammeln, weil die breite Masse sie nicht mehr kauft, sinkt der Preis.
Aber die Lemminge kaufen immer weiter und akzeptieren von Gen zu Gen immer höhere Preise.
Es jammern bei weitem nicht alle. Nur jene die glauben bewerten zu "dürfen" was ein Produkt kosten "darf" und was nicht.
Keinen Plan wie so ein Wirtschaftskreislauf aussieht aber "Eier haben" und das Maul aufreißen und Blödsinn rausposaunen... (AFD und FPÖ lassen grüßen)
Es jammern nur diejenigen die der Meinung sind jedem steht uneingeschränkt Zugang zu Luxusprodukten von Geburt an zu. (Wäre wiederum eine sehr verträumt kommunistische Weltanschauung)
Und Gaming Grafikkarten sind Luxus...
Naja und zu guter Letzt jammern jene die sichs halt einfach aus verschiedensten Gründen tatsächlich einfach nicht leisten können... (andererseits steigt das Einkommen für gewöhnlich mit Bildungs- und Verantwortungsgrad - beides lässt sich beheben... Wenn man den "die Eier hat").
Natürlich schade... Wirds halt ne Konsole und keine neue Grafikkarte...

Jene die sichs leisten können, leisten sichs. Warum auch nicht.
Gehn ja immerhin für ihr Geld arbeiten und sparen sich das zusammen.
Du bist die allerletzte Person die das Recht hat irgendjemanden zu sagen was er/sie/divers mit dem selbst verdientem Geld kaufen darf oder nicht.
Und so sehr es dich auch wurmt wenn da ein "triebgesteuerter" Kunde dabei ist, der sein letztes Erspartes dafür ausgeben will, hat es dich schlicht nicht zu interessieren.
Es ist nicht dein Geld. Es geht dich nichts an.
Warum soll zB. Ich darauf verzichten nur weil du es dir vielleicht nicht leisten kannst oder willst? Um DeN bÖsEn Da ObEn EiNs AuSzUwIsChEn???

Sorry aber dein kleiner Aufsatz trieft so schlimm vor Neid und Missgunst das ich Angst haben muss im sitzen auszurutschen... Sagt sehr viel über dich aus... Nur leider nichts gutes.

Wenn dich dein "Hobby" schon so frustriert solltest du dir vielleicht ein neues suchen (Und dich hier vielleicht abmelden - der eigenen Gesundheit zuliebe natürlich... Dauerhaft hoher Puls sind ungesund)?

Würde dir ja Modelleisenbahn vorschlagen, aber wenn dich die GPU Preise schon stören dann wirds die Modellbahn wohl auch eher nicht...
Fotografie? Aber nur solang du keinen Anspruch an Qualität hast... So manch besseres Objektiv kostet definitiv mehr als ein High End Rechner... Und da ist die Kamera noch nicht inbegriffen...
RC Modelautos sind auch so ein Ding... Du kannst natürlich klein und billig anfangen... Irgendwann endest du aber bei Geräten von denen du dir wünschen würdest sie kosten "nur" so viel wie eine Grafikkarte...

Lesen wär was... Bücher sind günstig... Mit genug Fantasie übertriffst du zudem jedes Videospiel und jeden Film...
 
Wenn das stimmt, haben wir ja schlechte Karten gut versorgt zu werden, wenn die großen alles aufkaufen.
Die Firmen kaufen nicht die Consumerkarten, sondern die kaufen NVidias Computing-Karten. Die bezahlen dafür mehr, kriegen aber auch ganz anderen Support.
Der Preis den die für sowas bezahlen ist für den Privatkunden komplett irrelevant und aus Sicht des Käufers auch ganz anders gewertet, denn der kauft die Dinger nicht um Spielchen damit laufen zu lassen, sondern der verdient damit Geld.

Ist ähnlich wie beim Miningboom (nur das der halt auch bei den Privatnutzer und mit den Consumerkarten aufgeschlagen ist): Wenn ich mit so einer Karte innerhalb eines Jahres Bitcoins im Wert von 2000€ ermine, dann spielt es auch nichtmehr so die gewaltige Rolle ob die Karte nun 1000€ oder 1500€ kostet. Sie hat sich nach <1 Jahr von selbst abbezahlt und wenn sie 1500€ kostet, hat man halt "nur" 500€ Gewinn im ersten Jahr, aber wenn man überhaupt nicht mitminen kann, weil man gar keine Karte kauft, hat man nach einem Jahr ziemlich genau 0€ Gewinn.

Brauchst also auch keine Angst haben, das man als Consumer keine Geforce-Karte mehr kriegt, weil die Rechenzentrenbetreiber die alle wegkaufen würden, kaufen nicht die Geforce-Karten, sondern die kaufen die Tesla-Karten (oder wie auch immer NVidia die mittlerweile nennt).

Noch liegt der Umsatz mit Gaming-Karten vorne, aber der Computing-Umsatz wächst wesentlich schneller. Langfristig würde ich eher befürchten, das NVidia die Gamingkarten sogar vernachlässigt, weil im Computing-Bereich in ein paar Jahren vermutlich viel mehr Geld zu verdienen ist.
 
Bei meiner Befürchtung geht es eher um die zur Verfügung stehenden Kontingente, Nvidia kann ja nicht unendlich viel bei TSMC buchen.
Da kann es ja leicht sein das sich Nvidia entschließt, eher die Firmen zu bedienen als die Desktop Nutzer.
 
Da kann es ja leicht sein das sich Nvidia entschließt, eher die Firmen zu bedienen als die Desktop Nutzer.
Das ist eben genau das was ich langfristig befürchte. Aber nicht nur nach Fertigungskapazitäten für die Chips, sondern auch das sich NVidia auf den AI-Teil fokussiert und dabei Rendering vernachlässigt.
 
Wer braucht schon Bücher oder GeForce wenn man die geistreichen Essays von UrwaldWasserQuelle und David B lesen kann.
 
@Infi88
So sauer wie die Gurke auch schmeckt aber Recht hat er in gewisser Weise schon.
Darüber zu diskutieren führt allerdings zu nichts da absolut keiner ausser nvidia die Macht hat.
Als Konsument kannst du nur eines machen: liegen lassen wenn zu teuer und/oder relaltivieren ob sich die Investition lohnt.

Auf lange Sicht, wird sich imho. diese Preisentwicklung rächen denn im Gegensatz zu anderen Hobbys wie Kameras, Autos, Eisenbahnen, rc Autos, usw. hast du in ein paar Jahren etwas im Computer stecken was nicht einmal annähernd im Wert gestiegen ist und irgendwann im elektroschrott landen wird.

Ne alte Kamera zb. macht auch in 20jahren noch die gleichen Bilder wie am ersten Tag, ne €3000.- Grafikkarte wird in 15 jahren nur noch belächelt und ist zu nichts mehr zu gebrauchen...

Meine 2080ti war und ist die letzte Karte, da für mich zu teuer im Verhältnis zum gamen ....

Just my 2cents...
 
Ich hoffe das ich Blackwell getrost überspringen kann, dank der Rohleistung der 4000er in Kombination mit DLSS 3/3.5 :bigok:
 
Glaube ich nicht Wolfgang.
Du und viele andere gehen davon aus das Nvidia dich als Kunde braucht. Die Umsätze und Gewinne in Enterprise und Gaming, sagen aber etwas anderes. Mich würde es echt nicht überraschen, wenn schon heute. Sich die Geforce Entwickler bei internen Meetings rechtfertigen müssen. Warum Nvidia immer noch Ressourcen/Geld in diese Entwicklung stecken sollte. Da man gerade mit "KI" so viel mehr verdienen kann.
 
@Infi88
So sauer wie die Gurke auch schmeckt aber Recht hat er in gewisser Weise schon.
Darüber zu diskutieren führt allerdings zu nichts da absolut keiner ausser nvidia die Macht hat.
Als Konsument kannst du nur eines machen: liegen lassen wenn zu teuer und/oder relaltivieren ob sich die Investition lohnt.

Auf lange Sicht, wird sich imho. diese Preisentwicklung rächen denn im Gegensatz zu anderen Hobbys wie Kameras, Autos, Eisenbahnen, rc Autos, usw. hast du in ein paar Jahren etwas im Computer stecken was nicht einmal annähernd im Wert gestiegen ist und irgendwann im elektroschrott landen wird.

Ne alte Kamera zb. macht auch in 20jahren noch die gleichen Bilder wie am ersten Tag, ne €3000.- Grafikkarte wird in 15 jahren nur noch belächelt und ist zu nichts mehr zu gebrauchen...

Meine 2080ti war und ist die letzte Karte, da für mich zu teuer im Verhältnis zum gamen ....

Just my 2cents...

Die Digital Kamera hat auch ihren technischen Fortschritt vorzuweisen :unsure: , die völlig überteuerten Objektive haben nur diesen "Wert" weil der Boomer Fotograph meint er wäre damit dann elitär, solche Vergleiche in oder zur Mikroelektronik hinken doch auch stark.

Jensen und sein Stab werden zu gegebener Zeit darüber entscheiden wie die Preisgestaltung für ihre Produkte dann ausfällt, wem das nicht schmeckt geht eben woanders hin. Da braucht man keine philosophischen Ausflüge in jedem Thread.

Noch liegt der Umsatz mit Gaming-Karten vorne, aber der Computing-Umsatz wächst wesentlich schneller. Langfristig würde ich eher befürchten, das NVidia die Gamingkarten sogar vernachlässigt, weil im Computing-Bereich in ein paar Jahren vermutlich viel mehr Geld zu verdienen ist.
saupload_NVDA_data_center_chart_082323.png
saupload_NVDA_gaming_chart_082323.png


Bisschen zu tief in den Obstler geschaut.

Spätestens als China final die Crypofarmer aus dem Verkehr gezogen hat kam es für die klassische GeForce zum totalen Exodus was Umsatz angeht, wobei sich die verschiedenen GPU Arten aus techhischer Sicht sowiso wieder stark genähert haben bzw. fast identisch sind.

Der Privatkunde hat bei den Riesen einfach immer weniger Relevanz bzw. weniger Produkte in der Masse abzusetzen und den Preis für das Einzelprodukt zu erhöhen ist per se eigentlich nicht wirklich schlecht für eine Firma, nur schlecht für den finanzschwachen Consumer :fresse:.
 
Nvidia ist schon lange das neue Apple :heuldoch:
Apple hat gerade die Preise gesenkt bzw. sind die Preise trotz Inflation stabil. Zurückgerechnet gab es gar keine große Preissteigerung. Glaube nicht, dass man Das bei Nvidia erwarten darf.
Das habe ich zuletzt auch gesehen. Die billigen Monitore können mit DP 1.4 gar nicht die Auflösung mit hohen Frequenz ansteuern.

USB-C sehe ich auch sehr selten verbaut auf Grafikkarten, warum auch immer.
DP2.1 kommt safe. Breitbild 4K mit hohen Frequenzen ist heute bereits nicht möglich. Nach vorn geschaut ist 2.1 überfällig.

Ich befürchte, USB-C wird in Konkurrenz zu einem DP Anschluss stehen. HDMI wird man wegen der Fernseher behalten. Einen zusätzlichen Port kann ich mir nur vorstellen, wenn ein anderer Port entweder ersetzt oder deaktiviert wird.
 
@Infi88

Die Kamera war eigentlich Stellvertretend für alle anderen Hobbys gemeint.
da ja immer wieder so gerne das Thema PC Gaming mit anderen Hobbys verglichen wird sind imho. so ziemlich alle hobbys irrelevant denn letztendlich ist jedes hobby im prinzip nur zeitverschwendung und mit finaziellem aufwand zu betreiben...um es mal ganz salopp und oberflächlich zu bescheiben.

Gibt nix geschenkt in dieser Welt, das muss manch einem klar werden...auch hier in diesem Forum.
Über dieses Thema kann man sich Stunden/Tage/Wochenlang unterhalten und letztendlich kommt nix bei raus weil jeder seine Sichtweise hat, was auch gut ist und so sein muss.

Ich bin Kunde/Konsument und für mich persönlich ist der Preis entscheidend.
Mit Verlaub, auch wenn ich mir mehrere 4090er Leisten kann sehe ich es partout nicht ein für solch ein stück Hardware, welches offensichtlich nach einigen Jahren €0.- an wert hat, so viel Geld auszugeben.
Für mich stimmen die Verhältnisse nicht mehr, weder bei den Roten noch bei den Grünen.


Glaube ich nicht Wolfgang.
Du und viele andere gehen davon aus das Nvidia dich als Kunde braucht. Die Umsätze und Gewinne in Enterprise und Gaming, sagen aber etwas anderes. Mich würde es echt nicht überraschen, wenn schon heute. Sich die Geforce Entwickler bei internen Meetings rechtfertigen müssen. Warum Nvidia immer noch Ressourcen/Geld in diese Entwicklung stecken sollte. Da man gerade mit "KI" so viel mehr verdienen kann.

Nvidia/AMD braucht mich nicht als Kunde das ist mir sehr wohl bewusst.
Ebenso ist mir bewusst das Nvidia/AMD auch nicht die Samariter der Welt sind.

Ich bin ein Konsument und mehr nicht.
Als Konsument tu ich das was jeder Konsument macht: Passt das Angebot nicht dann lass ich es bleiben.
Wenn dabei das Computerspielen auf der Strecke bleibt kann ich damit leben, reicht auch nach weit mehr als 40jahren Computerspielen :d
 
  • 50% erhöhte Skalierung (Shaderanzahl)
  • 52% erhöhte Speicherbandbreite
  • 78% erhöhter L2-Cache
  • 15% erhöhter Chiptakt
  • 1,7-fache Performance gegenüber der RTX 4090 (70% Steigerung)"
Das klingt nun einigermaßen realistisch, bis auf den Cache. Der Cache wurde mit Lovelace erst deutlich erhöht und nimmt sehr viel Platz auf dem Chip weg, jetzt gleich nochmal +78% ? Das glaube ich erst wenn ich es sehe.
 
128 MB L2-Cache bis 2025 wären aber auch locker möglich. N3 Node, eine Milliarde Transistoren und fertig ist der Brecher. Jensen muss eigentlich nur noch seine Jacke rechtzeitig einfetten (y).
 
Na, zu gierig darf Jensen jetzt auch nicht werden.

MSRP von 3090 auf 4090 waren 100 $ mehr. Selbst wenn man im oberen Preissegment dieselben 300 $ Erhöhung draufschlägt wie von der GTX 1080 Ti auf die RTX 2080 Ti damals, denke ich kann man das unten nicht ewig analog dazu weitermachen.

Das wäre zumindest meine latente Hoffnung.

Aber vielleicht hast du recht. 2499 $ sieht optisch auch schöner aus als 1999 $.
Wieso nicht? NVIDIA hat doch bereits den Bigchip als XX90 positioniert bei Preisen die die ersten Titans wie Schnäppchen wirken lassen. Die Ti-Modelle die meist sowieso erst über ein Jahr nach Ersterscheinen der Architektur erscheinen kosten auch mehr als früher eine Titan. Die 5090 wird keine Konkurrenz haben, wie jetzt die 4090 schon. Da kann sich NV prinzipiell alles erlauben.
Würde mich nicht wundern, wenn die RTX 5000 noch mehr Cache bekommt und dafür die Speicheranbindung weiter schrumpf. 384 Bit bei 5090, 256 bei der 5080 und 192 bei der 5070.

Ich trau es denen zu.
Cache bekommt sie definitiv, der Sprung von Ampere > Lovelace war schon enorm. 512-Bit halte ich auch eher für unwahrscheinlich, dann schon eher HBM2/3 bei den Computekarten, für das Gamingflaggschiff gibt es dann weiter 384-Bit und schnelleren GDDR7(X). GDDR7 hat bereits enorme Geschwindigkeitsfortschritte, 1,5-2 TB/s halte ich für realistisch. Die jetzigen Karten kommen ja bereits problemlos über die 1 TB/s-Marke überschreiten.
So sauer wie die Gurke auch schmeckt aber Recht hat er in gewisser Weise schon.
Darüber zu diskutieren führt allerdings zu nichts da absolut keiner ausser nvidia die Macht hat.
Als Konsument kannst du nur eines machen: liegen lassen wenn zu teuer und/oder relaltivieren ob sich die Investition lohnt.

Auf lange Sicht, wird sich imho. diese Preisentwicklung rächen denn im Gegensatz zu anderen Hobbys wie Kameras, Autos, Eisenbahnen, rc Autos, usw. hast du in ein paar Jahren etwas im Computer stecken was nicht einmal annähernd im Wert gestiegen ist und irgendwann im elektroschrott landen wird.

Ne alte Kamera zb. macht auch in 20jahren noch die gleichen Bilder wie am ersten Tag, ne €3000.- Grafikkarte wird in 15 jahren nur noch belächelt und ist zu nichts mehr zu gebrauchen...

Meine 2080ti war und ist die letzte Karte, da für mich zu teuer im Verhältnis zum gamen ....

Just my 2cents...
Ja, das sehe ich auch so. Solange es Leute gibt die die Preise mitmachen können sich die Hersteller das erlauben. Dann muss man halt gebraucht / alte Gen kaufen. Die Preise der 3000er und 6000er sind ja mittlerweile da wo man sie gerne gehabt hätte. Die Karten sind immer noch solide. Eben nicht das Beste was geht. Wenn AMD keine halbwegs preiswerten Produkte wie die XTX mehr bringt kaufe ich auch nur noch gebraucht. Zumal wie du schon sagtest, andere Hobbies oder Luxusgüter länger halten als eine überteuerte GPU.
Das klingt nun einigermaßen realistisch, bis auf den Cache. Der Cache wurde mit Lovelace erst deutlich erhöht und nimmt sehr viel Platz auf dem Chip weg, jetzt gleich nochmal +78% ? Das glaube ich erst wenn ich es sehe.
Warum nicht? Kleinere Node, eventuell Chiplets. Die 4090 ist sogar recht klein verglichen mit der 2080 Ti: 609 vs 754 mm². Der Cache bringt viel und steigt bei allen Produkten, egal ob CPUs oder GPUs.
 
Weil sich Cache auf dem Chip nicht gleichermaßen verkleinern lässt wie Logik, da stößt man tatsächlich langsam an physikalische Grenzen. Und der Sprung von N4 auf N3 ist ohnehin nur ein ziemlich kleiner. Der Chip wird allein durch den Ausbau der Shader schon deutlich größer werden, eine Verbesserung durch die Fertigung wie bei Ampere zu Lovelace kann man nicht erwarten.
 
Zuletzt bearbeitet:
Die Digital Kamera hat auch ihren technischen Fortschritt vorzuweisen :unsure: , die völlig überteuerten Objektive haben nur diesen "Wert" weil der Boomer Fotograph meint er wäre damit dann elitär, solche Vergleiche in oder zur Mikroelektronik hinken doch auch stark.

Jensen und sein Stab werden zu gegebener Zeit darüber entscheiden wie die Preisgestaltung für ihre Produkte dann ausfällt, wem das nicht schmeckt geht eben woanders hin. Da braucht man keine philosophischen Ausflüge in jedem Thread.


saupload_NVDA_data_center_chart_082323.png
saupload_NVDA_gaming_chart_082323.png


Bisschen zu tief in den Obstler geschaut.

Spätestens als China final die Crypofarmer aus dem Verkehr gezogen hat kam es für die klassische GeForce zum totalen Exodus was Umsatz angeht, wobei sich die verschiedenen GPU Arten aus techhischer Sicht sowiso wieder stark genähert haben bzw. fast identisch sind.

Der Privatkunde hat bei den Riesen einfach immer weniger Relevanz bzw. weniger Produkte in der Masse abzusetzen und den Preis für das Einzelprodukt zu erhöhen ist per se eigentlich nicht wirklich schlecht für eine Firma, nur schlecht für den finanzschwachen Consumer :fresse:.
Leider hast du ein paar Jahre zu wenig in der Grafik.
Seit der 900er Gen gehen die Nvidia Preise stetig massiv nach oben.
Der kurze "Einbruch" zwischendurch ist nur ein kleiner Schritt Richtung Normalbereich zurück, der sich direkt im Anschluss wieder in Luft aufgelöst hat.
Die Kohle, die auch mit der Gamingsparte gemacht wird, steigt im Schnitt Jahr für Jahr massiv an.
Die Margen sind einfach nur krank.
 
Da waren die Aussichten im Data Center Bereich noch nicht so rosig für Nvidia. Die GeForce ist Opfer ihrer selbst geworden, in einer Zeit wo mit effizienter Rechenleistung dieser Art Geld gemacht wird, kann man seine Produkte nicht an den PC Spieler verschleudern auch wenn der einen ursprunglich groß gemacht hat :fresse: .

Natürlich kann sich das mit veränderter Nachfrage wieder ändern, Lappen schrieb aber das die Gaming Sparte noch die Nase vorne hatte dabei ist sie gerade im totalen Kollaps, wobei sich das denke ich noch weiter verschärfen wird sollten die Preise in etwa so verbleiben.

Weil sich Cache auf dem Chip nicht gleichermaßen verkleinern lässt wie Logik, da stößt man tatsächlich langsam an physikalische Grenzen. Und der Sprung von N4 auf N3 ist ohnehin nur ein ziemlich kleiner. Der Chip wird allein durch den Ausbau der Shader schon deutlich größer werden, eine Verbesserung durch die Fertigung wie bei Ampere zu Lovelace kann man nicht erwarten.
Den Asbach Uralt Artikel in allen Ehren, aber gerade N3 soll ziemlich brachial sein, gerade N3P oder evtl. N3X. Der Sprung von N5 auf N4 war nicht so groß, daher spricht man eher von TSMC 5nm anstatt von "nVidia 4N" im Bezug auf ADA,
An physikalische Grenzen stößt man bekanntlich immer auch auf der Toilette, aber selbst wenn sich der finale L2-Cache nur auf 96MB belaufen würde braucht man kein Albert Einstein zu sein um davon auszugehen das eine entsprechende GeForce im Jahre 2025 dann die Tachonadel rausballert.

Evlt. wird man am entsprechenden Chipdesign gar nicht so viele Veränderungen vornehmen müssen, der zitierte Spekulationsartikel ist ja sowiso eher zur Meinungsbildung gedacht als wirklich handfest.
 
Ach und selbst wenn PC Gaming endgültig mangels Grafikhardware über den Jordan geht, Scheiss drauf.

Bis dahin kaufe ich gerne weiter NVidia Grafikkarten (oder AMD, oder Intel... wer auch immer was spannendes für mich dabei hat). Und wem sie zu teuer sind... Fresse halten und einfach nicht kaufen.

Wieder einmal ein Thread von diesem lächerlichen Thema verfremdet und zugespamt. Ja zu teuer Blabla. Können wir einfach mal über die Technik diskutieren wenn das schon im Titel steht?
 
Nein, weil der Preis immer ein Mitthema sein wird gerade in den jetzigen Zeiten. Dann ignorier es doch. Derartige DIskussionen werden mit steigenden Preisen nur noch zunehmen.

Was die Technik betrifft, ist es momentan absolute Spekulation. 50 - 70 % Mehrleistung zur 4090 halte ich für sehr realistisch. Die 4090 war schon ein großer Sprung, lag aber auch am schlechten Prozess der 3090. Sollte es dazu Chiplets geben wäre selbst bei gleicher Strukturbreite mehr drin, selbes Prinzip wie bei AMD. Ich wünsche es mir, denn langfristig wären Monster-GPUs mit hohen Yields und relativ geringen Kosten möglich. Für die Hersteller wäre es zudem praktisch, nur noch Module zu bauen und diese nach Bedarf zusammenzustecken.
 
Kurz und Knapp Nein
Es gibt Gründe warum blackwell kein MCM wird.
Der erste is,t in n3 lassen sich noch genug alu verbauen da der Prozess den chip um etwa 30% verkleinert
Der Takt steigt ebenfalls bis zu 15% und das letzte Gerücht sprach a n von 192sm was den schlus naheliegt das man das ada design witer aufbohrt ansatt en komplett neue arch zu bauen . Name hin oder her 192sm 88fp32 ergeben bei 3,2ghz etwa +108tf das wären +68% schneller aber das wär der voll Ausbau den es definitiv nicht am desktop geben wird.
Dafür wär der chip viel zu teuer.
Dieser chip müsste bei grob bei 580mm² sein und sb 205 bis 352$ kosten
Womit nur 2 sku drin wären als rtx5090ti oder titan b und rtx5090 mit 142sm
Sku preise wären dann rtx 5090 1499$ 24gb gddr7 +- 79,9tf oder +25%
rtx5090ti bzw titan b 108tf 48gb 1999$

Die anderen sku also mit dem gb207 2 gpc 24sm 3,2ghz identisch bleibt Das Si reduziert wird kommt dann immer noch nur eine sku mit 9gb statt 8gb bei knapp 13tf was in etwa der rtx3060ti entspräche
Und das als rtx5060
Die einzige sku die vielleicht was wird wäre der gb206 mit 4 gpc und 36sm aktiv mit 12gb 128bit si +- 20tf
ich ahne aber das dies wieder ne ti wird und min bei 499$ angesetzt wird.
Es kommt stark darauf an wie die preise der rx7700xt bis dahin sind meine Vermutung ist etwa 399$ ab q3 2024
ist der preis bis dahin aber 349$ dürfte nvidia sich für 399$ entscheiden der name ist aber egal wichtiger ist was auf die Straße kommt. 20tf was in etwa der ps5 pro entspricht

Der Nachteil die 12gb vram werden dann etwas eng selbst auf 1080p
Die ps5 pro soll 24gb vram haben und etwa 20tf Leistung (n43 chip mit 54cu-56cu bei 2,3hz-2,4ghz)
bedeutet am pc das spiele auf 16gb vram hin designt werden somit sind die 12gb vram etwas eng. Bis das aber greift vergehen noch gut 3 Jahre
Somit dürfte das für mich erst ab rtx60 gen zutreffen bzw amd rx9000 Serie. 2026-2027

Bei der n2x fertigung wird es ein alu sprung geben mit hohem Takt quasi verdoppelte Leistung aus aktuell 34sm werden 68sm und als sku vermutlich mit 46sm kommen
rtx6060 46sm 3,9ghz 18g gddr7 36gbps (96bit si) ~31tf passend zur ps6 die etwa das gleiche leistet
Die Unwägbarkeit wäre nur der vram preis dieser könnte dann schon niedrigert sein zu jetzt gddr7 vermutlich 24gbit 15$ dann 10$ was die sku ab 429€ umsetzbar macht.
Ob das dann rtx6060 heißt oder rtx6060ti ist unklar

Bis dahin wird rtx4060 super 16gb 36sm 2,8ghz 20gbps (+- 18tf) vermutlich q1 2024 und rtx5060ti q2 2025 geben
aber mcm wird es nicht geben das sehe ich erst ab n1,8 da tsmc 3dchips fertigen kann.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh