Blackwell Smalltalk Thread (RTX 5000er Reihe)

  • Ersteller Gelöschtes Mitglied 102156
  • Erstellt am
Der Drop wird nicht groß sein weil die 4090 eine 5080 Light mit 8GB mehr Vram ist bis der Preis unter 1000€ geht wird es locker Q4 25 sein von daher werden wir bis Mitte 25 wieterhin 1300-1500€ sehen auf kleinanzeige für die 4090
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Woran genau machst du fest das der drip klein sein wird? Wie klein denkst du ist denn solch ein drop? So klein wie beim 9800x3d wo man bequemst bestellen konnte über eine Stunde lang.
 
Naja die 5080 ist ja Quasi der Haupt Konkurrent und die sind laut Leaks Quasi +-10% ausseinander (Sprich mit etwas OC einer 4090 gleich schnell) ABER!!!! eine 4090 hat eben 8GB mehr Vram was gerade bei 4K Gaming der Vorteil sein kann weil 16GB sind jetzt schon Grenzwertig mit PT + Ultra settings und neue Games werden mit sicherheit nicht Sparsamer was den Vram verbrauch angeht

Und die Preise einer 5080 scheinen laut den Leak von gestern gute 1600+ und mehr zu sein daher wird der Drop der 4090 nicht groß sein und weiterhin je nach Modell gute 1400+ bringen sprich leicht Unterhalt des Preises einer 5080
 
...und das alles noch ohne Punkt und Komma, sehr anstrengend zu lesen.

So langsam könnten echt mal die interessanten Leaks kommen, es ist doch viel zu ruhig :hmm:
 
Am Ende werden die 16gb einer 5080 genau so reichen wie die 10gb einer 3080 seiner Zeit. Eher ist es das Killerfeature dlss4 welches eine 4090 zu Staub zerfallen lässt.
 
Also dann knapp unter 1k für ne 5070ti. Wäre auch wirklich so meine Schmerzgrenze, die ich einfach nicht überschreiten möchte.
Wäre ja ein guter Preis.

Die 4080 (S), die ja etwa ähnlich von der Leistung ist gibt es aktuell für ab 1.050€ Da nehme ich dann gerne die 5070 TI für 999€ :)

Selbst die 4070 TI Super kostet ja wenigsten 840€ aktuell.
 
Am Ende werden die 16gb einer 5080 genau so reichen wie die 10gb einer 3080 seiner Zeit. Eher ist es das Killerfeature dlss4 welches eine 4090 zu Staub zerfallen lässt.

Wenn ich doch jetzt diese bei einigen Games sprenge wird es je nach Spiel und Einstellung zu Nachladeruckler führen oder man muss die Settings runter setzen. Denke du Spiels wohl nicht so viel oder nur wenige Games. Habe auch Games gezockt wo ich diese sprenge, aber 100fps+ hatte. Die 24GB bei der 4090 passen definitiv…
Daher etwas mehr für ne 5080 hätte nicht geschadet.
 
Wie hier kaum einer zu verstehen scheint das hauptsächlich für KI Anwendungen entwickelt wird erschliesst sich mir nicht.
 
Wie hier kaum einer zu verstehen scheint das hauptsächlich für KI Anwendungen entwickelt wird erschliesst sich mir nicht.
die kann auch zum rasenmähen entwickelt sein, aber sie liefert nunmal die meiste gaming leistung, und jetzt?
 
GeForce bleibt GeForce ;-).
 
Ich erwarte 2349€ für die Fe und bessere custom Modelle ab 2499€.
Wobei auch 3k mich jetzt nicht vom kauf abhalten würden
Dank Leuten wie dir denkt Jensen er hat alles richtig gemacht, applaus
 
Zuletzt bearbeitet:
Dank Leuten wie dir denkt Jensen er hat alles richtig gemacht, applaus

Wenn man so denkt darf man garkein „Luxusgut“ kaufen…
Ja, Nvidia hat alles richtig gemacht und weshalb sollte ich die 5090 nicht kaufen wenn es preislich für mich ok ist? 🤔
Genaugenommen wird sich auf lange sicht garnichts am Preis ändern wenn kein Gamer mehr ne High-end Gpu kauft.
Das würde nur Nvidia weiter weg vom Gaming Markt bewegen… dann verkauft man halt zum zigfachen Preis professionelle Gpus 🤷🏻‍♂️
Preise wie vor 6 Jahren ist Wunschdenken und allein schon wegen der starken Inflation unrealistisch.
 
… dann verkauft man halt zum zigfachen Preis professionelle Gpus
Wenn das der Markt hergeben würde, würden sie das bereits jetzt tun.
Aber tatsächlich ist es imho so:
Es braucht die Abnahme einer recht großen Menge an Chips von TSMC, damit der Preis aus Sicht von nVidia ok ist.
Vermutlich sind es aber mehr Chips, als man auf der professionellen Schiene zu den hohen Preisen absetzen kann.
Wohin mit dem Rest? Die verkauft man dann als Gaming-Grafikkarten. Der Gewinn ist da zwar geringer, es ist aber immer noch wirtschaftlicher, als wenn man bei TSMC weniger kaufen würde.

Aber das ist ja in der Halbleiterfertigung schon ewig so. Der Fertigungsaufwand bei Cpus ist ja bei Verwendung des gleichen Layouts der gleiche, egal, obs eine K-Cpu mit hohem Multiplikator ist oder nicht. Würde man sie alle als das teuerste Modell verkaufen können, dann würde man das tun. Da spielt nicht nur die Chipgüte eine Rolle. Deswegen hats ja früher auch eher günstige Modelle gegeben, die man auf die Werte der schnelleren übertakten konnte.

Neben den Kosten, die bei jedem Wafer anfallen, gibts ja auch noch welche, die anfallen, egal wieviele Wafer und damit Chips man fertig. Sind es weniger Chips, dann sind diese Kosten pro Chip höher. Dazu dürften auch die Belichtungsmasken gehören.

Und da bin ich auch schon bei einer Spekulation, die mir die Tage gekommen ist.
Warum hat der Chip der 5080 ein 256Bit-Si, was damit genau halb so groß wie beim Chip der 5090 ist?
Warum ist die Einheitenzahl auch nur halb so groß?
Warum diese riesige Lücke?

Dann ist ja noch in frühen Leaks die Rede davon gewesen, das der Chip der 5090 auf logischer Ebene aus 2 Chips besteht.
Wozu das, wenns doch ein Monolithischer Chip ist?
Damals dachte ich mir noch, ob man für die 5080 einfach teildefekte Chips halbiert.

Nun frage ich mich, ob es nicht einfach ein Vorgehen ist, um die gleichen Belichtungsmasken für den Chip der 5080 und der 5090 zu verwenden. Einzig, das man dann bei der 5090 nacheinander die eine Hälfte und dann die andere Hälfte belichtet.
Keine Ahnung, ob das technisch geht.

Aber irgendeinen Grund muss es imho haben, warum der Chip der 5080 stand jetzt genau die Hälfte an Einheiten und SI hat wie der der 5090. Die Sache mit dem Upselling ist da für mich nur ein schwacher Grund.
 
Kein Plan warum da immer noch über eine ca. 500EUR GPU (ja die 5090 ist gemeint) diskutiert wird. oO
Sind die Luxxer dermaßen pleite? Im Gehaltsthread verdient doch niemand hier unter 100k brutto. Oo
 
Aber irgendeinen Grund muss es imho haben, warum der Chip der 5080 stand jetzt genau die Hälfte an Einheiten und SI hat wie der der 5090.

 
Am Ende werden die 16gb einer 5080 genau so reichen wie die 10gb einer 3080 seiner Zeit. Eher ist es das Killerfeature dlss4 welches eine 4090 zu Staub zerfallen lässt.
Und was wenn man ein Spiel in 4K spielen möchte, und dieses Spiel noch kein DLSS 4 hat ?
Dann hat man 1400€ für eine RTX 5080 ausgegeben die im Prinzip nur genug Vram für 1440p hat.
(Bild ist 1440p Star Citizen und benötigt schon 15,4GB Vram)
RX7800XT 15,4GB Vram 1440p.png


PS: 10GB bei der 3080 sind auch ein Witz. Sogar eine RX6700XT 12GB ist heute doppelt so schnell obwohl sie bei Release 40% langsamer war weil Nvidias bessere Speicherkomprimierung einfach keine 2GB unterschied kompensieren kann.
Quelle: Indiana Jones Computerbase Benchmarks.
1736035536196.png

Zitat vom Test:
"Alle Grafikkarten mit 8 GB und 10 GB kommen in WQHD nicht auf spielbare Ergebnisse, das gilt sowohl für die Radeon RX 7600 als auch für die GeForce RTX 4060 (Ti) und die GeForce RTX 3080.
Auch in Full HD gibt es schnell einen VRAM-Mangel, selbst wenn die Texturen um zwei Stufen reduziert werden.
GeForce RTX 4060 und Radeon RX 7600 kommen nur auf kaum spielbare 30 FPS. Und auch der GeForce RTX 3080 mit 10 GB geht es kaum besser, mehr als 36 FPS erreicht die ehemalige High-End-Grafikkarte auch mit den um zwei Stufen reduzierten Texturen nicht.
Grafikkarten mit mindestens 12 GB erreichen ihre normale Performance, 60 FPS in Full HD erreicht die Radeon RX 6700 XT problemlos, während das eigentliche Konkurrenzprodukt, die GeForce RTX 3060 Ti, bei 30 FPS herumdümpelt.
"
Bei Stalker 2 ist es dank DLSS nicht ganz so schlimm, aber auch nicht rosig wenn man bedenkt dass eine RTX 3080 mehr als 3x so viel gekostet hat.
1736035783477.png
 
Zuletzt bearbeitet:
Aber irgendeinen Grund muss es imho haben, warum der Chip der 5080 stand jetzt genau die Hälfte an Einheiten und SI hat wie der der 5090.

wenn die Gerüchte stimmen, hat GB203 maximal 84 SM. Dann hätte ein doppelter Chip maximal 168 SM. GB202 soll aber 170 SM aktiv haben als 5090 und maximal 192 SM. Darum passt hier was nicht. Wobei ich persönlich es plausibler fände, wenn GB203 tatsächlich 96 SM hätte und nur 84 SM aktiv sind bei der 5080. Irgendwas muss ja noch für eine 5080Super freischaltbar bleiben ;-)
 
Es gibt auch 3080 mit 12GB. :oops:
Ja die kam fast 2 jahre Später und relativ kurz vor RTX 4000, aber hast Recht.
Ich erwähnte die Fakten eher weil Holzmann schrieb, RTX 3080 10GB wäre angeblich in Ordnung.
 
Der Drop wird nicht groß sein weil die 4090 eine 5080 Light mit 8GB mehr Vram ist bis der Preis unter 1000€ geht wird es locker Q4 25 sein von daher werden wir bis Mitte 25 wieterhin 1300-1500€ sehen auf kleinanzeige für die 4090
Es ist vermutlich reine Geduldsfrage. 1200 würde ich vielleicht noch machen und man sollte auch die Augen nach Shopangeboten offen halten. Wenn Restposten abgestoßen werden muss man aber schnell sein. Ewig werden die nicht mehr für 2 K neu angeboten, niemand würde diese irren Preise bezahlen wenn der Nachfolger schon draußen ist. Momentan kann man da noch mit "Friss oder stirb" argumentieren weil die 4000er technisch noch das Topmodell sind, für ein paar Tage noch. Wer jetzt sofort eine haben muss und nicht warten will hat keine Wahl. Darauf hoffen auch die Kleinanzeigenverkäufer.

Und zur not Kann man wenn alle Stricke reißen in 2 Monaten immer noch die 9070 kaufen wenn die was taugt, dass die 5080 preislich attraktiv wird bezweifle ich mal stark. Es ist aber logisch anzunehmen dass eine gebrauchte 4090 sich preislich unter der 5080 einordnen muss wenn diese erstmal verfügbar ist. EIne 5070 oder so werde ich auch nicht kaufen dann gleich AMD, erstmal muss man sehen was geboten wird. Für 20 % Mehrleistung von einer 5070 Ti mehrere hundert draufzahlen mach ich nicht. Falls es keinen Weg um AMD gibt würde ich auch nur das dickste schnellste Modell kaufen mit viel OC-Spielraum und dann wasserkühlen. Die RT-Leistung wird vor allem interessant. Denn eigentlich "brauche" ich die 4090 nur dafür, sonst würde die XTX/9070-Leistung schon reichen. In Raster für 4K120 laufen die wunschlos perfekt.

Die 24 GB wären schon nett für 4K, auch als Zukunftssicherheit. So eine teure Karte darf nämlich dann auch einige Jahre halten, zumal es nichts besseres geben wird vor 2026-27. 16 GB mögen reichen aber dann 1,5 K verlangen für so eine mickrige Ausstattung ist überzogen. Das unterstützt man ganz einfach nicht. Es sieht ansonsten auch danach aus als gäbe es im GPU-Markt wieder Stagnation wie zu Zeiten Intels 2017.

DLSS4 oder so juckt nicht da es zu 99 % wieder exklusiv sein wird. Die bahnbrechenden neuen Features will ich dann auch mal sehen. Damit das überhaupt irgendeine Relevanz hätte müsste das in ALLEN Spielen laufen und nennenswerte Vorteile bringen, zB wie eine treiberseitige Upscalingimplementation die in JEDEM Spiel funktioniert. Das wäre echt mal was bahnbrechendes. Macht aber keiner, weder AMD noch NV, warum eigentlich? Technisch sollte das doch möglich sein. AMD hat auch super resolution im Treiber, warum kann man kein FSR3/4 dort einbauen? Das Neural Rendering ist vermutlich wieder so ein Techdemoding was dann in 1 oder 2 Spielen mäßig läuft, bis es sich nach ein paar Jahren durchsetzt wie damals schon DLSS oder RT. Als die Sachen rauskamen liefen sie beschissen in sehr wenigen Titeln und das early adopten lohnte somit mal wieder 0. Das sieht man gerade bei den 2000er Karten heute. Jetzt wo RT sich durchsetzt zieht selbst eine gammelige Arc B580 von Intel (!) die 2080 Ti ab, selbst in RT.
 
Da ist schon viel wahres dran, nervt mich auch dass nV bei 16GB bleibt andererseits hat nV ja so eine Marktmacht dass wohl kein GameDev groß für Grakas >16GB Grafik programmieren wird denke ich mal.
Selbst wenn die nächste Super/TI/Gen whatever >16GB hat wirds noch lange dauern bis die Masse da drüber kommt aber vllt bleib ich auch einfach bei der XTX und bau die auf Ghettomod oder Wasser um.
Für den Preis der RTX könnte auch ein Mora 600 Umbau stattfinden :d Andererseits hätte ich gerne mal endlich Raytracing :rolleyes2:
 
Also 1349$ für die 5080 ist dann schon echt sportlich. Hatte auch nur was gelesen von jemandem der sagte das er bei nem PC Bauer arbeitet und die fertig PCs mit 5090 1000$ teuerer sein sollen ls mit einer 4090. Das sind dann echt mörder preise. Günstiger wird es wohl nicht mehr werden sondern die gleiche Leistung den gleichen Preis haben und mehr Leistung dann auch mehr kosten.
Ne 5090 dann für 2700€ ist dann einfach krank
 
Die Preise sind aber noch nicht fix oder? 1199 halte ich mal für relativ wahrscheinlich. Aber wer es trotzdem kauft braucht dann nicht zu jammern. Einzige Hoffnung ist dass immer weniger es kaufen werden. Zumal wer eine 4000/7000er hat für den ist selbst die 5080 doch kaum ein so großes Upgrade dass es sich preislich lohnt also vom Aufpreis her. Wenn das Zeug in den Lagern liegen bleiben würde müssten die Händler irgendwann die Preise senken um es loszuwerden.

Man kann nur hoffen dass 2027 spätestens mal wieder was Fettes von AMD kommt. Für einen gesunden Preis versteht sich, die XTX war schon OK für das Gebotene. Sie kostete auch nie mehr als um die 1 K. Selbst die 4080 kostete 2022 noch 1400. Darum habe ich mir damals auch die XTX geholt. Und das Intel mal was im High end bringt ist unwahrscheinlich wenn auch schade, da ich es durchaus erwägen würde wenn P/L stimmen. So eine B580 auf dreimal so viel Shader skaliert würde sicher gut abgehen. Selbst RT bringen sie und nicht diesen VRAM-Geiz. Da wäre selbst GDDR6 angebrachter gewesen, 20-22 Gbps bietet der auch schon. Die 24 GB 5080 wird dann nämlich zu 99 % noch teurer werden, lief ja dieses mal auch so, dann reduzieren sie die alte 5080 auf 999 wie bei der 4080 und bringen eine "Super".
 
Naja Nvidia braucht sich da überhaupt keine sorgen machen. Die können friss oder stirb anwenden weil wenn das kaum jemand kauft dann reduziert man die Produktion für die RTX sparte und fährt die Quadro Sparte hoch. Die wollen doch ehrlich gesagt garnicht die Grafikkarten verkaufen wenn man das dreifach für sie quadros einnimmt. KI beschleuniger verkaufen sich doch super. Das was das Mining mit den Preisen gemacht hatte macht nun die nachfrage an KI Beschleuniger.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh