Blackwell Smalltalk Thread (RTX 5000er Reihe)

  • Ersteller Gelöschtes Mitglied 102156
  • Erstellt am
Kein Plan warum da immer noch über eine ca. 500EUR GPU (ja die 5090 ist gemeint) diskutiert wird. oO
Sind die Luxxer dermaßen pleite? Im Gehaltsthread verdient doch niemand hier unter 100k brutto. Oo
Wir haben einen Gehaltsthread??? 🤣
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wahrscheinlich Verlust beim Verkauf oder die Summe die man drauflegen muss, nachdem man seine 4090 verkauft hat.
 
Meiner Meinung verspielt NVIDIA viel Potential.
Die 3090 war mir zu teuer also kaufte ich irgendwann die 3080 10gb und wechselte diese auf die 3080ti 12gb. Die 3090 hätte meiner Meinung durch die 2 seitige vram Bestückung und Hitzeprobleme für das Geld eher eine 3080ti mit frühen Start werden können und dann die 3090 24gb (aka 3090ti) mit einseitiger Bestückung.
Die 3090ti war kompletter Mumpitz.

Nun wäre ich gern auf eine 4090 gewechselt, aber niemals zu dem Preis und die 4080/5080 mit 16gb sind keine Alternative. Da die 5090 utopisch teuer wird, wurde es nun eine 24gb 7900xtx (used) für 700.

Wenn ich sehe das die bei 300 Watt 16500 Punkte Port Royal macht, ( von wegen kann kein RT) und die 3080ti bei 450 Watt gerade 15000 schafft, ist dies ein guter Weg und auch in allen Games wie zb auch Cyberpunk ist die XTX einfach preislich und mit 24gb unschlagbar. Da brauch ich auch nicht auf eine 9070xt warten, die wird das nicht ändern und NVIDIA wird einfach massiv teuer werden mit zu wenig Speicher, egal was für DLSS da steht. Auch die Mähr das AMD kein VR kann, ist nicht mehr der Realität entsprechend und da sind die 24 gb killer Feature gegenüber 16gb.
 
Wenn Du eine gebrauchte XTX zum Vergleich hernimmst, musst du auch ne gebrauchte 3080 Ti oder 4090 dagegen setzen. Und dann nehme ich lieber die 1.200€ 4090, die es im Sommer gab, anstatt die 700€ XTX und gleich mal 10.000 Punkte mehr im Port Royal, ne bessere Effizienz und mehr Headroom für zukünftige Titel.

Die 3080 Ti ist halt ne Generation älter und nicht das Top Modell. AMD kann das eine Generation später mit ihrem top Modell also gerade so schlagen. Kann man als Vergleich natürlich machen. :fresse:
 
Zuletzt bearbeitet:
PS: 10GB bei der 3080 sind auch ein Witz. Sogar eine RX6700XT 12GB ist heute doppelt so schnell obwohl sie bei Release 40% langsamer war weil Nvidias bessere Speicherkomprimierung einfach keine 2GB unterschied kompensieren kann.
Quelle: Indiana Jones Computerbase Benchmarks.
Anhang anzeigen 1061430
Zitat vom Test:
"Alle Grafikkarten mit 8 GB und 10 GB kommen in WQHD nicht auf spielbare Ergebnisse, das gilt sowohl für die Radeon RX 7600 als auch für die GeForce RTX 4060 (Ti) und die GeForce RTX 3080.
Auch in Full HD gibt es schnell einen VRAM-Mangel, selbst wenn die Texturen um zwei Stufen reduziert werden.
GeForce RTX 4060 und Radeon RX 7600 kommen nur auf kaum spielbare 30 FPS. Und auch der GeForce RTX 3080 mit 10 GB geht es kaum besser, mehr als 36 FPS erreicht die ehemalige High-End-Grafikkarte auch mit den um zwei Stufen reduzierten Texturen nicht.
Grafikkarten mit mindestens 12 GB erreichen ihre normale Performance, 60 FPS in Full HD erreicht die Radeon RX 6700 XT problemlos, während das eigentliche Konkurrenzprodukt, die GeForce RTX 3060 Ti, bei 30 FPS herumdümpelt.
"
Bei Stalker 2 ist es dank DLSS nicht ganz so schlimm, aber auch nicht rosig wenn man bedenkt dass eine RTX 3080 mehr als 3x so viel gekostet hat.
Anhang anzeigen 1061431
Wieso sollte man mit einer 4 Jahren alten 700 Euro Grafikkarte ein neues Spiel mit höchsten Einstellungen spielen, ist doch Käse was Computerbase da bencht .
 
Ich bin mal gespannt wie FSR 4 sein wird und ob es an DLSS 3 herankommt weil da man ja heute eh mit Mod DLSS und FSR beliebig tauschen kann wäre die AMD dann interessant wenn zumindest die Bildqualität gleich ist. FSR war für mich immer minderwertig.
 
Wenn Du eine gebrauchte XTX zum Vergleich herznimmst, musst du auch ne gebrauchte 3080 Ti oder 4090 dagegen setzen. Und dann nehme ich lieber die 1.200€ 4090, die es im Sommer gab, anstatt die 700€ XTX und gleich mal 10.000 Punkte mehr im Port Royal, ne bessere Effizienz und mehr Headroom für zukünftige Titel.

Die 3080 Ti ist halt ne Generation älter und nicht das Top Modell. AMD kann das eine Generation später mit ihrem top Modell also gerade so schlagen. Kann man als Vergleich natürlich machen. :fresse:
Kannst auch eine Neue XTX für 900 dagegen stellen. Es geht immer noch um die 24Gb und die 4090 für 1200 wo und wann gab es die ohne sich da eine tote Karte bei KA anzulachen.

Die XTX schlägt dei 4080 in den meisten Anwendungen ohne RT und DLSS, welches ich nicht benötige und auch bei der 3080ti nicht mochte.
Ddie 4080 oder eine 5080 mit 24gb wären ein no Brainer für mich genau wie für viele andere. Aber mit 16gb now way ! Das ist was ich damit sagen wollte.
 
Die Preise sind aber noch nicht fix oder? 1199 halte ich mal für relativ wahrscheinlich. Aber wer es trotzdem kauft braucht dann nicht zu jammern. Einzige Hoffnung ist dass immer weniger es kaufen werden. Zumal wer eine 4000/7000er hat für den ist selbst die 5080 doch kaum ein so großes Upgrade dass es sich preislich lohnt also vom Aufpreis her. Wenn das Zeug in den Lagern liegen bleiben würde müssten die Händler irgendwann die Preise senken um es loszuwerden.

Man kann nur hoffen dass 2027 spätestens mal wieder was Fettes von AMD kommt. Für einen gesunden Preis versteht sich, die XTX war schon OK für das Gebotene. Sie kostete auch nie mehr als um die 1 K. Selbst die 4080 kostete 2022 noch 1400. Darum habe ich mir damals auch die XTX geholt. Und das Intel mal was im High end bringt ist unwahrscheinlich wenn auch schade, da ich es durchaus erwägen würde wenn P/L stimmen. So eine B580 auf dreimal so viel Shader skaliert würde sicher gut abgehen. Selbst RT bringen sie und nicht diesen VRAM-Geiz. Da wäre selbst GDDR6 angebrachter gewesen, 20-22 Gbps bietet der auch schon. Die 24 GB 5080 wird dann nämlich zu 99 % noch teurer werden, lief ja dieses mal auch so, dann reduzieren sie die alte 5080 auf 999 wie bei der 4080 und bringen eine "Super".

Die Preise stehen nicht fest, genau. Ich finde die Spekulationen hier mittlerweile höchst amüsant, besonders weil sie hochfrequent wiederholt werden. Auch das Anspringen auf diverse Newsseiten, die sich die Preise herfabulieren, weil diverse Seiten Platzhalterpreise anzeigen.

Wie immer ist bekannt, dass NVIDIA bis zur Ankündigung die Preise nicht preisgibt bzw. leaked. Und trotzdem springt die Masse immer wieder drauf an.
 
Die Preise stehen nicht fest, genau. Ich finde die Spekulationen hier mittlerweile höchst amüsant, besonders weil sie hochfrequent wiederholt werden. Auch das Anspringen auf diverse Newsseiten, die sich die Preise herfabulieren, weil diverse Seiten Platzhalterpreise anzeigen.

Wie immer ist bekannt, dass NVIDIA bis zur Ankündigung die Preise nicht preisgibt bzw. leaked. Und trotzdem springt die Masse immer wieder drauf an.

Du sprichst mir aus der Seele, besser hätte ich es nicht schreiben können !!!!
 
Wieso sollte man mit einer 4 Jahren alten 700 Euro Grafikkarte ein neues Spiel mit höchsten Einstellungen spielen, ist doch Käse was Computerbase da bencht .
Weil es mit der deutlich günstigeren, 5 Jahre alten Mittelklasse Radeon Problemlos klappt in den selben Settings 60fps zu erreichen ?
Die Nvidia Karte verschenkt ordentlich Potential, nur wegen Vram Mangel. Der Core der Karte wäre Locker Stark genug.
Sah man auch bei Stalker 2.
Eine RTX 3070 war zu Release schneller als die doppelt so alte GTX 1080ti.
1736069385614.png

Und dann packt sie bei Stalker 2 nichtmal Full HD wegen 8GB Vram Krüppel obwohl der Core der Karte stark genug wäre um die 1500% der RTX 4060ti 16GB zu erreichen.
Stalker 2 Vram lol.png
 
Wieso sollte man mit einer 4 Jahren alten 700 Euro Grafikkarte ein neues Spiel mit höchsten Einstellungen spielen, ist doch Käse was Computerbase da bencht .

So Käse ist es nicht. 12gb scheinen zu reichen und 10gb nicht. Macht die 3080 ja per se nicht zu einer schlechten gpu sondern durch NVIDIA künstlich knapp gehalten zeugt von nicht nachhaltiger verkaufstaktik die amd nicht macht.
 
Die 30 FPS in Indy mit einer 3080 10GB glaub ich nicht. Kollege hat eine (5700x, 32GB RAM) und hat nichts dergleichen berichtet. Schatten und Texturen auf high oder medium und man kann ganz gut zocken. DLSS/DLAA ist halt einfach top implementiert in dem Game. Naja, kriege ihn die nächsten Tage nicht zu packen, aber das werde ich mir vor Ort nochmal anschauen. Würde jedenfalls im Leben keine 3080 für eine 6750 eintauschen.
Beitrag automatisch zusammengeführt:

Die XTX schlägt dei 4080 in den meisten Anwendungen ohne RT und DLSS, welches ich nicht benötige und auch bei der 3080ti nicht mochte.
Ddie 4080 oder eine 5080 mit 24gb wären ein no Brainer für mich genau wie für viele andere. Aber mit 16gb now way ! Das ist was ich damit sagen wollte.
Dann sind das einfach die falschen Produkte für dich und Du bist bei AMD richtig. DLSS ist fester Bestandteil der NVidia Karten als Produkt. Ganz zu schweigen davon dass es seit 2.1 wirklich top ist und aussieht. Sie davon losgelöst zu sehen ist wie das Kofferraumvolumen eines Roadsters zu messen.

Bei RT kann ich diese Haltung noch im Ansatz verstehen, bei DLSS allerdings nicht mehr. Das ist absoluter Standard und hat keine Nachteile mehr. Ich schalte es selbst dann an, wenn die 4090 auch so genug FPS liefern könnte. Allein schon weil der Verbrauch dann massiv sinkt mit Frame Limiter.
 
Zuletzt bearbeitet:
Da ist schon viel wahres dran, nervt mich auch dass nV bei 16GB bleibt andererseits hat nV ja so eine Marktmacht dass wohl kein GameDev groß für Grakas >16GB Grafik programmieren wird denke ich mal.
Selbst wenn die nächste Super/TI/Gen whatever >16GB hat wirds noch lange dauern bis die Masse da drüber kommt
16GB ist schon seit 2020 Standard bei vielen Radeon Karten. Zb meine RX6800 16GB (Neupreis unter 400€ vor paar Jahren auf Mindfactory) Oder RX6800XT 16GB gabs auch für 430€ auf Mindfactory als es sie noch gab. 7800XT 16GB, 6900XT, 6950XT, 7900GRE, waren alles 16GB Karten. Dann noch 7900XT 20GB und 7900XTX 24GB und 24GB RTX 4090. Also 16GB ist eher mittelklasse.
Radeons neue RX9070XT ist ja auch nur mittelklasse und hat nur 16GB.
Wie du an meinem Star Citizen Bild in 1440p schon sehen konntest benötigt dass Spiel 15,4GB Vram für 1440p.
Für 4K sind es 19GB. Also Wer gibt 1400€ aus für so einen Speicherkrüppel wenn man in 4K spielen will ? Da hab ich in 4K mehr Texturen mit einer alten RX7900XTX die auch günstiger war.
Und Star Citizen ist nicht dass einzige Vram Hungrige Spiel. Wir hatten 2024 so viele Spiele wo eine RTX 3080 10GB nicht mehr für Full HD reichte, und dank Frame Gen und Ray Tracing geht der Vram Bedarf auch Rapid in die höhe.
Und der Vram ist nicht erst Voll wenn man ihn voll ausnutzt.
Hier ein Bild von einem Daniel Owen Video.
Da wurden RTX 4060ti mit 8 & 16GB verglichen.
Die 8GB Karte hatte schon Leistungseinbrüche um 100% obwohl sie nur 6GB von ihren 8GB Vram benutzt hatte.
Also 1/4 Vram noch nicht benutzt, und schon 100% Leistungseinbruch.
Daniel Owen 8GB vs 16GB.png

Beitrag automatisch zusammengeführt:

Die 30 FPS in Indy mit einer 3080 10GB glaub ich nicht. Kollege hat eine (5700x, 32GB RAM) und hat nichts dergleichen berichtet. Schatten und Texturen auf high oder medium und man kann ganz gut zocken. DLSS/DLAA ist halt einfach top implementiert in dem Game
Es war mit Schatten auf High. Dass dein Kollege mit Reduzierten Details mehr als 30FPS erreicht glaube ich, aber der Computerbase Test war schon richtig. Die Details waren dort einfach höher.
Oder glaubst du die Lügen oder würden so grobe Fehler machen ?
Es zeigt einfach wie Kritisch 10GB sind. Wenn selbst die olle RX6700XT die deutlich günstiger und deutlich langsamer zu Release war, auf einmal Problemlos in mehreren Spielen mehr FPS hat.
 
Zuletzt bearbeitet:
Wahrscheinlich Verlust beim Verkauf oder die Summe die man drauflegen muss, nachdem man seine 4090 verkauft hat.
Ja, aber selbst wenn er die für 1800 verkauft hat kommt die Rechnung nicht hin und war die 4090 dann umsonst? Das ist Schönrechnerei. Dass die 5090 2,5 K+ kosten wird halte ich mal für gesichert.

Und dass die XTX kein RT kann stimmt auch nicht. Die liegt sogar ungefähr auf dem Level einer 3080 Ti / 3090. Nur gegen eine 4090 kackt die völlig ab, es sind glaube ich über 70 %. Das ist mit ein Grund wieso ich gern eine hätte, damit laufen aktuelle Titel sogar mit RT mit hohen FPS, natürlich braucht man immer DLSS/FSR.

Aber die XTX jetzt kaufen vor allem gebraucht für den Preis würde ich auch nicht mehr, erstmal müssen die Benchmarks der 9070 draußen sein denn das wäre dann umso ärgerlicher wenn die die Leistung neu für 600 bietet. Raster reicht völlig bei der XTX, selbst die 4090 ist ja nur rund 30 % schneller, RT ist wo AMD aufholen muss und anscheinend das auch nun machen will mit RDNA4.

Für 1200 gab es keine 4090 meines Wissens, vielleicht mit extrem viel Glück vor ein paar Monaten. Aber richtig, ohne mindestens 1,5 Jahre Garantie würde ich so viel Geld nicht dafür ausgeben. Das Risiko ist einfach zu groß. Das beste wäre entweder ein Abverkauf vom Shop oder eine mit guter Historie von einem Forennutzer. Dass die 5080 "nur" 1200 kostet ist auch zu bezweifeln. Aber es ist richtig, bislang sind die Preise nur Spekulation. Dass sie teuer werden ist von vornherein klar. 1600 fände ich selbst für NVIDIA-Verhältnisse etwas zu extrem. Bei der 5090 versteht man es noch eher weil 32 GB und Flaggschiff.

Die 9070 ist obere Mittelklasse aber wenn sie XTX/4080-Niveau hat wäre das immer noch ein guter Trostpreis. FSR hat mittlerweile auch aufgeholt und soll ja bald auch wieder eine neue Version bekommen. Es wird spannend wie gut diese auch in RT konkurrieren können wird.
 
Es war mit Schatten auf High. Dass dein Kollege mit Reduzierten Details mehr als 30FPS erreicht glaube ich, aber der Computerbase Test war schon richtig. Die Details waren dort einfach höher.
Oder glaubst du die Lügen oder würden so grobe Fehler machen ?
Es zeigt einfach wie Kritisch 10GB sind. Wenn selbst die olle RX6700XT die deutlich günstiger und deutlich langsamer zu Release war, auf einmal Problemlos in mehreren Spielen mehr FPS hat.
Es zeigt dass 10GB immer noch gut funktionieren und nur mit erzwungenen Szenarien ein Problem sind.

Aber ok, AMD rocks lol.
 
Vielleicht werden wir auch alle überrascht und diese ganzen Diskussionen waren umonst? :sneaky:

Mein Arbeitskollege hat letztes Jahr glaub ich über 9k für Carbonteile für seinen M2 ausgegben. Das ist auch maximale Geldverbrennung :fresse: so ne Bastelbude.
Da ist mir die Milchmädchenrechnung 4090 Verkauf für 1,8k und Reinvestition in neues Modell mit bisschen Aufpreis lieber.
 
Aber ok, AMD rocks lol.
Nvidia, Intel, AMD, alle Rocken oder sind zusammen gleich Wertlos, abhängig von der Betrachtung.
Intel bekommts nicht hin Treiber für eine Einsteiger Grafikkarte zu machen die keinen 9800X3D vorraussetzt.
B580 9800X3D.png

Nvidia bekommts nicht hin Frame Generation für alle Spiele Via treiber wie AMD anzubieten.
AMD bekommt ihr FSR nicht auf die Schönheit von DLSS.
AMD,s Hardware ist immer unterlegen, aber Nvidias Hardware wird künstlich Limitiert wenn man keine Kleinwagenpreise zahlen will.
 
Das wird auch irgendwann wieder kommen wobei 1100 schon sehr gut sind. Die günstigeren gehen ab 1,4 K los. Aber ohne Rechnung würd ich trotzdem nicht kaufen bei dem Preis. Wenn morgen ein fester Preis kommt wird man das schon sehr gut abschätzen können. Mir würde die FE schon völlig reichen, zumal deren Kühler bereits absolut ausreicht. 1600+ wie zB hier aktuell im Forenmarktplatz wird niemand mehr zahlen, da müsste es schon mindestens eine Matrix oder Strix White sein. Gute Angebote sind vermutlich schnell weg und sonst kann man davon ausgehen dass nach 5090-Release einige frei werden von Leuten die erst verkaufen wenn sie ihre 5090 haben. So ein Angebot ist auch schon seit Wochen auf Kleinanzeigen, was auch immer das soll das anzubieten wenn er offensichtlich nicht sofort verkaufen will.
 
Warte es doch einfach ab. Ich denke jeder hat nun verstanden, dass du der Meinung bist, ab Morgen ist die 4090 nur noch 1k wert (aber nur mit Rechnung und mind. 1,5 Jahren Garantie).

Ob es so wird, oder du noch 6 Monate warten musst (oder mehr) bis dein für dich akzeptabler Preis erreicht ist, wird die Vorstellung der 5080/5090 zeigen. Aktuell sieht man bei den verkauften bei eBay und Co, dass es eben genug Leute gibt, die 1500 Euro bezahlen und es denen Wurst ist, was die 5080 evl könnte
 
Ich habe nicht gesagt dass sie nur noch 1 K wert sein wird sondern dass die momentan geforderten Preise übertrieben und unrealistisch sind. Ein paar werden immer kaufen wobei ich gerade Ebay nicht als Referenz sehen würde. Da geht irgendwie alles teuer weg. Mein 5900X (gebraucht) wurde da auch für 200 verkauft obwohl der neu nur 20 mehr kostete.
 
Es hängt vom Preis und der Verfügbarkeit der RTX 5090 ab, wenn die Customs 2.5K und aufwärts kosten sind 1500€-1600€ für eine 4090 überhaupt kein Problem.

Es wird immer user geben die keinen Bock auf die 16GB einer vergleichsweise schwachen RTX 5080 haben.

Günstige GPUs auf kleinanzeigen sind zu 90% Scam, selbst mit PP Käuferschutz wird hier betrogen, auf Anfragen wegen Abholung oder Zahlung via Kleinanzeigen wird einfach nicht reagiert.
 
Wie Niftu Cal den Wert der gebrauchten 4090 für sich bewertet mit Blick auf Preis und Restgarantie, so bewerte ich ihren Wert für mich auch.

Allerdings machen nicht wir den Preis. Der Preis orientiert sich auch auf dem Gebrauchtmarkt nach Angebot und Nachfrage.
 
Mit einer RTX 4090 im System kann man die hohen 5090 Preise auch einfach erst mal aussitzen., die meisten davon sind ja sogar noch unter Garantie.

Ist aus meiner Sicht komplett abwegig dass das allgemeine Preisniveau so bald auf ~1200€ sinkt.
 
Ich schau mir DLSS gern nochmal auf meiner 3080ti an aber im vergleich zu native fand ich es immer schlecht zumindest in Cyberpunk. Zumindest bei Details die in der Entfernung liegen.

Aber fsr2 zb in msfs 2024 ist auch grotig :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh