NVIDIA stellt die ersten Modelle der GeForce-RTX-40-Serie vor

Das mit der Namensänderung wurde gemacht, damit sich Schlaumeier wie du hinstellen können und behaupten "hurrr durr, die sind gar nicht so viel teurer geworden". Das ist Stammtischgerede...
Und die andere Seite die nun quasi den Weltuntergang sieht ist besser? Ich weiß ja nicht.

Vielleicht sollten alle erst mal drüber schlafen und die Gemüter sich abkühlen 🥶
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vergleicht mal lieber die Dollar Preise (und nicht den schwachen Euro, den kann man nun Nvidia nun wirklich nicht ankreiden, egal wie sehr man den Laden auch hasst).

3080: 700$
4080: 900$

Jup 200 Dollar mehr, aber dafür eben auch wieder um einiges mehr Leistung, in amerikanischen Foren wird deswegen auch halb so viel über die Preise diskutiert wie bei uns.
Und wenn man wirklich fair sein will müsste man die 12Gb Variante der 3080 ($1,249) mit der 4080 12GB ($900) vergleichen 😏

Am ehesten lässt sich die 4080 16GB Variante noch mit der 3080 Ti vergleichen:
4080/16: $1,199 UVP
3080 Ti: $1,249 UVP
(Und auch hier eigentlich nichts dramatisches wenn man Dollar/UVP betrachtet, ist sogar günstiger geworden 😎)

Fazit:
Sooo krass hat Nvidia die Preise daher gar nicht angehoben, wenn man die Dollar UVP Release Preise so betrachtet.
Bitte nimm die rosarote brille ab, nvidia hat die 3080 für 699 Dollar verkauft und eine Gen später verlangen sie 1199 Dollar, das ist fast das doppelte und einfach Insane, eine 80er darf niemals und nimmer über 1000 Euro kosten. 4080 1000 Euro, 4080 Ti 1499 und RTX 4090 1899 wäre ok gewesen, so ist es einfach ein Witz von Nvidia und ich hoffe AMD holt sich diese Gen fett Marktanteile. Nvidia gehört endlich abgestraft. Bei der 2080 Ti gab es massig defekte Karten wegen kaputten Speichern, bei RTX 3000 mussten sie die Leistung drosseln weils zig Pcs abgestürzt sind mit den ersten Treibern. Trotzdem fressen denen allen aus der Hand. Diesmal haben sies zu weit getrieben. NIEWIEDIA
 
Und die andere Seite die nun quasi den Weltuntergang sieht ist besser? Ich weiß ja nicht.

Hast recht. Es sind nur GPUs und die meisten die hier diskutieren haben sowieso ein Highendmodell der aktuellen Gen verbaut.

Nv kann für seine Karten ja auch verlangen was sie wollen, aber die 4070 einfach 4080 zu nennen ist halt nur ein kleiner schmutziger Marketingtrick.
 
Erster Teil: Ja und? Die Steuern kamen ja beim Vorgänger drauf, nein Punkt bleibt daher bestehen.
Es ging darum, dass Du die hohen Preise hier mit der Inflation erklären wolltest - und natürlich spielt die eine Rolle. Gleichzeitig stellst Du den Abstand aber "dramatischer" dar, indem Du die Steuern der USA rausrechnest.

Zweiter Punkt mit der 4070 Geschichte: Reine Polemik, gut für den Stammtisch 👌
Was ist daran Stammtisch oder Polemik? Es gibt zwei 80er Karten mit extrem unterschiedlichen Specs.

Nun vergleiche bitte die Specs bei Ampere 80 10GB, 80 12 GB, 80ti und 90 mit denen der Lovelace-Karten. Weiterhin vergleiche die Leistung zum Vorgänger. Wenn das für Dich in Ordnung ist es bei der nächsten Generation dann sicherlich ebenso passend, den 106er Chips + 128Bit SI als 80er Karte zu verkaufen. Ist natürlich deine eigene Entscheidung. Der Preis der (eigentlichen) 4080 wurde selbst ohne Inflation / schwachem Euro fast verdoppelt in den USA. Auf welche Liste schaust Du denn?

Und die andere Seite die nun quasi den Weltuntergang sieht ist besser? Ich weiß ja nicht.

Es ist kein Weltungergang. Und natürlich sind es nur GPUs, die kein Mensch benötigt. Wir sind hier bloß gerade im Hardwareforum unterwegs und dazu im entsprechenden Topic. Man darf die Strategie die NVIDIA hier fährt durchaus kritisieren. Wenn am Ende natürlich dennoch gekauft wird, spielt es keine Rolle und sie haben erneut alles richtig gemacht.
 
Die 3080 12GB ist für nichts anderes da um den massiven Preisanstieg zu verschleiern. die 4080 16Gb wäre der eigentliche Nachfolger der 3080 gewesen und nur im letzten Moment hat Nvidia die 4070 (Ti?) einfach umbenannt damit die 899 zu 699 (im Vergleich zur 3080) gar nicht mal so schlimm aussehen. Und das wird auch in nicht deutschsprachigen Communitys so diskutiert, man schaue sich mal die Kommentare unter den Videos der ganzen Ami Youtubern an.
 
Es ging darum, dass Du die hohen Preise hier mit der Inflation erklären wolltest - und natürlich spielt die eine Rolle. Gleichzeitig stellst Du den Abstand aber "dramatischer" dar, indem Du die Steuern der USA rausrechnest.
Wenn du kleinlich werden willst bei Steuern in den USA: Es gibt Staaten ohne VAT:
 
Hi. Was stellt ihr euch alle so an?

Mimimimimi....

Seid mal bißchen flexibel, Leudde.

Ich hab mir jetzt eine 4090 gestrickt. So teuer war die Wolle echt net.

Wir machen im Göpferkurs (Grafikkarten - Töpferkurs) auch noch ein paar, die sind echt bezahlbar.

Oder als Weckmänner backen...

Interessant wäre halt zu wissen, wie die Hardwareanforderungen der Games 2023 sind. Zuletzt waren die empfohlenen Systemvoraussetzungen zu S.T.A.L.K.E.R. 2 - RTX 2070 Super bzw. GTX 1080 Ti - doch erstaunlich vielversprechend, weil sehr niedrig. UE 5.
 
Wenn du kleinlich werden willst bei Steuern in den USA: Es gibt Staaten ohne VAT:

Ne, ich glaub hier liegt ein Missverständnis vor. Es geht mir nicht darum kleinlich zu sein oder zu benennen, welcher Bundesstaat wieviel Steuern bezahlt. Deine Aussage war, dass die Karten nicht wirklich teurer geworden sind. Aber das sind sie relativ deutlich auch ohne den schwachen Euro und auch unabhängig der Steuern. Mit Steuern ist allerdings der Abstand zwischen den USA und Europa dann doch etwas kleiner und Staaten ohne Steuern stellen trotzdem die Minderheit dar.
 
Weiterhin vergleiche die Leistung zum Vorgänger.
Wie zum Teufel soll ich das nun wieder machen, Stumpf nach technischen Daten, ohne jegliche unabhängige getestete Benchmarks? Wir reden hier von einem neuen Chip, andere Architektur, anderes Chip Verfahren/Design, weniger Nano etc etc.

Ich kann aktuell unmöglich die Leistung vergleichen, geht einfach nicht!
Beitrag automatisch zusammengeführt:

Deine Aussage war, dass die Karten nicht wirklich teurer geworden sind.
Dabei bleibe ich auch, Betrachtet man die reinen UVP Dollar Preise der Vorgänger zum Release Zeitpunkt ist dem auch weitgehend so.
 
Ich kann aktuell unmöglich die Leistung vergleichen, geht einfach nicht!
Das stimmt, aber Du siehst es doch schon auf der NVIDIA-Folie - und diese Marketingfolien stellen niemals Worst-Case-Szenarien dar. Die linken 3 Spiele (die ohne DLSS 3.0 gebencht wurde), die "4080" 12GB ist schlechter als die alte 3090Ti. Das ist das erste Mal seit langem, dass eine Nachfolger 80er-Karte schlechter ist als das Topmodell des Vorgängers.

Im Vergleich zum Vorgänger bekommst Du prozentual schlechtere Leistung für einen höheren Preis. Darum geht es.

Dabei bleibe ich auch, Betrachtet man die reinen UVP Dollar Preise der Vorgänger zum Release Zeitpunkt ist dem auch weitgehend so.

Gut, dann einigen wir uns darauf uns in dieser Sache nicht einigen zu können :) Macht ja nichts. War mein letzter Versuch, nerve nicht weiter ^^
 
4090 kommt mit DP 1.4a, dafür Intels saure Gurken mit DP 2.0
dp.png

ahahahahahahahaha
 
die "4080" 12GB ist schlechter als die alte 3090Ti. Das ist das erste Mal seit langem, dass eine Nachfolger 80er-Karte schlechter ist als das Topmodell des Vorgängers.
Im Vergleich zum Vorgänger bekommst Du prozentual schlechtere Leistung für einen höheren Preis. Darum geht es.
Um bei deinen eigenen Beispiel zu bleiben:
Eine 3090 Ti war also billiger beim Release als eine aktuelle 4080 (12)? Wirklich? Schau lieber noch mal nach…

Oder sogar noch krasser:
Eine 3090Ti ist heute immer noch teurer als eine 4080 (12)! Merkste selber, oder? 😏
 
Zum Release 3090 vs. 6900 waren es 1.600.- vs. 1.000.-.

Nvidia legt wieder vor, AMD kann und wird sich daran orientieren. Die dicken RDNA3 werden wohl deutlich günstiger zu produzieren sein als die 4090 weil sie kleinere Chiplets nutzt.
Ich tippe auf 1.299.- für die 7900XT.

Die Frage ist nur wie es mit VRR/ALLM über HDMI 2.1 aussieht und wie der Videoencoder abschneidet.
 
Kann NVidia gern behalten, den Kram.

Stromverbrauch jenseits von gut und böse und dann noch solche Preise... Nur DP 1.4a ist auch ne Lachnummer.

Ich werde wohl in ein paar Jahren, wenn meine jetzige Konfig nicht mehr für neuere Titel ausreicht, das PC Gaming aufgeben. Ist mir zu dumm geworden, diese abstruse Entwicklung.
 
@ssj3rd

Du bewegst Dich vom Topic weg. Weiterentwicklung im Vergleich zum Preis = Null, darum gehts. Ich verkaufe weniger Mehrleistung (prozentual Vorgänger zu Nachfolger) für einen höheren Preis. Und was interessiert mich der Vergleich vom Releasepreis (Wo ich die Leistung schon deutlich eher haben konnte, falls benötigt) mit dem heutigen?

Oder sogar noch krasser:
Eine 3090Ti ist heute immer noch teurer als eine 4080 (12)! Merkste selber, oder? 😏
Vollkommen richtig. Eine 3090Ti kostet heute 1299,-. Die "4080" wird mit 1099€ eingeführt (Customs wahrscheinlich drüber), hat aber nur 12 statt 24GB und 192-Bit Speicher SI statt 384. Da ist also die 4080 12GB der bessere Deal bei sogar schlechterer Performance in den NV-eigenen Benches (die normale 3090 kostet sogar das gleiche - auch 1099,- bei noch immer besserem Speicher + Interface und wahrscheinlich mind. gleicher Performance)? Ne, da "merk ich irgendwie nichts".

Aber das ist jetzt tatsächlich der "Gute Nacht" Post :)
 
Zuletzt bearbeitet:
Was für einen Sinn machen denn die beiden 4080er? Die sind ja auf dem Papier kaum besser als die 3080 geschweige denn 3080ti und kosten dabei erheblich mehr.
Wenn ich das richtig verstehe geht es bei der 4000er Serie hauptsächlich um die DLSS 3.0 Unterstützung. Das ist jetzt der neue heilige Gral. Weil is so. Sagt Nvidia. Musst Du schon glauben.
Das Feature was ich noch am interessantesten finde ist die quasi Auflösung des CPU Limits. Aber hier gehts ja nur noch um Preise ... :whistle:
 
Das Feature was ich noch am interessantesten finde ist die quasi Auflösung des CPU Limits.
Das geht ja auch nur um "Erzeugung" von neuen Frames, wie die Zwischenbildberechnung bei Fernsehern. Also muss die CPU nur noch 60fps zB liefern und die restlichen 60 erstellt die GPU dann selbsständig.

Wieder ein weiterer Schritt zu weniger Optimierung seitens der Entwickler.
 
Achso, dann hab ich das falsch verstanden. Ich dachte wenn die CPU limitiert schmeisst die GPU noch echte frames oben drauf.
 
Bitte Butter bei die Fische von den Profis:

Wenn man JETZT 1000 Euro für eine Graka ausgeben will, was sollte sich der geneigte Gamer kaufen (gerne mit einer guten Lautstärke nahe Null, wenn sie sie im Desktop-Betrieb nicht gebraucht wird!)

Danke! :)
 
Zuletzt bearbeitet:
(gerne mit einer guten Lautstärke nahe Null, wenn sie sie im Desktop-Betrieb nicht geraucht wird!)
Ich würde Dir dringend davon abraten Grafikkarten zu rauchen, hab ja schon einiges gehört, aber das, lass es :LOL:
3080 ist eine gute Karte, ebenso 6800XT. Das wären meine Favoriten. -->Kaufberatungen
https://www.mydealz.de/deals/xfx-6900-xt-merc319-black-gaming-2045636

11:16 @SynergyCore
Ich verstehe das dennoch so wie ich es meinte: du kannst das CPU Limit aufheben (wenn man denn im Limit ist) und die GPU quasi als Erweiterung nutzen.
 
Zuletzt bearbeitet:
Blöde Frage, aber ich könnt mir vorstellen, dass man in den nächsten Wochen hier und da mal ne 3090ti für knapp unter 1000€ im Angebot finden wird. Wär in dem Preissegment doch dann die bessere/stärkere Wahl als ne 4080 12GB oder spinn ich? Mal vom höheren Stromverbrauch der 3090 abgesehen - der natürlich je nach Nutzungsdauer schon mit eingerechnet werden müsste.

bzw normale 3090. Der aufpreis zur ti lohnt sich ja nicht si wirklich
 
@AlsterwasserHH Naja er sagt doch auch nur was ich sage. Die CPU leistet sagen wir mal 30fps und die GPU erweitert es dann durch "intelligente" Zwischenbildberechnung z.B. auf 60fps.
Wie soll denn die GPU echte Frames rendern? So gesehen bräuchte man die CPU doch dann gar nicht mehr?
 
Als Produktmanager möchte ich eine Theorie in den Raum werfen: Nvidia hat die Preise so hoch angesetzt, um die vollen Lager der 3000er Generation zu verkaufen, ohne das die Preise mächtig purzeln. Sobald die Lager leerer sind werden die Preise der 4000er angepasst. Es wurde ja öfter berichtet, dass die Partner auf vollen Lagern sitzen. Wenn man die Preise der neuen Karten ähnlich zu denen der 3000er Generation angesetzt hätte, würde entweder keiner die 3000er kaufen oder die Preise der 3000er würden so tief sinken, dass die Partner mächtige Verluste einfahren würden. Sieht für mich also nach Rücksicht auf die Partner aus.
 
Sorry, übersteigt mein technisches Verständnis. Könnte ich jetzt googlen, is mir zu spät :d
Da er sich auch auf physikalische Berechnungen bezog, die soweit ich weiss hauptsächlich oder gänzlich von der CPU übernommen werden, dachte ich die GPU boostet das dann. Das meintest Du wohl auch mit der Zwischenbildberechnung.

Aber warum geht sowas nicht mit älteren Karten? Versteh ich gerade nicht, is mir auch zu spät für sowas. Wird sich zeigen.

@OrriTheKing
Ich denke auch. Wer schlau ist, wartet einfach ein paar Monate.
 
Was glaubt ihr in welches ITX Gehäuse die 4090 passt? SSUPD Meshilicious evtl?
 
Da er sich auch auf physikalische Berechnungen bezog, die soweit ich weiss hauptsächlich oder gänzlich von der CPU übernommen werden, dachte ich die GPU boostet das dann. Das meintest Du wohl auch mit der Zwischenbildberechnung.
Genau, die CPU schafft nicht mehr, dann erstellt die GPU einfach neue Frames dazu, aber nicht eigenständig Physikberechnungen, das wäre ja ein grundsätzlicher Architekturwechsel und würde für die Entwickler große Änderungen bedeuten. Das wäre dann auch komplett anders präsentiert worden, wäre dies der Fall, der Boost wurde ja eigentlich fast nur beiläufig erwähnt.

Aber warum geht sowas nicht mit älteren Karten?
Denke mal stark das liegt daran, dass man dafür dedizierte Hardware nutzt. Fernseher haben dafür ja auch extra Chips. Kann man sich in etwas so vorstellen wie ein Videodecoder, der ist ja auch dediziert auf der GPU vorhanden. Dadurch können ältere GPUs bestimmte Codecs einfach nicht abspielen, egal wie stark die GPU an sich ist.
Und natürlich um einen Grund zu haben die neue GPU zu kaufen. Die Leistung oder der Preis ist es ja aktuell nicht.
 
Ja, ich wollte halt auf tatsächliche physikalische Berechnungen hinaus, so hatte ich das verstanden. Aber wirst wohl recht haben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh