GeForce RTX 3080 mit 10 GB, GeForce RTX 3090 mit satten 24 GB GDDR6

Kann man dann halt nicht zocken.
Mein Sohn zockt mit einer GTX1060, ich mit einer ollen 980Ti, hält mich nicht vom Spielen ab wenn ich die Grafikdetails reduzieren muss.
Dem Sohnemann hätte ich vor kurzem zum Zeugnis angeboten dass er ein Upgrade der GPU bekommt, eine RX5700XT.
Er hat sich dagegen ausgesprochen, geht ja mit der aktuellen HW alles ohne Problem, statt dessen hat er sich einen neuen PC-Sessel gewünscht und bekommen.

Wer jeden Generationssprung mitmacht ist wirklich selbst schuld, genauso ist das Problem mit 4k Gaming auch schon ewig bekannt und selbst eine 3090 wird daran nichts ändern, denn die Spielehersteller werden in Kürze noch ein Schäufelchen drauflegen damit wieder alle mit der HW nachhecheln dürfen.
Ich bin vielleicht schon zu lange dabei, aber es war bei fast allen HW-hungrigen Spielen so dass man das Spiel bei Release mit aktueller HW mit der, zu dieser Zeit, höchsten Auflösung nicht mit ausreichend hohen Framerates spielen konnte.
"Can it run crysis" kennt ihr doch alle, das war aber nur die Extremversion dessen was eigentlich dauernd abläuft, aktuell ist es halt zB der MSFS.
Das wird so bleiben und es wird auch weiterhin den nächsten Skyrim-Mod geben der den VRAM vollballert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich halte mich hier ja bewusst zurück, auch wenn es schwer fällt, aber die 3090er wird in DE im Bereich von 2000 - 2500 Euro liegen, je nach Hersteller, UVP für die FE wird eben 1999 Dollar sein, also sagen meine Kreise.
Dagegen würde ich jedenfalls nicht wetten wollen.
 
Muss ich mir darüber keinen Kopf machen da ich mit öffentlichen Verkehr unterwegs bin.

Ich Entschuldige mich für das übrspitze oben, ich kann es halt auch nicht mehr hören, das man das noch gut heißt, zumindest kommt das so rüber.
Alles gut :) Ich denke da sind beide Seiten nicht ohne. Genau wie dieses permanente "Fanboy-unterstellen" und "Fanboy-getue"
 
Mein Sohn zockt mit einer GTX1060, ich mit einer ollen 980Ti, hält mich nicht vom Spielen ab wenn ich die Grafikdetails reduzieren muss.

Bin selber noch mit einer 650TI unterwegs. Also letzte GPU vor 8 Jahren gekauft ;) Bis jetzt hat es gereicht, mit dem neuen Flugsimualtor, muss ich halt neue Hardware anschaffen. Das lässt sich nicht ändern. Diesen möchte ich aber auch möglichst auf Ultra haben, da ich mir die nächsten Jahre keine neue Hardware kaufen werde.
 
Unterbau? Mit passender Hardware erreicht man wohl schon die 60fps. Sorge macht es mir, wenn die ganzen addons hinzukommen. Dann dürftest du mit den 30fps recht haben. egal mit welchem "unterbau".
Was ich so mitbekommen habe benötigt das Game nicht hohen Takt sondern auch Kerne. Hab was von 8 Kerne gelesen.
 
Was ich so mitbekommen habe benötigt das Game nicht hohen Takt sondern auch Kerne. Hab was von 8 Kerne gelesen.

Ja, nicht unbedingt. Hyperthreadtng wird nicht so unterstützt wie erhofft. Ich hoffe noch auf einen patch oder so, sodass die 3900x (die ich nicht besitze, warte auf die 4000) voll aufblühen kann.
 
Würde auch auf 4000er warten die werden bestimmt im Takt höher gehen, was bei diesem Game nicht verkehrt sein wird.
 
Hopper soll der Name sein.
 
Ich tippe auf den Codenamen "Greed". :unsure:
 
Was folgt eigentlich nach Ampere und Volta? Öhmere bzw. Ohma? :d
Dass NV seine Architekturen schon lange nach Wissenschaftlern benennt ist dir vermutlich noch nicht aufgefallen, die Herren hießen eben Ampere, Turing und Volta. Also würde die Architektur dann Ohm heißen.

Wird aber Hopper vermutet, kannst ja mal Grace Hopper googlen.
 
Kann man dann halt nicht zocken.

Die Preise pro Leistung sinken aber jede Generation.
Warum sollte da also jemand nicht zocken können? Nur weil das absolute High-End teurer wird, ist doch der Einstieg nicht teurer. Jemand der sich kaum ne GPU leisten kann, ist wohl kaum Zielgruppe einer 3090 oder so. :-)
 
Die Preise pro Leistung sinken aber jede Generation.
Warum sollte da also jemand nicht zocken können? Nur weil das absolute High-End teurer wird, ist doch der Einstieg nicht teurer. Jemand der sich kaum ne GPU leisten kann, ist wohl kaum Zielgruppe einer 3090 oder so. :-)

Ok ich korrigiere: Zocken auf Ultra. :) Beziehe mich halt immer auch nur auf MSFS, da ich nur mit diesem Untwegs sein werde.
 
Ok ich korrigiere: Zocken auf Ultra. :) Beziehe mich halt immer auch nur auf MSFS, da ich nur mit diesem Untwegs sein werde.
Auch zocken auf Ultra wird jede Gen billiger.
Die Ansprüche der Nutzer scheinen nur schneller zu steigen. 1080p @Ultra war vor 4 Jahren sicher deutlich teurer als heute. Und wird Morgen nochmal billiger werden.
Die neusten AAA Games auf 4K sind immer ein relativ schlechter Indikator, weil die so extrem schwanken. Wenn man schlecht optimierte Titel nimmt, mag es teurer wirken, ja.

MSFS ist aber auch der Inbegriff von Extrembeispiel.

Bei Turing wurde das Verhältnis aber nicht wirklich nennenswert verbesserte. Ich hoffe das wird mit Ampere besser :unsure:

Muss ja auch nicht jede Generation nennenswert sein, wenn andere Fatures kommen.
Besser ist besser. Wenn sie die Generation nicht gebracht hätten, wäre es gar nicht besser geworden. Und RT hätten wir dann jetzt auch nicht in Konsolen und BN.

Man kann sich ja echauffieren für die absoluten Flagships, aber die haben eigentlich keine echte Relevanz. Würde NVidia einfach noch drei weitere GPUs ans obere Ende packen, mit einer 3090, 3095 und 3099 Super Duper Ultra, die alle jeweils 100%$ mehr kosten als die vorherige GPU, bei nur 5% mehr Leistung... würde deswegen die Leistungsklasse für 1080p und 1440p trotzdem keinen Euro teurer werden. Es gäbe nur mehr Optionen nach oben. Keiner muss kaufen, aber man KANN kaufen, wenn man will. Titan Käufer beweisen doch, dass man für 3% auch mal die 2-3x Summe aufbringt.
 
Mein Sohn zockt mit einer GTX1060, ich mit einer ollen 980Ti, hält mich nicht vom Spielen ab ....

Mit Kind ändert sich die Sicht auf die Dinge teils drastisch. Schön so etwas zu lesen. Ich spiele fast nur alte Titel, aber die 980ti´s reichen in der Tat dafür meist noch sehr gut.
 
  • Danke
Reaktionen: Tzk
Auch zocken auf Ultra wird jede Gen billiger.
Die Ansprüche der Nutzer scheinen nur schneller zu steigen. 1080p @Ultra war vor 4 Jahren sicher deutlich teurer als heute. Und wird Morgen nochmal billiger werden.
Die neusten AAA Games auf 4K sind immer ein relativ schlechter Indikator, weil die so extrem schwanken. Wenn man schlecht optimierte Titel nimmt, mag es teurer wirken, ja.

MSFS ist aber auch der Inbegriff von Extrembeispiel.

Ja, klar. Aber der MSFS ist halt gerade erst raus, da ist klar, dass die die Hardware noch teuer ist dafür. Mir würde es ja schon reichen, wenn ich auf 1080p mit 60fps fliegen könnte (mit addons). Wenn das die neuen GPU's schaffen egal ob nv oder amd, bin ich mehr als zufrieden. Muss halt nicht die 3090 sein (wie gesagt, wohl sowieso oberhalb meines budgets), wenn es eine bezahlbare 3070 oder BN tut, why not?
Das ist ja nicht nur der MSFS, alle Flugsimulatoren waren bis lang so :( Deshalb auch die Enttäuschung, dass es diesmal nicht mit dem hyperthreading geklappt hat.
 
MSFS ist schwer CPU-limitiert, außer halt in 4k, schau dir mal die Benchmarks an.
In 1080p 60fps wird mit der aktuellen Performance in ultra nicht drinnen sein, aber zwischen einer 2070 und einer 2080ti wirst du vllt 10% Unterschied sehen.

Gehst du runter auf sehr hoch sind 60fps gut möglich und das sogar mit einer RTX2070.
Kommt halt auch stark darauf an wo du den Benchmark ansetzt.

Wird sicher mit der Zeit besser und sollte DX12 wirklich kommen, dann könnte die Performance nochmals ordentlich ansteigen.
 
Gibt es immernoch Menschen, die sich die Preissteigerungen bei Nvidia schönrechnen? Ich empfehle mal, das hier zu lesen. Ja ich weiss, Gamestar, aber die arbeiten mit harten Zahlen.

Man kann bei Hardware nicht einfach Leistungssteigerung gegenüber den Vorgängern und Preissteigerung miteinander in Verbindung bringen. Wichtig ist die relative Leistung zum aktuellen Zeitpunkt, Vorgängermodelle sind nur in soweit relevant, dass natürlich ein Kaufanreiz geschaffen werden muss und regelmäßig für etwa den gleichen Preis eine Leistungssteigerung stattfinden muss, um gestiegene Anforderungen zu bewältigen.
Die reine Rohleistung ist aber auch alleine nicht aussagekräftig, da z.B. der Speicher auch berücksichtigt werden muss.

- Die 2080Ti hat nur 18% mehr Leistung als die 1080Ti, also kaum mehr als manches Refresh, mehr Speicher gab es auch nicht, sie kostet aber inflationsbereinigt über 40% mehr. Für was?
- Die 980Ti kostete inflationsbereinigt 13% mehr als die 780Ti und bot auch nur ähnlich viel Mehrleistung, hatte aber doppelt so viel Speicher, die 1080Ti kostete aber nur 9% mehr und sie leistete 87% mehr und hatte nochmal fast den doppelten speicher

- Bei den kleineren Karten blieben die Preise seit den GTX 400ern bis zu den 900ern, von einzelnen Ausreißern (GTX 780) abgesehen, ziemlich gleich
- Dann kam mit 1080 und 1070 jeweils eine Preissteigerung von nahezu 50%, wenn auch mit einem ordentlichen Leistungsschub (den es aber auch schon vorher mit neuen Architekturen ohne diese Preissteigerung gegeben hat), während 2070 und 2080 anfangs nahzu gleichteuer waren
- bei 1060 und 2060 sind es zusammen auch knapp 50% gegenüber der 960 und den Vorgängern, hier war es nur etwas weniger bei der 1060 und etwas mehr bei der 2060
- beide legen zwar auch deutlich mehr zu ggü. der (grottenschlechten) 960, aber aus den Tests bleibt eher im Bewusstsein, dass 6GB schon bei der 1060 zu wenig sein konnten, bei der 2060 erst recht, und dass die 2060 zu lahm für RTX ist

Zwar muss man sagen, dass ein guter Teil auch inflationsbedingt ist. Trotzdem stösst es sauer auf, dass die 2060 bei Release einen Preis aufrief wie zuvor die meisten 70er-Karten bis zur 970, die 2070 so teuer war wie die meisten 80er bis zur 980 (Ausnahme 780) und die 2080 so teuer war wie eine 1080Ti.
Die Kaufkraft der Käufer dürfte nicht im gleichen Ausmaß gestiegen sein.

Ganz absolut gesehen fand ich auch vierstellige Beträge für einzelne Hardwarekomponenten in einem Spiele-PC schon immer jenseits von Gut und Böse und für eine GPU, die nach spätestens zwei Jahren vom Thron gestossen wird und nach drei veraltet ist, sowieso. Keine Hardware altert so schlecht wie GPUs.
 
- Die 2080Ti hat nur 18% mehr Leistung als die 1080Ti, also kaum mehr als manches Refresh, mehr Speicher gab es auch nicht, sie kostet aber inflationsbereinigt über 40% mehr. Für was?
Wo gelesen?
Laut CB sind es bei 1080p 31% und bei 4K 50%
Wenn man von den 50% bei 4K ausgeht, hätte es sich ja gegenüber dem Mehrpreis von 40% "gelohnt :fresse:
 
Rohleistung (FP32). Wie gesagt, kein 100%-alltagsrelevanter, sondern rein mathemathischer Vergleichswert. 31% sind aber auch nicht viel, von 980Ti auf 1080Ti waren es bei CB 58% respektive 75% (bzw. 88% bei Max). Bei der 980Ti finden sich leider nur 45-50% in 1080p und 50-55% in 1440p, die 780Ti wurde in UHD leider nicht mehr mitgebencht. Die Titan X war in ihrem Test in UHD mit 4xAA/16xAF 53-60% schneller als die 780Ti und im Test der 980Ti 1-4% schneller.
In jedem Fall war die 2080Ti der geringste Performancesprung aller Tis und der größte Preissprung.
 
Zuletzt bearbeitet:
Rohleistung (FP32). Wie gesagt, kein 100%-alltagsrelevanter, sondern rein mathemathischer Vergleichswert. 31% sind aber auch nicht viel, von 980Ti auf 1080Ti waren es bei CB 58% respektive 75% (bzw. 88% bei Max).
Die Rechnung funktioniert so nicht - denn Turing bietet dazu auch gleichzeitig! 100% mehr INT Performance. Das kann Pascal nur im Wechsel. Ich müsste es jetzt im Detail raussuchen - aber es waren meine ich 32 ALUs können eine INT32 Operation tätigen, sind dann aber für FP blockiert (bei Pascal) - Turing kann FP + INT zur gleichen Zeit (im Powerrahmen, also wenn genug Luft ist, logisch)
Der Anteil der INT Operationen liegt laut NV bei 30% und mehr. Da zu gibts Folien von der Präsentation seinerzeit. Lass es real nur 10-20% sein -> das kommt schon so hin.
Unabhängig davon darf/sollte man bei Turing den ausgebliebenen Prozess-Schritt nicht vergessen. Die Packdickte hat sich nicht erhöht, alles, was Turing an mehr Transistoren bekommen hat um u.A. INT auch nebst FP zu können, die Tensorcores, die RT Units, größere Caches usw. usf. ist 1:1 in Die Size gegangen. Das ist keine Rechtfertigung, dass es richtig läuft, was sie da bauen. Aber es ist einfach mal mehr dran als man es gern hätte. :wink: Ein Turing in 7nm mit deutlich geringerer Die Size hätte sicher auch viel mehr Leistung bedeutet. Die Frage wäre eher, wer hätte das zahlen sollen/wollen? Unabhängig vom Speicher, der seinerzeit noch sack teuer war und vom Bandbreitenbedarf bei deutlich mehr als TU102 Performance? Es ist nicht gaaaanz so einfach da mal eben 30% mehr zu bedienen ohne dass der Verbrauch deutlich steigt... Sollte es sich bewahrheiten, wie es aktuell spekuliert wird, kommt ein sehr großer Anteil des Energiebedarfs von Ampere durch den Speicher. Man munkelt, 3x so viel wie bei Turing, einfach damit da 50% mehr Bandbreite bei rum kommen... Und bevor es jetzt heißt, HBM -> ja HBM kann das auch liefern -> kostet im Zweifel noch mehr und säuft genau so oder zumindest ähnlich (Siehe Micron HBM2e Whitepaper mit der Skalierung von Verbrauch und Bandbreite)
 
Öhm ja, habe ich auch was zu geschrieben. Für Dich wiederhole ich es nochmal: Die 2080Ti hat einen deutlich geringeren Performancesprung ggü. der 1080Ti hingelegt, als selbige ggü. der 980Ti und auch als diese ggü. der 780Ti. Trotzdem gleichzeitig den bei weitem größten Preissprung und erstmals nicht mehr Speicher. Hier ist er übrigens auch nicht so groß in UHD, wie Du meintest.
Der Abstand zur 2080(S) ist auch gleich geblieben wie zwischen 1080Ti und 1080.
Also was rechtfertigt nochmal den Preisanstieg?

EDIT: @undervolter19 : Wie geschrieben, das eine ist die Rohleistung (FP32), ein recht theoretischer Vergleichswert, das andere Spieleleistung in unterschiedlichsten Benchmarks, wo es schon bei CB schwer wird, direkte Vergleiche zu ziehen. Die etwa 50% kann ich dort aber bestätigen, von 980Ti zu 1080Ti sogar mehr, von dieser zur 1080Ti aber deutlich weniger.

@fdsonne : Du schreibst es ja selbst, das ist keine Rechtfertigung. Ich kritisiere auch ganz konkret, dass plötzlich die Midrange-Karte mit Verschnitt des drittkleinsten Chips mit 192Bit-SI und 6GB so teuer ist, wie früher das zweitstärkste Modell.
Immerhin das scheinen sie nun anders zu machen, für die beiden größten Modelle wird wieder ein großer Chip genommen und der nächstkleinere für Obere Mittelklasse/unteres Highend und Mittelklasse. Bleibt abzuwarten, wie stark die 3060 beschnitten ist, aber mit 192Bit rechne ich nicht.
 
Zuletzt bearbeitet:
Also was rechtfertigt nochmal den Preisanstieg?
Bspw. deutlich teurerer Speicher bei Turing und bspw. u.A. 471mm² (GP102) vs. 750mm² (TU102) Die Size?
Von der Die Size ist TU104 auf der 2080(S) immernoch um 10% größer als die GP102 GPU. Erstere misst ca. 550mm². Sie hätten auch ne leichte Sidegrade-Gen. bringen können. Gleicher Preis, minimal mehr Leistung und ne Option auf 16GB Speicher für nen Hunni Aufpreis. Hätte es das besser gemacht?
Man muss da doch nix rechtfertigen... Das eine ist ein Angebot, das andere ist ne Nachfrage bzw. ein Bedarf. Kommt das nicht unter einen Hut, greift man zu was anderem/kleinerem. Rechtfertigen muss da weder der Käufer seinen Kauf noch der Hersteller sein Preisschild. :wink:
 
Man muss da doch nix rechtfertigen... Das eine ist ein Angebot, das andere ist ne Nachfrage bzw. ein Bedarf. Kommt das nicht unter einen Hut, greift man zu was anderem/kleinerem. Rechtfertigen muss da weder der Käufer seinen Kauf noch der Hersteller sein Preisschild. :wink:

Wenns mal so wäre. Das System von Angebot und Nachfrage ist da schon geraume Zeit außer Kraft gesetzt. Außer im Bereich der 2060S/2070 und darunter konnte man seit geraumer Zeit nicht zu was anderem greifen, und das auch erst seit einem Jahr, und sich nur in NVs Portfolio das aussuchen, was man bereit war, auszugeben. Und das haben sie AFAIK ausgenutzt. Die 2070S war schon ein deutlich besseres Angebot als die 2070 anfangs, für NV natürlich weniger lukrativ. Die 2060S hätte auch besser sein können, der Preis stimmte aber wieder nicht mit der Leistung überein und sie ist am Markt gescheitert ggü. der 5700(XT).

Die Produktionskosten mögen gestiegen sein, aber die rechtfertigen alleine nicht den Preisanstieg. Eine 2070S kostet in der Produktion genausoviel wie eine 2080, die 2080S vielleicht minimal mehr, ebenso die 2060S wie die 2070. Beide waren eigentlich identisch mit dem nächstbesseren Vorgänger, nur am Chip beschnitten.
Natürlich hat NV daran nicht mehr so viel verdient, aber verdient haben werden sie noch. Statt aber einfach die bestehenden Karten im Preis zu senken, werden diese beschnitten, um nochmal eine 2080S mit minimal Mehrleistung aber der alten Marge ins Portfolio drücken zu können.

Ich wünsche NV, dass Big Navi die 3080 zersägt und dabei preislich attraktiv bleibt und NV entweder eine 3080S mit einem noch weniger beschnittenen GA102 bringen muss (z.B. volle 384Bit und 12/24GB) oder die 3090 im Preis senken muss, auf jeden Fall seine dicken GA102 mit weniger Marge verkaufen muss. Das Gleiche für die 3070 und einen Nachfolger der 5700XT.
 
Wenn AMD Karten mit gleicher Performance bringt werden so nicht so dumm sein und preislich weit drunter ansetzen, auch dort sind Leute mit Hirn beschäftigt.
Man schmeisst als Unternehmen einen möglichen Gewinn nicht einfach weg, sondern preist sein Produkt anhand dessen was der Markt hergibt und Konkurrenten für ein leistungsmäßig gleichwertiges Produkt verlangen.

AMD will Marktanteile zurückgewinnen, also würden sie sich preislich leicht drunter positionieren, aber viele erwarten hier Preise von AMD die weit unterhalb NV liegen wenn den Grünen schon dauernd Wucher vorgeworfen wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh