GeForce RTX 3050 bis 3090 Ti: Dann sollen die neuen Karten erscheinen

Also ich wollte unbedingt gutes RT und deshalb hatte ich mich zur OVP von 699 € für die 3080 entschieden, aktuell ärgere ich mich, das ich nicht später auf die 6900 XT gewartet habe.... Meine 1080 TI hatte ja mehr Speicher, dachte aber auch ehrlich bis dato nicht, das ich damit mal an die Grenzen komme, die nächste Zeit. Aber so ist das, egal wie viel Erfahrung man hat und egal wie viel man bis heute mit Hardware zu tun gehabt hat, man lernt nie aus. Heute würde ich mir klar die 6900 XT holen, so warte ich dann lieber auf die nächsten Generationen.

Aber fu**, eine 3090 TI??? Was soll die kosten, 4000 € ? :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Darum bin ich ja auch auf die 6900XT gegangen mit 16GB da ich wusste das die 10 GB der 3080 für 4K zu wenig werden da ich vorher eine 2080Ti hatte.
Jedoch kam jetzt noch ein 120HZ Oled dazu und da wollte ich unbedingt auch DLSS nutzen können z.b BF 2042 hat nur DLSS und kein FSR um die Performance weiter steigern zu können und da ich weis das ich eh wechseln werde zur next Gen hab ich den 12GB eine Chance gegeben was halt noch ganz knapp ausgeht.

Wen jemand plant auf längere Sicht eine Karte zu kaufen dann würde ich die 6900XT empfehlen anstatt die 3080 Ti .

Was ich mich allerdings auch noch frage ist wan wir was zu RTX I.O sehen werden ist ja nu ein Jahr her als es vorgestellt wurde und Win 11 ist auch da .

Ich hatte damals auch eine 3090 Strix bestellt die ist leider nie angekommen für 1600 wäre es das Ding gewesen.
 
Zuletzt bearbeitet:
Meine 1080 TI hatte ja mehr Speicher, dachte aber auch ehrlich bis dato nicht, das ich damit mal an die Grenzen komme, die nächste Zeit. Aber so ist das, egal wie viel Erfahrung man hat und egal wie viel man bis heute mit Hardware zu tun gehabt hat, man lernt nie aus.
Es ist nicht egal, wieviel Erfahrung man hatte. Das denkt man nur, wenn man die Erfahrung nicht hatte. :d

Hättest nur mal gucken müssen, wieviel Speicher auf deiner 1080ti genutzt wird, hättest du festgestellt, das es bei diversen Spielen schon mehr als 10GB sind. Und es wird in Zukunft eher nicht weniger werden.
Der nächste Hinweiß ist, das eben schon eine 1080ti und eine 2080ti mit 11GB gab. 10GB sind ein Rückschritt, 12GB sind kaum mehr.

Das nächste "falsche" Argument war schon immer: Aber die Spiele laufen doch sogar mit 8 oder gar 6GB. Ja, tun sie, weil sie dann halt an den Texturen sparen, z.B. wird die höchste Mipmap-Stufe einfach weggelassen. Es hat aber andersrum auch niemand behauptet, das man mit nur 10 oder 12GB in Zukunft nix mehr spielen können wird, sondern nur das du dann halt nichtmehr auf höchste Grafikqualität kommst, was man aber als Besitzer einer 3080(ti) ja eigentlich will, oder?

Die übrige "Regel" ist: Wenn Speicher vorhanden ist, werden Entwickler den früher oder später auch nutzen. Also wenn es generell keine Karten mit mehr als 12GB gäbe, würden 10-12GB in Zukunft auch nicht knapp werden. Da aber die AMDs schon 12-16GB und die 3090 24GB haben, ist mehr druchaus vorhanden. Wobei wohl kaum jemand Spiele rausbringen wird, die mehr als 16GB effektiv nutzen können, weil das ohnehin nur für die "paar" 3090-Besitzer nutzbar wäre. Man muss also eher gucken, wie die Ausstattungen in der Generation aussehen.
Oder man siehts eben andersrum: Das diverse Nvidias wieder nur 8-12GB haben, die aber vermutlich einen großen Marktanteil haben, wird die Spieleentwicklung eher wieder bremsen, weil man eben für den Markt entwickelt, nicht für die High-End-Modelle (ausser man heißt Chris Roberts oder entwickelt Crysis :d)

Fazit war also von denen mit Erfahrung schon immer: Es hätte ruhig mehr Speicher werden dürfen, aber hätte nicht sogar noch weniger werden sollen. Ich hätte ehemals in etwa mit 16GB auf der 3080 gerechnet, 12GB auf der 3070 und 8GB auf der 3060. Und gut, die 3090 ist mit ihren 24GB wohl eher schon wieder overkill.

Ich mache mir jedenfalls keine Sorgen, das die 16GB auf meiner AMD "verschwendet" sein werden. Hatte wie oben ja schon von anderen genannt wurde, auch schon Spiele die jetzt schon mehr als 12GB nutzen. Allerdings habe ich mir die AMD nicht (nur) wegen den 16GB ausgesucht, auch wenn für mich die nur 10GB der 3080 schon immer ein Stein im Magen waren. Letztendlich lag der Grund für die AMD an der Verfügbarkeit und einem guten Angebot. ;)
 
16GB bei einer 3080 geben die 320 bit halt nicht her da ging nur 20 oder halt noch mehr Bit 448 ,512 oder der Ansatz von AMD mit viel Cache und 256Bit.
AMD hat dahingehend Nvidia sicherlich auch mehr als überraschend ausgespielt.
 
Zuletzt bearbeitet:
Also ich wollte unbedingt gutes RT und deshalb hatte ich mich zur OVP von 699 € für die 3080 entschieden, aktuell ärgere ich mich, das ich nicht später auf die 6900 XT gewartet habe.... Meine 1080 TI hatte ja mehr Speicher, dachte aber auch ehrlich bis dato nicht, das ich damit mal an die Grenzen komme, die nächste Zeit. Aber so ist das, egal wie viel Erfahrung man hat und egal wie viel man bis heute mit Hardware zu tun gehabt hat, man lernt nie aus. Heute würde ich mir klar die 6900 XT holen, so warte ich dann lieber auf die nächsten Generationen.

Aber fu**, eine 3090 TI??? Was soll die kosten, 4000 € ? :d
Befürchte auch, dass die 3090 Ti einiges kosten wird; noch läuft meine Gtx 1080, hoffe, das bleibt bis zur Einführung der 4000er Reihe
 
Freu mich schon auf die 9000er Reihe für 9K 😂
 
mich jucken ankündigungen auch kein stück; denke solche produktandrohungen sollten sich alle seiten, die von derartiger werbung leben komplett verkneifen. und zwar bis die hersteller etwas ankündigen, das auch zur UVP und in stückzahlen verfügbar ist. oder ist das ein teil der verarschung und gehört zum spiel.. guckt mal, was ihr euch alles bald wieder nicht kaufen könnt.. :P :P


(..)

mfg
tobi
 
Es gibt auch 5K

Es wird bei Notebooks auch künftig häufiger "krumme" Auflösungen geben.
Stimmt die gibs auch.

Krumme zahlen sind ja auch nicht so wild.

3840x2160 ist ja auch ne krumme zahl.
 
was hat denn die diskussion über auflösungen genau mit der ankündigung der karten zu tun?
 
Wie viel vram genutzt wird in games hängt primär von den Konsolen ab
dabei muss man wissen welchen design ziele die Konsolen haben
Ps4 pro 1080p upscaled 1440p
Und dann muss man wissen welche bittiefe die texturen haben in der Regel sind das 256-512bit
Das kommt in 1080p maximal 4-6gb an und in 1440P 6-8gb

Wenn dann aber ps5 und xsx zum standard werden verschiebt sich das auf 6-9gb vram 1080p und 8-12gb vram 1440p

Dabei muss gesagt werden das die Auflösung an sich nicht fixiert ist
Und es von game design abhängt mit welcher bittiefe auf welche Auflösung gesetzt wird.
Dabei sind 1024bit auf 1080po dann etwa 12gb vram
Bisher hat das keiner gemacht aus folgenden Grund es gibt derzeit keine auf ps5 oder xsx entwickelten spiele
und auf rücksicht einer größeren PC käuferschicht wird auf hohe Vram belegung verzichtet.

Den die entwicklung hin das immer teurer werdenden gpu und immer kleiner werrdenden Markt sind derzeit eben standard 4gb vram bis 8gb vram
Dies kann sich ändern in 2-3 Jahren
2019 hatte keiner gedacht das eine chipkrise kommt
Die ursache ist die pandemi
Der ausblick ist auch ungewiss wann die gpu preise auf normalen niveau gehen werden udn somit mehr vram und schnellere gpu zu standard sind
ich gehe von 8-12gb vram ab 2024 aus die die min anforderungen sein werden auf 1080p-1440p


das thema hat direkt mit den GPu zutun den das groß der dgpu käufer sind die für unter 400€ kaufen
Und da ist aus meiner glaskugel heraus nur noch gpu mit 4gb vram geplant
ja der rückschritt hat nen grund chipkrise und den extremen kosten bei vram
Die derzeitigen uvp können einfach nicht gehalten werden. solange der vram Preis über 10$ pro gb liegt (aktuell 13$)
Die chipkrise geht noch bis mite 2023 wenn nicht länger.
 
Wenn ich denke, dass ich relativ genau heute vor einem Jahr gezögert hatte, weil mich die ASUS TUF Gaming GeForce RTX 3060 Ti OC (war damals in diversen Test die leiseste und kühlste 3060Ti Karte die es zu dem Zeitpunkt gab) ca. EUR 550,- gekostet hat (UVP war damals auf ca. EUR 500,-), ob ich 10% über die UVP zahlen (oder noch warten) soll...

Wahnsinn wohin sich der Markt entwickelt hat... ist das wirklich erst 1 Jahr her... diese ganze Chip-Kriese fühlt sich inzwischen schon wie mehrere Jahre an...

Zum Glück habe ich da dann doch noch zugeschlagen... (davor hatte ich eine MSI Gaming GTX 960 2GB)... Ich zocke "nur" in 1080p und rüste im Schnitt nur ca. alle 5 Jahre meine Grafikkarte auf...
Kann nur hoffen das die Karte möglichst lange hält... und sich der Markt irgendwann in den nächsten 2-3 Jahren wieder beruhigt...
Bis dahin werde ich es wie viel hier, auch aussitzen, wobei ich (rückwirkend) eh nichts sagen darf... hatte damals wohl echt noch Glück im Vergleich zu manch Anderen!
 
Ich werde noch in 5 Jahren mit der GTX1070 herumgurken 😂
 
So eine 75 Watt 3050 Low Profile würde mir ja im Wohnzimmer gut gefallen :-)

3050 ist afaik eine xx60er und somit min. 100-120W+

Wir bereits bei Turing, wird es bei Ampere keine 75W TDP GPUs geben. GTX1650 hat 75W... my bad.

Sag ja, Pascal hat es (zu damaliger Zeit) alles richtig gemacht.
 
Zuletzt bearbeitet:
wow, späte Einsicht....
 
Hättest nur mal gucken müssen, wieviel Speicher auf deiner 1080ti genutzt wird, hättest du festgestellt, das es bei diversen Spielen schon mehr als 10GB sind. Und es wird in Zukunft eher nicht weniger werden.
Deinen langen Post und Mühe in Ehren, aber solche pauschalen Aussagen helfen niemanden und sind schlicht weg auch falsch. Primär maßgeblich für die VRAM-Usage ist die Auflösung! Also wenn du davon sprichst, das manche Spiele schon mehr fressen wie 10GB, welche meinst du dann bitte und vor allem bei welcher Auflösung? Wenn ich 4k fahre okay, aber bei 2k/FHD halte ich das für ein Gerücht, es sei den ist ist ein grotten schlecht optimiertes Spiel was man eh in die Tonne kloppen sollte. Davon ab verwechseln die meisten User auch allokierten VRAM und tatsächlich genutzen VRAM - dazwischen liegt ein riesen Unterschied. Der Usecase selber ist übrigens auch wichtig - wenn du High-FPS Gamer bist, stellst du die Details eh runter und es geht mehr um die Rohleistung der GPU. DirectStorage steht auch vor der Tür, das wird den benötigten VRAM nochmal reduzieren. Ich sage, 10GB ist stand heute für FHD- und auch für 2k Nutzer noch immer mehr als ausreichend, auch die nächsten Jahre - lasse mich aber gerne vom Gegenteil überzeugen!
 
Wie wäre es, wenn NV den NV-Link generell für die Low-End Karten mit geringer Hashrate, was keinem Miner interessiert, ausbauen würde? Dann könnte man zwei 3050 zum vernünftigen Preis kaufen, NV Link dazu, dann hat man eine 3060 Ti, was für WQHD oder 4K in mittlerer Grafikeinstellung ausreichend wäre. :fresse:

Weil SLI fürs gaming schon seit Jahren ein Totes Pferd ist.
 
Deinen langen Post und Mühe in Ehren, aber solche pauschalen Aussagen helfen niemanden und sind schlicht weg auch falsch.
Nein.

Primär maßgeblich für die VRAM-Usage ist die Auflösung! A
Nein, primär maßgeblich für die VRAM-Benutzung ist die Texturauflösung.
Das man mit höherer Bildschirmauflösung meist auch höher aufgelöste Texturen verwendet, ist ledigleich eine Korrelation, keine Kausalität.
Umgekehrt sogar, wenn du in UHD mit der gleichen Texturauflösung spielst wie sie für FHD verwendet wird, dann brauchst du kaum mehr Speicher.

lso wenn du davon sprichst, das manche Spiele schon mehr fressen wie 10GB, welche meinst du dann bitte und vor allem bei welcher Auflösung?
Hab die 8GB meiner 1070 schon mit manchen Spielen in FHD vollgekriegt. Mehr als 8GB hab ich erst seit ich mehr als FullHD habe.

Wenn ich 4k fahre okay, aber bei 2k/FHD halte ich das für ein Gerücht,
2K == FHD. Wenn man die K-Begriffe nicht versteht, benutzt man sie nicht. WQHD ist wenn man unbedingt K will 2,5K.

Davon ab verwechseln die meisten User auch allokierten VRAM und tatsächlich genutzen VRAM - dazwischen liegt ein riesen Unterschied.
Das ist die einzig richtige Aussage in deiner Antwort.

Der Usecase selber ist übrigens auch wichtig - wenn du High-FPS Gamer bist, stellst du die Details eh runter und es geht mehr um die Rohleistung der GPU.
Texturen (auch in hohen Auflösungen) brauchen relativ wenig GPU-Leistung, aber Speicher und Speicherbandbreite. Wenn also der Speicher knapp wird, musst du zunächst mal die Texturauflösung reduzieren, andere Einstellungen die GPU-Leistung fressen, kannst du dagegen ruhig höher eingestellt lassen. Wenn das für dich ein Teil der "Details" ist, ok. Ich sagte ja schon, man wird deswegen Spiele nicht nichtmehr spielen können, sondern nur eben nichtmehr in den höchsten Detailstufen.

DirectStorage steht auch vor der Tür, das wird den benötigten VRAM nochmal reduzieren.
Texturen werden schon lange gestreamt. DirectStorage wird das Streaming nochmal beschleunigen, das hilft aber nicht bei Texturen die gleichzeitig sichtbar sind.

Ich sage, 10GB ist stand heute für FHD- und auch für 2k Nutzer noch immer mehr als ausreichend, auch die nächsten Jahre - lasse mich aber gerne vom Gegenteil überzeugen!
Prognosen sind immer schwierig, vorallem wenn sie die Zukunft betreffen. Ich bin da skeptischer.
 
Zuletzt bearbeitet:
Release der 3070ti und 3050 wurde angeblich auf unbekannt verschoben:
Ist doch kein Problem, eine <500€ billig Ampere Variante 1,5 Jahre nach Release zu erwarten wäre ja auch etwas sehr optimistisch gewesen. Nvidia verkauft halt lieber 2018er Ware (rtx 2060).
 
also tatsächlich freu ich mich schon auf die 3090Ti, endlich wieder basteln und umbauen :d Ich denke auch, dass man die aktuelle 3090 gut, mit gewissen auf Aufpreis, gegen die Ti-Variante über eBay getauscht bekommt - falls man kein Glück beim Bestellen hat.

Viel wichtiger finde ich die Frage - wann kommt die 4000er Reihe und ab wann kann man vorbestellen.
 
Eine 3090Ti? Niemals da die non Ti schon alles herausgeholt hat was aktuell geht.

Und wegen 1-3% Mehrleistung lohnt das einfach nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh