Gerücht: GeForce RTX 3080 Ti mit Mining-Nerf und nur 12 GB VRAM

Das ist der Grund wieso ich bei meiner 5700xt nitro+ bleibe und diese bis auf unbestimmte Zeit auf WaKü setze.
Ich kann in 3440x1440 21:9/ 16:9 und 144 Hz (Xiaomi 34" Monitor 144 Hz) alles auf Ultra spielen und habe bis jetzt keine Probleme ferstgestellt.
Manche Settings nehme ich raus da sie bremsen oder mich persönlich stören, dann läuft es meist noch besser.
Mit Luft halt sehr heiss oder laut mit Lüftern auf 100%. War ne 12 Monate alte Karte für 350 Euro hier ausm Forum (nach dem 30er Release).
RT nützt mir nichts und DLSS ist einfach noch nicht so weit.
Entweder ne 6900xt oder 3090 Ende des Jahres zu moderatem Preis oder weiterhin 5700xt.

RAM lastig bin ich aber bei aktuellen Titel immer bei hoher Auslastung und teils am Limit der 8 GB.
So sehe ich das auch, dabei habe ich aber eine 2080 Ti. Ich wäre im Moment mit 5700 XT-Leistung bedient. Wer Lust hat, die steht für 1 K bei Kleinanzeigen. Ist ja ein sehr "fairer" Preis dieser Tage. 600 € für eine 5700 würde ich definitiv nicht ausgeben wollen bei einem Downgrade. Das eigentliche Problem ist, dass diese Karte zB in BF1 80 - 120 FPS macht, der Monitor aber sowieso nur 60 anzeigt. Hoffentlich normalisieren sich im Sommer bis Herbst die Preise, dann gibt es eine 6900 XT und einen neuen Monitor. Manchmal überlege ich auch ob ich diese Generation nicht komplett überspringen soll. Außer 6900 XT und 3090 gibt es keine Karten die überhaupt sonderlich Sinn machen würden beim Upgrade. Es gibt andererseits aber auch keine Garantien dass bei der kommenden Generation das Minerproblem in den Griff bekommen wird.

Manchmal bereue ich es die 3080 XC3 nicht für 719 € (!) genommen zu haben, wobei die 2080 Ti auch gut war. Beim nächsten Mal werde ich einfach zuschlagen. Notfalls hat man dann die Karte und tauscht sie gegen das was man will. Es scheint ja schon völlige Normalität geworden zu sein seine 3080 für 1200 € MP anzubieten. Solange ich diese exorbitanten Preise nicht zahlen muss könnte es mir glatt recht sein, solange eine eventuelle Zuzahlung beim Upgrade in den Rahmen fällt.
DLSS funzt Einwandfrei..
*In ein paar ausgewählten Titeln. Übrigens keine die ich momentan spiele. Um das Feature ernst nehmen zu können, müsste es ausnahmslos jeden Titel unterstützen, das heißt mindestens DX9-12 und Vulkan.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wer glaubt, dass die aktuelle "Situation" sich bis Q2 / Q3 bessert... forget it. Es wird sich noch zu spitzen. Dieses Jahr wird es nix mehr.

Die Ampere & Big Navi GPUs sind eh durch die Bank: Müll.
 
DLSS funzt Einwandfrei..
Ach ja.
Wo denn?
Ich kann dir genug Titel nenen wo es kein dlss gibt oder es eben nicht gut funzt zumindest bei meinen spielen.
CP77 nutzt es gut aber auch hier hatte ich irgendwann RT ausgeschaltet und war ohne DLSS glücklicher.
 
Also ich sehe keinen Grund NV für soetwas zu kritiseren.
hat doch auch niemand. es ging nur darum, dass dort keine speziell auf den dauerbetrieb abgestimmten halbleiter verloetet werden, da das eben ueberall die gleichen sind.
dass bei consumer hardware features deaktiviert wurden bedeutet nicht, dass ein gammeliger celeron 24/7 last jetzt schlechter ueberlebt als ein xeon.
 
Ich muss hier einige Vorpostern schon recht geben, DLSS ist nice 2, aber es gibt kaum Titel bei denen das funktioniert.
=> Hier brauch Nvidia einen Treiberseitigen "globalen" Ansatz. Wenn das stimmt was AMD da plant kann sich Nvidia warm anziehen, wenn Fidelity FX, was auch schon Global funktioniert noch durch AMDs Super Sampling "DLSS" Pendant auch noch ergänzt wird und das global laufen kann (auch wenn es implementiert wohl besser ist)) dann kann man jetzt schon den Kauf einer Nvidia Karte bereuen.
 
Ich muss hier einige Vorpostern schon recht geben, DLSS ist nice 2, aber es gibt kaum Titel bei denen das funktioniert.
=> Hier brauch Nvidia einen Treiberseitigen "globalen" Ansatz. Wenn das stimmt was AMD da plant kann sich Nvidia warm anziehen, wenn Fidelity FX, was auch schon Global funktioniert noch durch AMDs Super Sampling "DLSS" Pendant auch noch ergänzt wird und das global laufen kann (auch wenn es implementiert wohl besser ist)) dann kann man jetzt schon den Kauf einer Nvidia Karte bereuen.
Es muss einen globalen Ansatz geben. Aktuell ist DLSS / RT reines Marketing. Da muss jeder selbst wissen ob er eine NVIDIA-Karte haben muss um in zwei Titeln die Effekte anzumachen.
 
Sorry Leute, aber einen "globalen Ansatz" der auch nur annähernd so gut funktioniert wie DLSS kann es kaum geben.
Software kann schlicht nicht buchstäblich zaubern\hellsehen und Informationen interpolieren ohne zu wissen was das Game beabsichtigte darzustellen. Deswegen muss das im Game eingebaut werden und es bedarf mehr oder weniger Optimierung seitens deren Entwickler.

Davon abgesehen vergrößert sich die Liste von Games die DLSS oder RT(X) verwenden stetig...
 
Es muss einen globalen Ansatz geben. Aktuell ist DLSS / RT reines Marketing. Da muss jeder selbst wissen ob er eine NVIDIA-Karte haben muss um in zwei Titeln die Effekte anzumachen.

Beitrag automatisch zusammengeführt:

Ach ja.
Wo denn?
Ich kann dir genug Titel nenen wo es kein dlss gibt oder es eben nicht gut funzt zumindest bei meinen spielen.
CP77 nutzt es gut aber auch hier hatte ich irgendwann RT ausgeschaltet und war ohne DLSS glücklicher.

Wos angeboten wird funzt es gut, wenn du nur andere Games zockst kauf dir ne Radeon..
 
Wird sich zeigen ob es das in ein oder zwei Jahren als solches noch gibt. Es gab doch oft genug tolle Features weshalb alle gekauft haben und nach einer Generation war tote Hose da nun was neues kam. Für RT als solches sehe ich weniger eine Zukunft als für eine KI ala DLSS.
 
Bis es RT 3.0 gibt und alles wieder für die Katz war doch bei RT zum heutigen genauso. Es langt eine andere Architektur und fertig ist.
Einfach abwarten und beobachten, spekulieren und aufregen nützt keinem etwas ausser den Kardiologen, Internisten sowie Pharmaindustrie^^
 
Du spekulierst doch das RT nicht bleibt. Mit ner neuen Architektur wird RT wieder besser laufen.
 
Also das Konzept von Raytracing wird mit hoher Wahrscheinlichkeit bleiben und weiter ausgebaut als es in RTX verfügbar ist.
Schliesslich ist es doch der absolute Traum in Games Grafiken in Renderqualität ala Blender zu haben.
Die Hardware implementierung von RT ist das was Shader für Polygon Rendering einst war.
Edit: Oder eher die Rasterization units.
 
Namensänderungen sind doch bei allen Herstellern nach zwei bis drei Generationen passe, sobald dann neue Technologie kommt. Sobald die was besseres als Verkaufsargument haben wird nur noch dieses gehyped und RT ist auf dem Abstellgleis, okay wohl nicht so fix, aber wird keine 5 Jahre dauern. Ich nehme RT erst aktiv mit, wenn es ohne Leistungsverlust bei 100% läuft, ansonsten ist es zwar schön anzusehen aber für mich unnütze Bremse. Das wird sich in den kommenden 2 Generationen zeigen.

Ebenso mit den 6900xt und SAM, wenn die aktuelle Leistung mit SAM aktiv als nächste generation ohne SAM+ läuft ist es für mich erst wirklich interessant.
Ob Mininglock oder nicht, spielt da keine Rolle. Erstmal schauen ob sich das durchsetzt und die Verfügbarkeit an sich besser wird.
 
Veränderung ist doch in der Branche steig und ganz normal, klar kann irgendwann wieder was anderes wichtiger sein, aber was bringt mir jetzt die harte Spekulation was irgendwann in 5 Jahren sein könnte ?
Ich zocke jetzt Cod Warzone, Cyberpunk, Shadow of the Tomb Raider und vieles mehr mit DLSS und RTX on und es gefällt..
 
Andersherum was bringt mir eine Technologie die eher bremst als hilft?
was bringt mir jetzt die harte Spekulation was irgendwann in 5 Jahren ist ?
Ob in Monaten oder Jahren ist doch egal, spekuliert wird hier genauso wie überall wo es um GPUs geht, obs jetzt der Bioslock ist bezüglich Mining, potentielle RAM Konstellationen und Bandbreiten, RT/ DLSS, Nvidia und Asus Sync etc pp.

Wenn Sie das schaffen was angesagt wurde bekommen Sie mein Lob, aber das wird doch eh wieder ein Schuss in den Ofen und bleibt als Marketingfail.
 
Wo bremst die Technologie ?

Also ich habe Spass mit RT und DLSS. Welche eigene Erfahrung mit welcher RT Hardware und welchen Games zeigen denn bei dir hier einen Marketingfail ?
 
War auf das antimining Setup bezogen.

Ich selbst habe nur bei Freunden gesehen wie dort die FPS und Co eingebrochen sind, während Full HD 144Hzgut ging, wurd es bei WQHD 144Hz merklich schlechter und 4k ging garnichtmehr.
RT ist aktuell einfach eine Performancebremse. So wie AA und Co seinerzeit. Während letzteres mit DLSS deutlich besser wurde.
 
War auf das antimining Setup bezogen.

Ich selbst habe nur bei Freunden gesehen wie dort die FPS und Co eingebrochen sind, während Full HD 144Hzgut ging, wurd es bei WQHD 144Hz merklich schlechter und 4k ging garnichtmehr.
RT ist aktuell einfach eine Performancebremse. So wie AA und Co seinerzeit. Während letzteres mit DLSS deutlich besser wurde.
Das ist doch Quatsch. Du könntest genau so sagen "dynamische Schatten sind eine Performancebremse", "schattierte Polygone sind eine Performancebremse". :d
 
Mir fiel gerade nichts besseres ein als AA^^ Dafür das es als das nonplus ultra beworben wird, liefert es einfach nicht was es soll. Noch nicht, das ist auch der Grund für mich darauf gut verzichten zu können.
 
Mir fiel gerade nichts besseres ein als AA^^ Dafür das es als das nonplus ultra beworben wird, liefert es einfach nicht was es soll. Noch nicht, das ist auch der Grund für mich darauf gut verzichten zu können.
Problem könnte sein dass die meisten Games schon mit herkömmlicher Technik auf so einem hohen Niveau sind.
Wenn du sehen willst was RTX kann, schau dir stattdessen Minecraft RTX an. Da ist der Unterschied sehr beeindruckend - und man sieht auch die Vorteile dieser Technik gegenüber 3rd Party Shadern unter Java.
 
Hab ich gesehen und bin begeistert, wobei das neue Minecraft an sich schon ohne RT gewaltig gut aussieht. Aber ist halt auch in diese Richtung als Paradebeispiel zu bennen. Das letzte mal Minecraft war bei mir 2 Jahre nach release, dann hat die teildefekte VRAM das nichtmehr mitgemacht.
 
Denke auch dass Raytracing nicht mehr auf zuhalten ist, amd wird nach rdna2 mit rdna3 eine weitere Architektur bringen, die stark auf rt optimiert sein wird.
 
Nvidia hat selber den Boom prophezeit. Gab dazu offizielle News seitens NVIDIA.
In dem Segment entstehen Trends nicht von allein. Siehe RGB, da steckt viel Geld und Arbeit sowie der Anreiz auf hohe Einnahmen hinter.
Denke auch dass Raytracing nicht mehr auf zuhalten ist, amd wird nach rdna2 mit rdna3 eine weitere Architektur bringen, die stark auf rt optimiert sein wird.

Ich sage ja nichts gegen RT, aber es ist noch nicht soweit, lass mal die DLSS KI weiter lernen und RT in Generation 4, dazu entsprechend mehr Cores, dann sieht das ganze wieder anders aus, bis es da ne neue Variante gibt und alles neuer und besser wird.
 
Nein, das war ein Bezug auf DragonTears Post, dass nvidia das nicht ahnen konnte. Sie haben es geahnt aber nicht angestoßen, das ist klar
 
Das habe ich auch so verstanden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh