GeForce RTX 50: Laut Leaker wird der Mittelklasse-GB204- durch den GB205-Chip ersetzt

Keine Ahnung was du jetzt versuchst mit der Anzahl der Tensor Cores zu begründen, da es nicht um diese geht, sondern um den Optical Flow Accelerator.
Tensor Cores und auch Optical Flow Accelerator enthalten auch schon die Vorgänger. Nvidia behauptet nur das die Technologie bei den Vorgängern nicht schnell genug sei. Das ist das was sich nicht unabhängig prüfen lässt. Das macht mich einfach misstrauisch. Wäre so auch bei AMD wenn die sagen das FSR X.X nur ab 8000 reihe läuft. Ohne wenn und aber sind die 40xx Karten top.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tensor Cores und auch Optical Flow Accelerator enthalten auch schon die Vorgänger. Nvidia behauptet nur das die Technologie bei den Vorgängern nicht schnell genug sei. Das ist das was sich nicht unabhängig prüfen lässt.
Die Testdaten sind verlinkt und es wird erläutert, wie getestet wurde. Demnach lässt sich das auch prüfen: https://docs.nvidia.com/video-technologies/optical-flow-sdk/nvofa-application-note/index.html und https://www.cvlibs.net/datasets/kitti/eval_scene_flow.php?benchmark=flow

Auch steht es jedem frei eigene Benches zu schreiben, die die entsprechenden Algorithmen nutzen. Das lässt sich schon alles prüfen.
 
Tensor Cores und auch Optical Flow Accelerator enthalten auch schon die Vorgänger. Nvidia behauptet nur das die Technologie bei den Vorgängern nicht schnell genug sei. Das ist das was sich nicht unabhängig prüfen lässt. Das macht mich einfach misstrauisch. Wäre so auch bei AMD wenn die sagen das FSR X.X nur ab 8000 reihe läuft. Ohne wenn und aber sind die 40xx Karten top.
Genau im Prinzip sagt ja Nvidia nicht das es technisch unmöglich ist, sondern das es technisch nicht so sinnvoll ist. Bei Raytracing ging es doch das es über Cuda Cores läuft, lief halt scheiße damit. Damit waren die Leute ernüchtert oder haben halt eine 1080TI gebraucht für spielbare FPS in FHD.
Genau das unterstellen eben viele Leute, das Nvidia das Feature nicht freischalten möchte weil es doch vielleicht besser laufen könnte als angenommen.
 
Wenn die Karte schneller ist und weniger kostet, warum nicht?
 
Na GOTTSEIDANK bleibt uns Ada noch länger erhalten! Die Karten sind doch gerade jetzt so richtig in Fahrt gekommen und haben sicher noch nicht treiberbedingt ihr maximales Potential erreicht.
Ob ich nun von einer 4090 auf eine 5090 upgraden werde, mache ich alleine vom Bedarf und Preis abhängig.
Momentan sehe ich noch lange keinen Limit bei einer undervoled 4090, die ich ausschließlich in 4k bis 115 FPS max. nutze.
Wozu da schon die 5090? Für 8k? 8k Gaming kommt für mich in den nächsten 5-10 Jahren sowieso nicht in Frage und für mich schlicht und einfach absurd wenn man eine nicht über 80 Zoll große Glotze hat.
Bin mit 4k@120Hz mehr als zufrieden und bin überglücklich, dass man da FPS mäßig ENDLICH angekommen ist! Träumchen 🤩
 
Na eine Generation wird es noch brauchen (auch bei den CPUs) um in 4k wirklich konstante 120+ FPS zu haben. Schaffe das weder in W3 oder RDR2 oder GR Wildlands... und da gibt's ja noch einige Games, die ich nicht zocke, wo das ebenfalls so ist. Hogwarts, CP2077 usw.. auch Raytracing schätze ich inzwischen sehr.

Also FPS mäßig ankommen wird man nie, das Rad dreht sich immer weiter.

Die 4090 ist allerdings die erste Karte (und ich bin seit 20+ Jahren dabei), die mir wirklich überall mit höchsten Einstellungen genügend FPS für ein flüssiges Spiel liefert. Ob das manchmal nur 70 sind wie in W3 oder 160+ wie in Division 2, endlich alles schön smooth. Und das ist der Aha Effekt dieser Karte und jeden Cent wert. An den Reglern spielen fand ich schon immer kacke, endlich kann ich es sein lassen. Völlig egal ob mans inGame nun wirklich sieht oder nicht. Und das dann noch mit einer krassen Effizienz, das ist schon schön. :cool:
 
Na eine Generation wird es noch brauchen (auch bei den CPUs) um in 4k wirklich konstante 120+ FPS zu haben. Schaffe das weder in W3 oder RDR2 oder GR Wildlands... und da gibt's ja noch einige Games, die ich nicht zocke, wo das ebenfalls so ist. Hogwarts, CP2077 usw.. auch Raytracing schätze ich inzwischen sehr.

Also FPS mäßig ankommen wird man nie, das Rad dreht sich immer weiter.

Die 4090 ist allerdings die erste Karte (und ich bin seit 20+ Jahren dabei), die mir wirklich überall mit höchsten Einstellungen genügend FPS für ein flüssiges Spiel liefert. Ob das manchmal nur 70 sind wie in W3 oder 160+ wie in Division 2, endlich alles schön smooth. Und das ist der Aha Effekt dieser Karte und jeden Cent wert. An den Reglern spielen fand ich schon immer kacke, endlich kann ich es sein lassen. Völlig egal ob mans inGame nun wirklich sieht oder nicht. Und das dann noch mit einer krassen Effizienz, das ist schon schön. :cool:
Na GOTTSEIDANK bleibt uns Ada noch länger erhalten! Die Karten sind doch gerade jetzt so richtig in Fahrt gekommen und haben sicher noch nicht treiberbedingt ihr maximales Potential erreicht.
Ob ich nun von einer 4090 auf eine 5090 upgraden werde, mache ich alleine vom Bedarf und Preis abhängig.
Momentan sehe ich noch lange keinen Limit bei einer undervoled 4090, die ich ausschließlich in 4k bis 115 FPS max. nutze.
Wozu da schon die 5090? Für 8k? 8k Gaming kommt für mich in den nächsten 5-10 Jahren sowieso nicht in Frage und für mich schlicht und einfach absurd wenn man eine nicht über 80 Zoll große Glotze hat.
Bin mit 4k@120Hz mehr als zufrieden und bin überglücklich, dass man da FPS mäßig ENDLICH angekommen ist! Träumchen 🤩

Seid bitte nicht völlig verblendet, so eine High-End Karte wird niemals lange ausreichen, falls es euch die letzten 20 Jahre nicht aufgefallen ist wurde mit jeder neueren Generation an neuen Games nicht nur grafisch neue Standards gesetzt sondern die Schlampigkeit beim Code wurde teilweise immer stärker, da kann auch kein Treiber Wunder bewirken unter anderem wenn die Engine Grütze ist oder das Spiel halt nicht gut designed/programmiert wurde.

Ein gutes Beispiel ist die 1080TI, die ist zwar super gealtert aber mit jedem Jahr ist sie von einer der ersten 4K fähigen Grafikkarten von Jahr zu Jahr immer weiter abgefallen trotz des großen und schnellen VRAMs (damals durchaus bahnbrechend) bis man gerade noch WQHD zocken kann bzw. FULL HD ULTRA. Wenn neue Features nicht dazu gekommen wären die Leistung ausbremsen würden wie Raytracing wäre die Rasterperformance immer noch durchaus ausreichend. Ohne FSR oder XeSS wäre die Karte schon früher Alteisen. Mehr als Bug fixing Stabilität kommt auch Treiberseitig wohl nicht mehr rein.

Wenn man sich nüchtern moderne Spiele anschaut bis auf natürlich ein paar ausnahmen die gibt es immer, sind optisch bis auf Raytracing, Hairworks etc grafisch nicht so bahnbrechend wie man vermuten würde. Anstelle das man die Entwicklung von schlechter Programmierten Spielen boykottiert, werden die Entwickler belohnt dadurch das sich Kunden selbst zur Aufgabe gesetzt haben die Schnellste Hardware auf dem Markt zu holen um die schlechte Arbeit quasi zu kaschieren.

Anstelle das man sich über die Schlechten Straßen beschwert und Nachbesserung fordert, holt man sich ein Kettenfahrzeug. "Jetzt sind mir schlechte Straßen egal".

Wir reden jetzt nicht von Pathtracing/Raytracing und Global Illumination etc. das sind moderne Effekte die ggf. auch noch Optimierung bedürfen.

Sondern von klassischer normaler Standardkost.

Spielt mal z. B Mass Effekt Andromeda in 4K Ultra und Forspoken in 4K Ultra ohne DLSS etc.

Das soll jetzt hier nur ein Sachliche Auseinandersetzung sein und kein grundsätzlich abraten zum Kauf von High-End Grafikkarten sein, sondern nur ein fragestellen bezüglich der Nachhaltigkeit. (Man hat lange was davon).

Schaut euch die RTX 3090/TI eine Generation weiter hat sie schon nicht mehr die neuesten Features, kommt jetzt ein Game raus das so scheiße läuft das man nur mit Frame Generation in "spielbar" kommt würde die Karte automatisch obsolet.
 
Gehst du mir auf den Sack ey. Genau das hab ich in den ersten Zeilen meines Posts geschrieben und dann so ein Text von Dir. Sonst aber noch alles gesund?
 
Gehst du mir auf den Sack ey. Genau das hab ich in den ersten Zeilen meines Posts geschrieben und dann so ein Text von Dir. Sonst aber noch alles gesund?
Sry du warst ja nicht direkt gemeint, ich hab dich gleich reinzitiert wegen dem das Rad dreht sich weiter. aber danke das du da trotzdem gelesen hast. :d
 
5090 gut für 2025, dann kann ich noch entspannt sparen :)
 
@n3cron
Hängt immer von den persönlichen Zielen ab.
Die von dir genannte 1080 Ti läuft ja bis heute noch brauchbar in WQHD, ist ja pi x 👍 wie eine RTX 3060, minimal schlechter und kein Raytracing.
Die 4090 Reize ich noch lange nicht aus und bei Spielen wie Resi 4, Dead Space Remake oder A Plague Tale Requiem schraube ich die FPS auf 80 runter, da mir den Verbrauch zu hoch ist und es so immer noch flüssig genug ist. Shooter spiele ich eh extrem selten und bin eher der Tekken und 3rd Person Action Games Single Player Typ.
Für mich persönlich hätte eine 4080 dicke gereicht aber gut jetzt sage ich auch nicht mehr nein.
Raytracing wollte ich mir schmackhaft maxhen, lehne aber dankend ab in den meisten Fällen, wegen dem Performance Verlust und höherem Stromverbrauch für eine echtere Lichtberechnung, wo ich mir denke wat? Wofür brauche ich echte Lichtberechnung in einer künstlich dargestellten Spielwelt? Für mich persönlich ist Raytracing ein Feature wie jedes andere und da finde ich DLSS oder Anti Aliasing Features, die für mich VIEL wichtiger sind oder Ultra Low latency 😍 bzw ein richtig flüssiges Bild bei gar nicht so vielen FPS und recht geringem Stromverbrauch.

Dann das Thema mit der heutigen Entwicklung der Spiele. Da kann ich nur traurig den Kopf schütteln. Wenn es so weiter geht, dann wird auch die neuste Gen GPU nur bedingt was ausrichten bzw nur die jeweilige Generation durchhalten. Da möchte ich beim besten Willen nicht mehr mitmachen.

Außerdem wird mir persönlich das AM4 mit dem 5800X3D noch länger reichen. Habe noch extrem viel älteres nachzuholen wie zB Titanfall 2 oder die "neuen" Wolfenstein Teile, die für viele längst altes Zeug sind. 🤩
 
Dann das Thema mit der heutigen Entwicklung der Spiele. Da kann ich nur traurig den Kopf schütteln. Wenn es so weiter geht, dann wird auch die neuste Gen GPU nur bedingt was ausrichten bzw nur die jeweilige Generation durchhalten. Da möchte ich beim besten Willen nicht mehr mitmachen.
Ja ich meine man sieht das ja aktuell, die Nachfrage nach teuren Karten steigt weil die billigen nicht genug liefern und teilweise überteuert sind 4060TI 16GB als Bespiel.

Die 4090 ist in dieser Generation bei dem Preis tatsächlich Preis/Leistungssieger mehr oder weniger. Das ist halt bitter.
 
Aber eben umsatzsteigernd und so ist es von NVIDIA auch beabsichtigt. Muss einem nicht gefallen, aber so ist es nun mal. Von AMD kommt meiner Ansicht nach viel zu wenig Konkurrenz, sodass sich NVIDIA "alles" erlauben kann.
 
Aber eben umsatzsteigernd und so ist es von NVIDIA auch beabsichtigt. Muss einem nicht gefallen, aber so ist es nun mal. Von AMD kommt meiner Ansicht nach viel zu wenig Konkurrenz, sodass sich NVIDIA "alles" erlauben kann.
Ja das ist halt bitter. Ich hoffe das Intel endlich mal liefert.. zumindest bis zur Mittelklasse wäre super.
 
Ja ich meine man sieht das ja aktuell, die Nachfrage nach teuren Karten steigt weil die billigen nicht genug liefern und teilweise überteuert sind 4060TI 16GB als Bespiel.

Die 4090 ist in dieser Generation bei dem Preis tatsächlich Preis/Leistungssieger mehr oder weniger. Das ist halt bitter.

Gut das stimmt und das ist auch mega traurig.
 
... durch den Wechsel zur 4080 folgende Vorteile:

- etwa 30 Prozent mehr Grund-Performance
- mehr RT-Performance
- DLSS 3
- 4GB mehr VRAM, der dazu auch noch schneller ist (22,4 GBit/s statt 19 GBit/s)
- deutlich bessere Energie-Effizienz und dadurch weniger Leistungsaufnahme
- inklusive Undervolting noch bessere Energie-Effizienz
Ich habe zum letzten Punkt eine Frage:

Ist es möglich die 4080 auf 150W durch Undervolting, nicht das Powerlimit, zu drosseln?

Bspw. 2000MHz@0.7125V oder dergleichen? Wie hoch ist dann die Grafikleistung im Vergleich zum Stockwert in Benchmarks? Hätte gerne einen Vergleich, was eine 4080 ggü. meiner 2080 bei 150W leisten würde, denn die 2,5fache Leistung ist auch einer 50% höheren Leistungsaufnahme geschuldet, abseits des Chipausbaus.

Bei meiner 2080 schaffe ich bspw. 1600Mhz@0.75v bei 120W Verbrauch, 90-100W bei 1500MHz@0.7125V, sweetspot ist 1850MHz@0.85V bei 160W, übertaktet bei 2160MHz@1.087v aber 275W in der Spitze. Entsprechend sinkt die Leistungsaufnahme ja negativ exponentiell, wäre halt nett zu wissen, was bei dieser Karte möglich ist, abgesehen von der Chipgüte natürlich. Hätte gerne eine 4080 (16GB), die bei ~150W knapp die doppelte Leistung meiner jetzigen Karte kann, sprich Einbuße von 20-30% Grafikleistung für 50-60% weniger Leistungsaufnahme als die TDP vorsieht. Erfahrungstechnisch habe ich große Hoffnung, dass das funktioniert^^
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh