GeForce RTX 4000: Alle Neuigkeiten zu NVIDIAs neuen GPUs im Überblick

bin mal auf eine eventuelle Titan gespannt, leider wird diese wahrscheinlich mein Budget sprengen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zu einer möglichen Titan: es gab bis jetzt nur EINE (echte) Titan und das war / ist der Kepler VOLLAUSBAU - Titan Black :p
 
bin mal auf eine eventuelle Titan gespannt, leider wird diese wahrscheinlich mein Budget sprengen
4090 zu einem relativ vernünftigen Kurs würde schon Top sein bis zur 5090 !
Mir reichen die 450 W schon sollte man Bock auf mehr Verbrauch und Leistung haben dann kann man der dann immer noch in den Hintern treten .
Vermutlich würde ich mir da auch wieder ein richtiges undervolting Profil anlegen und eins wo man die 450W optimal ausnutzt und dann noch ein OC Profil mit Max PT und dann je nach Spiel einsetzen !
Die 600 W würden schneller fallen als einem lieb ist wen es das PT der Karte überhaupt hergibt!
 
Zuletzt bearbeitet:
Zu einer möglichen Titan: es gab bis jetzt nur EINE (echte) Titan und das war / ist der Kepler VOLLAUSBAU - Titan Black :p

Ich habe beide, aber die hier aus meiner Sammlung war nochmal schneller: Titan Z :d

1659263826483.png
 
Hoi Leute, mal eine schnelle Frage, aus den kopite specs sieht man:

4700 mit 56 SM -> 10_000 timespy
4800 mit 80 SM -> 15_000 timespy; +24 SM = +5_000 Punkte
4900 mit 128 SM -> 19_000 timespy; +48 SM = +4_000 Punkte

Heißt das, die 4900 hat ein Bottleneck beim RAM oder bei der Leistung die sie ziehen darf? Weil sonst kann ich mit das ned erklären.
 
Hoi Leute, mal eine schnelle Frage, aus den kopite specs sieht man:

4700 mit 56 SM -> 10_000 timespy
4800 mit 80 SM -> 15_000 timespy; +24 SM = +5_000 Punkte
4900 mit 128 SM -> 19_000 timespy; +48 SM = +4_000 Punkte

Heißt das, die 4900 hat ein Bottleneck beim RAM oder bei der Leistung die sie ziehen darf? Weil sonst kann ich mit das ned erklären.
Das sieht nach aktuellen Infos einfach nach weniger Takt aus für die 4090 !
Sollte das mit 420 W für 4080 passen und die 450 W für die 4090 stimmen ist man ja nur 30 W drüber .
Das spricht für eine nicht so hoch getaktete 4090 da für könnte die 4090 viel OC potenzial haben wen man genug Powertarget zur Verfügung hat sowie über eine gute Kühlung verfügt jedoch dann mit Abstrichen im Verbrauch 600W+
 
Dir ist aber klar, das die 4090 bei 800 Watt liegen wird?
A: Gerücht
B: Maximalwert != "da liegt sie"
C: So eine Zahl ist vermutlich einfach nur die Angabe für "wir haben kein Limit eingebaut"
 
800 Watt kann nur ein Testsystem sein. Ich meine ... mit welcher Kühllösung soll so ein "Biest" bitte ausgeliefert werden? Steht dann bei den "Systemvoraussetzungen" ein Mo-Ra3?

Davon abgesehen eine kurze Frage:
Die RDNA2 Topmodelle hatten bei 4K Auflösungen ja so ihre Probleme mit stärker abfallender Leistung im Gegensatz zu z.B. einer RTX 3080. Wenn ich mich recht erinnere lag das am Speicherinterface (256 Bit).
Jetzt soll den Gerüchten nach eine RTX 4080 auch mit einem 256 Bit Speicherinterface ausgestattet werden.
Meint ihr, dass einer solchen Karte auch solch ein "Schicksal" drohen könnte? Klar wird auch der Cache bei RTX 4000 vergrößert, aber das hat bei RDNA2 ja auch irgendwann nicht mehr geholfen.
 
Jetzt soll den Gerüchten nach eine RTX 4080 auch mit einem 256 Bit Speicherinterface ausgestattet werden.
Meint ihr, dass einer solchen Karte auch solch ein "Schicksal" drohen könnte? Klar wird auch der Cache bei RTX 4000 vergrößert, aber das hat bei RDNA2 ja auch irgendwann nicht mehr geholfen.
Gerüchte sind halt genau das. Gerüchte.
Und bisher hat NVidia immer gut gearbeitet mit dem Speicher.
AMD hat einfach viel draufgehauen, damit die Fanboys ihre Ausrede hatten, ... weil das für 4k ja nötig wäre, ... und dann war NVidia wieder besser bei 4k.

Ich erwarte von NVidia ehrlich gesagt, dass sie wieder weniger Speicher haben, aber dafür "genau richtig" liegen. Die kalkulieren hart, aber doch meist korrekt.
Ne GPU, die eh keine passenden FPS für 4K liefert, braucht auch keinen VRAM, der nur in 4K mit extra Texturen relevant ist.

Von AMD erwarte ich, dass sie aus der 6000er Serie gelernt haben und weniger auf "viel" Speicher setzen, sondern wie NVidia einfach mit den Entwicklern sprechen und abklopfen, was die nächsten Jahre an Anforderungen bringen.

Also eigentlich erwarte ich eine verdammt gute Generation von beiden Seiten, wo es schwer wird eine klare Seite zu wählen. Zumindest hoffe ich das. Wäre cool, wenn man alle 50 Euro nen anderen "Sieger" hätte.
Dann kann jeder sich kaufen, was er gerne sehen will und wem das Logo egal ist, spart sich halt 50 Euro.
 
Frag mal dir 10gb 3080 Opfer wie gut es mit ihrem vram in 4k so läuft. 🤣
 
Klar. Überall da, wo <10gb benötigt werden. Darüber wird's dann ganz plötzlich ganz düster.
 
Also, wenn ich alles auf ultra habe in 3840x1600, dann sind so gut wie immer die 10GB voll
 
Also, wenn ich alles auf ultra habe in 3840x1600, dann sind so gut wie immer die 10GB voll
Weil Browser allein 3GB VRAM für deine 1000 Tabs reserviert hat :) No Joke. Achte mal darauf.
Problemlösung: Browser schließen.
Nicht die feine englische Art aber 10GB sind in jedem Fall 3840x1600 @ 160FPS ausreichend. Der Chip selbst limitiert in 99,999% der Fälle, also noch lange bevor VRAM ausgeht.
 
die Titan XP war doch auch Vollausbau...die GP100 hatte weniger Shader/ROPs/TMUs
@Igor THG

IMG_20220526_205602.jpg IMG_20220526_205543.jpgIMG_20220526_205617.jpg


meine 😋
 
Also, wenn ich alles auf ultra habe in 3840x1600, dann sind so gut wie immer die 10GB voll
Komisch...ich hab in den letzten Jahren so ziemlich jedes fordernde Spiel gezockt und bei keinem die 10GB
meiner 3080 voll gesehen. Naja, ich verzichte idR. auf MSAA und cappe die FPS auf 59, weil mir das auf meinem
60hz Monitor auf saubersten vorkommt, aber Letzteres dürfte kaum den Videospeicher betreffen.

Zukünftig wird es vielleicht irgendwann mal knapp mit den 10GB, aber wie so oft wird dann die GPU-Power eh
nicht mehr für 4k 60Fps ausreichen.
 
Komisch...ich hab in den letzten Jahren so ziemlich jedes fordernde Spiel gezockt und bei keinem die 10GB
meiner 3080 voll gesehen. Naja, ich verzichte idR. auf MSAA und cappe die FPS auf 59, weil mir das auf meinem
60hz Monitor auf saubersten vorkommt, aber Letzteres dürfte kaum den Videospeicher betreffen.

Zukünftig wird es vielleicht irgendwann mal knapp mit den 10GB, aber wie so oft wird dann die GPU-Power eh
nicht mehr für 4k 60Fps ausreichen.
Einfach mal Ghost Recon BP oder Division 2 zocken bspw... Und da finden sich auch genug andere Spiele. Erst seit ich die 3090 habe, kommen keine Drops mehr in die 30er bei Breakpoint. Bei der 3080 mit allem auf max. war das nicht möglich.
 
Falls das noch nicht erwähnt wurde!
Laut ihm hier am 20 September Ankündigung der 4090 im live stream!
 
20 September Ankündigung der 4090 im live stream!
Das wäre ja mal was....wenn das so kommt

Irgendetwas scheinen die aber mit dem 20.September zu haben, weil da starteten auch die Vorgängergenerationen schonmal.
Zumindest laut diesem Artikel hier:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh