[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.563
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.440
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.733
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.798
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 803
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 782
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 776
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 724
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 746
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 474
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 763
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.901
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 817
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.594
4K ohne DLSS

Robocop unter 60FPS ohne DLSS Naniten fehlen dort wen ich es richtig verstanden habe.

Selbst mit DLSS Q +Frame Gen ARK teils runter auf 50FPS

Lords of the Fallen 39-47 FPS 4K non DLSS

Alan Awake 30FPS Pathtracing oder nur mit normalen raytracing und DLSS Q bei 49 FPS

52-63FPS The Talos

52-60FPS mit DLSS


Und da kommen noch einige hin zu in der nächster Zeit.
Es war aber auch klar das es mit den next Gen Titeln so sein wird ist jetzt nicht so das es mich wundert war schon früher so.
Klar kann man das alles mit abstrichen irgendwie zurecht dengeln und es wird auf keiner erhältlichen Karte besser laufen als auf der 4090.
Beitrag automatisch zusammengeführt:

Ich nutze am 4K OLED TV ausschließlich 5K DLDSR und es sieht um Welten besser aus als 4K nativ.
5K reicht mir aber gegenüber 6K optisch aus, da nehme ich lieber die FPS mit.

Gerade RDR2 in 5K DLDSR + DLSS SR Quality (4K nativ auf 5K) sieht einfach fantastisch aus. Hier reicht die 4090 noch so gerade aus und ich würde deshalb eine 5090 ebenfalls begrüßen. Am Ende hilft nur die Geduld, irgendwann hab ich sie ^^

Alan Wake 2 mit 4K nativ sah schrecklich am TV aus, viel zu matschig gegenüber 5K DLDSR + DLSS SR Performance (1440p).
Klar, mal hier und da paar Artefakte, aber die nehme ich gerne in Kauf auf das Gesamtergebnis betrachtet.

(DLDSR Glättung 20%).

@Slipknot This is the way (y)
Hab Gestern bei Star Citizen noch reingeschnuppert sieht gut aus der CPU Hunger ist immer noch so gewaltig da werde ich wohl auch mal 5K nutzen .
RDR2 muss ich mir mal ansehen hab das auch noch .
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Solange eine Karte in UHD max out (mit DLSS Quali + FG) mindestens 60fps liefert, ist sie mMn nicht an einer Grenze. Aber da hat ja wohl anscheinend jeder eine eigene Grenze. Für meine Art der Games reicht das noch vollkommen.
 
Solange eine Karte in UHD max out (mit DLSS Quali + FG) mindestens 60fps liefert, ist sie mMn nicht an einer Grenze. Aber da hat ja wohl anscheinend jeder eine eigene Grenze. Für meine Art der Games reicht das noch vollkommen.
Wen es echte 60 FPS mit dem Inputlag von 60 FPS wären.... dann ja ..so wie jetzt ...nein.
Wen du zum Beispiel 25-35FPS hast und du schaltest dann Frame Gen an dann hast du trotzdem weiterhin den hohen Inputlag deiner 25-35 FPS .
Das was du mit der Tastatur oder deinem Gamepad machst passt nicht zu dem was du siehst.

Dieses Problem müsste erst Mal gelöst werden .

Aber egal ich hab euch links schwarz auf weiß gegeben es gibt auch Tests zu frame Generation da kann man auch sehen was es für eine Wirkung hat.
 
Zuletzt bearbeitet:
Die Sache ist halt, man hat schon immer jede Graka in die Knie zwingen können mit bestimmten Einstellungen. Man nehme nur mal MSAA usw..

Daher nein, ich bin trotz allem Herumalberns nicht der Meinung, dass die 4090 hier an eine Grenze kommt oder gar schon obsolet ist. Auch große Sprünge vorwärts wie X800XT oder die 8800Ultra seinerzeit konnten trotzdem schon bei Erscheinen gekillt werden (Farcry, Crysis etc). Wenn man also diese Definition ansetzt gab es ja nie Hardware, die ausreichend war. Und das ist einfach Unsinn. Ich glaube es ist eher das Gegenteil. Die Power der Hardware der letzten Jahre hat uns so verwöhnt, dass wir mal eben erwarten, dass RT oder PT so mir nichts dir nichts ebenfalls flüssig laufen sollten. Und dazu dann noch 4k statt 1080p. Dass mit solch überzogenen Ansprüchen neue Grakas dann einfach nicht mehr mithalten können sollte klar sein.

Ich gehöre auch zu denen, die eigentlich sagen "alle Regler nach rechts, 4K und dann 120FPS ist das Ziel), aber das hatte ich in den wenigsten AAA Titeln, auch vor 10 Jahren nicht.

Daher mal auf dem Teppich bleiben. Die 4090 ist in keinster Weise underpowered, nur wenn man den Hals nicht vollkriegt, würde auch eine 5090 jetzt schon nicht reichen. Selbst wenn sie nochmal 100% zur 4090 drauflegt. Diese Karte ist m.M.n. vielleicht abgesehen von Voodoo damals der größte Sprung aller Zeiten inkl. einer krassen Effizienz.

Und es geht ja nicht nur um Grakas. Wenn ich mir so Katastrophen wie Cities Skylines II anschaue, werden ja auch aktuelle CPUs durch mangelnde Optimierung überfordert. Also insgesamt sehe ich den schwarzen Peter, wenn es den hierbei überhaupt gibt, bei den Game Devs.
 
Zuletzt bearbeitet:
Ich finde hier unter uns müssen wir das auch nicht schön reden.
Das macht die Karte natürlich nicht unbrauchbar es ist und bleibt aktuell die Speerspitze jedoch bei Next Gen Titeln nun auch mit abstrichen da Brauch man sich nichts vormachen.
 
Ich finde hier unter uns müssen wir das auch nicht schön reden.
Das macht die Karte natürlich nicht unbrauchbar es ist und bleibt aktuell die Speerspitze jedoch bei Next Gen Titeln nun auch mit abstrichen da Brauch man sich nichts vormachen.
Seh ich wie gesagt anders. Es geht ja nicht ums schön reden. Die Tatsache, dass jede neue Generation sofort bei ihrem Release schon durch Einstellungen oder Auflösungen in Games in die Knie gezwungen werden kann darf dann aber genau so wenig vergessen werden. Der Unterschied ist diesmal, dass die 4090 einen riesen Sprung gemacht hat im Vergleich zur 3090 / Ti. Was erwartest Du also darüber hinaus?
 
Ich nutze am 4K OLED TV ausschließlich 5K DLDSR und es sieht um Welten besser aus als 4K nativ.
5K reicht mir aber gegenüber 6K optisch aus, da nehme ich lieber die FPS mit.

Gerade RDR2 in 5K DLDSR + DLSS SR Quality (4K nativ auf 5K) sieht einfach fantastisch aus. Hier reicht die 4090 noch so gerade aus und ich würde deshalb eine 5090 ebenfalls begrüßen. Am Ende hilft nur die Geduld, irgendwann hab ich sie ^^

Alan Wake 2 mit 4K nativ sah schrecklich am TV aus, viel zu matschig gegenüber 5K DLDSR + DLSS SR Performance (1440p).
Klar, mal hier und da paar Artefakte, aber die nehme ich gerne in Kauf auf das Gesamtergebnis betrachtet.

(DLDSR Glättung 20%).

@Slipknot This is the way (y)

Hab damit auch noch bisschen rum getestet.
Also bei Ready or Not sieht man eigentlich zwischen 5k und 6K DLDSR + DLSS Quality kaum ein unterschied, (Zumindest seh ich es auf meinem 32er UHD Bildschirm kaum)
aber man sieht direkt einen Unterschied zwischen 4K DLSS Quality und 5K DLDSR @ DLSS Quality.
Scheint aber nicht bei jedem Game optimal zu laufen. Habe zb. bei L4D 2 direkt einen Inputlag mit der Maus gemerkt.
Bei Ready or Not habe ich ingame Reflex aktiv.
Ansonsten Glättung habe ich auch auf 20% gestellt. Man sieht bisschen aliasing, aber sieht schon sehr schick aus.
 
Man könnte auch meinen, je mehr GPU Leistung es gibt, desto beschissener werden die Games released. :fresse2:
Ich denke die Leistung von Grakas und die Faulheit von Spieleprogrammierern steigt proportional, ja. Oder ist es eher die Gier der Publisher? Man weiß es nicht. Dass mit der zunehmenden Komplexität und Anzahl an Grafikfeatures auch ein entsprechend längere UAT und Regression Testing notwendig sind, scheint die "oberen" Etagen jedenfalls nicht zu interessieren.
 
das war schon immer so, dass selbst der schnellste PC bei Spiel X aufgibt.

War schon Anfang der 1990er so. Ich dachte mein PC ist schnell. Und dann kam Strike Commander... und später Wing Commander 3...
 
Strike Commander, mega geiles Spiel. Hatte das nicht die ersten Reflexionen von Sonnenlicht? Für das Ding hab ich seinerzeit Vatter um einen 486DX und ne neue Platte angefleht, weil der 386 und die 50MB HDD plötzlich nicht mehr reichten. Hach... memories... :d
 
Ich hatte einen 486 DX. Allerdings nur einen DX 33. Ging schon, aber ein DX2/66 wäre viiiiieeeel besser gewesen. Aber a merkt man wie alt man ist und wie lange man schon am Bildschirm klebt. Irre.

Und ja, das mit den Reflektionen war eine Sache, wichtiger war aber Gouraud Shading damit die Polygone weicher und "runder" aussahen. Aber vor allem das Gesamterlebnis. Ich hatte das Glück damals schon eine General MIDI Karte zu haben. War wie ein Actionfilm zum Mitspielen.
 
Zuletzt bearbeitet von einem Moderator:
Verdammt sieht das schön aus in 6K Max out mit DLSS Qualität leider musste ich es schon stark komprimieren und konnte auch kein HDR anmachen weil sonst das Bild Blass wird wenn ich ein screenshot mache mit dem AB.

@*****
Das sieht auf meinem 77 Zoll Schirm so Hammer aus .
Crisp scharf und Detailliert wie sonst was.

RDR2_2023_11_09_16_42_49_912.jpg
 
Zuletzt bearbeitet:
Ich hatte einen 486 DX. Allerdings nur einen DX 33. Ging schon, aber ein DX2/66 wäre viiiiieeeel besser gewesen. Aber a merkt man wie alt man ist und wie lange man schon am Bildschirm klebt. Irre.

Und ja, das mit den Reflektionen war eine Sache, wichtiger war aber Gouraud Shading damit die Polygone weicher und "runder" aussahen. Aber vor allem das Gesamterlebnis. Ich hatte das Glück damals schon eine General MIDI Karte zu haben. War wie ein Actionfilm zum Mitspielen.
Ich hatte ein DX2/66 damals, was für ein Monster😁
Strike Commander gezockt bis zum abwinken, alles noch auf Disketten und ohne Sprachausgabe👍
 
Vor allen Dingen hat Rockstar auch ohne RT Reflexionen und Schatten hinbekommen, die immer noch ihres Gleichen suchen bzw. absolut mithalten können. Bei dem Spiel müsste nur mal ein Texture Pack rauskommen und es sähe aus wie aus 2023.
 
Hi

Pentium 75....gleich auf 100 Mhz OC ... :fresse2:

Das Board hatte den Level 2 cache noch gesockelt...

Bester PC ; Pentium MMX 200. DA gab es in der PC Welt ? ...einen Tipp die Dippschalter am Asus Board von 66 Mhz Boardtakt auf 83 Mhz "! zu stellen.

3x83 =250 mhz CPU ...DAS war die Höllenmaschine für Quake damals.

Gruß Bernd
 
Zuletzt bearbeitet:
Bin schwach geworden...

Bleibt nur zu hoffen das die Bestellung bei Caseking sauber durch läuft,nach dem Kauf sprang die Anzeige auf nicht lagernd um...:d
 
Solange eine Karte in UHD max out (mit DLSS Quali + FG) mindestens 60fps liefert, ist sie mMn nicht an einer Grenze. Aber da hat ja wohl anscheinend jeder eine eigene Grenze. Für meine Art der Games reicht das noch vollkommen.
Früher - als es noch keine >120Hz-Moni ´s gab, hatten mir 60Hz auch gereicht. Aber der Unterschied zwischen 60 und 120 (und höher) sind für mich „Welten“
 
Früher - als es noch keine >120Hz-Moni ´s gab, hatten mir 60Hz auch gereicht. Aber der Unterschied zwischen 60 und 120 (und höher) sind für mich „Welten“
Ja, ist auch so. Spiele auf einem 48" OLED 120Hz. Wobei ich sagen muss, dass ich ab 100fps keinen großen Unterschied mehr feststellen kann.
Es ging hier vielmehr um die Grenzen von GPUs und die ist bei mir ab 60fps. Aber natürlich sind mir 120fps lieber.

Nichtsdestotrotz bevorzuge ich höhere Auflösung in gemächlichen (Horror) Action Adventures a la Dead Space, Alan Wake, Control etc.
Da gehe ich lieber auf DSR 5k/6k und opfere dafür die fps, die mir eh nicht auffallen.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh