[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.525
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.410
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.704
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.772
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 780
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 755
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 750
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 698
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 720
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 451
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 736
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.873
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 795
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.569
Lasse ich gelten, aber deine Texte sind manchmal echt hart an der Grenze zu Fanboy. Isso 😏
Wüsste nicht wieviele texte mich jetzt als nvidia fanboy deklarieren würden... letzte zeit schrieb ich nur was zum fe lüfter und zum undervolting. Und heute einmal zur xtx performance. Aber ich habe ja den test bestanden. 😉
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und errors bei +1700MHz, dann als nächstes +1650MHz. (y) Man sieht in welche Richtung es geht, weniger als +1600MHz können es nicht moar werden. (y)

So, auch +1650MHz sind eigentlich instabil. Ich erhielt einen einzigen error in über 2h:

1670883476556.png


Werde aber bei +1650MHz bleiben, ich gehe davon aus, dass die Spiele stabil bleiben werden. Und wenn nicht, dann weiß ich was zu tun ist. (y)
 
2.8ms hat mein Monitor laut Rtings 🥰

Das Ding ist schneller als mein 1440p/240Hz Monitor, den ich vorher hatte und das war einer der schnelleren Monitore ;)
 
du hast keine 2.8ms inputlag...aber egal wenn es sich gut anfühlt ist ja alles gut.
 
Die Maus selbst hat Input Lag, ok, eine G Pro X Superduper laut Rtings ca. 9.3ms Click, meine neue Razer Viper V2 Pro sogar nur 3.4ms Click.
Dazu System bzw Darstellungs Latenz, bei 240FPS etwa 10ms. (System, nicht Render-Latenz!)

Kommen wir mit 2.8 vom Monitor, 3.4 Maus und ca 10 System (wenn konstant gute Performance) auf 16ms vom Drücken der Taste bis zum Schuss der Waffe auf dem Monitor?

Wo genau nur korreliert das mit meiner Aussage, das ich gerne bessere Performance im MP möchte? Du sprichst halt auch nur in halben Sätzen.

Man könnte jetzt noch das Network Delay mit einrechnen bis der Otto bei mir auf dem Screen auch bei sich auf dem Screen umfällt, aber wozu führt das? Worauf genau willst du raus? Verstehe deinen Punkt nicht ganz.

Was willst du mit:

"Ähm Latenz ist die nicht so wichtig im Multiplayer ?
wozu 240fps wenn die Latenz über 100ms ist ?"

jetzt genau sagen? Soll ich lieber mit 50FPS spielen und die Energie sparen, weil hab ja eh "Latenz" oder was genau ist der Punkt deiner Aussage?
 
Zuletzt bearbeitet:
"Performance" in Multiplayer und gibst "fps" an.
Jetzt sage ich dir das du 100ms Latenz haben kannst.
Obwohl du 240fps eine super Maus und den schnellsten Monitor dieses Planeten hast.
Je nachdem welche Einstellungen du an deinem GPU Treiber vorgenommen hast.
Meistens sind es Optionen die das Spiel "butterysmooth" machen wie du es beschreibst.
Wenn man halt nicht weis welcher Schalter Input lag verursacht bringen einem die schnellste Hardware "nichts".
Nochmal wenn für dich alles butterysmooth ist belassen wir es dabei.
 
@Slipknot
Wenn man den 2h Test laufen lässt - wie "lang" ist die Bildschirmausgabe? Oder kommt ein eventueller Fehler erst zum Schluß - wobei auf Deiner Screencopy ist er mittendrin.
Reicht der Buffer des Fensters oder hast Du an den Settings etwas geändert, damit man die komplette Ausgabe durchscrollen kann?
 
Ein Fehler erscheint mitten drin nach Zufall, der Test läuft dann einfach weiter. Du kannst die komplette Ausgabe scrollen und verpasst nichts.
Außerdem wird eine log-file angelegt (weiß aber nicht, ob es live beschrieben wird, oder erst nach Ende des Tests)
Das einzige was mir da noch fehlt, wären Zeitstempel. Man muss sich sonst merken/aufschreiben, wann man mit dem Test begonnen hat.
 
"Performance" in Multiplayer und gibst "fps" an.
Jetzt sage ich dir das du 100ms Latenz haben kannst.
Obwohl du 240fps eine super Maus und den schnellsten Monitor dieses Planeten hast.
Je nachdem welche Einstellungen du an deinem GPU Treiber vorgenommen hast.
Meistens sind es Optionen die das Spiel "butterysmooth" machen wie du es beschreibst.
Wenn man halt nicht weis welcher Schalter Input lag verursacht bringen einem die schnellste Hardware "nichts".
Nochmal wenn für dich alles butterysmooth ist belassen wir es dabei.
Es ist aber fakt, dass die fps zu einem smoothen Spielgefühl nicht nur beitragen sondern ausschlaggebend sind. Das was du meinst ist ob man dann trotzdem trifft oder nicht. Dafür ist klar eine geringe Latenz sinnvoll aber jetzt auch nicht Godmode. Ist halt ein Faktor aber eben nicht alles...
 
Ich versteh den Einwand auch nicht ganz. Bestimmte Einstellungen? Wir diskutieren hier seit Jahren darüber, warum man zB Framelimiter bei Sync nutzt etc.

Naja, lassen wir das. Ich bin sicher keiner, der nicht weiß wie man das letzte bisschen Maus Gefühl bzw Direktheit aus dem System holt. Inputlag ist mir persönlich ein besonderes Anliegen beim comp Gaming. Gerade deswegen bin ich überhaupt drauf eingegangen.
 
Es ist aber fakt, dass die fps zu einem smoothen Spielgefühl nicht nur beitragen sondern ausschlaggebend sind. Das was du meinst ist ob man dann trotzdem trifft oder nicht. Dafür ist klar eine geringe Latenz sinnvoll aber jetzt auch nicht Godmode. Ist halt ein Faktor aber eben nicht alles...
Also ich spiele lieber mit einem input lag von 13ms und einem ping von 5ms
anstatt mit 50-130ms input lag und einem ping von 80ms...
Ich hab auch nicht gesagt das es ein "god mode" ist sondern das es einen
unterschied im comp. gaming ist wenn der server über leben oder tot entscheiden muss.
Fakt ist halt auch das man in einem CPU limit mit aktivierten dlss den input lag noch zusätzlich verschlechtern kann.
Was so ziemlich jedes comp. game auf dem Markt ist das man auf "low" spielt.

nachtrag: "dass die fps zu einem smoothen Spielgefühl nicht nur beitragen sondern ausschlaggebend sind"
da gebe ich dir bei einem single player spiel recht...aber im Multiplayer ist das eben nur ein Faktor.
 
Update zur 4090 Master
Spulenfiepen:
Also die 4090 FE hat ja schon wenig Spulenfieben (meine 3090 FE zuvor hatte ein deutliches Spulenfiepen.
Aber die Gigabyte Aorus Master hat ja echt fast nicht hörbares Spulenfiepen.

Lüfter:
Lüfter drehen i.d.R. auf ca. 70-80% wodurch die Karte im geschlossenen Gehäuse auf ~60-65°C bleibt.
Custom Lüfterkurve über Afterburner (Firmeware Mode aktiv) scheint auch zu funktionieren. Den muss ich aber noch weiter testen bzgl. autom. Ausschalten der Lüfter
 
Also ich spiele lieber mit einem input lag von 13ms und einem ping von 5ms
anstatt mit 50-130ms input lag und einem ping von 80ms...
Ich hab auch nicht gesagt das es ein "god mode" ist sondern das es einen
unterschied im comp. gaming ist wenn der server über leben oder tot entscheiden muss.
Fakt ist halt auch das man in einem CPU limit mit aktivierten dlss den input lag noch zusätzlich verschlechtern kann.
Was so ziemlich jedes comp. game auf dem Markt ist das man auf "low" spielt.
Wer auf Input-Lag wert legt, sollte auf jedenfall OLEDs in Betracht ziehen.
 
wir drehen uns im kreis...
ich werd mal "high on life" testen...
Mal was sinnvolles am tag machen xD
 
 
Also ich spiele lieber mit einem input lag von 13ms und einem ping von 5ms
anstatt mit 50-130ms input lag und einem ping von 80ms...
Ich hab auch nicht gesagt das es ein "god mode" ist sondern das es einen
unterschied im comp. gaming ist wenn der server über leben oder tot entscheiden muss.
Fakt ist halt auch das man in einem CPU limit mit aktivierten dlss den input lag noch zusätzlich verschlechtern kann.
Was so ziemlich jedes comp. game auf dem Markt ist das man auf "low" spielt.

nachtrag: "dass die fps zu einem smoothen Spielgefühl nicht nur beitragen sondern ausschlaggebend sind"
da gebe ich dir bei einem single player spiel recht...aber im Multiplayer ist das eben nur ein Faktor.
Welche Settings sollte man den nun einstellen für einen geringen Input Lag? :unsure:

Würde mich jetzt echt interessieren...ich habe leider diese 50-80ms es wäre echt ein Traum wenn ich auf 10ms komme.
 
wenn du NICHT im cpu limit hängst "kann" DLSS dein input lag verringern... wie in dem video (über deinem post )beschrieben aber auch verschlechtern.
Jede art von vsync auf aus!
Mit dem "nvidia latency analyzer" kann man das wunderbar testen wenn man die Möglichkeiten hat.
 
Bei meinem Monitor ist es zum Beispiel so, dass wenn ich den "Low Latency Mode" aktiviere, Sync ohnehin deaktiviert wird. Comp Settings sind ja eh "uncapped", ohne Sync, ohne Limiter etc., weil 500 FPS eben schon technisch bedingt einen geringeren Input Lag bringen. Wo wir wieder beim Thema FPS wären. Das gilt auch für DLSS. Sobald DLSS die Framerate anhebt, deutlich anhebt, verringert es technisch bedingt den Inputlag.

Auch OLED ist kein Garant für low latency, Beispiel AW3423D. OLED hat so gut wie keine Response Time, aber Response Time != Inputlag.
 
Update zur Master:
Das Lüfterproblem kann ich bestätigen. Auch mit Firmwarecontrol im Afterburner scheint die Lüftersteuerung der Master, solange die Temperatur +/- 3 °C im Übergangsbereich zu Zero Fan liegt, zu spinnen und an/aus zu gehen...
Teste nun die Gigabyte Software.


Update:
Naja die Gigabyte Software hatte nach der Installation nicht funktioniert.
Nach einem Neustart gings dann und weitere benötigte Updates konnte installiert werden
Nach einem weiteren Eeustart wurdne dann auch die Geräte /GPU) angezeigt und man konnte den Display und die RGB Beleuchtung sowie FAN und OC steuern.
RGB Settings hat sich die Software nicht emerkt. Das mitm Display ging. Ganz nett. Man kann par vorgefertigte Profile verwenden oder eigene GIFs reinladen. GOU Temp, Clock etc konnte man auch aufm Display anzeigen. Man kann auch durch die verschiedenen Display Profile rotieren. Hat mir gefallen. Habs aber letzendlich erstmal bei nur nem GIF gelassen. Weiß nicht inwiefern das permanente Temperaturauslesen usw. die Grafikkarte möglicherweise beeinflusst.
Lüftersteuerung habe ich kurz getestet ist aber iwie verbuggt bzw. lässt sich kaum konfigurieren. OC habe ich gar nicht erst getestet. Dafür nutze ich lieber den Afterburner.

Iwann nach nem Neustart ist dann der PC abgestützt. Nach weiteren Neustarts wieder und iwann soweit dass die Meldung kam dass iwelche Params am Bios nicht stimmen würden und ich die defaults laden soll.
Hab nun die ganze Gigabyte-Software wieder runter geschmissen. Leider nicht ausgereift. Zum Einstellen vom Display reichts. Das speichert sich der Display dann.
Prinzipiell scheint sich da was zu bessern. Ein Control Center für alles. Allerdings noch am Anfang

Folgende Lüfterkurve scheint für die Master ganz gut zu gehen. Kann man natürlich anpassen aber damit hat man den Zero Fan Mode und kann selbst die Kurve "grob" einstellen. Da spinnt sie aktuell gerade nicht mehr. Die 0 auf 20% scheinen iwie nötig damits weniger spinnt.



Lüfterkurve 4090 Master.png
 
Zuletzt bearbeitet:
An alle pny interessierten
 
Oh boy, ich hab die 4090 FE eingebaut... nachdem ich 6mal überlegt hatte :bigok:

4090 FE -> Boost auf 2805 MHz
Hinterer Lüfter macht eigenartige Geräusche, aber nicht so laut.
Spulen selbst bei 1.05v nahezu lautlos. Man hört was, aber absolut kein Vergleich zur TUF OC.

Ganz interessant: Idle Verbrauch mit einem Monitor
TUF: 22 bis 23w
FE: unter 7w

(laut HWinfo)

Wenn man mich jetzt fragt, was mich mehr stört, die Spulen der TUF OC oder der hintere Lüfter der FE... dann die Spulen der TUF OC!
Wobei die andere TUF dazwischen war.

Mal gucken, was OC mäßig bei Warhammer Darktide mit FrameGen so geht.
GPU-Z oder @wall
Ich würde der Software nicht trauen
 
Kann auch das neue Galax 666W Bios empfehlen damit konnte ich die 11K in Speedway knacken :)


Ich habe die letzten paar Seiten geskippt, aber das Galax BIOS ist ja mal der Hammer. Habe heute mal ein bisschen mit 13°C Wassertemperatur getestet.

Vorher bin ich egal wie ich es gedreht oder gewendet habe nicht über 20600 GPU Punkte im TSE gekommen. Mit dem Galax komme ich halt einfach im zweiten Versuch auf 21384 Punkte!


Speedway komme ich auch auf fast 11k


Wahnsinn... Karte war auch nur auf maximal 33°C (Speedway war später als das Fenster bei -8°C schon eine halbe Stunde offen stand :xmas:), aber wundert mich echt das ein BIOS so einen riesen Unterschied macht. Dachte vorher echt, dass meine Strix 4090 eine ziemliche Krücke ist.
 
Kann man dieses BIOS einfach auf jede 4090 flashen oder wie ist das zu verstehen? Also ich nehme meine auf 450W limitierte PNY, flashe das BIOS drauf und zack kann ich über 600W gehen? Was passiert dann mit der stock Lüfterkurve?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh