[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.539
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.419
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.714
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.782
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 788
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 764
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 759
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 709
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 730
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 461
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 747
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.883
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 804
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.577
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Durch den neuen Treiber ist bei mir der IDLE Vebrauch gesunken von 28,5 W auf 18,9 Watt laut GPU Z (Board Power Draw)
 
Bei den meisten "modernen" Adaptern ist ja die Richtung egal. Funktionieren beide Wege.
Aber: Probieren geht über Studieren. Ich drück die Daumen.


dp1.4 -> hdmi2.1 ist immer nur in eine richtung funktional. wobei funktional stark übertrieben ist. alle adapter sind mist. irgendwas funktioniert immer "nicht". darum kaufe ich nur grakas, die zwei native hdmi-ports mitbringen. adapter kosten nur zeit.


(..)

mfg
tobi
 
Ich meine, dass das so bei Gigabyte war. Zumindest habe ich es blass in Erinnerung, dass ich für meine damalige Aorus 1080Ti für 3 Jahre, anstelle von 2, mich mit der S/N registrieren lassen musste.
Ist richtig, aber darum ging es nicht. Es ging nur darum das einer schrieb ob die Aussage richtig ist das man bei Asus ein Jahr mehr bekommt bei Registration. Aber diese Aussage war eben falsch. Klingt simpel und ist es auch.

sagt mal, ist es normal, dass die Benchmarks, die man macht, immer ziemlich unterschiedlich sind?
Benchmarks bringen immer andere Ergebnisse, weil es oftrmals andere Einflüsse sind die genutzt werden. Man bekommt selten das gleiche Ergebnis. Unteranderem ist auch Wärme ein Faktor.
 
Mein Free Seasonic 12VHPWR Kabel wurde vor 10 Mins von Seasonic verschickt, kommt mit FedEx 😁
 
Plague of Requiem jetzt mal mit Framegeneration durchgezockt. Ich finds geil. Konstant fast durchgehend 120FPS in 4K nativ mit RT.
Das Spiel hat bis heute keine Raytracing Unterstützung, auch nicht mit dem neusten Patch von gestern.

Framegeneration gefällt mir zb nicht wirklich, die Latenz ist dann viel zu hoch und das Gameplay fühlt sich nicht mehr so flüssig an.
 
Zuletzt bearbeitet:
bei 0,95Volt habe ich etwa 6% mehr FPS Leistung aber fast 80Watt höheren verbrauch ... hab ihr mal nachgemessen wieviel mehr rauskommt?
Meine hat halt out of the Box 2760 Boost gemacht aber bei 1,05V. Jetzt ist die Leistung nahezu gleich aber der Verbrauch 30-60W geringer. Hatte noch keine Lust mehr zu testen und will lieber die Karte nutzen :d

Auch wenn OT aber den 5800X3D habe ich mal testweise nun auf Kombostrike 3 gesetzt, da die CPU beim Zocken bis zu 88 Grad erreichte. Nun sind es fast 10 Grad weniger allerdings weiß ich nicht ob das stabil ist. Wird sich die nächsten Tage/Wochen zeigen... das Teil hat sich für mich aber echt derbe gelohnt!
 
Ich meine, dass das so bei Gigabyte war. Zumindest habe ich es blass in Erinnerung, dass ich für meine damalige Aorus 1080Ti für 3 Jahre, anstelle von 2, mich mit der S/N registrieren lassen musste.
Gigabyte gibt standardmäßig 3 Jahre Garantie, mit Registrierung sind es 4 Jahre.
 
@spender @Jani @ssj3rd

Ich habe mit einem i9-10850k und einer Strix nur 89FPS bei Forza 5 mit den gleichen Einstellungen wie ihr. (nur HDR ist an)
Bei mir läuft aber alles ohne OC oder sonstiges.
Ist das schlecht?
Habe auch immer noch das "Problem" das mein Powertarget bei 100% ansteht und ich nicht erhöhen kann, obwohl GPU-Z mir 600W anzeigt.
 
Ich habe mit einem i9-10850k und einer Strix nur 89FPS bei Forza 5 mit den gleichen Einstellungen wie ihr. (nur HDR ist an)
Bei mir läuft aber alles ohne OC oder sonstiges.
Ist das schlecht?
Easy erklärt:
Deine CPU ist inzwischen zu alt/schwach und bremst somit deine 4090 aus, deswegen das schlechtere Ergebnis.
 
Das Spiel hat bis heute keine Raytracing Unterstützung, auch nicht mit dem neusten Patch von gestern.

Framegeneration gefällt mir zb nicht wirklich, die Latenz ist dann viel zu hoch und das Gameplay fühlt sich nicht mehr so flüssig an.
LOL. Wie kam ich darauf, dass es RT hat??? Keine Ahnung. Wahrscheinlich übermüdet und zu viel Input durch die vielen Tests und langen Nächte...
Ich finde aber, dass es auch ohne FG sehr zähflüssig ist.
Wenn der LG Oled auf 120hz läuft ist das Bild einfach klarer als wenn er im Gsync Bereich bei ca. 80FPF läuft.
Von daher finde ich FG ganz geil. Und bei dem Game ist Latenz am meißten zu vernachlässigen.
 
Zuletzt bearbeitet:
@spender @Jani @ssj3rd

Ich habe mit einem i9-10850k und einer Strix nur 89FPS bei Forza 5 mit den gleichen Einstellungen wie ihr. (nur HDR ist an)
Bei mir läuft aber alles ohne OC oder sonstiges.
Ist das schlecht?
Habe auch immer noch das "Problem" das mein Powertarget bei 100% ansteht und ich nicht erhöhen kann, obwohl GPU-Z mir 600W anzeigt.
3*8Pin Adapter ?
 
Nein, 4x8Pin und auch alles neu gesteckt.
Beitrag automatisch zusammengeführt:

Easy erklärt:
Deine CPU ist inzwischen zu alt/schwach und bremst somit deine 4090 aus, deswegen das schlechtere Ergebnis.
Ich bin ja schon zufrieden, wenn das Ergebnis mit meiner CPU soweit passt.
Nicht das die Karte doch irgendwas hat, wenn ich schon das PT nicht verändern kann.
 
Zuletzt bearbeitet:
@spender @Jani @ssj3rd

Ich habe mit einem i9-10850k und einer Strix nur 89FPS bei Forza 5 mit den gleichen Einstellungen wie ihr. (nur HDR ist an)
Bei mir läuft aber alles ohne OC oder sonstiges.
Ist das schlecht?
Habe auch immer noch das "Problem" das mein Powertarget bei 100% ansteht und ich nicht erhöhen kann, obwohl GPU-Z mir 600W anzeigt.
Also ich kann auf +133% machen. Ich habe mir bei guru3d die letzte Beta vom Afterburner geladen.
 
Oookay. Das heißt der Wert von ~ 675W kam bei einem PL von 100% also hätte eigentlich nur 450W sein sollen? Ich habe derzeit auf 77% gestellt (~350W). Ich werde das mal mitloggen. Ich hoffe Cyberpunk reicht da auch, ich habe kein RES 8

Ich nutze den 522.25er Treiber. Im Idle auf dem Desktop mit 144 Hz sehe ich 7.5W, manchmal 6.8W solange ich die Maus nicht bewege. Bewege ich sie bin ich bei 14.7W Boardpower Verbrauch. Ich denke das ist okay.
 
Zuletzt bearbeitet von einem Moderator:
Vielleicht stimmt was mit dem Stecker oder dem Adapter nicht und die Sense Pin haben kein Kontakt?
Kann alles möglich sein, aber jeder Stecker klickt perfekt und sitzt ohne Abstand.
Habe alles sehr genau kontrolliert und es zeigt mir ja auch die 600W an.
Also ich kann auf +133% machen. Ich habe mir bei guru3d die letzte Beta vom Afterburner geladen.
Die lade ich mir später mal und schaue was es mir dort anzeigt.
 
Eigentlich ist es doch gar nicht so schwer, schnell zu erkennen ob der Wert blödsinn ist, man misst was der ganze Rechner aus der Steckdose zieht....
 
Kann ich jetzt bestätigen. Trotzdem dass mein PL bei 77% also 350W gesetzt ist, kann ich in HWInfo 533.610W "Leistungsaufnahme der GPU Leitungen" sehen.
Szenario ist der integrierte Benchmark von Cyberpunk 2077.

Habe leider kein Leistungsmessgerät an der Steckdose vom Netzteil um das gegenzuchecken.
 
Ja, dann mach mal.
Irgendwie hab ich den Eindruck, hättest du mir das so persönlich gesagt, dann wäre da ein negativer Unterton drin :d

Ich hab leider kein Messgerät, aber hier gibt es ziemlich sicher jemanden...... würde mich wundern wenn nicht.
 
Hier auch mal HWINFO Werte bei CP 2077
4k @ max. RT Ultra und DLSS Qualität
 

Anhänge

  • CP 2077.jpg
    CP 2077.jpg
    821,4 KB · Aufrufe: 97
@MS1988 die Abweichung Hotspot zur regulären GPU Temp ist abartig. Ich habe da gerade einmal zwischen 8-10°C je nach Last.
Und ja, da ist eine gewisse Chance dass die ausgelesenen Werte nicht stimmen.

Gerade habe ich den Cyberpunk Durchlauf nochmal gemacht ohne DLSS, damit noch mehr Last auf die Grafikkarte kommt und dann lag der Wert bei ~468W auch noch zu hoch, aber naja... wundert mich dass er ohne DLSS dann niedriger wird als mit.
 
Hier auch mal HWINFO Werte bei CP 2077
4k @ max. RT Ultra und DLSS Qualität
Der Wert (GPU Core NVVDD) ist durchschnittlich aber auch niedriger als die GPU Power, eventuell sind das auch "nur" Spikes, hat ja wahrscheinlich keiner "live" beobachtet wie lang der Wert so hoch ist? :d
 
Zuletzt bearbeitet:
Ich hab leider kein Messgerät, aber hier gibt es ziemlich sicher jemanden...... würde mich wundern wenn nicht.
Habe eine Steckdose mit Strommessung direkt dran, was soll ich den am besten testen? Einfach auch mal Cyberpunk mit 4K Psycho + DLSS Qualität durchlaufen lassen und den Wert der Steckdose hier posten?
 
@ssj3rd ja, bitte und parallel noch HWInfo offen, damit du siehst ob du diese Peaks dort hast.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh