[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.495
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.383
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.673
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.749
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 758
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 725
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 721
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 671
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 689
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 424
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 705
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.844
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 774
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.540
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
4x8 Pin TUF OC - Ergebnis identisch, was auch immer HWInfo da anzeigt, GPU-Z zeigt es nicht. Im Übrigen egal, ob auf 450 oder 600 Watt PL, die 576 um den Dreh tauchen da immer auf.


danke

ich denke ich weiss woher die kommen

450W sind 100%
ich hatte 430W real und er wird berechnen

600W = 100%, er hatte mit seinen 430W 95% also machen wir 95% von den 600W et voila stehen da 580

andere Erklärung gibts nicht, die werte sind ja alle nicht gemessen sondern errechnet
 
Cool, ich sehe gerade, es gab eine neue Beta gestern!!


:love:

1.9.8.5 Beta (November 7th, 2022)​


  • fix crash on some cards

1.9.8.4 Beta (November 4th, 2022)​


  • improved support for fan speed readings
  • improved support for power watt readings
  • added TC and RT core count to shaders info
  • improved cross compatibility with afterburner
 
danke

ich denke ich weiss woher die kommen

450W sind 100%
ich hatte 430W real und er wird berechnen

600W = 100%, er hatte mit seinen 430W 95% also machen wir 95% von den 600W et voila stehen da 580

andere Erklärung gibts nicht, die werte sind ja alle nicht gemessen sondern errechnet
Sorry, kommt bei allen meinen Messungen mit HWinfo nicht hin.

328W Energieverbrauch (ca. 73%) stehen 512W Leistungsaufnahme gegenüber.
 
Das UEFI/GOP Problem der FE ist mit diesem Bios behoben ...
falls es unter geangen ist

1667831837799.png


Ist allerdings aktuell Beta !

Wer das Problem hat am besten an Nvidia wenden ...
 
kann man auch als referenz für 5900/5950 nehmen da die mehr Kerne eh nix bringen
größerer Cache + mehr Takt dagegen schon. Wie gut sich größerer Cache-Speicher auswirkt, zeigt ja der 5800x3D. Würde demnach den 5800X nicht gleichsetzen mit dem 5900X/ 5950X.

- 5800X - 32 MB L3 - Max. Takt 4,7 GHz
- 5900X - 64 MB L3 - Max. Takt 4,8 GHz
- 5950X - 64 MB L3 - Max. Takt 4,9 GHz
- 5800X3D - 96 MB L3 - Max. Takt 4,5 GHz
 
Die Preise der 4080 16GB, scheinen wirklich "Lackgesoffen" Teuer zu werden.:stupid: (ab Minute 11:40)

 
UV und PL senken macht auch keinen Sinn allg das PL senken ist doof. Lieber UV ameine Suprim macht ja ohne Problme 0,89mV bei 2600 Mhz und +1000 Mhz Speicher mit. Natürlich kann die im Standard über 2800 Ghz boosten, macht sich aber nur im Stromverbrauch von ~150-200 Watt mehr bemerkbar. Komplett unnötig. Da die FPS ja quasi gleichbleiben.
Also durch das Undervolting, und das ist wahrscheinlich das schöne daran, kann man wohl massiv den Stromverbrauch senken und die Leistung dennoch relativ weit oben halten, ja?
Mich würde es sehr interessieren, womit und in welcher Kombi man am aller meisten Strom spart und nur so viel Leistung bekommt wie man braucht.
Ich habe festgestellt, dass man durch das Senken des PL ingame eben direkt sehen kann, wie weit man runter gehen kann und ab wann die Ziel-FPS davon beeinflusst werden, ohne einen Systemabsturz provozieren zu können, was beim Undervolting ja leicht ausgelöst werden kann. Somit sinkt auch der GPU-Takt ab, was auch gut ist, weil ich ja gar nicht will, dass die höher taktet als ich es brauche und die Spannung passt sich dementsprechend auch automatisch ab das Leistungsniveau an und geht runter, wobei ich jetzt noch keine 0,8V sehen konnte. Wenn man da natürlich noch undervolting betreibt und herausfindet, was der perfekte Sweetspot bei der jeweiligen 4090 ist, dann hat man natürlich die best mögliche Performance beim geringstmöglichen Verbrauch. Darauf bin ich echt scharf 😍🤤🔥
 
Zuletzt bearbeitet:
5800X vs. 5800X3D


Hier der alte 5800X (kann man auch als referenz für 5900/5950 nehmen da die mehr Kerne eh nix bringen) gegen 5800X3D beachtlich was der selbst in 4K auf manchen Games drauflegt an Leistung.

Mein 5800x wird diese Woche gegen einen 3D getauscht. Da kann ich die AM4 Plattform sicher noch etwas länger nutzen.
 
Zuletzt bearbeitet:
Also NVVDD
Passt alles. Es sollte immer oberhalb der Karte sein. Viel Spaß mit der Karte :)
Danke, habe aber nochmal dieses Video geschaut und den Radiator nochmal gedreht, sodass die Tubes unten sind und nicht oben, somit kann keine Luft zur Pumpe.

 

Anhänge

  • IMG_2892.JPG
    IMG_2892.JPG
    1,1 MB · Aufrufe: 85
Das wirklich schöne ist die deutlich geringere Abwärme bei nahezu gleicher Leistung und damit verbundene Ruhe, egal ob Lukü oder Wakü.
Hab ich halt schon beim Senken des PL bemerkt. In den meisten "modernen" Games, die ich gerne spiele wie Metro Exodus, GoW, Cyberpunk 2077, Gears 5 habe ich höchstens 40-55° C oder weniger hab die Lüfter aber auf ca 60% laufen, ich liebe es wenn ich sie minimal noch hören kann, wenn es im Game grad leise ist 😋 ist schon echt der Hammer.
 
Zuletzt bearbeitet:
Mein 5800x wird diese Woche gegen einen 3D getauscht. Da kann ich die AM4 Plattform sicher noch etwas länger nutzen.
Okay, spielst du viel in 1440p und willst höhere FPS Werte?
In 4K würde ich ansonsten den 5800X weiter verwenden, was ich auch bei mir mache und das Ding reicht mir noch Ewigkeiten.
 
Die Agesa habe ich drauf, aber ich bin mir nicht sicher ob das mit dem günstigen MSI B550 Tomahawk Board geht.
Das Board hab ich auch, deswegen lass ich da auch erstmal die Finger davon. Müsste mich sowieso erst genauer einlesen, BCLK ist ja nicht ganz ohne bzgl. Stabilität der anderen Komponenten.
 
Die AIO der Inoo3d ist mit dem Fullcover Block echt gut. Der Speicher sowieso der Hotspot sind nach 1h Gaming bei ca. 60°, die GPU bei ca. 50°. Jedoch hört man die Pumpe ab 1700rpm etwas, was aber nicht schlimm ist. Dafür kreischt sie nicht :d!
 
Videocards.com macht es auch nochmal klar :

Screenshot 2022-11-07 163347.png


Ich würde aber weiter gehen und sagen das sowas generell nich passieren darf egal obs nun ne Premium Design 4090 is oder halt ne 4080 oder 4070 oder ne 5090 oder 6080 usw.
Die Qualitätskontrolle dieser Adapter und Kabel muss halt besser werden oder der Adapter Hersteller muss gewechselt werden damit sowas zukünftig vermieden werden kann
auch darf es da keine unterschiede bei einem Serien Produkt geben ( 4 verschiedene Löt arten und verschiedene Kabel die verwendet wurden obwohl bei einem Serien Produkt eigentlich immer alles gleich sein solte )
sowas darf generell einfach nich passieren das da Adapter und Nativ Kabel wegschmelzen

 
Zuletzt bearbeitet:
größerer Cache + mehr Takt dagegen schon. Wie gut sich größerer Cache-Speicher auswirkt, zeigt ja der 5800x3D. Würde demnach den 5800X nicht gleichsetzen mit dem 5900X/ 5950X.

- 5800X - 32 MB L3 - Max. Takt 4,7 GHz
- 5900X - 64 MB L3 - Max. Takt 4,8 GHz
- 5950X - 64 MB L3 - Max. Takt 4,9 GHz
- 5800X3D - 96 MB L3 - Max. Takt 4,5 GHz
Der größere Cache von 5900X kann aber nicht zusammen gerechnet werden. Es sind 2 mal 32MB. Jeder CCD nutzt seinen eigenen und ist nicht übergreifend.
Ich spiele gern Anno 1800 8-)
Ich auch. :d Und Factorio....

BLCK OC würd ich beim 5800X3D nicht machen, aber ich würde gerne ein wenig UV nutzen..
 
BLCK OC würd ich beim 5800X3D nicht machen, aber ich würde gerne ein wenig UV nutzen..

BLCK OC geht bei mir x570 tomahawk nur 1.0225 => also +100Mhz
UV geht beim X3D dafür auf allen Cores -30 im Curve Optimizer oder bei MSI dieses komische „Level 3“ was das selbe ist.

Der ist schon ziemlich gut für die 4090.

Würde sagen:
Wenn Geld keine Rolle spielt 13900K. Bei AM4 Mobo den 5800X3D und sonst gleich Upgrade im Frühling auf 7800X3D…
 
Der größere Cache von 5900X kann aber nicht zusammen gerechnet werden. Es sind 2 mal 32MB. Jeder CCD nutzt seinen eigenen und ist nicht übergreifend.
Ah ok. Danke für den Hinweis.


BLCK OC würd ich beim 5800X3D nicht machen, aber ich würde gerne ein wenig UV nutzen..
Zumindest beim X570 Aorus Master konnte ich neben dem UV via PBO, auch ein dynamisches Vcore Offset einstellen, was nochmals den Verbrauch und die Temperaturen etwas optimiert hat. Musste nur im BIOS die Option bei Vcore von Auto auf Normal stellen und dann das entsprechende Offset einstellen. Im Startpost ist das im Detail erklärt, inkl. Bilder und Charts.

 
Hi,

1) meint ihr es reicht mein 750 W 80 Plus platinum Netzteil mit 3x 8 PIN?
Es wird ja min. 850W empfohlen, aber mit meiner 65W CPU reicht es denke ich easy, da ich mit 3x 8 PIN max. 450W habe. 100 W mehr als aktuell mit meiner 3080 ti.

5600X
2x 16 GB DDR4
9x Lüfter 900-1200 RPM phanteks t30
1x Pumpe D5 EK
1x SSD SATA
1x NVMe 4.0

2) Ist es immer noch so, dass bei 4K gaming die CPU egal ist?
 
Jetzt habe ich mir die Strix geholt -.- Ich wollte doch gar nicht so viel Geld ausgeben
 
Jetzt habe ich mir die Strix geholt -.- Ich wollte doch gar nicht so viel Geld ausgeben
Gratuliere. Aber sowohl die Strix wie auch die TUF waren ja fast instant weg. Amazon hat beim Bezahlen auch rumgezickt. Vielleicht werden die Karten im Laufe des Abends noch einmal droppen? Meine, dass es unter Ampere ein paar Mal so gewesen ist.
 
Gratuliere. Aber sowohl die Strix wie auch die TUF waren ja fast instant weg. Amazon hat beim Bezahlen auch rumgezickt. Vielleicht werden die Karten im Laufe des Abends noch einmal droppen? Meine, dass es unter Ampere ein paar Mal so gewesen ist.
Ja habe mich sowohl mit Amazon als auch Paypal einloggen müssen. Ging dann aber durch. Ich hätte tatsächlich lieber die TUF genommen.
Beitrag automatisch zusammengeführt:

War leider die nicht OC.
Ich kaufe nie wieder die OC. Meine 3090 Strix OC hatte so eine schlechte Silicon Lottery.
 
Wo gabs denn strixxe? Amazon?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh