[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.525
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.410
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.704
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.772
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 780
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 755
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 750
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 698
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 719
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 451
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 736
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.873
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 795
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.569
Warum die Frostbite 20K zwischen Wasser und GPU haben sol, verstehe ich nicht. Wenn ich mir die Inno3d X3 OC mit dem gleichen Block zusammenbaue sind das 9 bis 10 Grad weniger. Wieso ? Das liegt sicher nicht an der WLP. Irgendwas stimmt da nicht.

Bin auch gespannt was die Karte kosten wird. Wenn die über 2249€ liegt ist es fast günstiger die selbst zusammenzubasteln.
Hast du undervolted?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hast du undervolted?
ja aber selbst ohne UV sind es keine 20K. Die 10K aktuell habe ich wenn die Karte 3 bis 4 Stunden ausgelastet ist. Anfangs sind es deutlich weniger. Wenn ich UV ausmache springt die karte ca 5 Grad hoch. Normalerweise hat man mit ALC Blöcken auch weniger Differenz. Da wird es bestimmt noch andere Tests geben.
 
Warum die Frostbite 20K zwischen Wasser und GPU haben sol, verstehe ich nicht. Wenn ich mir die Inno3d X3 OC mit dem gleichen Block zusammenbaue sind das 9 bis 10 Grad weniger. Wieso ? Das liegt sicher nicht an der WLP. Irgendwas stimmt da nicht.

Bin auch gespannt was die Karte kosten wird. Wenn die über 2249€ liegt ist es fast günstiger die selbst zusammenzubasteln.
Das seh ich auch so.

Mal Roman drauf ansprechen.
 

der link für dich
Beitrag automatisch zusammengeführt:

msi-bios-update und suchmaschine nutzen

Hat wunderbar funktioniert, vielen Dank!
 
Man will die Karte ja im "SweetSpot" auch unter Wasser fahren (~350Watt ca. und je nachdem). Aber die Möglichkeit mal die 1.1V voll auszufahren sollte auch da sein. Meine Meinung.
 
Ich frag mich nur immer wenn man schon Custom Kühlung in Angriff nimmt, will man doch dann eben auch etwas OC betreiben.
Aber vlt. haben wir im HWLuxx ne andere Sicht darauf :d
Ist eigentlich richtig, allerdings finde ich es viel schöner wenn ich die Karte mit gradmal 250Watt verbrauch ohne geräusche im PC habe. Es ist auch nett einfach tolle Temperaturen zu sehen und wenig Verbrauch zu haben. Dann wird auch das Zimmer nicht so aufgeheizt. Hat ja auch andere Vorteile bzgl. Wassertemperatur und Lüfterdrehzahlen usw. Ich hatte noch nie die Möglichkeit meinen PC unhörbar zu betreiben. Bis eben jetzt mit der 4090.
 
Tl;dw
GN hat 5 Kabel gefoltert. ALLE Kabel hatten andere Kabel-Ratings als das von Igor (150V vs 300V) UND waren anders gelötet. Je 2 Kabel waren auf 3 Pads zusammen gelötet.
Keines der Kabel von GN fiel durch/schmorte beim testen, selbst als beide äußeren Kabel abgeschnitten waren. (Ergebnis: Die Pads sind also nicht Schuld am schmoren.)

GN will Daten von Zuschauer, was auf deren Adapter-Kabeln steht um zu sehen wieviele von beiden Versionen im Umlauf sind. Zudem sucht GN Kabel die bereits verschmort sind, um diese zu testen.

Vermutung: Einige Kabel haben Herstellungsfehler. Oder Kabel werden nicht richtig eingesteckt und deren Pins verbiegen beim verlegen.
Also das wovor die PCI-SIG schon vor dem Launch gewarnt hat...
Interessante findings. Da müssen die Leute auf Reddit, die betroffen waren, auf jedenfall mal nachschauen - wenn "nur" 150V Kabel betroffen sind, wäre das ein gutes Zeichen für all jene, die 300V Adapter haben^^
 

Das war eigentlich meine Wunsch-Karte, aber leider noch nicht verfügbar. Kommt ganz gut weg, nur das 450 Watt Power Limit passt irgendwie nicht. Wird aber wohl in der Praxis kaum relevant sein.

In den Kommentaren zum englischen Video habe noch diese Aussage gefunden...
I have one of the inno3d X3s, in my limited testing I have flashed it with several bios from other vendors, can confirm that appart from fan control going somewhat wonkey you can move the power target up to 600 by flashing either the Asus or Gigabyte roms, or going to 530 with MSI or 500 with Palit, all have worked fine but temps are not fantastic and performance of moving up to those is hardly worth it on Air for the power draw, the way of a 4090 ownder seems to be to limit it to 300ish and get 95% of the performance for much less power and heat. but thats just my opinion.
 
the way of a 4090 ownder seems to be to limit it to 300ish and get 95% of the performance for much less power and heat. but thats just my opinion.
Nach den Erfahrungen mit Ampere Chips war Untervolting / Powerlimits testen auf jeden Fall auf der To-Do.
Und mit den ersten Ergebnissen in dem Bereich war der Fall auch klar, dass es keine 450W Karte sein sollte.
Bzw. dass sie ab Werk übertaktet ist, und sinnvoll weiter nach oben eh nix mehr geht.

Ein ähnliches Thema haben wir ja auch bei den CPUen.

Das einzig positive was ich daraus ziehen kann:
Wir bekommen wegen der absurden Powerlimits entsprechend große Kühler. Und wenn wir den Untervolting Weg gehen wollen entsprechend leise Systeme.
 
So, ich habe am Anfang ja das Adapter Kabel benutzt und habe meine Karte auch geknechtet mit diesen Kabel und habe jetzt gesehen nachgeschaut es sind 300 V

Lg
 
Das war eigentlich meine Wunsch-Karte, aber leider noch nicht verfügbar. Kommt ganz gut weg, nur das 450 Watt Power Limit passt irgendwie nicht. Wird aber wohl in der Praxis kaum relevant sein.

In den Kommentaren zum englischen Video habe noch diese Aussage gefunden...
Vergiss nur nicht, das die Karte einer der schwächsten VRM hat.
 
EDIT: Es gibt also verschiedene Ausführungen der Adapter.
Bei Igor stand 150V auf dem Kabel, GN hat nur welche mit 300V, bei denen die Probleme nicht auftreten, weil sie besser verarbeitet sind (bei min 25:40)
GN hat 5 Kabel gefoltert. ALLE Kabel hatten andere Kabel-Ratings als das von Igor (150V vs 300V) UND waren anders gelötet. Je 2 Kabel waren auf 3 Pads zusammen gelötet.
Keines der Kabel von GN fiel durch/schmorte beim testen, selbst als beide äußeren Kabel abgeschnitten waren. (Ergebnis: Die Pads sind also nicht Schuld am schmoren.)


Aufjedenfall ein guter fund von GamersNexus und ein weiterer Schritt zur Aufklärung.

150.png
300.png
Löt.png



Vermutung: Einige Kabel haben Herstellungsfehler. Oder Kabel werden nicht richtig eingesteckt und deren Pins verbiegen beim verlegen.
Also das wovor die PCI-SIG schon vor dem Launch gewarnt hat...

Jupp scheint also ein paar Faule Eier bei den Adapter Kabel zu geben ... also ein 2000 - 2500 Euro Glücksspiel was man damit eingeht.

Nvidia sollte zumindest Offizell andere Adapter Kabel freigeben die Nvidia für OK befindet das man die nutzen kann und so aus dem Glücksspiel auch Offiziell austretten kann.
Und am besten tut sich Nvidia direkt mit einem anderen 3t Anbieter zusammen und packt dann diesen neuen Adapter den Karten bei
 
Zuletzt bearbeitet:

der link für dich
Beitrag automatisch zusammengeführt:

msi-bios-update und suchmaschine nutzen
Installiert man einfach beide Dateien nacheinander? Da gibts ja für die Sup. X einmal eine gaming und eine silent.exe
 
Nach den Erfahrungen mit Ampere Chips war Untervolting / Powerlimits testen auf jeden Fall auf der To-Do.
Und mit den ersten Ergebnissen in dem Bereich war der Fall auch klar, dass es keine 450W Karte sein sollte.
Bzw. dass sie ab Werk übertaktet ist, und sinnvoll weiter nach oben eh nix mehr geht.

Ein ähnliches Thema haben wir ja auch bei den CPUen.

Das einzig positive was ich daraus ziehen kann:
Wir bekommen wegen der absurden Powerlimits entsprechend große Kühler. Und wenn wir den Untervolting Weg gehen wollen entsprechend leise Systeme.

Igor hatte in einem Video gesagt , dass Lovelace mit 8nm Samsung geplant waren und deswegen auch 600watt PL angedacht waren . Entsprechend groß wurden die Kühler geplant und Verträge abgeschlossen .
Dann hat Nvidia den Switch zu TSMC 4nm gemacht und das ist der Grund warum die Karten so geil sind . Sonst sähe die Sache anders ggf. aus ;-)

Hätte selber nicht gedacht das ich mal den mora 420 nach 6 Jahren in den Keller stellen würde und nach 3 Graka Generationen unter Wasser , aber der TUF Kühler finde ich einfach mega 🥰
 
Jupp scheint also ein paar Faule Eier bei den Adapter Kabel zu geben ... also ein 2000 - 2500 Euro Glücksspiel was man damit eingeht.
Ich persönlich kann mir schwer vorstellen, bei dem ganzen Kontrollwahn seitens NV der im Laufe der EVGA Geschichte hochgeploppt und aufgewärmt wurde, NV keinen Einfluss oder zumindest mal eine Abnahme der Adapter durchgeführt hat.

Entsprechend werte ich das ganze Thema voll auf nvidia. Die haben einfach hart gefailt. Beim Design der PCB, bei der Positionierung und Orientierung der Buchsen, bei der Freigabe der Adapter. Einfach auf der ganzen Linie.

Igor hatte in einem Video gesagt , dass Lovelace mit 8nm Samsung geplant waren und deswegen auch 600watt PL angedacht waren . Entsprechend groß wurden die Kühler geplant und Verträge abgeschlossen .
Dann hat Nvidia den Switch zu TSMC 4nm gemacht und das ist der Grund warum die Karten so geil sind .
Möglich.
Das heißt am Ende aber einfach nur, dass NV Angst vor RDNA3 hat, wenn sie diesen kostspieligen Switch machen. Ich bin gespannt.
 
Zuletzt bearbeitet:
Möglich.
Das heißt am Ende aber einfach nur, dass NV Angst vor RDNA3 hat, wenn sie diesen kostspieligen Switch machen. Ich bin gespannt.

Glaube schon das RDNA 3 stark wird .
Lediglich bei Raytracing glaube ich hat es AMD noch schwer an Nvidia ran zu kommen , aber sonst kann man AMD auch bisschen was zutrauen .
 
Grade das Review von Roman zur 4090 frostbite gesehen :bigok: . Genau was ich haben will. Freue mich schon wenn das Ding irgendwann eintrudelt.
 
Ich persönlich kann mir schwer vorstellen, bei dem ganzen Kontrollwahn seitens NV der im Laufe der EVGA Geschichte hochgeploppt und aufgewärmt wurde, NV keinen Einfluss oder zumindest mal eine Abnahme der Adapter durchgeführt hat. Entsprechend werte ich das ganze Thema voll auf nvidia. Die haben einfach hart gefailt. Beim Design der PCB, bei der Positionierung und Orientierung der Buchsen, bei der Freigabe der Adapter. Einfach auf der ganzen Linie.

Was das PCB angeht hab ich nun zwar keine Probleme gesehen aber das muss ja nix heissen da ich da bei dem Thema nich alzu tief drinn bin.
Die Orientierung der Buchse is ein Punkt der aber bezogen auf die Glückspiel Adapter Sache die grad läuft wohl nun nich so ein großen einfluss hat aber ich versteh dein punkt.

Aber bei der Freigabe des Adapters hast du absolut ein Punkt .. vielleicht wurde Nvidia aber auch dort getrixxt vom 3t Anbieter mit dem Nvidia da zusammenarbeitet und Nvidia bekamm
immer nur die okayen Adapter zu gesicht ... auch möglich was ja hier auch schon angesprochen wurde das der Zeitliche Druck den 3t Anbieter gezwungen hat dort weniger
sorgfallt walten zu lassen ... das aber natürlich absolut keine Entschuldigung dafür das dort fehlerhafte Adapter hergestellt wurden / werden.

Jedenfalls läuft da die Zeit momentan gegen Nvidia. ... je mehr Zeit vergeht umso mehr fehlerhaffte Adapter gelangen in die Hände der Kunden und umso mehr Fälle werden Öffentlich.

Und dann is ja noch diese Sache mit den 2 Schlitzen statt wiue üblich nur 1 Schlitz

sc.png


Igor hatte in einem Video gesagt , dass Lovelace mit 8nm Samsung geplant waren und deswegen auch 600watt PL angedacht waren . Entsprechend groß wurden die Kühler geplant und Verträge abgeschlossen .
Dann hat Nvidia den Switch zu TSMC 4nm gemacht und das ist der Grund warum die Karten so geil sind . Sonst sähe die Sache anders ggf. aus ;-)

Das wurde doch damals auch schon hier im Thread besprochen ( kann aber auch sein dass das im 3DCenter war ) dass das Zeitlich garnich passen würde da der umschwung auf 4nm ja wesentlich früher gemacht werden musste als das die hersteller beginnen die Kühler zu bauen und das eben nich der Grund sein kann warum die Kühler so gross sind.
 
Das mit der Frostbite war ja völlig klar das die es mit dem Powertarget versämmeln !
Bin gespannt was Gigabyte da macht?
 
Was das PCB angeht hab ich nun zwar keine Probleme gesehen aber das muss ja nix heissen da ich da bei dem Thema nich alzu tief drinn bin.
Ich sehe da grundsätzlich ein riesiges Thema. Nicht zwingend ein Problem, aber etwas was man ansprechen kann.
1) Warum ist der Stromstecker nicht an der kurzen Seite gegenüber der Slotblende wie bei der 2060 FE?
1667140171334.png


2) Warum gibts so ne Adapter-Katastrophe und nicht was schickes wie EVGA Powerlink?

3) Warum ist die Buchse nicht 45° gedreht wie bei der 3090?

Am Ende hat es alles mit dem PCB und mit dem gewünschten Design zu tun... Ich bin mal gespannt ob es von den ganzen 4090ern v2 Updates geben wird, die einfach funktionieren.
 
Kann man die "Extension" eigentlich auch direkt als Kabel nehmen? Mir reichen die 45cm locker bis zum Netzteil. Mir würden sogar 30cm reichen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh