[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.535
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.417
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.711
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.780
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 786
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 762
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 757
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 706
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 725
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 459
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 745
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.881
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 803
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.576
Die guten alten 8800er Karten :bigok: . Das war ne geile Serie. Hatte ne 8800 GTS und war mega happy damit. Trotzdem lief Crysis damit scheisse :fresse2:

Hatte ne 6800 die per Software auf ne 6800 Ultra gemoddet werden konnte. Waren glaube ich nur Pixel Pipelines die freigeschaltet werden mussten. War schon schön die Zeit 👍🏼
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Puh, kein Schimmer mehr was ich zu der Zeit hatte. Um die Zeit rum bin ich zwischen AMD und NVidia hin und her gewechselt, nach dem mir aber der VRAM von gleich zwei unterschiedlichen AMD Karten innerhalb weniger Monate kaputt ging (die berühmten schönen Farbartefakte im Bild von Spielen), bin ich bei NVidia geblieben, ist schon über 10 Jahre her. Irgendwie bin ich nicht so der Fan von AMD, auch bei den CPUs nicht, seit Intel damals günstiger wurde und damit für mich eine Alternative war, bin ich bei Intel, obwohl am Anfang eher nur so um mal zu testen, was noch länger her ist. Mit AMD liefen meine PCs auch immer instabiler als mit NVidia (und eben Intel). Aber da mögen Andere andere Erfahrungen gemacht haben. Wenn AMD jetzt so schlecht wäre, wären sie längst pleite. :d Trotzdem, je älter ich werde desto weniger Bock hab ich auf Hardware Experimente bei meinem PC (daher wird mein PC Upgrade nächstes Jahr auch wieder Intel werden).
 
Ich konnte nie einen Unterschied zwischen Stabilität und Instabilität bei AMD vs Nvidia erkennen. Aber diese Diskussion ist auch schon so alt, wie es Hardware gibt :d
 
Ich bin sehr zufrieden mit der Kombi 4090 und 7800X3D und nächste Jahr gibt es wieder Nachschub für den AM5 .
Denke mal mit dem dem nächsten X3D komme ich auch für die 5090 aus.
 
Ich konnte nie einen Unterschied zwischen Stabilität und Instabilität bei AMD vs Nvidia erkennen. Aber diese Diskussion ist auch schon so alt, wie es Hardware gibt :d
Darum will ich da auch keine allgemeine Wertung von mir geben, ist einzig meine persönliche Erfahrung, vielleicht hatte ich bei der Hardware Wahl bzw. der Kombi bei meinen AMD Systemen einfach Pech. Oft ist es wirklich einfach nur Pech warum man einen Hersteller weniger mag als ein Anderer. Gibt auch genug die mit Intel Pech hatten. Ein PC besteht halt aus zig Hardware Komponenten, die je nach dem nicht immer optimal zusammen in einem System arbeiten. Darum bin ich immer ganz froh wenn ich lange Zeit nicht aufrüsten muss und alles einfach läuft. :d
 
Die X3Ds werden wie immer zu Letzt kommen, vor Arrow Lake würde ich nicht damit rechnen.
 
Hoffe, dass der "8800X3D" nicht wieder Monate später erscheint
angeblich ab Mitte 2024 will AMD mit dem Ryzen 9 8950X und weiteren Prozessoren Intel den Rang ablaufen.

Wen das so passt mit Mitte 2024 und man so vor geht wie beim 7950X der ja im Herbst raus kam und dann ca 6 Monate Später der X3D passt das ja selbst Juni 2025 wäre noch okay. Wenn die Gerüchte zur 5090 stimmen und die erst im 1. Quartal 2025 kommt ist alles ganz entspannt.
Dann 1-3 Monate auf den 8950/8800X3D zuwarten ist jetzt nicht tragisch.

Sollte die 5090 doch im Herbst 2024 erscheinen und der 7800X3D ist zu schwach kann man ja für 6-8 Monate ja auch den non X3D erstmal einsetzen mit der AM5 Platform ist man dann ja flexibel.
Bis dahin halt die 4090 genießen mit dem 7800X3D.
Bin froh wen ich nur die CPU tauschen muss und nicht ganzen Rechner zerlegen muss.

:btt2:


Gruß
 
Zuletzt bearbeitet:
Die X3Ds werden wie immer zu Letzt kommen, vor Arrow Lake würde ich nicht damit rechnen.
Es war so gemeint....
7950X3D kam im Feb. und der 7800X3D erst im April
Kluger, aber für uns beschissener Schachzug
Beitrag automatisch zusammengeführt:

Sollte die 5090 doch im Herbst 2024 erscheinen und der 7800X3D ist zu schwach kann man ja für 6-8 Monate ja auch den non X3D erstmal einsetzen mit der AM5 Platform ist man dann ja flexibel.
Bis dahin halt die 4090 genießen mit dem 7800X3D.
Bin froh wen ich nur die CPU tauschen muss und nicht ganzen Rechner zerlegen muss.
Falls doch erst Ende 2025, käme der 9000X3D gerade recht
 
Selbst wenn es wieder so kommt, der 7800X3D ist zurzeit die beste Gaming CPU, die paar Monate warten ist doch nicht schlimm, die CPU wird dadurch ja nicht schlechter. Statts hier über CPU Gerüchte zu reden, hätte ich gerne mal lieber was neues zur 5090 gehört. :fresse:
Ja zu 5090 wird es noch ne Weile dauern wen es stimmt länger als wir es gewohnt sind
.. leider.
 
Es war so gemeint....
7950X3D kam im Feb. und der 7800X3D erst im April
Kluger, aber für uns beschissener Schachzug
Beitrag automatisch zusammengeführt:


Falls doch erst Ende 2025, käme der 9000X3D gerade recht
Ja schauen wir mal
Beitrag automatisch zusammengeführt:

Ja hatte ich am Anfang ja schon für meine Strix bezahlt von daher :ROFLMAO: wen das krasse Zirpen nicht gewesen wäre hätte ich sie behalten der Kühler und Lüfter waren Spitze von der 4090 Strix aber die Spulen haben voll reingegrätscht.
 
Mal ne Frage für einen Bekannten:) Ein pc der mit 14900k läuft bei cyberpunk und 200w cpu package zieht und 85 grad Temperatur hat. Ist dieser für die Gehäuse Temperatur gleich zu nehmen wie ein 7800x3d mit 70watt bei 85 Grad Temperatur? Das Netzteil wird dann halt nur wärmer?
 
Zuletzt bearbeitet:
Wie kann ein System mit einer 4090 nur 200 Watt ziehen?
 
Auf die Gehäusetemp. der CPU gebe ich nichts...
Wenn der NT sehr effizient arbeitet, wird es vernachlässigbar "wärmer"
Aber der 14900K "generiert" einfach mal so +185% mehr Verlustleistung (<- da spielt die "Musik")

So wird das nix mit eurer CO2-Bilanz @ Intel :fresse:
 
Achso dachte da wir im 4090 thread sind :fresse:
Wie heiß die CPU ist ist erstmal nicht relevant, wichtig ist die TDP und wenn die bei dem 14900k jenseits der 200W liegt hat der natürlich ne deutlich höhere Abwärme als eine CPU mit 70W.
 
Achso dachte da wir im 4090 thread sind :fresse:
Wie heiß die CPU ist ist erstmal nicht relevant, wichtig ist die TDP und wenn die bei dem 14900k jenseits der 200W liegt hat der natürlich ne deutlich höhere Abwärme als eine CPU mit 70W.
Ja das denke ich auch. Dann bekommt die 4090 viel kühlere Luft mit einer effizienten cpu und das ganze System läuft schneller. Mich hat es nur gewundert da die cpus ja ähnlich heiß werden.
 
Ob das Real auf das Gesamtsystem ne Auswirkung hat, eine Ahnung. Dafür müsste die GPU ins Temp Limit laufen damit das nen Unterschied macht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh