[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.495
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.383
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.673
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.749
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 758
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 725
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 721
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 671
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 689
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 424
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 705
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.844
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 774
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.540
Vermute allein der höhere Stromverbrauch im Vergleich zu der Leistung, die man mehr bekommt, lohnt sich nicht für die 4090TI. Einzig für Einige interessant könnte sie sein wenn sie mehr VRAM hätte, was man bei lokal laufenden Text KIs nie genug haben kann. Wenn die aber auch nur 24 GB VRAM hat, dann sehe ich da Schwarz. :d

Ja, die VR2 kann deutlich mehr...
Wer noch eine 2080(ti) hat, könnte sie am PC betreiben. Wenn da nicht das Treibergebastel wäre
Gibt auch Adapter zu Kaufen, mit denen das geht. Aber ja, mit meiner 2080, die ich eben an den neuen Eigentümer versendet habe, wäre das ohne gegangen. Echt extrem dumm von NVidia den USB-C Port direkt wieder zu streichen, oder gibt es inzwischen Mainboards mit USB-C und DP Alt Mode? Vermutlich nicht. Ich hatte vor ein paar Jahren Jemandem ein System zusammen gestellt bei dem er einen externen Monitor eben per USB-C an die 2080 TI anschließen konnte und damit diesen Zusatzmonitor eben auch am PC zusätzlich nutzen konnte. Das geht jetzt wohl nur noch mit einigen AMD Karten, bei NVidia nicht mal optional, wenn es der Dritthersteller gerne anbieten möchte. Selbst meine VR Brillen mit USB-C und DP Anschluss liefen an der Grafikkarte immer am problemlosesten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So ich muss das Thema Bildschirmflackern mit der 4090 nochmal hoch holen.
Hatte ja vor ein paar Seiten geschrieben das ich in bestimmten Programmen Probleme hatte das die Helligkeit über den ganzen Montior quasi flackert. Es hat definitiv was mit der Framerate zu tun und ich hab es jetzt bis auf Lightroom beseitigen können. In "normalen" Windows-Anwendungen trat es nie auf, also in keinem Office Tool usw. aber in Lightroom, Davinci Resolve und noch ein paar anderen, und zwar immer dann wenn man mit der Maus über Bedienelemente gescrollt ist. Gestern hab ich zufällig noch den Afterburner mitsamt dem Overlay angehabt. Interessanterweise aktiviert sich die Ausgabe vom Riva Tuner bei Lightroom und Davinci Resolve. Dabei ist mir aufgefallen das beim Navigieren, vor allem in Lightroom die Framerate enorm springt wenn ich über die Menüpunkte meine Maus bewege die das Flackern auslösen. Hab dann mal ein wenig herumgespielt und was geholfen war war tatsächlich die Framerate auf die Framerate des Monitors zu begrenzen. Ich weiß jetzt nicht ob es da im Treiber ein Problem mit G-Sync gibt oder allgemein ein Problem mit dem Setting der Framerates in Windows wenn gewisse Programme laufen aber bis auf das Preset-Menü in Lightroom flackert die Helligkeit jetzt nicht mehr. Heute Abend teste ich noch ob es ganz weg ist wenn ich G-Sync in Windows deaktiviere.
 
Lohnt nur für Leute mit zuviel Geld oder jmd, der noch keine 4090 hatte...
Der Perf.-Unterschied zur TI wird wahrscheinlich nicht spürbar sein (ausser leisere Spulen/Lüfter vielleicht)
Sobald die Dinger da sind, wird es Leute geben die ihre 4090 dagegen tauschen. War doch bei der 3090 TAI auch schon so. Ist ja auch nicht schlimm. Ist halt ein Hobby. Und wen das Geld nicht stört kurbelt die Wirtschaft an. :-)
 
Sobald die Dinger da sind, wird es Leute geben die ihre 4090 dagegen tauschen. War doch bei der 3090 TAI auch schon so. Ist ja auch nicht schlimm. Ist halt ein Hobby. Und wen das Geld nicht stört kurbelt die Wirtschaft an. :-)
Wer die 3090ti kurz n halbes Jahr vor Release der 4090 für 2249€ gekauft hat dem ist Geld sowieso egal:)
 
Das ist genauso wahr wie wenn man schreibt "Wer die 4090 kurz nach Markteinführung für über 2k € gekauft hat, dem ist Geld sowieso egal".
Klar, das muss man erstmal "übrig" haben. Aber so ist das halt. Wie mit jedem Ballaballa Hobby.

Wenn ich dir vorrechnen würde was das Hobby "eigenes Pferd" von meiner besseren Hälfte im Jahr kostet, da würden wir uns nicht mehr über die Peanuts einer 4090 (TI) unterhalten. Selbst unsere Katzen gehen mehr ins Geld aufs Jahr gerechnet. :shot:
 
Das ist genauso wahr wie wenn man schreibt "Wer die 4090 kurz nach Markteinführung für über 2k € gekauft hat, dem ist Geld sowieso egal".
Klar, das muss man erstmal "übrig" haben. Aber so ist das halt. Wie mit jedem Ballaballa Hobby.

Wenn ich dir vorrechnen würde was das Hobby "eigenes Pferd" von meiner besseren Hälfte im Jahr kostet, da würden wir uns nicht mehr über die Peanuts einer 4090 (TI) unterhalten. Selbst unsere Katzen gehen mehr ins Geld aufs Jahr gerechnet. :shot:
Bei der 4090 gab es einen krassen Leistungssprung und deshalb hab ich Sie kurz nach Release für über 2k gekauft.

Die 3090ti hatte 5-10% Mehrleistung und war über 2k.
 
Wenn es eine 4090 ti geben wird , dann nicht vor Oktober oder ? Ich meine Richtige News darüber habe ich dieses jahr nicht gelesen .
Könnte wetten das es selbe sittuation wie vor nem jahr wird
4090 ti kommt (oktober-Jan.) und dann Mai-Juli vorstellung der nächsten kärtchens ^^ (grob gesehen war es ja so ähnl.)
@Neuestrass hat irgendwie den Punkt getroffen , Ärgermich Heute noch :LOL:
 
Versteht mich nicht falsch, ich würde da auch nicht mehr tauschen so kurz vor einer 5090 oder whatever da als nächstes kommt. Aber wenn das einer macht oder bisher einfach keine 4090 hat, dann ist es so.
 
Kann auch sein. Jetzt da der Vorsprung so deutlich ist. Still #1 so why try harder?
 
In letzter Zeit kamen die Karten doch immer erst Oktober/November. 1,5 Jahre ungefähr ab jetzt ist der normale Zyklus. Ende 2024 ist die neue Gen da.
 
Keine Ahnung. Im Moment habe ich keine Lust auf "mehr". Die 4090 ist mal eine echte 4k Karte. Klar kann mehr Leistung nicht schaden. Aber ich sehe die Anwendungen dafür (noch) nicht. Da hat die 3080 vorher schon wesentlich früher gezwickt. Insofern bin ich derzeit sehr entspannt.
 
Heute Abend teste ich noch ob es ganz weg ist wenn ich G-Sync in Windows deaktiviere.
Habe beim Durchlesen die ganze Zeit nur daran gedacht.

Das "Problem" hat nichts mit der GPU an sich zu tun sondern es liegt eher an den Einstellungen im Nvidia Treiber und der Implementation der G-Sync Lösung beim Monitor. Wenn der Monitor im low FPS/Hz Bereich nichts drauf hat und kein gescheites LFC beherrscht, ist das halt so. Bei den "echten" G-Sync Monitoren, die ich bisher hatte, gabs solche Probleme nie. G-Sync im Desktop ist sowieso unnötig, wenn man nicht ständig im Fenster Modus spielt.
 
Habe beim Durchlesen die ganze Zeit nur daran gedacht.

Das "Problem" hat nichts mit der GPU an sich zu tun sondern es liegt eher an den Einstellungen im Nvidia Treiber und der Implementation der G-Sync Lösung beim Monitor. Wenn der Monitor im low FPS/Hz Bereich nichts drauf hat und kein gescheites LFC beherrscht, ist das halt so. Bei den "echten" G-Sync Monitoren, die ich bisher hatte, gabs solche Probleme nie. G-Sync im Desktop ist sowieso unnötig, wenn man nicht ständig im Fenster Modus spielt.
Interessanterweise trat das bei der 3090 davor nicht auf.
 
So ich muss das Thema Bildschirmflackern mit der 4090 nochmal hoch holen.
Hatte ja vor ein paar Seiten geschrieben das ich in bestimmten Programmen Probleme hatte das die Helligkeit über den ganzen Montior quasi flackert. Es hat definitiv was mit der Framerate zu tun und ich hab es jetzt bis auf Lightroom beseitigen können. In "normalen" Windows-Anwendungen trat es nie auf, also in keinem Office Tool usw. aber in Lightroom, Davinci Resolve und noch ein paar anderen, und zwar immer dann wenn man mit der Maus über Bedienelemente gescrollt ist. Gestern hab ich zufällig noch den Afterburner mitsamt dem Overlay angehabt. Interessanterweise aktiviert sich die Ausgabe vom Riva Tuner bei Lightroom und Davinci Resolve. Dabei ist mir aufgefallen das beim Navigieren, vor allem in Lightroom die Framerate enorm springt wenn ich über die Menüpunkte meine Maus bewege die das Flackern auslösen. Hab dann mal ein wenig herumgespielt und was geholfen war war tatsächlich die Framerate auf die Framerate des Monitors zu begrenzen. Ich weiß jetzt nicht ob es da im Treiber ein Problem mit G-Sync gibt oder allgemein ein Problem mit dem Setting der Framerates in Windows wenn gewisse Programme laufen aber bis auf das Preset-Menü in Lightroom flackert die Helligkeit jetzt nicht mehr. Heute Abend teste ich noch ob es ganz weg ist wenn ich G-Sync in Windows deaktiviere.

Das ist ein Problem von VRR. Auf OLEDs besonders gut wahrnehmbar. Lightroom, D Resolve usw... nutzen offensichtlich die GPU, dann gibt es auch nen Flimmern. Auch AutoCAD ist recht anfällig dafür. Und auch in manchen Spielen (vorallem Menüs und Ladescreens) kann nen Flimmern auftauchen.
Ungewöhnlich ist nur, dass du keinen OLED Monitor hast und trotzdem nen Flimmern wahrnimmst, denn eigentlich sind nur OLEDs dafür anfällig. Vermutlich wegen der hohen Kontraste und schnellen Reaktionszeit. Das einzige was hilft, ist tatsächlich VRR off.
 
Sobald die Dinger da sind, wird es Leute geben die ihre 4090 dagegen tauschen. War doch bei der 3090 TAI auch schon so. Ist ja auch nicht schlimm. Ist halt ein Hobby. Und wen das Geld nicht stört kurbelt die Wirtschaft an. :-)
Jmd mit gefülltem Geldbeutel kauft sich eine TI und tauscht dann irgendwann gegen eine normale 4090? Macht "Sinn" :fresse: "Tausche dich arm" will ich sehen :d
Ich sehe aber lieber "Tausche dich reich - vom verschimmelten Wurstbrot zum Lambo" :haha:
Beitrag automatisch zusammengeführt:

Wenn ich dir vorrechnen würde was das Hobby "eigenes Pferd" von meiner besseren Hälfte im Jahr kostet, da würden wir uns nicht mehr über die Peanuts einer 4090 (TI) unterhalten. Selbst unsere Katzen gehen mehr ins Geld aufs Jahr gerechnet. :shot:
Vor 10 Jahren waren es ca. 300€/Monat pro Pferd, stimmt das so?
 
Keine Ahnung. Im Moment habe ich keine Lust auf "mehr". Die 4090 ist mal eine echte 4k Karte. Klar kann mehr Leistung nicht schaden. Aber ich sehe die Anwendungen dafür (noch) nicht. Da hat die 3080 vorher schon wesentlich früher gezwickt. Insofern bin ich derzeit sehr entspannt.
UE 5.2? ;)
Denke, wenn sie es richtig knacken lassen braucht es eine 6090
 
Jmd mit gefülltem Geldbeutel kauft sich eine TI und tauscht dann irgendwann gegen eine normale 4090? Macht "Sinn" :fresse: "Tausche dich arm" will ich sehen :d
Ich sehe aber lieber "Tausche dich reich - vom verschimmelten Wurstbrot zum Lambo" :haha:
Beitrag automatisch zusammengeführt:


Vor 10 Jahren waren es ca. 300€/Monat pro Pferd, stimmt das so?
@ersten Kommentar nochmal genau lesen. Da steht "Sobald die Dinger (4090 TI) da sind, wird es Leute geben die ihre 4090 dagegen tauschen." Also wird die 4090 mit einer 4090 TI ersetzt.

@zweites Thema: heutzutage in unseren Breitengraden (Bayern) gerne 600€(+) nur fürs Einstellen. Kein Zusatzfuttermittel / Pülverchen gerechnet, keine weiteren Kosten wie die Fahrt dahin, Anhänger, Tierarzt, Schmied etc. Aber soll ich dir was sagen? Man lebt nur 1x und ich weiß nicht wie alt ich wirklich werde - ich seh es gerade in der direkten Familie. Ich warte auf nix mehr und heb nix mehr für später auf. Wenn ich mal die finale Diagnose kriege will ich zumindest die Zeit bis dahin genossen haben [anderes Thema]
 
Bist du sicher, dass du damals immer mit G-Sync im Desktopmodus gearbeitet hast? Bei der Treiberinstallation ist es nämlich standardmässig nicht eingeschaltet.
Ich hab es auch damals nur einmal aktiviert als ich den Monitor gekauft hab und dann nie mehr deaktiviert. Ich teste heute Abend mal. Das einzige was ich mir vorstellen könnte ist das ich damals G-Sync auf Vollbild beschränkt hab und jetzt Vollbild und Fenster Modus. Das könnte theoretisch sein.
 
Das ist genauso wahr wie wenn man schreibt "Wer die 4090 kurz nach Markteinführung für über 2k € gekauft hat, dem ist Geld sowieso egal".
Klar, das muss man erstmal "übrig" haben. Aber so ist das halt. Wie mit jedem Ballaballa Hobby.

Wenn ich dir vorrechnen würde was das Hobby "eigenes Pferd" von meiner besseren Hälfte im Jahr kostet, da würden wir uns nicht mehr über die Peanuts einer 4090 (TI) unterhalten. Selbst unsere Katzen gehen mehr ins Geld aufs Jahr gerechnet. :shot:
Genau so sieht es aus. Habe ähnliche Beispiel mit Lego und RC Cars in der Familie bzw. im Freundeskreis. Die lachen über meine 4090. Geht mir so auf die Nerven wenn hier einige Schlaumeier immer wieder von "sinnvoll" oder zu teuer sprechen. Die Preise sind wie sie sind und wer ne 4060 braucht, soll sich eine kaufen. Oder wer einen 13900K durch einen 7800X3D ersetzt oder oder... das ist doch das geile am Hobby. Es gibt viele die Geld raus hauen und dadurch auch anderen interessante Einblicke in Hardware geben können. Völlig egal ob das so Exoten wie ne Strix LC oder Standardware wie ne 3080 betrifft.
 
Wenn die Kohle da ist und man spaß damit hat soll man kaufen was man will.
Die Käufergruppe der 4090 ist eh relativ klein .
Wenn Nvidia auf der Mittelklasse liegen bleibt haben die die nicht so viel Geld ausgeben wollen ihr Ziel erreicht, weil
nicht nur eine 4090 ist teuer . Alle Karten sind enorm teuer geworden wie auch Mainboards. Der rest geht ja einigermaßen.
 
Ja, eigentlich ist die 4090 weit über meinem Budget und bisher hatte ich nur max x080 Karten, und trotzdem bin ich irre genug mir die 4090 diese Woche jetzt zu bestellen, sobald ich das letzte Geld zusammen habe... nach fast nem 3/4 Jahr hart sparen (glaub besser kann man nicht zeigen wie sehr über meinem Budget die Karte wirklich ist XD). Gut, zuerst war auch nur die 4080 geplant, aber dann wurde ich gierig nach VRAM dank KI. :d
 
Ja für VR Gaming war auch soweit ich noch weiß viel Vram gut .
Damals habe ich schon einen Sprung gemerkt zwischen 2080 TI und 3090.
Mit der 3090 konnte ich optimal VR Gaming betreiben mit der Rift S .
 
Im Prinzip aber egal, wichtig ist nur, dass es zeitnah Blöcke gibt! 8-)
Wie willste diese Karte denn vernünftig mit nem Wasserkühler nutzen?

Siehe:

Sobald der Luftkühler ab ist, ist am PCB kein 16Pin-Stromanschluss mehr dran.
Gut, was nicht dran ist, kann auch nicht kaputt gehen. :unsure:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh