[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.511
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.396
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.688
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.761
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 771
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 740
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 737
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 686
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 705
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 439
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 723
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.861
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 786
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.555

EDIT: Es gibt also verschiedene Ausführungen der Adapter.

Man kann rausfinden, welchen man selbst hat, wenn man vorsichtig die Ummantlung unterhalb des Steckers entfernt und den Sleeve bei einem Kabel vorsichtig etwas runterzieht.
Bei Igor stand 150V auf dem Kabel, GN hat nur welche mit 300V, bei denen die Probleme nicht auftreten, weil sie besser verarbeitet sind (bei min 25:40)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vielleicht liege ich auch falsch und die Leute posten einfach nicht , weil die Karte keine 3GHZ timespy Extreme oder Port royal schafft und der Vram nicht einmal + 1000 macht . Finde einfach interessant mal zu erfahren wie die Karten so liegen .

Kein Problem damit, zu sagen, dass meine FE gerade mal 2880MHz bei 1,1V packt. Solche Berichte gibt es hier gar nicht. Ich kaufe aber auch nicht 10 Karten um eine "Perle" zu finden. Manche hier machen sich ihr Fehlverhalten noch leicht, weil man dann zufällig auch noch Spulenfappen entdeckt und nun hat man sich sofort den "wahren" Grund konstruiert, die Karte doch zurück zu schicken. Wenn sie dann auch noch keine dicken MHz auspackt, dann ist nur so "nebenbei" der Grund... :rolleyes2:
Der VRAM macht eigentlich +2000MHz, jedoch kackt er im desktop-Betrieb (black screen, freeze) ab. Zu dem Verhalten gibt es überhaupt keine Meldungen hier im Forum. Ob das mit seiner Temp zusammenhängt dunno. Warte auf Blöcke.

Die Länge der Adapterdiskussion ist mir auch nicht nachvollziehbar und warum in diesem Thread wenn es einen eigenen gibt. Das Thema kann außerdem jeder für sich sofort abhacken: Einfach 30min bei geschloßenem Gehäuse 530W durchballern. Stecker kontrollieren. Stecker ok? Ja, dann ist das Thema durch, nächstes Thema.
 
Zuletzt bearbeitet:
Interessant finde ich das manch einer mit viel weniger MHz vor mir ist und manch einer mit viel mehr MHz hinter mir. Da scheint es noch eine „versteckte“ Effizienz zu geben (effective core clock? - clock stretching?).

Das hab ich hier auch beobachtet zwischen meiner fe und der tuf. Die tuf schmierte sofort ab wenn oc nicht stabil war, die fe konnte man noch 150 MHz mehr takten was benchstable war aber keine Leistung brachte. Nvidia scheint da irgendwie im Hintergrund via Treiber rumzuregeln, daher kann man auf die angezeigten Frequenzen wohl scheißen da sie eh Fake sind und man muss über Punkte vergleichen.
 
Wenn man undervoltet, ist es tatsächlich auch mit einem Profil absolut nicht getan. Unterschiedliche Engines fressen unterschiedlich viel Strom. Die Anvil Engine z.B., wie hier in Assassin's Creed Odyssey, verbraucht in meinem eingerichteten 24/7 UV-Profil (885mV | 2580 MHz Takt | +1700MHz auf den Speicher) gerade einmal 200 Watt, wo Quake 2 RTX mit seinem Pathtracing seine 350 Watt zieht.
1667127030321.png
1667126908375.jpeg


Wenn ich die Kurve allerdings unangetastet lasse, pauschal 255 MHz auf den Takt und 1700MHz auf den Speicher gebe sowie die Spannung auf 1.1V anhebe, dann verbrauche ich immer noch "nur" 340 Watt, wo andere Engines schon längt in das Powerlimit reingelaufen sind.
1667127139576.png
1667127208241.jpeg

Screenshots by the way in 3840x1600 maxed out

Das ist mir auch mit der 3090 damals schon aufgefallen, jedoch war da sowieso die Kühlung das Problem (unter Luft). Da man jetzt mit den Temperaturen keine Probleme mehr hat mit der 4090, will man halt auch die Leistung rausholen (wenn der Adapter ausgetauscht ist, versteht sich ^^). Dazu benötigt man logischerweise dann eine Reihe von UV-Profilen, am besten so im 25mV-Abstand (von 875 mV bis hoch zu 1.1V). Je nach Spiel bzw. Engine wählt man dann das entsprechende Profil aus, um den gewünschten Verbrauch zu erreichen und ohne ins Powerlimit reinzulaufen (bei mir 450 Watt).
 
Zuletzt bearbeitet:
@4090 Besitzer mit NV Adapter, wie macht ihr das denn, einfach unbeschwert weiter zocken und davon ausgehen, dass nichts passiert oder habt ihr aufgehört, die Karte mit Last zu nutzen bzw das Nutzungsverhalten irgendwie eingeschränkt?

Ich habe den Stecker einfach getestet. Ein Szenario gefunden (Diablo 2 Resurrected, neues Spiel, einfach beim Startpunkt auf der map), wo die Karte 530W zieht. Gehäuse geschlossen, 60min in diesem Szenario verweilt. Nach 60min Temp am Stecker gemessen, 59°C -> Topwert. Danach Stecker optisch kontrolliert. Stecker ok, Thema ist durch.
 
weil der adapter nicht kaputt/beschädigt ist. solange das der fall ist, passiert auch nix :d
 
Jemand eine Idee wie ich bei mir im Case eine 4090 anbringen soll mit einem solchen Adapter!? Also ich komme an einem 90° Adapter nicht vorbei denke ich bei so viel Platz wie ich da habe 😆
Gehäuse ist ein Raijintek Paean Benchtable.
 

Anhänge

  • 16671280211086826462695148117712.jpg
    16671280211086826462695148117712.jpg
    525,2 KB · Aufrufe: 154
wie viel cm sind das denn von anschluss zum glas?
Beitrag automatisch zusammengeführt:

steve kauf euch die karte für euren preis ab wenn der adapter abgeraucht ist.
 
aktuell oder von der 4090? weil das ist ja ne andere gpu gerade ?
 
Weil bei mir der 5950X zuviel im Desktop-Betrieb verbraucht. Wenn ich Filme gucke oder Surfe soll der Pc nicht mehr als 100W verbrauchen, aber der 5950X ging fast nie unter 80W.
Zudem war er ständig, auch im Desktopbetrieb 80°C. Warum auch immer, boostete er beinahe dauerhaft auf die 5ghz@1,5V. Auch teilweise im idle...
Bevor du noch andere Ratschläge gibst, ich habe alles probiert und alles war nicht zufriedenstellend.
Mit den 4,2Ghz und festen 1,1V hatte ich den Durchschnittsverbrauch UND Temperatur des 5950x HALBIERT!!!! Dafür ging nur 10% ST Leistung flöten...

Ich hatte bisher eine 3090, da waren die 4,2Ghz in 4k kaum zu bemerken. Aber mit einer 4090 muss etwas mehr CPU leistung her und der 5800X3D hat im Gaming etwas mehr Wumms in VIELEN Spielen, nicht nur ein paar. Auch Stock ist der 5950X in vielen Spielen langsamer als der 5800X3D. Zudem wenn ich den 5950X verkaufe, bekomme ich etwas Geld zurück und das nächste CPU Upgrade ist erst in 4-5 Jahren.

Klar reicht der 5800X3D nicht aus um eine 4090 überall ans Limit zu bringen, dafür werde ich aber die 4090 vom PL her drosseln, damit ich auch nicht soviel Abwärme im Zimmer habe.
Geplant ist maximal ~500W für PC UND Monitore.
Mal kurz am Rande...

Deaktiviere doch mal HT und schau wie hoch Du den 5950x dann bekommst.

Damit hast Du dann trotzdem 16 vollwertige Kerne und Threads.

Mein 5900x läuft im Gaming bei 4.8 auf allen und durch das Dark Hero mit oc switcher leicht über 5 das mit HT.

Da ist kaum ein Unterschied zum Schluss zum 5800x3d.
 
aktuell oder von der 4090? weil das ist ja ne andere gpu gerade ?

Aktuell bei der Asus Rog Strix RX 6900 XT LC

Die 4090 liegt doof herum und wartet auf ein Seasonic Kabel aber ob das helfen wird?
Die dürfen ja angeblich alle nicht stark geknickt werden.
 

Anhänge

  • 16671285094033869214296507646819.jpg
    16671285094033869214296507646819.jpg
    1,6 MB · Aufrufe: 131
Hat hier jemand das Gigabyte Gaming OC Bios auf die Windforce geflasht?
 
Aktuell bei der Asus Rog Strix RX 6900 XT LC

Die 4090 liegt doof herum und wartet auf ein Seasonic Kabel aber ob das helfen wird?
Die dürfen ja angeblich alle nicht stark geknickt werden.

Wieso versuchst du das USB Kabel durch den Karton zu stecken? :o
 
Witzig, da kauft man sich eine 2000+ € Grafikkarte und spielt 4 Stunden am Stück Vampire Survivors wo ein C64 fast reichen würde. :d
 
Witzig, da kauft man sich eine 2000+ € Grafikkarte und spielt 4 Stunden am Stück Vampire Survivors wo ein C64 fast reichen würde. :d

Jetzt mal ohne Spaß. Ich bin sehr froh dass jetzt wirklich interessante Titel mit aufwendiger Grafik kommen werden wie Dead Space Remake, The Callisto Protocol und Resi 4 Remake. Sonst wäre der Kauf meiner 4090 echt etwas sinnlos geworden.
 
EDIT: Es gibt also verschiedene Ausführungen der Adapter.

Man kann rausfinden, welchen man selbst hat, wenn man vorsichtig die Ummantlung unterhalb des Steckers entfernt und den Sleeve bei einem Kabel vorsichtig etwas runterzieht.
Bei Igor stand 150V auf dem Kabel, GN hat nur welche mit 300V, bei denen die Probleme nicht auftreten, weil sie besser verarbeitet sind (bei min 25:40)

Bei meinem NV-Adapter steht 300V.
 
Jetzt mal ohne Spaß. Ich bin sehr froh dass jetzt wirklich interessante Titel mit aufwendiger Grafik kommen werden wie Dead Space Remake, The Callisto Protocol und Resi 4 Remake. Sonst wäre der Kauf meiner 4090 echt etwas sinnlos geworden.
2 von den 3 Spielen interessieren mich nicht mal. Aber es kommt ja auch irgendwann das neue Stalker und sicher noch einige andere Spiele. Die Entwickler werden schon dafür sorgen das die 4090 ausgelastet wird, und sei es nur durch schlechte Optimierungen...
 
Tl;dw
GN hat 5 Kabel gefoltert. ALLE Kabel hatten andere Kabel-Ratings als das von Igor (150V vs 300V) UND waren anders gelötet. Je 2 Kabel waren auf 3 Pads zusammen gelötet.
Keines der Kabel von GN fiel durch/schmorte beim testen, selbst als beide äußeren Kabel abgeschnitten waren. (Ergebnis: Die Pads sind also nicht Schuld am schmoren.)

GN will Daten von Zuschauer, was auf deren Adapter-Kabeln steht um zu sehen wieviele von beiden Versionen im Umlauf sind. Zudem sucht GN Kabel die bereits verschmort sind, um diese zu testen.

Vermutung: Einige Kabel haben Herstellungsfehler. Oder Kabel werden nicht richtig eingesteckt und deren Pins verbiegen beim verlegen.
Also das wovor die PCI-SIG schon vor dem Launch gewarnt hat...
 
Ich habe den Stecker einfach getestet. Ein Szenario gefunden (Diablo 2 Resurrected, neues Spiel, einfach beim Startpunkt auf der map), wo die Karte 530W zieht. Gehäuse geschlossen, 60min in diesem Szenario verweilt. Nach 60min Temp am Stecker gemessen, 59°C -> Topwert. Danach Stecker optisch kontrolliert. Stecker ok, Thema ist durch.
Da machst du es dir aber ziemlich einfach. Wer sagt denn, dass diese Szenario geeignet ist? Und getestet hast du den Ablauf nur bei dir. Ist ja nett, dass du dich damit sicher fühlst, aber das sagt nichts über die Situation anderer Käufer aus.
 
2 von den 3 Spielen interessieren mich nicht mal. Aber es kommt ja auch irgendwann das neue Stalker und sicher noch einige andere Spiele. Die Entwickler werden schon dafür sorgen das die 4090 ausgelastet wird, und sei es nur durch schlechte Optimierungen...
Bei Spielen ist es ja sowieso Geschmackssache. Wen interessiert hier schon Tekken? Und Tekken 8 ist für mich eins der meist erwarteten Titel überhaupt.
Schlechte Optimierung ist eine künstliche zusätzliche Belastung und wäre in jedem Fall sehr ärgerlich.
 
Habe für meine 4090 FE nach etlichen Stunden den Sweetspot für Untervolting erreicht, wo es für mich vollkommen aussreicht.
965Mv bei 2790MHZ +999Mhz Speichertakt.

Da geht vom Ergebnis grundsätzlich viel mehr habe auch durch leichte erhöhung 970mv auch 26100Punkte erreicht aber lohnt sich aus meiner Sicht überhaupt NICHT!!

In Spielen sind die 600 Punkte Port Royal nicht mal 1 FPS dafür aber 15-20 Watt mehr verbrauch.....NIEMALS.

Da verzichte ich auf 600 Punkte und schone die 4090 bei lockeren 350-360 Watt bei Cyberpunk MAX Details OHNE Dlss....mit DLSS sind es deutlich weniger Watt....250-300Watt

Bei Plague Tales sind es 230-280Watt, da wahrscheinlich kein Raytracing im Spiel gibt
 

Anhänge

  • 4. Port Royal 2805 999 965mv.png
    4. Port Royal 2805 999 965mv.png
    149,4 KB · Aufrufe: 47
Witzig, da kauft man sich eine 2000+ € Grafikkarte und spielt 4 Stunden am Stück Vampire Survivors wo ein C64 fast reichen würde. :d
Ich zocke damit auch fast nur Games die eigentlich das Teil unterfordert. In einem Game brauch die karte grad mal 70 Watt :d aber egal, immerhin hat man die volle Leistung für weniger Stromverbrauch.
 
Wenn man undervoltet, ist es tatsächlich auch mit einem Profil absolut nicht getan. Unterschiedliche Engines fressen unterschiedlich viel Strom. Die Anvil Engine z.B., wie hier in Assassin's Creed Odyssey, verbraucht in meinem eingerichteten 24/7 UV-Profil (885mV | 2580 MHz Takt | +1700MHz auf den Speicher) gerade einmal 200 Watt, wo Quake 2 RTX mit seinem Pathtracing seine 350 Watt zieht.
Anhang anzeigen 809810Anhang anzeigen 809809

Wenn ich die Kurve allerdings unangetastet lasse, pauschal 255 MHz auf den Takt und 1700MHz auf den Speicher gebe sowie die Spannung auf 1.1V anhebe, dann verbrauche ich immer noch "nur" 340 Watt, wo andere Engines schon längt in das Powerlimit reingelaufen sind.
Anhang anzeigen 809811Anhang anzeigen 809813
Screenshots by the way in 3840x1600 maxed out

Das ist mir auch mit der 3090 damals schon aufgefallen, jedoch war da sowieso die Kühlung das Problem (unter Luft). Da man jetzt mit den Temperaturen keine Probleme mehr hat mit der 4090, will man halt auch die Leistung rausholen (wenn der Adapter ausgetauscht ist, versteht sich ^^). Dazu benötigt man logischerweise dann eine Reihe von UV-Profilen, am besten so im 25mV-Abstand (von 875 mV bis hoch zu 1.1V). Je nach Spiel bzw. Engine wählt man dann das entsprechende Profil aus, um den gewünschten Verbrauch zu erreichen und ohne ins Powerlimit reinzulaufen (bei mir 450 Watt).
Das war bei meiner 3090 immer das Thema manche Spiele liefen ins PL trotz UV.. Die Idee mit mehreren UV Profilen ist nicht schlecht, besonders wenn du ein Spiel hast, was primär gezoggt wird. Dann lohnt sich der mehr Aufwand schon.
 
Da machst du es dir aber ziemlich einfach. Wer sagt denn, dass diese Szenario geeignet ist? Und getestet hast du den Ablauf nur bei dir. Ist ja nett, dass du dich damit sicher fühlst, aber das sagt nichts über die Situation anderer Käufer aus.

Ich sage das. Du kannst ja das Gegenteil beweisen. Andere Käufer dürfen auch testen, das steht jedem frei. Man steht sich nur selbst im Weg rum. Das Übliche halt.
 
Frostbite Review…

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh