[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.535
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.417
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.711
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.780
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 786
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 762
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 757
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 706
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 725
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 459
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 745
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.881
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 803
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.576
Braucht DLSS sehr viel/so viel CPU-Leistung?

Ich habe mich gerade um einen Heul-Thread in zwei anderen Foren gekümmert. Der TE erzählt weinend, dass er seine 4090 in FC6 nicht ausgelastet bekommen in 2560x1140p und Ultra Settings.
Und später erzählte er was von Metro Exodus.

Ich hab das übliche erzählt: Wer seine Graka nicht ausgelastet bekommt, der hat das Gesicht seines Vaters vergessen (die Regler).

Ja, der User hat recht, in 2560x1440 in Metro Exodus langweilt sich die Graka im CPU-Limit mit DLSS.
ABER sobald ich DLSS abschalte ...... geht nicht nur die Auslastung hoch, sondern auch die FPS. Und zwar gewalig. Fast 40% mehr FPS wie mit angeschaltetem DLSS.

Und jetzt die Frage an euch: Kostet DLSS tatsächlich SO VIEL CPU-Leistung?

Metro Exodus. Taiga-Level 1. Bild nach Intro-Sequenz. 2560x1440p Ultra-Settings. DLSS ANAnhang anzeigen 813574

DLSS AUS
Anhang anzeigen 813573
Muss ich gleich nachher in Assetto corsa Competitione testen. Da hatte ich bei der 3090er DLSS Qualität mit 7680x1440 und jetzt kommt der 12700k mit vielen Gegner kaum über 120 FPS raus. Weniger Gegner dann passt alles. Hatte aber noch nicht ohne DLSS getestet. Bin neugierig bzw wird es wahrscheinlich von Game zu Game unterschiedlich sein oder die Treiber müssen noch etwas reifen.

Was ich auch bei Dir sehe, im ersten Bild verzichtest Du zwar auf FPS aber hast 170 Watt und im zweiten zwar mehr FPS und Auslastung, aber auch über 350 Watt...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Scheint das selbe BIOS zu sein wie V1 , weil er kein Update macht .

Ja ich meine es stand auch irgendwo das es nur Offline ging nicht wegen dem Bios, sondern wegen dem Installer... Dann scheint das wohl auch gestimmt zu haben.
 
Braucht DLSS sehr viel/so viel CPU-Leistung?

Ich habe mich gerade um einen Heul-Thread in zwei anderen Foren gekümmert. Der TE erzählt weinend, dass er seine 4090 in FC6 nicht ausgelastet bekommen in 2560x1140p und Ultra Settings.
Und später erzählte er was von Metro Exodus.

Ich hab das übliche erzählt: Wer seine Graka nicht ausgelastet bekommt, der hat das Gesicht seines Vaters vergessen (die Regler).

Ja, der User hat recht, in 2560x1440 in Metro Exodus langweilt sich die Graka im CPU-Limit mit DLSS.
ABER sobald ich DLSS abschalte ...... geht nicht nur die Auslastung hoch, sondern auch die FPS. Und zwar gewalig. Fast 40% mehr FPS wie mit angeschaltetem DLSS.

Und jetzt die Frage an euch: Kostet DLSS tatsächlich SO VIEL CPU-Leistung?

Metro Exodus. Taiga-Level 1. Bild nach Intro-Sequenz. 2560x1440p Ultra-Settings. DLSS ANAnhang anzeigen 813574

DLSS AUS
Anhang anzeigen 813573
Wenn du in 4k nativ im cpu limit bist wirst du in dlss erst recht im cpu limit sein da die cpu da mit rechnet.
Dlss bringt nur was im gpu limit.
 
Wenn du in 4k nativ im cpu limit bist wirst du in dlss erst recht im cpu limit sein da die cpu da mit rechnet.
Dlss bringt nur was im gpu limit.
das weiß Hisn :) es geht ihm das was die cpu im dlss an performance verliert. ich bin mir sicher dass das nichtder normal fall ist. das sind 40 fps bei ihm.
 
Krass wie die RTX 4090 anstandslos jedes Spiel auf UHD rendert ohne auch nur in geringster Weise zu Zucken
Bin schon gespannt wie Only Current Gen Spiele performen….
Hoffe genauso gut ^^“

Spiele aktuell Shadow of The Tomb Raider
Hatte mal die PS4 gespielt….
Schaut wirklich sehr gut aus.
Werd mir mal Uncharted 4 gönnen
 
anstandslos wäre native 120fps minimum :) glaube das schafft sie dann doch nicht überall :d
 
CPU hat ca 90W +50W Spikes zur Sicherheit einrechnen. Also sind beim Netzteil noch 510W über für die GPU. Man sollte da eigentlich nochmal 100W für GPU-Spikes einrechnen, wären 40W zu wenig... :d

CPU zeigt bei mir immer um die 60 W an.
Ich dachte mit 3x 8 PIN sind die 450 W wirklich fix. Nur 150W pro 8 PIN bei der 4090.

Außerdem können gute 750W Netzteile locker bis 850-900W liefern.
Habe ich auch gehört. Nur sollte man das Netzteil auch nicht 100% auslasten habe ich gehört.

Ich würde nur kein OC empfehlen :d
Brauch ich nicht. CPU ist sogar undervolted mit PDO2
2) Mit einer 4090 wird die Leistung die man braucht um Limits zu erreichen höher.
Der 5600X erreicht immer noch GPU-Limits in ein paar Spielen, aber nicht mehr in allen.
Selbst ein 13900k kommt manchmal ins GPU-Limit.

P.S. AMD CPUs immer TDP mal 1.35. Das ist dann das Powerlimit das beinahe überall eingestellt ist.
Und ich werde meine 4090 auch mit einem 750W Netzteil betreiben, aber mit einem 5800X3D. Dafür nur 6 Lüfter, aber je 2 NVME und Satas.
Bin mir auch in der Überlegung den 5800x3d zu holen nur 4 Punkte die mich da stören: 1 Netzteil, 2 Wärme/Lautstärke 3 Kosten^^ 4 Bringts überhaupt was bei 4K gaming. Kann mit der 3080 ti bei 320+W gerade noch so silent zocken mit 900 RPM. Wasser temp ist bei 42 Grad bei einer langen session. Und gebe mit dem upgrade ja schon 100W wärme hinzu.

Du hast den C2 42er. Gutes Teil :) Ich habe die matte Version :d
 
Die Verfügbarkeit scheint ja immer besser zu werden bei der 4090. Bin gespannt ob überhaupt jemand in Deutschland die 4080 kauft. Die macht nicht wirklich soviel Sinn, oder?
Nö, würde sagen so wie es jetzt aussieht entweder 4090 wenn die Kohle da ist und man die beste Karte haben will oder AMD RX 7900XTX...Die 4080 finde ich sehr schwach zu dem Preis und die 4080 12GB wäre noch schlimmer, wenn sie nicht "unlaunched" wäre.
 
CPU zeigt bei mir immer um die 60 W an.
Ich dachte mit 3x 8 PIN sind die 450 W wirklich fix. Nur 150W pro 8 PIN bei der 4090.


Habe ich auch gehört. Nur sollte man das Netzteil auch nicht 100% auslasten habe ich gehört.


Brauch ich nicht. CPU ist sogar undervolted mit PDO2

Bin mir auch in der Überlegung den 5800x3d zu holen nur 4 Punkte die mich da stören: 1 Netzteil, 2 Wärme/Lautstärke 3 Kosten^^ 4 Bringts überhaupt was bei 4K gaming. Kann mit der 3080 ti bei 320+W gerade noch so silent zocken mit 900 RPM. Wasser temp ist bei 42 Grad bei einer langen session. Und gebe mit dem upgrade ja schon 100W wärme hinzu.

Du hast den C2 42er. Gutes Teil :) Ich habe die matte Version :d
die 4090 ist effizienter als die 3080ti. es ändert sich für dich quasi nichts ;)
 
Das ist kurios. Klingt nach irgendeiner softwareproblematik. Hardwaretechnisch unmöglich.
Das neue intel bios soll ürobleme haben so dass man 2 chipsatztreiber nochmal installieren muss was nvme betrifft. Vielleicht irgenso ein problem? Mal alle treiber neu und game neu installieren.
Beitrag automatisch zusammengeführt:

Nö, würde sagen so wie es jetzt aussieht entweder 4090 wenn die Kohle da ist und man die beste Karte haben will oder AMD RX 7900XTX...Die 4080 finde ich sehr schwach zu dem Preis und die 4080 12GB wäre noch schlimmer, wenn sie nicht "unlaunched" wäre.
Die 4080 ist dazu da dass die leute die 4090 kaufen.
Die 7900 xt ist dazu da um die xtx zu kaufen.
Leicht durchschaubares marketing.
 
War leider die nicht OC.

Ich kaufe nie wieder die OC. Meine 3090 Strix OC hatte so eine schlechte Silicon Lottery.
Ok, gerade gesehen, dass der Unterschied (UVP) nur bei 10€ liegt. Weiß jemand gerade auswendig was der Unterschied on paper ist? Die OC taktet vermutlich von Haus wieder ein bisschen höher? Aber nichts was man im Afterburner einstellen könnte. Sind die Dies gebinnt? (Das war imho nämlich bei der 3090 nicht der Fall)
 
Also bei mir im Test mit Assetto Corsa Competitione hab ich mit Dlss mehr FPS. Graka dann nicht mehr ausgelastet, ohne Dlss mit 100% GPU Auslastung limitiert die Graka auf 7680x1440. Hab dann ca 15 - 20 FPS weniger aber 430 Watt Grakaverbrauch, mit DLSS um die 280-330 Watt aber mehr FPS. Also muss am Game oder was spezifischem in Kombi mit der CPU sein...
 
Also bei mir im Test mit Assetto Corsa Competitione hab ich mit Dlss mehr FPS. Graka dann nicht mehr ausgelastet, ohne Dlss mit 100% GPU Auslastung limitiert die Graka auf 7680x1440. Hab dann ca 15 - 20 FPS weniger aber 430 Watt Grakaverbrauch, mit DLSS um die 280-330 Watt.
du musst schon in beiden fällen im cpu limit sein damit das sinn ergibt^^
 
Also durch das Undervolting, und das ist wahrscheinlich das schöne daran, kann man wohl massiv den Stromverbrauch senken und die Leistung dennoch relativ weit oben halten, ja?
Mich würde es sehr interessieren, womit und in welcher Kombi man am aller meisten Strom spart und nur so viel Leistung bekommt wie man braucht.
Ich habe festgestellt, dass man durch das Senken des PL ingame eben direkt sehen kann, wie weit man runter gehen kann und ab wann die Ziel-FPS davon beeinflusst werden, ohne einen Systemabsturz provozieren zu können, was beim Undervolting ja leicht ausgelöst werden kann. Somit sinkt auch der GPU-Takt ab, was auch gut ist, weil ich ja gar nicht will, dass die höher taktet als ich es brauche und die Spannung passt sich dementsprechend auch automatisch ab das Leistungsniveau an und geht runter, wobei ich jetzt noch keine 0,8V sehen konnte. Wenn man da natürlich noch undervolting betreibt und herausfindet, was der perfekte Sweetspot bei der jeweiligen 4090 ist, dann hat man natürlich die best mögliche Performance beim geringstmöglichen Verbrauch. Darauf bin ich echt scharf 😍🤤🔥

Okay ich hab jetzt schnell nen Screenie angefertig von dem Spiel was ich aktuell zock.
Chernobylite mit Ultra Setting, DLSS Qualität

einmal mit UV
einmal mit 60 Prozent PT

Zocke das auf 4587*1920
MIT UV:
75 FPS bei 202 Watt


Ohne UV und mit 60 Prozent PT
78 FPS bei 292 Watt


Ohne UV und mit 50 Prozent PT
76 FPS bei 242 Watt


Beim PT limitieren kann es aber auch sein das die Leistung schlechter bleibt, weil iwann eine Szene kommt wo mehr Leistung benötigt wird.
Bei dem Spiel ist z.b ist UV effizienter.
 
Zuletzt bearbeitet:
Vielleicht hab ich mich blöd ausgedrückt. Sobald ich DLSS ausschalte knallt der die Auslastung hoch das ich soviel runterstellen muss um noch ein Limit zu erzeugen bei den 144er Monis. Das Spiel eignet sich nicht fürs testen. Jedenfalls hab ich in dem Fall mit DLSS mehr FPS und weniger Verbrauch und besser sieht es auch noch aus. Ohne das knall ich Strom raus ohne Ende für nichts.
 
Vielleicht hab ich mich blöd ausgedrückt. Sobald ich DLSS ausschalte knallt der die Auslastung hoch das ich soviel runterstellen muss um noch ein Limit zu erzeugen bei den 144er Monis. Das Spiel eignet sich nicht fürs testen. Jedenfalls hab ich in dem Fall mit DLSS mehr FPS und weniger Verbrauch und besser sieht es auch noch aus. Ohne das knall ich Strom raus ohne Ende für nichts.
ja dann ist das spiel zu fordernd aufgrund deines monitor setups.^^
 
Und jetzt die Frage an euch: Kostet DLSS tatsächlich SO VIEL CPU-Leistung?
Nunja mehr FPS ergeben mehr CPU-Last. :d
DLSS verringert quasi die GPU-Last und damit muss die CPU mehr arbeiten, bis wieder das GPU-Limit erreicht ist.

Beim Test von DF in 4k Spiderman gab DLSS2 nur 1-10% und war manchmal sogar unter den FPS von Native. Nur DLSS3 brachte viele FPS, weil DLSS3 die CPU nicht belastet.
CPU zeigt bei mir immer um die 60 W an.
Kommt tatsächlich aufs Board an. Manche halten die TDP ein, manche boosten bis zum PPT (Package Power Target) von TDPx1.35.
Du hast den C2 42er. Gutes Teil :) Ich habe die matte Version :d
Den matten Finish will ich nicht wieder haben, damit hat man ein eher gräulicheres Schwarz.
Habe ich auch gehört. Nur sollte man das Netzteil auch nicht 100% auslasten habe ich gehört.
Ich kann nur sagen, das ich mit einer 3090 mit 400W OC maximal 550W aus der Steckdose gezogen hatte. Benchmark/Stresstest
Mit einem 5950X (bis max 142W) und einer 3090 bei 350W war ich beim zocken nie über 480W aus der Steckdose.
Wie ich schon meinte, wenn bei dir alles zusammen auf 100% auf einmal läuft, kommt vielleicht 750-800W zustande, aber das passiert wirklich nie. Schließlich lässt du Lüfter und co auch nicht auf 100% laufen oder die SSDs sind nie alle gleichzeitig zu 100% ausgelastet usw.
Mit der 4090 und einem 5600X sehe ich da maximal auch so 550-600W aus der Steckdose.
Die 4090 ist aber interessant, weil je nach Spiel diese mal 100W oder unter 300W zieht. Nur mir RT zieht sie meist über 400W.

Ich werde auch einfach ein PL von 60-70% einstellen und damit machen 750W keine Sorgen mehr, da der PC nur noch <400W ziehen wird.
Ein 70% PL heißt ca 315W als Maximum. Und den Tests nach würde man für die 30% weniger Strom maximal 5-7% an Leistung verlieren.
Da ich aber sowieso mit einen FPS-Limiter arbeiten werde...sollte das eh egal sein. :d

Meine 3090 kam oft nicht an die 120FPS ran...bzw manchmal sogar nur zwischen 50-60FPS in 4k und deshalb kaufe ich mir die 4090.
4k 120FPS ist mein Endgame für viele Jahre...ich müsste jetzt nur noch upgraden wenn Spiele mehr Leistung verlangen.
 
Zuletzt bearbeitet:
Warum nicht 70-75% PT? Sollte doch eigentlich der absolute Sweetspot sein zwischen Verbrauch und FPS.
Ist nicht so sweetspottig, zumindest nicht bei diesem Game frisst nur Strom

73 Prozent PT
74 FPS bei 302 Watt
 
er war bereits ohne DLSS im cpu limit. das ergibt kein sinn ;)
Ich habe die Bilder mal genauer angesehen...
Mit DLSS an
99FPS
18% CPU Last
46% GPU Last, 170W

DLSS aus
142FPS
33% CPU Last
96% GPU Last, 367W

Nun...warum hat er mit DLSS weniger FPS, während CPU und GPU nicht voll ausgelastet sind...
DAS macht keinen Sinn. :d
Hat er die Bilder vertauscht? Beim Bild ohne DLSS gehen die Äste der Bäume besser aus...aber gerade sowas sollte DLSS ja smoothen...aber bei ihm mit DLSS sind die kantiger.
Ich behaupte nicht das er lügt, er sagt es ist so...ich finde es nur sehr seltsam...hört sich eher nach einem Bug an oder so.

@EleCtricStream
UV und PL verhalten sich anders je nach Spiel.
Raytracing scheint bei der 4090 auch nochmal einiges an Strom zu verbrauchen. Da könnte man theoretisch mehr mit PL einsparen als mit UV.
TESTEN kann ich es erst, wenn meine Karte in 1-2 Tagen ankommt...Wenn sie nicht in einem DHL Lager verschimmelt.
 
Zuletzt bearbeitet:
Nunja mehr FPS ergeben mehr CPU-Last. :d
DLSS verringert quasi die GPU-Last und damit muss die CPU mehr arbeiten, bis wieder das GPU-Limit erreicht ist.

Die Frage war (Bilder anschauen) kostet DLSS CPU-Zeit, und kann es sein, das es 40% CPU-Zeit-Kostet.
Ich habe im absoluten CPU-Limit mit DLLSS 100 FPS, schalte ich DLLS aus, erwarte ich, dass die FPS gleich bleiben (wenn das Abschalten von DLLS das CPU-Limit nicht ändert, denn die CPU kann ja nicht mehr) oder weniger werden (wenn ich ins GPU-Limit rutsche).
Das ich plötzlich 40% MEHR FPS habe ohne DLSS habe, hat mich stutzig gemacht. Das habe ich nicht erwartet.
Mir ist klar was DLLS macht. Die Frage war: Wie kann es sein, das hier das Gegenteil davon passiert, was ich (wir) erwarten?
Die FPS bleiben nicht gleich oder weden weniger wenn ich im CPU-Limit DLSS abschalte. Es werden mehr. Gute 40%. Das kann eigentlich gar nicht sein. Verstehst? Deshalb die Frage.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh