[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.535
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.417
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.711
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.780
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 786
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 762
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 757
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 706
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 725
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 459
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 745
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.881
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 803
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.576
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich kann bei meiner Strix nur mit GPUTweak die Spannung ändern…hab in AB aber nichts geändert seit 3090 Strix Ausbau…?

neuste beta installieren und unter Einstellungen Spannungsüberwachung und Regelung einen haken setzen und speichern.
 
Dann sind die +1800 die hier ab und zu erwähnt werden, aber fast unglaublich schnell…
ich hab bei meinem oben geposteten Speedway Ergebniss in AB +1800 eingestellt und da steht in 3DMark dann Speichertakt 1.538 MHz :unsure:
 
Ich flippe hier noch aus gerade Saturn Warenkorb die Karte gehabt auf Paypal Bezahlen gedrückt kurzer freeze und wieder im aus gegrautem Warenkorb gelandet .:fire::mad::grrr:
 
ich hab bei meinem oben geposteten Speedway Ergebniss in AB +1800 eingestellt und da steht in 3DMark dann Speichertakt 1.538 MHz :unsure:
Ist doch auch richtig so. Du musst es mit 16 multiplizieren, dann kommt das hin. Ich habe zum Beispiel +1700 draufgegeben:
1667727303839.jpeg


Im MSI-AB/RTSS-Overlay steht dann auch 1525 MHz (bei Dir halt 1538 MHz). Passt schon alles. ^^
1667727199960.jpeg


1313 * 16 ist der effektive Default-VRAM-Takt
1667727524433.png

Quelle: Techpowerup

Wenn man z.B. genau 1500 MHz draufgibt, dann hat man ganz genau 24 Gbps effektiv.
Warum das allerdings so ist, weiß ich auch nicht. Ich weiß nur, dass man es mit 16 multiplizieren muss um die angegeben Werte zu erreichen. ^^

Beim SM-Count muss man z.B. quadrieren um auf die Shading Unit Zahl zu kommen. Auch da, keine Ahnung warum. :d
1667727735252.png

Quelle: Techpowerup

Vielleicht kann es jemand erklären?
 
Zuletzt bearbeitet:
Es gab einen sehr guten Post im Luxx, wie die Temperatur der Grafikkarte und dadurch im Gehäuse die Stromzufuhr verändert und warum es deshalb anfangen kann, zu schmorren.
Daher wundert es mich auch nicht, dass bereits ein natives Kabel abgefackelt ist.

Hi *****, hast du Link zu diesem Post? Ich habe schon per Suchfunktion und die letzten Seiten durckämmt aber den Post nicht gefunden. Danke dir. :-)

Aber es geht darum, dass die Gehäusetemperatur niedrig bleiben sollte oder die Grafikkartentemperatur?
 
Bei ihr muss ich ingame Vsync ausschalten und ingame triple buffering aktivieren, ansonsten hat sie nur die halbe Refresh-Rate von 144 = 72.
Wenn das passiert, arbeitet Freesync nicht richtig. Scheint wohl ein Treiber oder Spielproblem mit AMD Karten zu sein.
 
Ich flippe hier noch aus gerade Saturn Warenkorb die Karte gehabt auf Paypal Bezahlen gedrückt kurzer freeze und wieder im aus gegrautem Warenkorb gelandet .:fire::mad::grrr:
Ist echt zum 🤮 Mach dir aber nichts draus. Was will man gegen Bots machen, ggf. nur selbst welche einsetzten.
Schau mal bei Kleinanzeigen, da gibt's super Angebote meist auch zur UVP wenn die Leute aus Glück mehrere Karten bekommen haben. Habe meine auch von einem abgekauft der hat sie day 1 mit seiner bekommen und hat sie mir auch für exakt denselben Preis, wie er im Laden gekauft hat, verkauft. 👍
Es gibt da auch noch normale und korrekte Leute. Habe zu dem auch weiterhin Kontakt, falls mit der Karte mal was sein sollte.
Ansonsten warte auf die RX 7900 XTX oder RX 7950 X3D 🤣👏
 
Ich habe das gesehen aber ich verstehe immer noch nicht warum der Fernseher es nicht schafft kein Tearing zu verursachen :/

G-SYNC und VRR muss das doch locker regeln können, dass absolut kein Tearing entsteht, wenn zwischen 1-120 FPS bei 120Hz dargestellt werden.
Nochmal V-Sync musst du mit dazu schalten. Es kann immer Mal vorkommen, dass auch innerhalb der refreshrate ein Bild zu früh nachgeschoben wird. Leider hat das G-Sync Marketing hier Scheisse gebaut und es ist ein Irrglaube, dass G-Sync alleine Tearing eliminiert...
 
Ist echt zum 🤮 Mach dir aber nichts draus. Was will man gegen Bots machen, ggf. nur selbst welche einsetzten.
Schau mal bei Kleinanzeigen, da gibt's super Angebote meist auch zur UVP wenn die Leute aus Glück mehrere Karten bekommen haben. Habe meine auch von einem abgekauft der hat sie day 1 mit seiner bekommen und hat sie mir auch für exakt denselben Preis, wie er im Laden gekauft hat, verkauft. 👍
Es gibt da auch noch normale und korrekte Leute. Habe zu dem auch weiterhin Kontakt, falls mit der Karte mal was sein sollte.
Ansonsten warte auf die RX 7900 XTX oder RX 7950 X3D 🤣👏
Ich mag keine Gebrauchten Sachen zu so hohen Preisen kaufen.
Schade das die XTX halt so doll federn lässt von der RT Leistung wenn man mal gesehen hat wie die 4090 läuft will man sich auch nicht mit weniger Leistung zu frieden geben zumindest nicht mit so viel weniger.
 
Zuletzt bearbeitet:
Nochmal V-Sync musst du mit dazu schalten. Es kann immer Mal vorkommen, dass auch innerhalb der refreshrate ein Bild zu früh nachgeschoben wird. Leider hat das G-Sync Marketing hier Scheisse gebaut und es ist ein Irrglaube, dass G-Sync alleine Tearing eliminiert...
Wahnsinn was eine Schweinerei.
Verringert sich denn da überhaupt noch die Latenz mit eingeschaltetem V-Sync?
Und ich finde es ist auch häufig abhängig von den Spielen.
Bei Gears 5 zum Beispiel habe ich absolut kein Tearing und es läuft sogar bei 60 FPS buttrrweich. Bei God of War habe ich nur bis 100 FPS kein Tearing, darüber fängt es an. Bei Cyberpunk hatte ich über 100 FPS das auch schon gesehen allerdings bei der RX 6900 XT mit FSR.
Bei Oddworld Soulstorm hab ich das ohne V-Sync auch massiv bei über 100 Frames.
Bei Tekken 8 oder Spyro hab ich das in der Regel bei 120 FPS auch nie.

Kann es auch einfach an der 4090 liegen, weil die dermaßen schnell die Bilder berechnet? Ich habe nämlich bei der Nvidia Systemsteuerung Latenz auf ultra eingestellt und limit aus 120 FPS gesetzt. Vielleicht sollte ich da mal latenz auf Standart ausprobieren 😂
 
Nochmal V-Sync musst du mit dazu schalten. Es kann immer Mal vorkommen, dass auch innerhalb der refreshrate ein Bild zu früh nachgeschoben wird. Leider hat das G-Sync Marketing hier Scheisse gebaut und es ist ein Irrglaube, dass G-Sync alleine Tearing eliminiert...
Genau, immer V-Sync im Treiber an (ingame aus), welches als "obere Grenze" fungiert, G-Sync an, FPS-Cap ingame setzen (wenn vorhanden), ansonsten via RTSS ODER im Treiber (nur eins von beiden) 4 FPS unterhalb der maximalen Bildwiederholrate setzen. Dann sollte es in 99% aller Fälle smooth laufen.
Beitrag automatisch zusammengeführt:

Kann es auch einfach an der 4090 liegen, weil die dermaßen schnell die Bilder berechnet? Ich habe nämlich bei der Nvidia Systemsteuerung Latenz auf ultra eingestellt und limit aus 120 FPS gesetzt. Vielleicht sollte ich da mal latenz auf Standart ausprobieren 😂
V-Sync einfach immer im Treiber anmachen, da es sozusagen nur eine obere Grenze darstellt, falls mal ein Frame aus der Reihe tanzt (und dadurch Tearing verursachen könnte). Dadurch, dass G-Sync an ist und Dein FPS-Cap im besten Fall 4 (oder mehr FPS) unterhalb der V-Sync-Grenze gesetzt ist, kommst Du zu 99,99% gar nicht in den FPS-Bereich rein, sodass V-Sync überhaupt greifen würde.

Am besten einfach eins der beiden Videos, die in den Posts #18.244 (Englisch) oder #18.245 (Deutsch), die hier auf der Seite weiter oben verlinkt sind, anschauen, dann sollte alles klar sein.
 
Zuletzt bearbeitet:
Genau, immer V-Sync im Treiber an (ingame aus), welches als "obere Grenze" fungiert, G-Sync an, FPS-Cap ingame setzen (wenn vorhanden), ansonsten via RTSS ODER im Treiber (nur eins von beiden) 4 FPS unterhalb der maximalen Bildwiederholrate setzen. Dann sollte es in 99% aller Fälle smooth laufen.
Beitrag automatisch zusammengeführt:


V-Sync einfach immer im Treiber anmachen, da es sozusagen nur eine obere Grenze dastellt, falls man ein Frame aus der Reihe tanzt. Dadurch, dass G-Sync an ist und Dein FPS-Cap im besten Fall 4 (oder mehr FPS) unterhalb der V-Sync-Grenze gesetzt ist, kommst Du gar nicht in den FPS-Bereich, sodass V-Sync überhaupt greifen würde.
Vielen Dank dir mein lieber 👍👍👍
 
Mal ein paar OC Versuche mit der TUF OC gemacht, 3GHz Marke geknackt, braucht mein Chip eine leichte Erhöhung auf 1,065V - Time Spy Extreme und Superposition läuft dann wie angetackert auf 3000MHz durch, für unter Luft wirklich beeindruckend - die FE zuvor hat die 3 GHz nicht gepackt. Zieht dann aber auch durchgehend um die 470 - 480 Watt, mit Peaks auf 552 Watt während des Time Spy Runs. Speicher habe ich +1250, nuckelt auch an den Watt und weiter höher gehen bringt nichts mehr groß Auch das alles im Übirgen kein Problem mit meinem 750 Watt Netzteil und 12700K@5GHz/ 32GB DDR4 4000. Unter Wasser bestimmt lecker, muss wohl doch ne Wakü drauf, für die Tests liefen die Fans volle Pulle, sieht auch Gamestabel aus.

Grafik Punkte: 20 739 Time Spy Extreme
@Trill Ich verstehe das nicht ganz... ich komme mit meiner TUF auf ähnliche Ergebnisse aber bei max 1050mV weil ich nicht weiß wie ich z.B. auf 1065 anheben kann... in der Curve dürfte er sich auch mehr genehmigen!
1667730611497.png
 
Wahnsinn was eine Schweinerei.
Verringert sich denn da überhaupt noch die Latenz mit eingeschaltetem V-Sync?
Und ich finde es ist auch häufig abhängig von den Spielen.
Bei Gears 5 zum Beispiel habe ich absolut kein Tearing und es läuft sogar bei 60 FPS buttrrweich. Bei God of War habe ich nur bis 100 FPS kein Tearing, darüber fängt es an. Bei Cyberpunk hatte ich über 100 FPS das auch schon gesehen allerdings bei der RX 6900 XT mit FSR.
Bei Oddworld Soulstorm hab ich das ohne V-Sync auch massiv bei über 100 Frames.
Bei Tekken 8 oder Spyro hab ich das in der Regel bei 120 FPS auch nie.

Kann es auch einfach an der 4090 liegen, weil die dermaßen schnell die Bilder berechnet? Ich habe nämlich bei der Nvidia Systemsteuerung Latenz auf ultra eingestellt und limit aus 120 FPS gesetzt. Vielleicht sollte ich da mal latenz auf Standart ausprobieren 😂
deshalb muss der fps limiter 2 oder mehr fps unter max range gesetzt werden damit das Iinputlag von vsync nicht greift

wenn dein panel 120hz bzw deine gsync range bis 120hz geht muss dein fps cap bei 118 sein. das rennt bei mir einwandfrei. ingame schalte ich dann vsync dazu und fertig
 
Genau, immer V-Sync im Treiber an (ingame aus), welches als "obere Grenze" fungiert, G-Sync an, FPS-Cap ingame setzen (wenn vorhanden), ansonsten via RTSS ODER im Treiber (nur eins von beiden) 4 FPS unterhalb der maximalen Bildwiederholrate setzen. Dann sollte es in 99% aller Fälle smooth laufen.
Beitrag automatisch zusammengeführt:


V-Sync einfach immer im Treiber anmachen, da es sozusagen nur eine obere Grenze darstellt, falls mal ein Frame aus der Reihe tanzt (und dadurch Tearing verursachen könnte). Dadurch, dass G-Sync an ist und Dein FPS-Cap im besten Fall 4 (oder mehr FPS) unterhalb der V-Sync-Grenze gesetzt ist, kommst Du zu 99,99% gar nicht in den FPS-Bereich rein, sodass V-Sync überhaupt greifen würde.

Am besten einfach eins der beiden Videos, die in den Posts #18.244 (Englisch) oder #18.245 (Deutsch), die hier auf der Seite weiter oben verlinkt sind, anschauen, dann sollte alles klar sein.
Probiere es gerade auf V-Sync "schnell" aus und es scheint auch super zu funktionieren 👍
Beitrag automatisch zusammengeführt:

deshalb muss der fps limiter 2 oder mehr fps unter max range gesetzt werden damit das Iinputlag von vsync nicht greift

wenn dein panel 120hz bzw deine gsync range bis 120hz geht muss dein fps cap bei 118 sein. das rennt bei mir einwandfrei. ingame schalte ich dann vsync dazu und fertig
Habe es jetzt mal im Treiber auf V-Sync "schnell" eingestellt und 120 FPS cap. Bei einer Darstellungslatenz von 7-9,5ms kein Zerreißen des Bildes mehr und ingame durchgehend 119-120 FPS. Scheint auch gut zu funktionieren ist am Ende wahrscheinlich Jacke wie Hose. Ach ja mit DLSS lässt natürlich weiter dir Latenz herabsetzen. Auf Quality bei GoW grad 5-6,5ms
 
Zuletzt bearbeitet:
Probiere es gerade auf V-Sync "schnell" aus und es scheint auch super zu funktionieren 👍
Puh, da kann ich nichts zu sagen. Ich habe mir die Videos angeschaut, die Artikel gelesen und seitdem einfach nur normal auf "ein" gestellt. Never change a running system, bei mir funktioniert alles so wie es soll. ^^
 
Puh, da kann ich nichts zu sagen. Ich habe mir die Videos angeschaut, die Artikel gelesen und seitdem einfach nur normal auf "ein" gestellt. Never change a running system, bei mir funktioniert alles so wie es soll. ^^
Ich teste es gerade alles und Vergleiche 😁👍
Kann man echt gut mit dem erweiterten Nvidia leistungsoverlay während laufendem Spiel machen. Da sieht man auch den GPU Takt und Verbrauch👏

Was ich auch faszinierend finde und war sehr gut funktioniert ist während dem laufenden Spiel einfach bei dem MSI Afterburner mit den Einstellungen zu spielen und direkt zu sehen wie sich das ibgame auswirkt. Einfach ein Traum, dass das bei nvidia so gut funktioniert. Bei AMD musste ich ganz oft das Game erst beenden damit es wirksam wird!

Und noch eine geniale Sparmaßnahme!
Wenn man die FPS bei im Hintergrund laufenden Inhalten reduziert, die man eh nicht sieht!
Wenn ich mal grad im MSI Afterburner was einstelle und das Bild eh nicht sehe, dann läuft das Game im Hintergrund sparsam auf 20 FPS und extrem geringem Verbrauch😁👏👍

God of War 4k alles Ultra + DLSS Quality läuft grade mit Powerlimit auf GRADE MAL 50% und GPU Takt automatisch auf nur 2350Mhz bei NUR ca 220 Watt und ich bekomme immer noch durchschnittlich 120 FPS! Ist doch der Wahnsinn!
 
Zuletzt bearbeitet:
Was ich auch faszinierend finde und war sehr gut funktioniert ist während dem laufenden Spiel einfach bei dem MSI Afterburner mit den Einstellungen zu spielen und direkt zu sehen wie sich das ibgame auswirkt. Einfach ein Traum, dass das bei nvidia so gut funktioniert. Bei AMD musste ich ganz oft das Game erst beenden damit es wirksam wird!
Ich weiß, was Du meinst. Ich hatte bis Ampere ausschließlich mein ganzes Leben ATI/AMD-GPUs im PC (vom ersten PC 2002 bis 2020 hin ^^). Bei Nvidia ist meiner Meinung nach alles viel benutzerfreundlicher und personalisierbarer. Auch gefällt mir das schlichte/oldschoolige Treiberlayout viel besser als diese fancy Adrenalin-Oberfläche. Rot kommt mir daher nie wieder in den Rechner. So zufrieden wie mit Ampere/Lovelace war ich noch nie. Ich musste nur erst den Wechsel wagen, hat viel Überwindung gekostet. :d
 
RDR2 ist eines der besten Spiele, die ich je gespielt habe. Der Detailgrad ist meines Erachtens unerreicht. Werde es definitiv nochmal mit der 4090 anfangen. Ist alles immernoch etwas surreal für mich. Kannst einfach alles in 4k auf diese Karte schmeißen und sie macht es anstandslos.
 
MSAA in rdr2 ist der fps killer schlecht hin. damit zerkloppst du alles :d
 
Ich weiß, was Du meinst. Ich hatte bis Ampere ausschließlich mein ganzes Leben ATI/AMD-GPUs im PC (vom ersten PC 2002 bis 2020 hin ^^). Bei Nvidia ist meiner Meinung nach alles viel benutzerfreundlicher und personalisierbarer. Auch gefällt mir das schlichte/oldschoolige Treiberlayout viel besser als diese fancy Adrenalin-Oberfläche. Rot kommt mir daher nie wieder in den Rechner. So zufrieden wie mit Ampere/Lovelace war ich noch nie. Ich musste nur erst den Wechsel wagen, hat viel Überwindung gekostet. :d
Boa Hammer kann ich bestens nachvollziehen!! Bei mir genau so xD
Hatte bis vor paar Tagen noch die Asus RX 6900 XT LC eingebaut, an sich war ich zufrieden aber gegen die 4090 und die Systemsteuerung bei Nvidia kommen die einfach nicht heran. Alles funktioniert schnell und butterweich, jetzt macht das Herumexperimentieren so richtig Spaß und gern kinderleicht von der Hand 😍
 
Ich finde auch, dass MSAA mit das schwachsinnigste Setting ist, weil es so viel Performance "klaut". Das ist ja des Öfteren noch in Spielen so bis 2018 implementiert. Dann knallt man doch über den Treiber lieber DL-DSR rein, was besser aussieht und hat dann wesentlich mehr Performance. ^^
Beitrag automatisch zusammengeführt:

Boa Hammer kann ich bestens nachvollziehen!! Bei mir genau so xD
Hatte bis vor paar Tagen noch die Asus RX 6900 XT LC eingebaut, an sich war ich zufrieden aber gegen die 4090 und die Systemsteuerung bei Nvidia kommen die einfach nicht heran. Alles funktioniert schnell und butterweich, jetzt macht das Herumexperimentieren so richtig Spaß und gern kinderleicht von der Hand 😍
Jap. Bei mir war es Radeon 9000 Pro --> Radeon X1900XT --> Radeon HD 5870 --> Radeon R9 390 --> RTX 3080 --> RTX 3080 Ti --> RTX 3090 --> RTX 4090 xD

... also Kartengleichstand (4 vs. 4), aber 18 vs 2 Jahre :d
 
Zuletzt bearbeitet:
Den Schalter hab ich bisher nie angerührt. Hab den auf Nvidia-Default.
Der Treiber sorgt schon fürs richtige Vsync in Kombination mit Gsync.
Der Treiber überschreibt auch zum Beispiel den Ultra-Latency Mode mit Nvidia Reflex, wenn es Game es supportet und man es aktiviert.
Beitrag automatisch zusammengeführt:

Witzig ist es aber bei RDR2.
Meine Schwester, mittlerweile nicht mehr halb so alt wie ich, dadurch dass sie 18 ist,

hat nen Freesync Monitor, während ich einen mit Gsync Modul habe.
System ist nahezu identisch (AMD 3900x, 3080 FE, Win 11, Treiber-Settings)!

Bei ihr muss ich ingame Vsync ausschalten und ingame triple buffering aktivieren, ansonsten hat sie nur die halbe Refresh-Rate von 144 = 72.
Hab die cfg von RDR2 gelöscht, DDU und nichts hilft.

Übrigens, ich empfinde RDR2 mit der 4090 als das grafisch beste Game (Ultra + alles auf Anschlag). All die kleinen Details!!
Es hat zwar kein RayTracing, aber dennoch ist fast alles global beleuchtet.
:haha: (y)

Finde auch, dass RDR2 sehr stimmig (nicht zu bunt, nicht too sharp) aussieht. Besonders abends in "Saint Denis" (y)

Habe das "Problem", dass ich HDR nicht zum Laufen bekomme :cry:
Ich muss HDR in WIN einschalten, damit ich die HDR-Option in RDR2 angezeigt bekomme
Aber trotzdem sieht es aus, wie wenn NICHTS eingeschaltet wäre

Normalerweise ist die Onscreen-Anzeige von AB ohne HDR orange
Bei HDR "on" ist sie knallig rot und der Bildschirm deutlich heller

Mit Division 2 hatte ich gestern kurzzeitig auch ein "Problem" mit HDR,
welches ich mit Neuinstallation des Treibers gefixt hab. Aber bei RDR2 tut sich nix :cry:
 
Ich nutze TAA und schärfe ingame nach.
Ich verwende aber auch DX12 und nicht das olle Vulkan.
Okay? Ich muss das mal testen. Ich habe mit der 4090 bis jetzt in den Spielen, in denen DLSS angeboten wird, immer DL-DSR x2,25 und DLSS Quality gemeinsam verwendet (ist ja quasi auch wieder nativ dann). Die DX12-API muss ich in RDR2 auch mal ausprobieren. Ich hatte irgendwie im Hinterkopf, dass Vulkan pauschal "besser" ist. Dass es Einfluss auf die Pop-ups hat, wusste ich nicht. Muss ich mal drauf achten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh