[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.535
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.417
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.711
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.780
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 786
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 762
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 757
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 706
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 725
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 459
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 745
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.881
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 803
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.576
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Frage mich derzeit welche CPU in Verbindung mit meiner 4090 bei vollem Raytracing in 4k bis 120FPS (117cap) sinnvoller wäre als derzeit ein guter 5800X.
Ich lese immer wieder, dass Raytracing extrem CPU lastig sein soll.
Spiele derzeit The Callisto Protocol und verstehe nicht, warum bei maximalen Raytracing Settings die FPS dermaßen einbrechen zb von 60 FPS auf nur 42 FPS...
Liegt es am schlecht optimierten Spiel oder an der CPU? Ich meine diese Frameeinbrüche kommen auch beim 5800X3D oder 5900X vor... Dann wäre das ja ein rein spielseitiges Problem. Cyberpunk performt alles maxed out eigentlich sehr gut, ich bin zufrieden also müsste das nicht an der CPU liegen.
Wenn sich jemand damit gut auskennt und Spaß daran hat, darf mir da gerne Nachhilfe geben.
Beachtet nur, ich möchte gar nicht über 120 FPS hinaus gehen bei 120Hz LG OLED C1, das reicht mir dicke. Bin auch in den meisten Fällen mit 80-100 FPS in 4k überglücklich mit dem Blick auf den Verbrauch bei Undervolting)) 👍
Ja das Calisto Protokoll lief bei mir mit dem 5800X3D auch so schlecht!
Hat man immer noch zwischen den Abschnitten nachlade Ruckler von dem Shaderkomplier oder wie das Dingenns heißt.
Ich hab deshalb das Spiel zurück gegeben nach 1,5 Stunden und mir gesagt okay schaust noch mal in einem halben oder 1Jahr ob es dann richtig läuft.
So was belohne ich nicht!

Ich denke das Spiel ist einfach Broke für den PC weil auf der PS5 läuft es wohl problemlos und die hat bekanntlich eine nicht so performante CPU .
 
Zuletzt bearbeitet:
@Serandi Woher die Einbrüche genau kommen, kann ich dir nicht sagen. Ich hab aber meinen 5800X gegen eine X3D umgehandelt und damit sehr zufrieden. Ich spiele aber auch viel Anno 1800. Den 3D gibt es um 350€ und den 5800X hab ich für 240€ verkaufen können. War keine große Sache und ich hab meine Ruhe.

Die FPS Steigerungen sind teils enorm, teils nicht vorhanden... https://www.techpowerup.com/review/rtx-4090-53-games-ryzen-7-5800x-vs-ryzen-7-5800x3d/2.html
Jap, aus preislicher Sicht wäre es absolut kein Problem! Frage mich nur ob es überhaupt Sinn macht. Ich hab alleine kein Bock drauf alles aus und wieder zusammen zu bauen, wenn es sich kaum lohnt in meinem Szenario.
 
Jap, aus preislicher Sicht wäre es absolut kein Problem! Frage mich nur ob es überhaupt Sinn macht. Ich hab alleine kein Bock drauf alles aus und wieder zusammen zu bauen, wenn es sich kaum lohnt in meinem Szenario.
Warte lieber auf den X3D für den AM5 .
Wie gesagt Calisto lief auch mit meinem 5800X3D schlecht.
 
Warte lieber auf den X3D für den AM5 .
Wie gesagt Calisto lief auch mit meinem 5800X3D schlecht.
Ja ich warte bis 2025 mit dem AM4 System. Ab da wird dann komplett alles neu gemacht und offen ob AMD oder Intel.
 
Ja ich warte bis 2025 mit dem AM4 System. Ab da wird dann komplett alles neu gemacht.
Ui so lange okay.
Ich lese mich gerade in den AM5 etwas ein .
Da ich jemanden habe der meinen X3D für 325 will bin ich am überlegen jetzt schon nen switch zu machen daa der 7700X ja gerade um die 360 kostet.
Ein Board für 300 Ram für Ca 200 .

Da ich meine Strix abgegeben habe bleiben mir über 600 Euro über wen ich die FE oder ne andere Karte für 1859 Euro nehme.

So wäre ich dann schon mal 7000X3D Ready diese CPU wird's dann schon brauchen um die 4090 richtig zu treten und Später kann man dann immer noch aufrüsten auf dem Sockel.
 
Ui so lange okay.
Ich lese mich gerade in den AM5 etwas ein .
Da ich jemanden habe der meinen X3D für 325 will bin ich am überlegen jetzt schon nen switch zu machen daa der 7700X ja gerade um die 360 kostet.
Ein Board für 300 Ram für Ca 200 .

Da ich meine Strix abgegeben habe bleiben mir über 600 Euro über wen ich die FE oder ne andere Karte für 1859 Euro nehme.

So wäre ich dann schon mal 7000X3D Ready diese CPU wird's dann schon brauchen um die 4090 richtig zu treten und Später kann man dann immer noch aufrüsten auf dem Sockel.
Ja klingt gut, wenn du ein älteres System hast lohnt sich das Upgrade auch sicherlich.
Ich habe mein AM4 System erst Ende 2021 zusmamen gebaut und hier und da upgegradet: von Asus TUF GAMING B550M PLUS auf das Asus Rog Crosshair VIII Dark Hero, vom 5600X auf den 5800X und von der Asus Rog Strix RX 6900 XT LC Top auf die Gigabyte RTX 4090 GAMING OC. Ach ja, von 2 x 3600mhz CL16 auf 4 x 8GB 4000mhz CL15 läuft aber bei mir mit 4 x 8GB 3600mhz CL14. Das Case vom Thermaltake Core V21 auf fad Raijintek Paean Benchtable und das 1300 Watt Seasonic Platinum Netzteil kann ja noch eine halbe Ewigkeit da bleiben 😂👍

Ja deshalb halt auch erst Ende 2024 oder eher 2025, wo die 4090 dann auch ersetzt wird. Hab mir sowieso fest vorgenommen die GPU jede Generation upzugraden 😁😆


Die 4090 richtig zu treten? Wo möchtest du denn mit den FPS hin? Aber ansonsten, ich denke kaum, dass 4090 bei den kommenden UE5 in 4k und Raytracing großartig über 120 FPS kommen wird, zumindest nicht ohne DLSS. Und bei DLSS + Frame generation benötigt man wohl sowieso nicht so viel CPU Power. Es sei denn man will dann über 150 FPS + in 4K.
 
Zuletzt bearbeitet:
@Serandi
Es gibt halt Games da bekomme ich die FPS nicht auf 100 hoch mit dem X3D .
Da währen Spider man da gibt es Bereiche da bricht mir der X3D auf 65 FPS weg mit ca 75-80% GPU Load wen ich jetzt kein Frame Generation verwende.
Klar ist auch über weite Strecken Vollauslastung da aber halt nicht immer.

Oder auch New World da gibt es in den Städten wen richtig Trouble ist starke Einbrüche .
Star Citizen und und und.

Als nächstes steht Starfield an ich denke das wird auch so ein Game .

Gut programmierte Spiele na Klar da hat man FPS im überfluss.

Oder halt wen man nen neuen 13700/13900K mit ordentlich RAM Speed hat da sieht es na klar auch wieder deutlich besser aus bei den Spielen.
 
ich hab mich letztes Jahr von meinen Moras getrennt...
die neuen Karten sind mit UV und guter Curve auch schon extrem leise, das was vor ein paar Jahren unmöglich zu realisieren
dazu nen NH-D15 für die CPU und schon ist es leise genug

Ich habe den ganzen kram in den Keller in Kartons gepackt.
Mora 420 + 4x A20 alles sauber und habe noch 5 Meter EK ZMT und 5 Liter DP Ultra klar .
HK Tube D5 und noch einen HK 4 Pro + Sensoren für Durchfluss und Wassertemp . Der kram wird ja nicht schlecht und man sieht, dass der Kram
heute teurer ist als ich damals bezahlt habe. Werde mir die Option offen halten immer wieder auf Wasser umbauen zu können.
Aktuell bei der TUF ist das nicht nötig und die z73 schafft ganz easy den 10900K @ 5GHZ
 
Mal eine Frage an die founders Edition User der 4090. Bekomme ich mit dem originalen Nvidia 12 PIN Adapter ein Fraktal Define 4 noch geschlossen oder kann man das Gehäuse nicht mehr schließen weil der Adapter bzw das Kabel nicht so stark gebogen werden darf?
wie breit ist die karte denn mit dem adapter ca? kann das jemand messen?

EDIT: welches 12 pin kabel könnt ihr denn empfehlen für ein Bequiet straight power 11 850W?
 
Zuletzt bearbeitet:
Es gibt halt Games da bekomme ich die FPS nicht auf 100 hoch mit dem X3D .
Da währen Spider man da gibt es Bereiche da bricht mir der X3D auf 65 FPS weg mit ca 75-80% GPU Load wen ich jetzt kein Frame Generation verwende.
Klar ist auch über weite Strecken Vollauslastung da aber halt nicht immer.

Oder auch New World da gibt es in den Städten wen richtig Trouble ist starke Einbrüche .
Star Citizen und und und.

Als nächstes steht Starfield an ich denke das wird auch so ein Game .

Gut programmierte Spiele na Klar da hat man FPS im überfluss.

Oder halt wen man nen neuen 13700/13900K mit ordentlich RAM Speed hat da sieht es na klar auch wieder deutlich besser aus bei den Spielen.

Bin aktuell am abwarten wie sich der 7700X3D macht , wenn der kommt.
Wäre vielleicht auch ne option und grundsätzlich würde ich auch mal AM5 probieren.
Beim Board vielleicht Strix E oder Hero und irgendwann nochmals CPU upgraden.
Muss man mal abwarten. Lust hätte ich irgendwie schon . Möchte auch noch ne flotte 4TB M2 für Windows und Games.
Vielleicht ne Fire Cuda 530 oder so. Mal erstmal abwarten ob da AMD was zaubert und durch den 3d Cache vielleicht 6000er EXPO Ram ausreichen.
 
@Serandi
Es gibt halt Games da bekomme ich die FPS nicht auf 100 hoch mit dem X3D .
Da währen Spider man da gibt es Bereiche da bricht mir der X3D auf 65 FPS weg mit ca 75-80% GPU Load wen ich jetzt kein Frame Generation verwende.
Klar ist auch über weite Strecken Vollauslastung da aber halt nicht immer.

Oder auch New World da gibt es in den Städten wen richtig Trouble ist starke Einbrüche .
Star Citizen und und und.

Als nächstes steht Starfield an ich denke das wird auch so ein Game .

Gut programmierte Spiele na Klar da hat man FPS im überfluss.

Oder halt wen man nen neuen 13700/13900K mit ordentlich RAM Speed hat da sieht es na klar auch wieder deutlich besser aus bei den Spielen.
Ok verstehe! Das ist natürlich schon mies, wenn es solche starken Schwankungen sind. Wobei es für mich erträglich wäre, wenn es nur ein paar Games sind, die ich lediglich mit 60 FPS spielen würde mit alles maxed out.
Auf Dauer wäre das natürlich nicht wirklich toll, eine GPU zu besitzen, die mehr als das Doppelte aus den Spielen holen kann, durch die CPU dermaßen ausgebremst wird, dass man auch locker noch länger mit einer 3080 hätte auskommen können. Ich verstehe schon :)
 
Es gibt halt Games da bekomme ich die FPS nicht auf 100 hoch mit dem X3D .
Da währen Spider man da gibt es Bereiche da bricht mir der X3D auf 65 FPS weg mit ca 75-80% GPU Load wen ich jetzt kein Frame Generation verwende.
Same here... deswegen bin ich von 5900X zum 5800X3D gewechselt...mit dem 5900X war das noch viel schlimmer. Da hatte ich in Far Cry 6 nur um die 78-80% GPU load, jetzt sind es 90-94. In Borderlands 3 hatte ich ein ähnliches Bild, da waren es um die 85-90% GPU load, jetzt sind es nahezu immer 100%.

Die 4090 ist schon echt ein Biest und bei high fps ist man schnell im CPU Limit... das hatte ich schon Jahre nicht mehr, dass ich im CPU Limit hänge ^^

Aber alles in allem ist der 5800X3D schon mit das beste was man machen kann, wenn man nicht alles wechseln will...und irgendwie käme für mich auch nur ein 13900K in Frage (derzeit) aber das ist mir plus ram und board einfach viel zu teuer, dafür das ich in einigen wenigen Spielen im CPU Limit hänge.
 
Same here... deswegen bin ich von 5900X zum 5800X3D gewechselt...mit dem 5900X war das noch viel schlimmer. Da hatte ich in Far Cry 6 nur um die 78-80% GPU load, jetzt sind es 90-94. In Borderlands 3 hatte ich ein ähnliches Bild, da waren es um die 85-90% GPU load, jetzt sind es nahezu immer 100%.

Die 4090 ist schon echt ein Biest und bei high fps ist man schnell im CPU Limit... das hatte ich schon Jahre nicht mehr, dass ich im CPU Limit hänge ^^

Aber alles in allem ist der 5800X3D schon mit das beste was man machen kann, wenn man nicht alles wechseln will...und irgendwie käme für mich auch nur ein 13900K in Frage (derzeit) aber das ist mir plus ram und board einfach viel zu teuer, dafür das ich in einigen wenigen Spielen im CPU Limit hänge.

Ich hätte ja lieber nen vernünftigen Monitor für die 4090 geholt..
 
Same here... deswegen bin ich von 5900X zum 5800X3D gewechselt...mit dem 5900X war das noch viel schlimmer. Da hatte ich in Far Cry 6 nur um die 78-80% GPU load, jetzt sind es 90-94. In Borderlands 3 hatte ich ein ähnliches Bild, da waren es um die 85-90% GPU load, jetzt sind es nahezu immer 100%.

Die 4090 ist schon echt ein Biest und bei high fps ist man schnell im CPU Limit... das hatte ich schon Jahre nicht mehr, dass ich im CPU Limit hänge ^^

Aber alles in allem ist der 5800X3D schon mit das beste was man machen kann, wenn man nicht alles wechseln will...und irgendwie käme für mich auch nur ein 13900K in Frage (derzeit) aber das ist mir plus ram und board einfach viel zu teuer, dafür das ich in einigen wenigen Spielen im CPU Limit hänge.
Jo das kommt halt wirklich auf die Titel an.

Jup der X3D ist eine Super CPU würde dennoch mehr haben wollen für die Spiele die halt nicht so Top laufen um das Potenzial so gut wie immer nutzen zu können mit der 4090
 
Ich hätte ja lieber nen vernünftigen Monitor für die 4090 geholt..

Oder beides bzw alles! Q4 2022 war teuer. 13700K, RTX4090 und einen 4K 240Hz Monitor. Dazu noch so Kleinigkeiten wie neue Maus, neue IEMs etc.

Alles in allem aber ein brutaler Step diese Generation. Gerade feiere ich Witcher 3 mit dem next Gen Patch auf dem 4K 32“ Monitor. Das HDR mit dem Raytracing ist brutal lecker anzusehen. Und obwohl ich mit meinem 5.5Ghz 13700K mit bis ins letzte Eck optimiertem DDR4 4266C16 eigtl gut aufgestellt bin und die 4090 nur mit DLSS und FG überhaupt spielbare FPS erzeugt, habe ich in geößeren Städten fast ein CPU Limit mit kurz mal 93% GPU Load.

Macht aber auch einfach brutalen Spaß in 4K so flüssig zu spielen. 4090 war teuer, der Monitor auch, aber das Ergebnis ist ebenfalls extrem.

Mit so einer alten AMD Kamelle würd ich die 4090 nicht betreiben wollen. Ist doch fast schon schade um die Karte.
 
Oder beides bzw alles! Q4 2022 war teuer. 13700K, RTX4090 und einen 4K 240Hz Monitor. Dazu noch so Kleinigkeiten wie neue Maus, neue IEMs etc.

Alles in allem aber ein brutaler Step diese Generation. Gerade feiere ich Witcher 3 mit dem next Gen Patch auf dem 4K 32“ Monitor. Das HDR mit dem Raytracing ist brutal lecker anzusehen. Und obwohl ich mit meinem 5.5Ghz 13700K mit bis ins letzte Eck optimiertem DDR4 4266C16 eigtl gut aufgestellt bin und die 4090 nur mit DLSS und FG überhaupt spielbare FPS erzeugt, habe ich in geößeren Städten fast ein CPU Limit mit kurz mal 93% GPU Load.

Macht aber auch einfach brutalen Spaß in 4K so flüssig zu spielen. 4090 war teuer, der Monitor auch, aber das Ergebnis ist ebenfalls extrem.
Endlich mal einer der bei W3 auch keine Probleme hat. Kann diesen Beitrag nur unterstreichen. Hab zwar nur einen 12700K, aber mit der 4090 macht das Game wirklich Spaß und RT ist sehr gut umgesetzt. Genau so stelle ich es mir nämlich vor. Nicht hübscher, sondern es lässt die Welt einfach krass realistisch aussehen und dafür ist es auch da.

Wär cool wenn RDR2 einen RT Patch bekäme. :)
 
Ich kann auch nicht ganz verstehen was im Wircher Thread für Probleme diskutiert werden. Ich habe alles maxed out, muss nichts deaktivieren um Problemfrei zu spielen. Das Game ist mit dem RTX Patch genau das richtige Futter für so eine starke Karte und einen guten HDR Screen.
 
Mit so einer alten AMD Kamelle würd ich die 4090 nicht betreiben wollen. Ist doch fast schon schade um die Karte.

Seh ich grundsätzlich auch so. Nur gut, dass du in keinem AMD Thread bist. Das gäbe jetzt die 2. Kreuzigung :fresse2:
 
Wenn man sich mal die CPU AVG FPS des CB Tests der Raptoren anguckt, sieht man sehr deutlich, dass sowas wie ein 5900X nur 70% der AVG FOS erreicht. Selbst so Teile wie ein 12700K ist schon einiges behind.

D780B770-DC3F-4C31-AC16-82D307E46E64.png


Wenn ich dann sehe, dass ich mit meinem hochgezüchteten CPU/RAM Setting in 4K! Teilweise ein CPU Limit mit der 4090 sehe, muss ich mich fragen, was Leute mit 1440p und einem 5900X erst erfahren.
 
@webmi
Hast du bei Witcher nicht diese nachlade Ruckler.
Über all wo ich lese haben die Leute Probleme da mit .
Zumindest die ersten Tage nach Release .
Konten die das schon patchen?
Weil PCGH könnte man das auch in den Vids sehen mit dem Shader ruckeln

Aber so bin ich voll bei dir die 4090.brauch ne richtig richtig starke CPU .
Auch Games wie Anno MS der Simulator und solche Spiele halt da kann man nicht genug CPU Power haben.
Gruß
 
Ich kann gerne ein Video machen, sowas wie Ruckler kennt mein System nicht ;)

Also nein, nachlade Ruckler habe ich keine. Maxed out, 4K, FG und je nach Laune mal mit DLSS und mal ohne.

Spiele es aber erst seit 2-3 Tagen intensiv. Glaub da kamen ein paar Patches die ersten Tage.

Die Grafik wenn man da irgendwo im Wald steht, wie das Licht durch die Baumkronen scheint, diese Atmosphäre, das ist einfach sensationell anzusehen.

Aber wie gesagt, das ist ein extrem optimiertes Setting hier, 5.5GHz 13700K, 4.4Ghz eCores, 4.8Ghz Cache und eben 4266C16 DDR4 mit abnormal straffen Timings. Da darf gar nichts ruckeln! Weis nicht mit was PCGH getestet hat, glaube nicht mit einem derartig optimierten CPU Zugpferd.
 
Zuletzt bearbeitet:
Hab mir vorgestern A Plague Tale: Requiem gekauft. Da denkt sich meine CPU auch nur: "Fck that shit, im out!". Brutales CPU Limit selbst in 4K.
 
Ich kann gerne ein Video machen, sowas wie Ruckler kennt mein System nicht ;)

Also nein, nachlade Ruckler habe ich keine. Maxed out, 4K, FG und je nach Laune mal mit DLSS und mal ohne.

Spiele es aber erst seit 2-3 Tagen intensiv. Glaub da kamen ein paar Patches die ersten Tage.

Die Grafik wenn man da irgendwo im Wald steht, wie das Licht durch die Baumkronen scheint, diese Atmosphäre, das ist einfach sensationell anzusehen.
Ah okay !
Ich hatte es zu Release ausprobiert und da war das ruckeln present wen man neue Bereiche betreten hat oder manchmal bei Videos
Wie auch bei PCGH und vielen anderen Usern.

Anscheinend haben die es dann ja gefixt .

Mal kucken ob ich an meine FE rankomme die Tage dann werde ich es noch Mal ausprobieren.
 
Unbedingt ausprobieren. Und unbedingt auf einem guten HDR Screen, OLED am besten. Farben auf SRGB, also natürliche Farben. Das sieht sowas von düster realistisch aus in manchen Szenen.
 
Wenn man sich mal die CPU AVG FPS des CB Tests der Raptoren anguckt, sieht man sehr deutlich, dass sowas wie ein 5900X nur 70% der AVG FOS erreicht. Selbst so Teile wie ein 12700K ist schon einiges behind.

Anhang anzeigen 833460

Wenn ich dann sehe, dass ich mit meinem hochgezüchteten CPU/RAM Setting in 4K! Teilweise ein CPU Limit mit der 4090 sehe, muss ich mich fragen, was Leute mit 1440p und einem 5900X erst erfahren.
Welche Auflösung soll das sein? 1080p?
 
Oder beides bzw alles! Q4 2022 war teuer. 13700K, RTX4090 und einen 4K 240Hz Monitor. Dazu noch so Kleinigkeiten wie neue Maus, neue IEMs etc.

Alles in allem aber ein brutaler Step diese Generation. Gerade feiere ich Witcher 3 mit dem next Gen Patch auf dem 4K 32“ Monitor. Das HDR mit dem Raytracing ist brutal lecker anzusehen. Und obwohl ich mit meinem 5.5Ghz 13700K mit bis ins letzte Eck optimiertem DDR4 4266C16 eigtl gut aufgestellt bin und die 4090 nur mit DLSS und FG überhaupt spielbare FPS erzeugt, habe ich in geößeren Städten fast ein CPU Limit mit kurz mal 93% GPU Load.

Macht aber auch einfach brutalen Spaß in 4K so flüssig zu spielen. 4090 war teuer, der Monitor auch, aber das Ergebnis ist ebenfalls extrem.

Mit so einer alten AMD Kamelle würd ich die 4090 nicht betreiben wollen. Ist doch fast schon schade um die Karte.
Die amd Kamelle 5800x3d kosten als Upgrade nur ca die Hälfte wie die teure Intel CPU auf toter Plattform und ist fast gleich schnell :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh