[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.495
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.383
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.673
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.749
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 758
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 725
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 721
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 671
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 689
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 424
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 705
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.844
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 774
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.540
und das Nvidia sagt das man nur nen Garantie anspruch hat wenn man ihren Adapter nutzt
ich frage erneut, vielleicht gibt es dann eine Antwort. Wie will das Nvidia nachweisen? Ist nicht möglich. Oder ich frage was anderes, wo steht das schwarz auf weis das die Garantie verfällt ohne original Adapter ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich frage erneut, vielleicht gibt es dann eine Antwort. Wie will das Nvidia nachweisen? Ist nicht möglich. Oder ich frage was anderes, wo steht das schwarz auf weis das die Garantie verfällt ohne original Adapter ?
Naja bei einem abgefackelten Stecker können Sie das schon nachweisen, in dem sie den Adapter sehen wollen.
 
Naja bei einem abgefackelten Stecker können Sie das schon nachweisen, in dem sie den Adapter sehen wollen.
Diese Logik ist unlogisch. Wenn du einen anderen Adapter benutzt der besser gemacht ist, tritt das Problem gar nicht erst auf. Ergo hast du diesbezüglich keinen Garantiefall. Dann wäre viel wichtiger die Frage zu klären, wieso hier behauptet wird das die Garantie flöten geht wenn ein anderer Adapter benutzt wird.
 
ich frage erneut, vielleicht gibt es dann eine Antwort. Wie will das Nvidia nachweisen? Ist nicht möglich. Oder ich frage was anderes, wo steht das schwarz auf weis das die Garantie verfällt ohne original Adapter ?

ganz einfach ... schmelzspuren vergleich sofern möglich .. man muss ja dann Adapter + Karte zurückschicken soweit ich das mitbekommen hatte.
Das mit der Garantie hatte ich hier die Tage gelesen

Wir können nun aber Tage lang hier hin und her diskutieren dadurch wird das Problem aber auch nich kleiner.... fakt is Nvidia muss reagieren und die Fälle werden von Tag zu Tag mehr
das kann man halt echt nich mehr klein reden so wie ihr es anfangs in diesem Thread versucht habt weshalb ich erst damit angefangen habe hier die Fälle zu Posten
um ein Gleichgewicht / Gegengwicht herzustellen da man auch mal über die Unschönen Dinge reden muss.
 
Zuletzt bearbeitet:
So langsam habe ich die Übersicht verloren, welche Karte sehr lautes Spulenfiepen, welche klackernde Lüfter hat oder wie mein heimlicher Favorite, Kfa, nicht so gut kühlt...
Eigentlich ist das doch pervers, bei der vielen Kohle die Wahl zwischen Pest und Cholera zu haben oder?
 
Warum taktest den 5950x nicht einfach höher statt den 58003d zu kaufen?
Weil bei mir der 5950X zuviel im Desktop-Betrieb verbraucht. Wenn ich Filme gucke oder Surfe soll der Pc nicht mehr als 100W verbrauchen, aber der 5950X ging fast nie unter 80W.
Zudem war er ständig, auch im Desktopbetrieb 80°C. Warum auch immer, boostete er beinahe dauerhaft auf die 5ghz@1,5V. Auch teilweise im idle...
Bevor du noch andere Ratschläge gibst, ich habe alles probiert und alles war nicht zufriedenstellend.
Mit den 4,2Ghz und festen 1,1V hatte ich den Durchschnittsverbrauch UND Temperatur des 5950x HALBIERT!!!! Dafür ging nur 10% ST Leistung flöten...

Ich hatte bisher eine 3090, da waren die 4,2Ghz in 4k kaum zu bemerken. Aber mit einer 4090 muss etwas mehr CPU leistung her und der 5800X3D hat im Gaming etwas mehr Wumms in VIELEN Spielen, nicht nur ein paar. Auch Stock ist der 5950X in vielen Spielen langsamer als der 5800X3D. Zudem wenn ich den 5950X verkaufe, bekomme ich etwas Geld zurück und das nächste CPU Upgrade ist erst in 4-5 Jahren.

Klar reicht der 5800X3D nicht aus um eine 4090 überall ans Limit zu bringen, dafür werde ich aber die 4090 vom PL her drosseln, damit ich auch nicht soviel Abwärme im Zimmer habe.
Geplant ist maximal ~500W für PC UND Monitore.
 
Naja bei einem abgefackelten Stecker können Sie das schon nachweisen, in dem sie den Adapter sehen wollen.
der ist mir abhanden gekommen. Aber nicht schlimm den neuen Adapter bezahle ich dann selber, ersetzen sie mir nur die defekte Karte.
 
So langsam habe ich die Übersicht verloren, welche Karte sehr lautes Spulenfiepen, welche klackernde Lüfter hat oder wie mein heimlicher Favorite, Kfa, nicht so gut kühlt...
Eigentlich ist das doch pervers, bei der vielen Kohle die Wahl zwischen Pest und Cholera zu haben oder?
Hier sind ein paar Zusammenfassungen.
 
Weil bei mir der 5950X zuviel im Desktop-Betrieb verbraucht. Wenn ich Filme gucke oder Surfe soll der Pc nicht mehr als 100W verbrauchen, aber der 5950X ging fast nie unter 80W.
Lässt sich mit wenigen Handgriffen relativ gut einstellen, auch wenn's nicht so elegant geht wie bei Intel.

 
Diese Logik ist unlogisch. Wenn du einen anderen Adapter benutzt der besser gemacht ist, tritt das Problem gar nicht erst auf. Ergo hast du diesbezüglich keinen Garantiefall. Dann wäre viel wichtiger die Frage zu klären, wieso hier behauptet wird das die Garantie flöten geht wenn ein anderer Adapter benutzt wird.
Hast du eine geschmolzene Buchse, dann wird der Adapter bestimmt genauso aussehen wie die Buchse. Ergo wenn Sie nach dem Adapter schauen und der sieht aus wie neu, dann werden sie schon wissen, dass es ein anderes Kabel war.
 
Mal eine Frage:
Bei meiner Phantom liegt ein RGB Kabel bei, aber die RGB’s funktionieren absolut einwandfrei auf der Karte ohne das Kabel.

Wozu ist das Kabel also gut? Leuchten dann plötzlich noch mehr Sachen? (Ernst gemeinte Frage, kann mir den Sinn des Kabels nicht erklären aktuell).
 
So viel besser wie das Spulenfiepen der KFA2 auch ist, der Kühler kommt an die Asus TUF Non-OC bei weitem nicht ran. Die Karte will auf über 70c und die Lüfter drehen sehr gut hörbar auf. Man kann die Lüfterkurve anpassen, aber dann steigen die Temps auf weit über 70. Die TUF-Lüfter waren fast nicht hörbar bei Temps im niedrigen 60er-Bereich. Zero-RPM funktioniert bei mir auch nicht richtig. Die Karte hängt idle gerne bei 30% und gerade bei dieser Lüftergeschwindigkeit höre ich auch einiges an Resonanzgeräuschen.
Kannst du das da mal eintragen? Danke

 
@BJGucky
Naja warten wir mal ab!
bin mir ziemlich sicher, es werden spätestens mit Unreal 5 Engine Spiele erscheinen, die auch die 4090 sehr gut fordern werden und dann wird sich das mit dem CPU Bottleneck wieder relativ ausgleichen vor allem in nativen 4k.
 
Hast du eine geschmolzene Buchse, dann wird der Adapter bestimmt genauso aussehen wie die Buchse. Ergo wenn Sie nach dem Adapter schauen und der sieht aus wie neu, dann werden sie schon wissen, dass es ein anderes Kabel war.
Ich glaube du hast meinen Beitrag nicht verstanden. Wenn du die Buchse hast ist das klar, aber wenn du einfach ein anderes Kabel nimmst und da nichts schmilzt, dann kannst du das auch nicht prüfen ob du das originale Kabel benutzt hast oder nicht. Bei einem Garantiefall. Nur darum ging es doch.
 
Wozu ist das Kabel also gut? Leuchten dann plötzlich noch mehr Sachen? (Ernst gemeinte Frage, kann mir den Sinn des Kabels nicht erklären aktuell).
Damit kannst du die Beleuchtung synchronisieren. Du stellst beispielsweise die Beleuchtung deines Mainboards auf Rot ein, dann übernimmt die Karte ebenfalls die Farbe/ den Effekt. Musst dann nicht extra über die GPU Software was nachträglich einstellen.
 
Doch das ist so!
Wenn ein Hersteller schon bei einem so simplen Adapter versagt, zerstört das das Vertrauen der Anwender in die Qualität der Ware im Übrigen. Dagegen sind Spulen-Fiepen und Lüfter-Rattern Pille-Palle...
verstehe und die ganzen Karten die gedropt werden sind dann Karten die von Bots gekauft werden oder ? Um die zu verscalpen. Denn im Regal liegen bleibt nichts.
 
Ich glaube du hast meinen Beitrag nicht verstanden. Wenn du die Buchse hast ist das klar, aber wenn du einfach ein anderes Kabel nimmst und da nichts schmilzt, dann kannst du das auch nicht prüfen ob du das originale Kabel benutzt hast oder nicht. Bei einem Garantiefall. Nur darum ging es doch.
Achso du meinst, wenn etwas anderes defekt ist. Ja das ist dann was anderes. Sie können aber eh nicht einfach sagen die Garantie geht verloren, dann müssen Sie erstmal beweisen, dass beides in Korrelation zu einander steht.
 
Achso du meinst, wenn etwas anderes defekt ist. Ja das ist dann was anderes. Sie können aber eh nicht einfach sagen die Garantie geht verloren, dann müssen Sie erstmal beweisen, dass beides in Korrelation zu einander steht.
Sie könnten sagen "moment mal, da ist nichts geschmolzen, da war ein anderer Adapter am Werk" :ROFLMAO: :banana:
 
Die haben ja wirklich kein Fettnäpfchen ausgelassen.

Was ein Affentheater /:
Man wird also gezwungen, wenn man die Garantie behalten will, den schadhaften Adapter zu benutzten, kann nicht deren Ernst sein ☹️
 
Man wird also gezwungen, wenn man die Garantie behalten will, den schadhaften Adapter zu benutzten, kann nicht deren Ernst sein ☹️
genau und inzwischen wissen wir auch das die nicht prüfen können ob der originale Adapter genommen wurde. Aber das hast du natürlich überlesen. Was ein Affentheater.
 
Was ein Affentheater /:
Man wird also gezwungen, wenn man die Garantie behalten will, den schadhaften Adapter zu benutzten, kann nicht deren Ernst sein ☹️

Oha Nein... das wäre echt fatal 😆👍
 
Das Problem ist aber, dass der 5950 mindestens in 50% der spiele schneller ist.
Der Test beinhaltet auch etwas das ich nicht habe 400€ RAM z.b. sowie einen stark übertakteten 5950x... 4,7Ghz all Core ist ne Menge, die ich nie hinbekommen hatte. Bei mir war bei 4,5Ghz@1,4V und 230W Schluss.
Und 50% ist der nur in Anwendungen schneller die auch alle Kerne nutzen, aber nicht in Spielen.
Ich habe meinen 5950X beobachtet, wieviele Kerne stehts am Arbeiten sind und mehr als 10 Kerne waren es nie. Und selbst 10 Kerne waren selten. Oft sind es nur 1-4 Kerne für Spiele.

Das einzige was ich nebenbei laufen habe ist halt Afterburner, (gezwungenermaßen) NZXT CAM für mein Fan-Controller, Discord und Firefox mit z.b. einem Youtube Video oder stattdessen einen Film.
Steam, Uplay und den ganzen kram mache ich immer aus, wenn ich es gerade nicht für ein Spiel brauche.
Hardware Unboxed hatte dazu mal versucht Tests zu machen und viel Unterscheid gab es nicht.

Die höchste Auslastung die ich hatte war BF2042...welches aber buggy war. Da waren 8 ganze Kerne am Anschlag und trotzdem hatte ich 10% lows von 5FPS... in allen Einstellungen und Auflösungen...

Ich habe es mir lange überlegt und lange am 5950X rumprobiert. Aber mit dem 5800X3D wäre ich mit Verbrauch/Leistung zufriedener.
Wie gesagt die CPU sollte dabei unter 100W bleiben. Mit einer 4090 auf 300W zusammen sollte es für 120FPS in 4k schon reichen, mehr will ich ja nicht.
 
Der Test beinhaltet auch etwas das ich nicht habe 400€ RAM z.b. sowie einen stark übertakteten 5950x... 4,7Ghz all Core ist ne Menge, die ich nie hinbekommen hatte. Bei mir war bei 4,5Ghz@1,4V und 230W Schluss.
Und 50% ist der nur in Anwendungen schneller die auch alle Kerne nutzen, aber nicht in Spielen.
Ich habe meinen 5950X beobachtet, wieviele Kerne stehts am Arbeiten sind und mehr als 10 Kerne waren es nie. Und selbst 10 Kerne waren selten. Oft sind es nur 1-4 Kerne für Spiele.

Das einzige was ich nebenbei laufen habe ist halt Afterburner, (gezwungenermaßen) NZXT CAM für mein Fan-Controller, Discord und Firefox mit z.b. einem Youtube Video oder stattdessen einen Film.
Steam, Uplay und den ganzen kram mache ich immer aus, wenn ich es gerade nicht für ein Spiel brauche.
Hardware Unboxed hatte dazu mal versucht Tests zu machen und viel Unterscheid gab es nicht.

Die höchste Auslastung die ich hatte war BF2042...welches aber buggy war. Da waren 8 ganze Kerne am Anschlag und trotzdem hatte ich 10% lows von 5FPS... in allen Einstellungen und Auflösungen...

Ich habe es mir lange überlegt und lange am 5950X rumprobiert. Aber mit dem 5800X3D wäre ich mit Verbrauch/Leistung zufriedener.


Bei 349 Euro aktuell bei mindfactory mit dem Spiel uncharted machst du sicher nichts falsch / der 5800x3d ist zwischen 5-15% schneller je nach Spiel und Auflösung und das bei 70-90 Watt
 
Der Test beinhaltet auch etwas das ich nicht habe 400€ RAM z.b. sowie einen stark übertakteten 5950x... 4,7Ghz all Core ist ne Menge, die ich nie hinbekommen hatte. Bei mir war bei 4,5Ghz@1,4V und 230W Schluss.
Und 50% ist der nur in Anwendungen schneller die auch alle Kerne nutzen, aber nicht in Spielen.
Ich habe meinen 5950X beobachtet, wieviele Kerne stehts am Arbeiten sind und mehr als 10 Kerne waren es nie. Und selbst 10 Kerne waren selten. Oft sind es nur 1-4 Kerne für Spiele.

Das einzige was ich nebenbei laufen habe ist halt Afterburner, (gezwungenermaßen) NZXT CAM für mein Fan-Controller, Discord und Firefox mit z.b. einem Youtube Video oder stattdessen einen Film.
Steam, Uplay und den ganzen kram mache ich immer aus, wenn ich es gerade nicht für ein Spiel brauche.
Hardware Unboxed hatte dazu mal versucht Tests zu machen und viel Unterscheid gab es nicht.

Die höchste Auslastung die ich hatte war BF2042...welches aber buggy war. Da waren 8 ganze Kerne am Anschlag und trotzdem hatte ich 10% lows von 5FPS... in allen Einstellungen und Auflösungen...

Ich habe es mir lange überlegt und lange am 5950X rumprobiert. Aber mit dem 5800X3D wäre ich mit Verbrauch/Leistung zufriedener.
Wie gesagt die CPU sollte dabei unter 100W bleiben. Mit einer 4090 auf 300W zusammen sollte es für 120FPS in 4k schon reichen, mehr will ich ja nicht.
Also ich habe mir etliche vergleiche angeguckt.
Ich bleibe beim 5900x oder wechsel auf 5959x. Finde keine benches die den 5800er viel besser darstellen
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh