Lohnt es vom 5900x auf einen 5800X3d zu weckseln wenn man nur Spielt

Bin gerade hier reingestolpert. ist schon etwas älter, aber was solls.
graka und cpu sind 2 unterschiedliche paar schuhe.

wenn man eine zu schwache graka hat und damit unterhalb des CPU limits spielt, dann ist es doch logisch dass eine schnellere cpu keinen mehrwert bietet

damit sich der vorteil des 5800x3d zeigt, muss man natürlich eine graka haben die das eben zulässt. wer aber always ultra settings spielt, wird das halt eher selten merken
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kommt eben drauf an, um welches Spiel es sich handelt. Wenn das Spiel mit mehr als acht Kernen skalieren kann, dann hat der 5900X natürlich Vorteile. In den meisten Fällen reichen acht Kerne zum Zocken aus. Und sofern der üppige Cache des 5800X3D greift, dann ist dieser schneller als der 5900X. ;)

Übrigens: Es gibt keine RTX 4800.
Hab das korrigiert, muß natürlich RTX 4080 heißen. Ich schreibe sonst nicht so oft, aber den Hype um den X3D, obwohl er bei höherem Preis über Strecke dem 5900X (wenn man ihn von der sehr kurzen Leine lässt und seine Reserven nutzt, die der X3D ja gar nicht hat) unterlegen ist, kann ich so nicht nachvollziehen. Wenn der X3D gegenüber dem 5900X 40€ billiger statt teurer wäre, würde ich o.g. Aussagen teilweise noch zustimmen. Mein Sohn fuhr mit dem X3D eine niedrigere Auflösung 34" und kam laufend bei CPU-lastigen Spielen ins ruckeln (zur Info, wir nutzen beide massiv ReShade, aber das belastet ja eher die Graka und dürfte CPU-seitig keine gr. Rolle spielen). Von den selben Szenarien läßt sich der 5900X (OC) in 36" nicht beeindrucken. Da wir ansonsten identische Ausstattung haben (ASUS X570-E, 4080, 4x3600'er CL14, Samsung NVME, 4TB 870Evo) läßt sich das einfach nachvollziehen. Dank der Diskussion hab ich mich mal wieder mit dem Thema beschäftigt. Deshalb haben wir bei ihm jetzt auch einen 5900X (entspanntes OC 4.54 GHz Allcore 69°C max.) eingesetzt und siehe da, Probleme beseitigt. Jetzt läuft sogar X4 immer flüssig. Ärgerlich nur, die 5900X hab ich auf Arbeit im Schrank, hätte ich schon eher mal reagieren können.
Ich muß immer schmunzeln wenn Leute, die ne etwas preiswertere Graka im Rechner haben, darüber spekulieren wieviel ihnen der Wechsel vom 5800 auf nen X3D bringen würde.
Real unter aktuell gängigen Auflösungen nämlich nichts.

Meine Aussage ist: wer bei einem Neukauf nicht so viel Geld für eine kpl. neue (teure) Plattform ausgeben will, für den hat auf die Zukunft gesehen der 5900X das größere Potenzial und ist auch mit massiven OC problemloser zu kühlen als ein X3D mit Standard-Settings (geht ja eh kein OC). Der X3D mag in ausgewählten Spielen mal irgendwo 1-2% gut machen können, aber ansonsten ist er die schlechtere Wahl, noch dazu bei höherem Preis. Dazu muß man natürlich in realistischen Auflösungen testen, denn wer spielt heute noch auf nem 24" ohne jegliche andere Last. Ist wie beim Grafikkartentest. In Tests mit 1200'er Auflösung merkt keiner, das 8GB VRAM heutzutage nun doch nicht mehr so prall sind. Vor nicht allzu langer Zeit hieß es ja noch, 8GB VRAM reichen noch ganz lange aus. Entgegen der "Experten"meinungen erlebt die 6950XT von AMD ihren zweiten Frühling während die in damaligen Tests ja soviel schnelleren 30xx Nvidia Karten in realen Auflösungen heutzutage - naja alt aussehen. Bei der 6950XT hieß es, soviel VRAM braucht doch keiner, heutzutage kloppt sie ihre ehemaligen Gegner ab 34" in die Tonne.
Ich glaube das Spieleentwickler (oder Softwareentwickler allgemein) eher auf noch mehr Kernskalierung optimieren und 16 GB RAM als Minimalanforderung ansehen. 8 Kerne dürften da schon sehr bald limitieren. Der Trend dahin ist ja schon jetzt sichtbar.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh