Ryzen 7 5800X3D: Der erste Gaming-Benchmark ist vielversprechend

Das Spiel hat mal garkeine Anforderungen^^

Minimale Systemanforderungen:
  • CPU: Intel® Core™ 2 Duo E6600 or AMD Phenom™ X3 8750.
  • RAM: 2 GB RAM (4 GB for integrated graphics such as Intel HD Graphics Series)
  • GPU: NVIDIA® GeForce® 8800 GT 512 MB, AMD Radeon™ HD 4850 512 MB, or Intel® HD Graphics 4000.
  • OS: Windows® 7 64-bit (with latest Service Packs)
  • STO: ...
  • RES: ...
  • NET:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dennoch ist eine Verdopplung der FPS in seinem Einsatzgebiet doch schön für ihn.
 
Das Spiel hat mal garkeine Anforderungen^^

Minimale Systemanforderungen:
  • CPU: Intel® Core™ 2 Duo E6600 or AMD Phenom™ X3 8750.
  • RAM: 2 GB RAM (4 GB for integrated graphics such as Intel HD Graphics Series)
  • GPU: NVIDIA® GeForce® 8800 GT 512 MB, AMD Radeon™ HD 4850 512 MB, or Intel® HD Graphics 4000.
Das stimmt aber nicht^^
Das spiel ist so schlecht programmiert, das man im Raid durchgehend Lags hat. Da werden meistens nur 1-2 Kerne voll ausgelastet und der rest ist bei 5%^^
Damals 2008 lief es flüssig mit den alten CPUs, aber jetzt ist es gerade unspielbar. Der 5800X3D hat jedenfalls die ganzen Lags beseitigt und die FPS verdoppelt mit meiner 6700XT.
 
Naja das war zu der Zeit stand der Dinge, andere Spiele wie damals DAoC mit mehreren Hundert bis tausend Leuten in Raids hatten Mindestanforderungen und empfohlene Hardware, da waren dann Massenevents mit allen drei Reichen des Servers auch Diashow, das ging damals technisch nicht anders.

Das ging ja zu Ende als WOW grösser wurde.

Sind mehrere Faktoren, Netzwerk/ Server, Hardware/ PC, Netcode/ Software.

Blizzard hat schlicht keine Lust Geld in ein Spiel zu pumpen, welches auch so läuft, vor allem bei rückläufigen Spielerzahlen.
WOW ist technisch tot, auch wenn noch mit eines der meist gespielten Spiele.
 
zwei Fragen: lohnt es sich, von einem 5900x (der unterdurchschnittliche Ergebnisse erreicht) auf einen 5800x3d zu wechseln?
zweite Frage: ergibt ein Upgade auf einen i7 13700k (dann mit DDR5) Sinn, Einsatzgebiet ist 1440p und 4K mit einer 4090.
danke für eure Antworten.
 
Die Frage ob es sich lohnt kann von uns keiner beantworten weil wir nicht wissen wie sich das für dich definiert.

Welches Ziel hast du? Also was sind deine Wunsch-FPS?

Es gibt doch unzählige Tests wo du sehen kannst wie die CPUs zueinander liegen, was benötigst du noch mehr?
 
Was ich vom Wechsel 3600X auf den 5800X3D getestet habe:

* Euro Truck/American Truck Simulator + ProMods + WeatherMods @ 1440p * 300%:

In Städten, gerade auch mit Regen und am frühen Abend mit vielen Lichteffekten gingen die min. FPS auf 50 runter, mit dem 5800X3D = konstant 75fps (75Hz Monitor)

* 7 Days to Die:

* Große Städte, am besten vor einem Skycraper stellen = Worst Case

Mit dem 3600X teils auf 30fps gedroppt, unspielbar. Hakelig ohne Ende.
Mit dem 5800X3D ca. 90% der Zeit glatte 75fps, droppt hier und da auch mal auf 60fps runter.
Liegt aber 100% teils auch am Spiel, was in der Alpha mit Sicherheit nicht wirklich gut optimiert ist.

Gerade bei 7 days to Die fühlt sich alles flüssiger an, ein ganz anderes Spielgefühl und beim ETS2/ATS sind es auch mal fluffige 50% mehr FPS.
Wer weiß wieviel mehr es tatsächlich sind, wenn ich die FPS uncappen würde aber das interessiert mich auch weniger.
Von der RTX 2070 zur 6800XT war ein Riesenunterschied für sich aber erst mit dem 5800X3D kann die Karte nun auch die gesamte Leistung auf die Straße bringen.
 
Habe mit Kombostrike 3 15237 im Multi, Stock war bei 14478. In beiden Durchläufen max 77 Grad mit Mugen 5 Kühler, der Verbrauch war auch etwa gleich.
Bei CPU lastigen Games sind die Temperaturen auf max 65 Grad gesunken.

Lässt sich da mit PBO Tuner noch mehr rausholen?


Nachdem ich das Energieprofil "Balanced" resettet habe, taktet die CPU nicht mehr runter und bleibt bei 3600MHz. Vorher wurde auf 1700MHz runter getaktet.
Aber denke mal das macht kein unterschied oder? Temperatur ist auch mit 3600MHz bei 26 Grad im Idle und der Verbrauch bei 22w PPT.
 
Zuletzt bearbeitet:
ALso ich zocke nicht nur sondern betreibe Videoumwandeln.Verwende allerdings 2 x die selbe Videumwandlung.Dachte das ich da wenigstens mit dem x3d Profitieren würde.Aber selbst bei 2 Anwendung gleichzeitig profitiere ich von dem extra Cache nicht mal was.So groß ist ja der Unterschied zwischen Windows 10 und Windows 11 ja nicht oder etwa doch?
 
Habe mit Kombostrike 3 15237 im Multi, Stock war bei 14478. In beiden Durchläufen max 77 Grad und der Verbrauch war auch gleich.
Bei CPU lastigen Games sind die Temperaturen auf max 65 Grad gesunken.

Lässt sich da mit PBO Tuner noch mehr rausholen?


Nachdem ich das Energieprofil "Balanced" resettet habe, taktet die CPU nicht mehr runter und bleibt bei 3600MHz. Vorher wurde auf 1700MHz runter getaktet.
Aber denke mal das macht kein unterschied oder? Temperatur ist auch mit 3600MHz bei 26 Grad im Idle und der Verbrauch bei 22w PPT.
Ehrlich, 65°C in Gaming .. was willst du noch! Absolut top wenn du mich fragst, und ich habe ähnliche Resultate mit meinem 5800x3d. Einfach eine geile CPU, unfassbar gut!
 
Habe mit Kombostrike 3 15237 im Multi, Stock war bei 14478. In beiden Durchläufen max 77 Grad und der Verbrauch war auch gleich.
Bei CPU lastigen Games sind die Temperaturen auf max 65 Grad gesunken.

Lässt sich da mit PBO Tuner noch mehr rausholen?


Nachdem ich das Energieprofil "Balanced" resettet habe, taktet die CPU nicht mehr runter und bleibt bei 3600MHz. Vorher wurde auf 1700MHz runter getaktet.
Aber denke mal das macht kein unterschied oder? Temperatur ist auch mit 3600MHz bei 26 Grad im Idle und der Verbrauch bei 22w PPT.

Von welcher Energiesparoption hast du gewechselt? Ich habe ein BIOS Update gemacht und habe seitdem das Phänomen. Allerdings liegt das eher an hwinfo u.a.. Wenn ich den effektiven Takt anschaue wird alles anders angezeigt, meiner Meinung nach "richtiger"
 
Von welcher Energiesparoption hast du gewechselt? Ich habe ein BIOS Update gemacht und habe seitdem das Phänomen. Allerdings liegt das eher an hwinfo u.a.. Wenn ich den effektiven Takt anschaue wird alles anders angezeigt, meiner Meinung nach "richtiger"
Wegen dem 3700x war der Ryzen Plan noch ausgewählt, habe dann "Balanced" genommen und da wurde dann auf 1700MHz runter getaktet.
Bei Hwinfo unter Effektiver takt geht es auf 0MHz runter, denke mal das passt schon so.
 
Habe mit Kombostrike 3 15237 im Multi, Stock war bei 14478. In beiden Durchläufen max 77 Grad und der Verbrauch war auch gleich.
Bei CPU lastigen Games sind die Temperaturen auf max 65 Grad gesunken.

Lässt sich da mit PBO Tuner noch mehr rausholen?


Nachdem ich das Energieprofil "Balanced" resettet habe, taktet die CPU nicht mehr runter und bleibt bei 3600MHz. Vorher wurde auf 1700MHz runter getaktet.
Aber denke mal das macht kein unterschied oder? Temperatur ist auch mit 3600MHz bei 26 Grad im Idle und der Verbrauch bei 22w PPT.
Nein. Kombo 3 ist -30 im PBO2Tuner
 
Wegen dem 3700x war der Ryzen Plan noch ausgewählt, habe dann "Balanced" genommen und da wurde dann auf 1700MHz runter getaktet.
Bei Hwinfo unter Effektiver takt geht es auf 0MHz runter, denke mal das passt schon so.
Hauptsache er taktet auch auf seine 4.450 hoch
 
ALso ich zocke nicht nur sondern betreibe Videoumwandeln.Verwende allerdings 2 x die selbe Videumwandlung.Dachte das ich da wenigstens mit dem x3d Profitieren würde.Aber selbst bei 2 Anwendung gleichzeitig profitiere ich von dem extra Cache nicht mal was.So groß ist ja der Unterschied zwischen Windows 10 und Windows 11 ja nicht oder etwa doch?
Sowas profitert fast nur von mehr Kernen.
 
ja habe ich irgendwie selbst gemerkt.Dachte weil ja mehr drauf zu greift das es dann mehr Cache brauchen würde.Habe mich da voll geirrt gehabt.Das gute ist ja wenn die x3d raus kommen wird,die momentanen CÜUS dann günstiger sein werden.
 
ich beziehe mich mal auf dieses video hier, indem ein bios update den 5800x3d auf einem asus mainboard, den 5800x3d in ungeahnte höhen treiben soll.
ist das reproduzierbar? kann das mal jemand testen bitte?
 

Anhänge

  • 5800X3D Asus Bios Update Boost.jpg
    5800X3D Asus Bios Update Boost.jpg
    136,4 KB · Aufrufe: 152
Hauptsache er taktet auch auf seine 4.450 hoch
im multi. Bei Singlecore 4550Mhz. Bei Hwinfo den Haken bei Snapshot CPU Abfrage setzen. Dann den Boosttester laufen lassen und gucken, dass die Kerne nahe an die 4550 rankommen
 
Habe genau denselben Tausch vorgenommen.

Geile Sache 😍😍
 
ich beziehe mich mal auf dieses video hier, indem ein bios update den 5800x3d auf einem asus mainboard, den 5800x3d in ungeahnte höhen treiben soll.
ist das reproduzierbar? kann das mal jemand testen bitte?
Shadow of the Tomb Raider_2022.11.22-22.46_1.png

Expesive Setup ^^
6800XT H2O OC, 5800X3D 4462MHz CO-30AC, RAM 4020MT/s.
 
asus mainboard, den 5800x3d in ungeahnte höhen treiben soll.
ist das reproduzierbar?
dafür braucht man kein ASUS Mainboard. Da erzählt der Quatsch. Er kommt auf 348 FPS in seinem Bench. Ich würde mir ein MSI Brett holen, das schafft noch mehr ;)

X3DSOTTR.PNG
 
Zuletzt bearbeitet:
Na also geht auch mit nem Gigabyte.
 
Hatte bei dem Mindstar Angebot zugeschlagen, aber ich glaube ich habe eine Kartoffel erwischt. Oder einen dummen Fehler gemacht :-)

Cinebench: Mit BIOS Defaults + XMP schafft er 4,2 Ghz AllCore, 90 Grad. Mit Combo Strike 3 4,4 Ghz AllCore, 80 Grad.

Soweit ok. Aber im Cyberpunk Benchmark hab ich jetzt 4 FPS weniger und in CS:GO 35 FPS weniger. Hab jetzt keine Wunder erwartet, weil ich vom 5800x komme. Dachte der 5800x3d wäre besser geeignet ne RTX 4000 zu befeuern. Dennoch hab ich nicht mehr schlechterer Gaming Performance gerechnet...

Mir dünkt ich habe einen Fehler gemacht o_O
Wollte hier ganz kurz nochmal Rückmeldung geben, falls jemand über meinen Post 5800x vs 5800x3d stolpert.

Nach dem BIOS Update war das rBAR aus, das hatte ich übersehen. D.h ich habe cp2077 getestet mit 5800x mit rBAR und 5800x3d ohne rBAR.

Daher vermutlich (!) die etwas geringere Performance. Ich kann es nicht mehr nachstellen, weil ich die GPU gewechselt habe mittlerweile. Gehe aber davon aus, dass mit rBAR ein Performance + vorhanden gewesen wäre.
 
Zuletzt bearbeitet:
Ja das rbar ist nur bei games gut und bei arbeits programmen wirkungslos. Also wer mehr ein Anwender ist, dem kann das ja herzlich egal sein nicht wahr?
 
Anhang anzeigen 820055
Expesive Setup ^^
6800XT H2O OC, 5800X3D 4462MHz CO-30AC, RAM 4020MT/s.
mich wunderts halt nur, das die fps durch das bios update von durchschnittlich 278 auf 348 ansteigen und damit 28 fps über der leistung eines 13900k steht. zumindest in diesem spiel.
ich steh halt grade vor der frage, tausche ich im momentanen rechner den 5700g gegen einen 5800x3d aus, oder baue ich ein komplettes neues system mit einem der kommenden 7XXXx3D cpus. :unsure:
 
mich wunderts halt nur, das die fps durch das bios update von durchschnittlich 278 auf 348 ansteigen und damit 28 fps über der leistung eines 13900k steht. zumindest in diesem spiel.
ich steh halt grade vor der frage, tausche ich im momentanen rechner den 5700g gegen einen 5800x3d aus, oder baue ich ein komplettes neues system mit einem der kommenden 7XXXx3D cpus. :unsure:
Die Frage ist doch, was du dir davon/daraus versprichst?
Der 5800X3D ist klar mit Abstand die günstigste Update Option. Wie viel/wie gut der 7000er X3D profitiert ist ja auch noch gar nicht klar.

Beim 5800er ist es halt so, dass das System bei Messungen mit LowRes und High FPS stark vom Vorteil des Caches profitiert. Der 13900k hingegen profitiert nicht so sehr vom Latenzvorteil ggü. Alder Lake, sondern von der Leistung der Threads. FPS Messungen sind halt eigentlich ungüstig. Denn in jedem Frame steckt der Cache Vorteil des 5800X3D drin. Der Latenzvorteil ist absolut pro Frame und nicht wie die Leistung der Cores relativ zur Zeit. Er profitiert also von höheren FPS mehr als andere CPUs, die ihren Durchsatz durch pro Thread Performance erreichen. Letzteres ist nachhaltiger für die Zukunft. (denn die Anforderungen werden steigen) Ersteres ist effektiver und einfacher umzusetzen, wenn man HighFPS Gaming im Fokus hat. Normal müsste man, wenn man es fair vergleichen will, nicht nur FPS (also Durchsatz) vergleichen, sondern auch die Zeit je Frame. Letzteres lässt sich nur nicht wirklich gut ermitteln, wenn die Games/Engines das nicht ausgeben. Bei sinkenden FPS wird der Punkt irgendwann kommen, dass der Cache Anteil weniger wird und die Leistung pro Kern in den Fokus rutscht. Bei steigenden FPS hingegen zählt der Durchsatz mehr. Jedes bisschen an Latenz was man spart, hilft bei der FPS Messung (da es dort um Anzahl Frames pro Sekunde geht).


Und am Ende steht auch noch die Frage, wie man real dann wirklich zockt. Weil Wissen in der Theorie bringt mir auch nix... Laut Systeminfo kommst du aktuell mit einem Iiyama G-Master G2230HS - FHD@75Hz. Ich hab mir die Tage bspw. nen UHD@144Hz mit Sync an die Wand gehangen. Um bei UHD deutlich über 100 FPS im Schnitt zu bekommen ist aktuell bspw. viel eher die GPU ein Problem. Ob da ein Prozessor im Bereich 300 FPS 20 oder 30% mehr oder weniger kann, ist mir dabei total latte. Gerade wenn Durchsatz in Form von FPS durch den Cache kommt, ist das bei weit niedrigeren FPS in der Realität meist deutlich weniger Vorteil und die GPU muss halt auch noch mitspielen. Tut sie das nicht, verpufft der ganze theoretische Vorteil hier und heute im GPU Limit. Und morgen oder übermorgen gibts andere CPUs, die das wahrscheinlich noch viel besser können.
 
Die Frage ist doch, was du dir davon/daraus versprichst?
Der 5800X3D ist klar mit Abstand die günstigste Update Option. Wie viel/wie gut der 7000er X3D profitiert ist ja auch noch gar nicht klar.

Beim 5800er ist es halt so, dass das System bei Messungen mit LowRes und High FPS stark vom Vorteil des Caches profitiert. Der 13900k hingegen profitiert nicht so sehr vom Latenzvorteil ggü. Alder Lake, sondern von der Leistung der Threads. FPS Messungen sind halt eigentlich ungüstig. Denn in jedem Frame steckt der Cache Vorteil des 5800X3D drin. Der Latenzvorteil ist absolut pro Frame und nicht wie die Leistung der Cores relativ zur Zeit. Er profitiert also von höheren FPS mehr als andere CPUs, die ihren Durchsatz durch pro Thread Performance erreichen. Letzteres ist nachhaltiger für die Zukunft. (denn die Anforderungen werden steigen) Ersteres ist effektiver und einfacher umzusetzen, wenn man HighFPS Gaming im Fokus hat. Normal müsste man, wenn man es fair vergleichen will, nicht nur FPS (also Durchsatz) vergleichen, sondern auch die Zeit je Frame. Letzteres lässt sich nur nicht wirklich gut ermitteln, wenn die Games/Engines das nicht ausgeben. Bei sinkenden FPS wird der Punkt irgendwann kommen, dass der Cache Anteil weniger wird und die Leistung pro Kern in den Fokus rutscht. Bei steigenden FPS hingegen zählt der Durchsatz mehr. Jedes bisschen an Latenz was man spart, hilft bei der FPS Messung (da es dort um Anzahl Frames pro Sekunde geht).


Und am Ende steht auch noch die Frage, wie man real dann wirklich zockt. Weil Wissen in der Theorie bringt mir auch nix... Laut Systeminfo kommst du aktuell mit einem Iiyama G-Master G2230HS - FHD@75Hz. Ich hab mir die Tage bspw. nen UHD@144Hz mit Sync an die Wand gehangen. Um bei UHD deutlich über 100 FPS im Schnitt zu bekommen ist aktuell bspw. viel eher die GPU ein Problem. Ob da ein Prozessor im Bereich 300 FPS 20 oder 30% mehr oder weniger kann, ist mir dabei total latte. Gerade wenn Durchsatz in Form von FPS durch den Cache kommt, ist das bei weit niedrigeren FPS in der Realität meist deutlich weniger Vorteil und die GPU muss halt auch noch mitspielen. Tut sie das nicht, verpufft der ganze theoretische Vorteil hier und heute im GPU Limit. Und morgen oder übermorgen gibts andere CPUs, die das wahrscheinlich noch viel besser können.
danke für die erklärung.

ist auch nur mein "stromspar rechner". der liyama monitor verbraucht nur knapp 13w.
den spielerechner hatte ich verkauft, und habe auch noch andere monitore hier.
ich gehe auch davon aus, das der 7700x3d ähnlich vom 3d cache profitiert wie der 5800x3d gegenüber einem 5800x. (man munkelt 20%)
nur mir juckts irgendwie in den fingern, und der mehrverbrauch an energie ist beim 5800x3d bei undervolting nicht allzugroß verglichen mit dem 5700g.

edit:
an sich habe ich vor den "stromspar rechner" an einem 4k 120hz fernseher zu betreiben um konsolenspiele darauf zu emulieren, oder nicht allzu anspruchvolle spiele darauf zu spielen.
als neuen spielerechner möchte ich ein itx system bauen in einem fractal design ridge. aber auch möglichst effizient. der 5800x3d könnte sich anbieten, aber ich will abwarten wie die zen4 x3ds abschneiden.
und geduld ist nicht meine stärke. :fresse:
 
Zuletzt bearbeitet:
Wo ebenso der extra cache keinen Vorteil haben wird und auch die latenz davon nicht profitiert auf der CPU Seite, Indem man selbst die fps drosselt. Also sprich auf einen gewissen Wert. 60 Hz =60 fps, 120 Hz = 120fps und 144 Hz mit 144 fps. Da spielt dann wohl die CPU nicht mehr so ne Rolle. Weil auch die gpu wird bei der Sache weniger belastet. Bin echt gespannt wie es da weiter gehen wird.
 
Wo ebenso der extra cache keinen Vorteil haben wird und auch die latenz davon nicht profitiert auf der CPU Seite, Indem man selbst die fps drosselt. Also sprich auf einen gewissen Wert. 60 Hz =60 fps, 120 Hz = 120fps und 144 Hz mit 144 fps. Da spielt dann wohl die CPU nicht mehr so ne Rolle. Weil auch die gpu wird bei der Sache weniger belastet. Bin echt gespannt wie es da weiter gehen wird.

Mit dem 5800X3D bekommste aber ein stabileres FPS Cap hin, weil die minfps ordentlich angehoben werden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh