Ryzen 7 5800X3D: Der erste Gaming-Benchmark ist vielversprechend

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
IF und RAM sollen sich weiterhin ocen lassen.
Nur das OC der CPU Kerne ist gelockt.
Ansonsten sehe ich es ähnlich wie @Thunderburne, ich kann egal welches Upgrade kommt, nur profitieren grade.
 
Ja ich weis komme mit dem 3950X sogar in 4K gelegentlich ins CPU Limit!
DlSS ja ich weis nicht Nativ 4K nutze ich auch gerne mal !
Mein Plan war damals mal auf den 5900X zu wechseln aber als ich hörte das AMD noch was ins Osterei legen will hab ich es noch etwas rausgezögert !:-)
Da Intel auch noch die 12000 gebracht hat war für mich dazu noch klar das die CPUs Zeitnah im Preis fallen bei AMD sieht man nun ja auch der 5950X schon für ca 550 5900X 439 usw. also ich kann für mich gerade nur gewinnen!
Mit der Leistung der CPUs denke ich mal kann ich dann noch ca. zwei Jahre ausharren auf dem X570.

Gruß

Nur 2 Jahre ? Damit kannst du warscheinlich noch viele Jahre länger auskommen.
 
Entspannen und abwarten!

Gruß
 
Jo denke das wie spätestens am Montag/Dienstag ein update aus Peru bekommen. :)
 




Jetzt ist wieder alles deinstalliert.

Die 3D-Cache-Performence gefällt mir gut. Interessant wären Benchmarks in Escape from Tarkov und Flight Simulator 2020 mit richtigen RAM-Settings.
 
Ich habe mir die Mühe gemacht, den 12900K mit DDR4-3200 C14 durch die Szene zu jagen. Das sind gerade mal 171 FPS für den 12900K mit gleichem Speicher wie der 5800X3D. Wir reden also von 171 FPS vs 230 FPS. Das sieht nach einer Klatsche aus, zumindest bezogen auf dieses Spiel mit dieser Szene.


@BF2-Gamer Ich habe den DDR4 mal getunt (OC Profil geladen) und das ganze erneut vermessen. Das sieht nun ein wenig anders aus. Ob AMD oder Nvidia Karte spielt auch nicht soooo die große Rolle.

12900K_OC_DDR4_4000_C16.png
 
Ich habe mir die Mühe gemacht, den 12900K mit DDR4-3200 C14 durch die Szene zu jagen. Das sind gerade mal 171 FPS für den 12900K mit gleichem Speicher wie der 5800X3D. Wir reden also von 171 FPS vs 230 FPS. Das sieht nach einer Klatsche aus, zumindest bezogen auf dieses Spiel mit dieser Szene.

[/URL]

@BF2-Gamer Ich habe den DDR4 mal getunt (OC Profil geladen) und das ganze erneut vermessen. Das sieht nun ein wenig anders aus. Ob AMD oder Nvidia Karte spielt auch nicht soooo die große Rolle.

Anhang anzeigen 747370
Hätte nicht gedacht dass das Spiel so von der Bandbreite profitiert, die Latenz unter DDR4 dürfte ja durch die Bank besser sein als mit DDR5-4800.
 
Hätte nicht gedacht dass das Spiel so von der Bandbreite profitiert, die Latenz unter DDR4 dürfte ja durch die Bank besser sein als mit DDR5-4800.
Man hatte das ja bereits bei @Don 's Launchartikel gesehen, dass SotTR von DDR5 profitiert, aber ja, ist schon interessant, das zu sehen, zumal Latenz immer im Vordergrund steht bei Speicher.
 
  • Danke
Reaktionen: Don
Jetzt müssen einfach mal alle Fakten auf den Tisch. Natürlich sieht es für Intel nicht gut aus dabei.

7700K 03.01.17
1800X 02.03.17
AMD hat also 50% gut gemacht auf den 7700K in 720p.
Von März 17 bis Nov. 20 hat AMD nochmals 72% zu den 50% draufgelegt. Also zu 122% in 3J 8M.
Von Januar 17 bis Nov. 21 konnte Intel um 71% zulegen. + 6% zum Vorgänger. Also 78% in 4J 10M.

So eine harte Ohrfeige hat Intel von der Klitsche AMD bekommen. Eine Klitsche, 1€ pro Aktie, Milliarden Schulden.

Die Fakten sind einfach hart. Insofern habt Mitgefühl mit der Intel Solution Troop. :-)
 

Anhänge

  • CX_2022-04-09_00-05-31_Comparison.png
    CX_2022-04-09_00-05-31_Comparison.png
    14,7 KB · Aufrufe: 174
Zuletzt bearbeitet:
Das ist eine ganz nette Leistung aber mal im Ernst? Wer zum Teufel spielt heutzutage noch unter 1080p oder bei 1080p freiwillig? Doch nur noch die, die eine über 5 Jahre alte GPU haben oder nur einen mittelmäßigen Laptop haben? 🤔 Ich checke den Reiz nicht diese unnötig hohen FPS Zahlen haben zu wollen...
 
@Serandi da geht es schlicht um einfach darum zu wissen, wie gut die CPU wirklich ist. Je niedriger die Auflösung, desto niedriger die Last auf der GPU und dementsprechend sieht man das „wahre“ Potential der CPU.
In 4K beispielsweise ist es bei vielen Spielen relativ egal welche moderne CPU man nimmt, da immer die GPU das Limit sein wird.
Wenn verschiedene CPUs verglichen werden, möchte man natürlich die CPUs auch vergleichen und nicht die GPU.
 
Weil es hier darum geht die Rohpower zu messen. Auch bei höheren Auflösungen macht das schonmal ein entscheidenden Unterschied bei den percentilen FPS. D.h. höhere Lows und stabilere FPS wenn viel los ist auf dem Bildschirm.
 
ähm ich möchte ja kein spaßverderber sein aber die Highend CPUS mit doppelten L3 Cache wie der Threadripper Pro 5975WX oder der 5000 Pro Variante ist kein einziger Anwendungsbenchmark zu finden.Ich wollte wissen oder der doppelte L3 Cache was bringt.Sind ja schon ab März zum Kauf verfügbar.Scheint wohl kaum einer zu kaufen und auch kaum einer zu Testen.Ich weis das sind die teuersten CPUS aber es wird doch wohl welche geben,die sich das leihen um zu Benchen. Naja dann wird das halt nix,schade aber so ist das halt.Sonst hätte man auch bei Games es Testen können.
 
Das ist eine ganz nette Leistung aber mal im Ernst? Wer zum Teufel spielt heutzutage noch unter 1080p oder bei 1080p freiwillig? Doch nur noch die, die eine über 5 Jahre alte GPU haben oder nur einen mittelmäßigen Laptop haben? 🤔 Ich checke den Reiz nicht diese unnötig hohen FPS Zahlen haben zu wollen...
Hab dir mal z.b 2 Screens gemacht ich musste da jetzt auch nicht lange suchen solche Auslastungen sehe bei mir nicht selten in Spielen auf meiner GPU .
Hier sind wir noch im 2 stelligem Bereich von den FPS mein 77Zoll C1 LG OLed läuft mit 120HZ.

Far Cry 6 mit 4K FSR auf Ultra Quality ca 84% GPU Load.
Watch DOGS mit 4K DLSS Quality ca 83% GPU Load!
Also die niedrige GPU Load liegt jetzt nicht durchweg an aber es gibt immer mal wieder Bereiche wo es halt vorkommt bei Far Cry 6 hab ich auch schon Auslastungen im Bereich von 75% gesehen eine Benchmark Szene ist auch nicht immer der Weisheit letzter Schluss!
Und das mit einer doch noch recht modernen CPU mit dem 3950X.

Leider bleicht das Bild mit HDR aus wen ich mit dem AB einen Screenshot mach!


Wenn ich im Winter die Radeon 7000 kaufen würde oder die NV 4000 hätte ich wohlmöglich an diesen stellen keinen FPS Zugewinn.
Da gibt es bei den Spielen noch ganz andere Kaliber!




FarCry6_2022_04_09_07_58_47_552.jpg


WatchDogsLegion_2022_04_09_06_49_32_982.jpg
 
Zuletzt bearbeitet:
Deine Cores (Games) skalieren schlecht, daran kann es auch liegen das weniger Leistung rumkommt.

Schon mal SMT deaktiviert und geschaut ob sich da was bessert?

Deine Screens bestätigen für mich wieder, ein 16 Kerner braucht man nicht ^^
 
Das ist eine ganz nette Leistung aber mal im Ernst? Wer zum Teufel spielt heutzutage noch unter 1080p oder bei 1080p freiwillig? Doch nur noch die, die eine über 5 Jahre alte GPU haben oder nur einen mittelmäßigen Laptop haben? 🤔 Ich checke den Reiz nicht diese unnötig hohen FPS Zahlen haben zu wollen...
bitte bitte bitte les dich ein

die Auflösung hat mit den FPS der cpu nichts zu tun! ergo ergibt dein letzter satz keinen sinn
es geht um den ABSTAND zwischen den cpus. in tombraider sind wir bei 220 fps (AMD) vs 180(intel), bei einem anderen spiel sind es 90fps für AMD und 60 für INTEL.

damit wir das vorher wissen, muss man die grafikkarte aus dem spiel nehmen. ich werde dann bei der AMD cpu meine grafikeinstellungen (NICHT AUFLÖSUNG) so runterdrehen damit ich die 90fps der amd cpu erreiche.
eine CPU macht in 720p diesselben FPS wie in 4k, weil die cpu damit nichts zu tun hat. und wenn ein spiel super performt, reicht teilweise sogar 720p nicht um aus dem gpu limit zu kommen.

wenn du deine grafikkarte eine gurke ist und du meinst in ultra settings spielen zu müssen, die die GRAKA max fps unter das CPU limit beider CPU´s drückt, dann ist das dein Bier. Es gibt Menschen, die können mit den Settings umgehen und die FPS auch in üblichen Auflösungen wie 1080p, 1440p,4k so einstellen dass man mehr fps bekommt als CPU X oder Y siehe screenshots von @Thunderburne

raffst du das jetzt? :)
 
Zuletzt bearbeitet:
Deine Cores (Games) skalieren schlecht, daran kann es auch liegen das weniger Leistung rumkommt.

Schon mal SMT deaktiviert und geschaut ob sich da was bessert?

Deine Screens bestätigen für mich wieder, ein 16 Kerner braucht man nicht ^^
Jup ich hab mir den Extra mal gekauft um für mich selbst zu testen .
Selbst wen ich SMT ausmache mal hier 3 FPS und dann mal weniger auch mit Prozess Laso konnte ich da nicht groß was machen!!
Es liegt aber auch mit an der 3000ner Serie die hatte halt auch nicht soviel Dampf!
Musst dir mal auf PCGH ankucken wo ein 3900X mit DDR3800 raus kommt bei SOTR das passt mit meinem Ergebnis !
 
Daher steckt AMD diese CCDs mit 3D V-Cache auch sicherlich lieber in die EPYC-Prozessoren anstatt sie als Ryzen 5800X3D zu verbauen. Mit den EPYCs lässt sich deutlich mehr Geld machen – auch wenn hier acht CCDs mit 3D V-Cache notwendig sind und beim Ryzen 7 5800X3D nur einer.
Nein nein, das liegt alles nur am Chip-Mangel.
Die produzieren einfach nicht genug hab ich gestern gelernt.
 
Zuletzt bearbeitet:
Ja ich war auch froh von meiner Krücke 7800X auf nen schnellen und sparsamen 12700K zu gehen.

HEDT war für mich nicht die richtige Plattform ^^ man kann wie bei dir das als gescheiterten test sehen ^^
 
Ja ich war auch froh von meiner Krücke 7800X auf nen schnellen und sparsamen 12700K zu gehen.

HEDT war für mich nicht die richtige Plattform ^^ man kann wie bei dir das als gescheiterten test sehen ^^
Ich verbuche so etwas lieber unter Erfahrung gesammelt ich wusste ja im Vorfeld das es Perlen vor die Säue sein könnte!
Wobei man es ja auch anhand der Benchmarks gut sehen kann wie die 16 Kerner dastehen gegenüber 12 8 und 6.
Vielleicht war da auch einfach mal haben wollen Faktor mit drin!:-)
 
Am Ende ist das Ding so gut wie nicht zu bekommen und viele, die drauf gewartet haben, werden in die Röhre schauen. Genau dieses Gebaren geht mir bei AMD, als auch bei Intel immens auf den Keks. Produkte ankündigen und immer wieder hypen, damit die Kundschaft scharf drauf ist, aber am Ende kaum was liefern können. Zum Kotzen ist das.
AMD hat hier gar kein Produkt gehyped. Dass es einen 5800X3D geben würde, wusste man bis Januar nicht mal. Wenn überhaupt etwas "gehyped" wurde, dann maximal die Technik dahinter, den 3D V-Cache. Der ja als erstes bei Milan X zum Einsatz kam. Es ist nicht nur eine sehr spannende, sondern auch höchst anspruchsvolle Technik. Die je nach Aufgabenbereich extreme Performancegewinne ermöglicht. AMD sagte zudem, dass der 5800X3D lediglich ein Testlauf für zukünftige Produkte ist und noch Limitierungen mitbringt, wie die Spannungsversorgung bis maximal 1,35V. Man sollte also nicht davon ausgehen, dass der 5800X3D allzu grosse Marktrelevanz hat. Er zeigt aber zumindest, wo die Reise in Zukunft hingehen kann. Und da AMD den gleichen Preis wie für den 5800X festgelegt hat, $449, könnte das eine gute Option für Gamer sein. Hohe FPS schon von Haus aus, ohne gross tunen zu müssen und ohne die Notwendigkeit von teurem Speicher. Aber da wird man natürlich wie immer ausführliche Tests und Verfügbarkeit abwarten müssen.
 
Dass es einen 5800X3D geben würde, wusste man bis Januar nicht mal.
Naja, es war schon sehr viel länger bekannt, dass Planungen im Gange sind und anfangs waren ja sogar noch 12/16-Kerner geplant.
Siehe vom Juni 2021 https://www.hardwareluxx.de/index.p...ssor-mit-gestapeltem-3d-v-cache-2-update.html

Gegen Ende des Jahres sollen die ersten Produkte mit 3D V-Cache vorgestellt werden. Ein Ryzen-Refresh mit diesem zusätzlichen Speicher ist also mehr als wahrscheinlich – bevor man dann zu den ersten Zen-4-Prozessoren kommt.
 
Planen kann man viel. Ob die Umsetzung dann erfolgt ist wieder etwas anderes.

Ich finde es wirklich interessant, welche Leistung die CPUs (egal ob Intel oder AMD) mittlerweile haben.

Wenn ich da die Leistung meinen 5960X anschaue, ist das fast lächerlich (aber für mich immer noch ausreichend).
 
und anfangs waren ja sogar noch 12/16-Kerner geplant.
Nein, in diesem Artikel wurde nur über ein geplantes geschrieben. Ende 2021 Produktion und Vorstellung der CPU mit 3D V.
Welche CPUs das sein werden wurde nicht von AMD gesagt. Natürlich möchte auch jeder glauben, dass wenn die Prototypen bei den Vorführungen 12 und 16 Kerner waren, es solche CPUs geben wird, war und ist einfach nur spekulativ.
Denn es ist ja auch klar, dass Epyc ein Ziel dieser Technik ist. Insofern testet man auch gleich günstig 12 und 16 Kerne. Anstatt gleich mit 64 und 128 Kerne.
Aber man konnte natürlich stark damit rechnen, dass AMD im Desktop 2022 etwas haben wird.
Und das es einen 5800X3D geben wird, war auch nur reine Spekulation. Das wissen wir erst seit Januar.
,
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh