ZEN4 BUG: CPUs mit zwei CCDs in Spielen langsamer als mit einem CCD.

1667342079410.png


1667342101289.png



Also es fällt schon auf, dass der 7900X langsamer ist als der 5800X...


 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Anhang anzeigen 810892

Anhang anzeigen 810894


Also es fällt schon auf, dass der 7900X langsamer ist als der 5800X...



warum hat eigentlich noch niemand gefragt, warum die CPU tests auf 1440p machen?
 
Macht das einen unterschied ob 1080 oder 1440? Es zeigt doch wenn es der realität entspricht das die neuen hier ein performence nachteil haben.
Ob das an DDR5 liegt oder direkt an der CPU kann AMD oder ein experte hier beantworten.
 
Mir ist die Multicore Leistung wesentlich wichtiger wie die Spieleperformance. Bei den 20% Spielenutzung meines Rechners ist das "fast" egal. Da ich aber das Geschehen noch bis März/April beobachten werde, lege ich mich auch noch nicht fest, ob es am Ende wieder Intel oder wieder AMD wird. Mal davon abgesehen bin ich guter Hoffnung, das einige Kinderkrankheiten bis zu diesem Zeitpunkt ausgemerzt sind.
 
Macht das einen unterschied ob 1080 oder 1440?
wenn die GPU auf 1440p limitiert, was bei manchen Titeln nicht auszuschileßen ist, dann zeigt das Ergebnis nicht die CPU sondern die GPU Leistung. Ziemliche Themaverfehlung für nen CPU Test. Deswegen macht man CPU tests in der regel auf 1080p oder sogar auf 720p. Damit man auch 100% sicher ist, dass nicht die GPU das bottleneck ist.
 
warum hat eigentlich noch niemand gefragt, warum die CPU tests auf 1440p machen?
Mit ner 4090 würd ich das nicht als Problem ansehen, aber in den Charts sieht man schon, z.B. Shadow of the tomb raider oder metro, dass die zum Testen genommene 3080 limitiert.
In Cyberpunk und Farcry sieht man klar dass es kein GPU Limit ist.
... Könnte einem ja mal auffallen.

Was mir auffällt:
Die Seite hat kein Impressum. Der Testautor scheint der Betreiber zu sein, aber es taucht nur im Kleingedruckten am Ende der Privacy Page auf.

@Chris1975:
Schau mal hier rein. Da ists erklärt.

Hätte der Tester in 1080p statt 1440p getestet, hätte das die Grafikkarte um etwa 50% entlastet.
Dann hätte man mit Sicherheit auch in Shadow of the tomb raider Unterschiede sehen können.
So sieht man dort nur ein GPU Limit, mit Unterschieden der CPUen im Bereich der Messfehler.
 
Mit ner 4090 würd ich das nicht als Problem ansehen, aber in den Charts sieht man schon, z.B. Shadow of the tomb raider oder metro, dass die zum Testen genommene 3080 limitiert.
In Cyberpunk und Farcry sieht man klar dass es kein GPU Limit ist.
... Könnte einem ja mal auffallen.

Was mir auffällt:
Die Seite hat kein Impressum. Der Testautor scheint der Betreiber zu sein, aber es taucht nur im Kleingedruckten am Ende der Privacy Page auf.
Was mir auffällt, es wird keine PreSelected Hardware getestet, sondern eine CPU aus dem Handel!
Das könnte meiner Meinung nach den größten Unterschied machen, zu den Day1 Reviews mit dem AMD Presse-Kit.
 
Der Test wurde mit der selben GPU durchgeführt wenn es ein GPU Limit wäre würden es die anderen alten systeme nicht besser machen.
 
Was mir auffällt, es wird keine PreSelected Hardware getestet, sondern eine CPU aus dem Handel!
Das könnte meiner Meinung nach den größten Unterschied machen, zu den Day1 Reviews mit dem AMD Presse-Kit.

Nein, oder meinst du die reviewer bekommen den supergeheimen specialchip mit mehr power?

Der Test wurde mit der selben GPU durchgeführt wenn es ein GPU Limit wäre würden es die anderen alten systeme nicht besser machen.

wenn du CPUs hast, die theoretisch 100+fps liefern, die GPU in dem Test aber nur 80fps weil die Auflösung diese limitiert, wie aussagekräftig ist der Test dann was die CPUs betrifft? Es spielt überhaupt keine Rolle, ob es die selbe Grafikkarte ist oder nicht, wenn die Grafikkarte der limitierende Faktor ist.
 
Ich kapier das hier nicht.
Wieso darf man nicht mal mehr aussprechen wenn etwas schlechter ist als etwas anderes?

13900k vs. 7950x ist eine ganz klare Sache, außer der AMD ist 100€ günstiger als der Intel.
Wieso wird das gleich als Kampf zwischen zwei Lagern ausgelegt? Das sind einfach Tatsachen Stand jetzt.

Und wenn es bei der nächsten Generation anders herum ist, dann wird das genauso gesagt.
Dieses Fanboy artige Verteidigen irgendwelcher Hardware regt einfach nur noch auf.
Ich hab selbst noch einen 5600x rumfliegen, aber aktuell ist es doch sinnfrei wenn man einen AM5 AMD holt..

Das belegen sämtliche Verkaufszahlen.. aber hier darf man es nicht sagen :d
 
autsch.
 
Der Test wurde mit der selben GPU durchgeführt wenn es ein GPU Limit wäre würden es die anderen alten systeme nicht besser machen.
Ich übertreibe absichtlich Mal ein bisschen:
CPU ist ein 7950x, ein 13900k und als Referenz für Mainstream/Budget ein Ryzen 5600.
Als Grafikkarte nimmst du eine 1050ti. Als Monitor 4k.
Würde keiner tun, da die 1050ti in 4k offensichtlich bei 10FPS limitiert. Klares GPU Limit. Aussage über die CPU nicht möglich.
Jeder weiß, wenn ich die 1050ti gegen was stärkeres tausche gehen die FPS hoch.

Der Punkt ist:
Wenn ich keine Veränderungen sehe, kann ich davon ausgehen, dass die GPU limitiert.
Ob das eine 1050ti bei 4k und 10FPS ist, oder ob es eine 3080 in 1440p bei 170 FPS ist macht qualitativ für die Aussage über die CPU keinen Unterschied. Aussage im GPU Limit nicht möglich.

Schau dir Shadow of the tomb raider an, vergleiche es mit farcry. Im oben verlinkten Test.
Tomb raider ist alles gleich, klares GPU Limit.
Farcry sind die FPS wild unterschiedlich, klar kein GPU Limit, also CPU Limit.
Da ist eine Aussage über die getesteten CPUen im Anwendungsbereich farcry möglich
 
Zuletzt bearbeitet:
Leuchtet ein.Danke
 
Ich kapier das hier nicht.
Wieso darf man nicht mal mehr aussprechen wenn etwas schlechter ist als etwas anderes?

13900k vs. 7950x ist eine ganz klare Sache, außer der AMD ist 100€ günstiger als der Intel.
Wieso wird das gleich als Kampf zwischen zwei Lagern ausgelegt? Das sind einfach Tatsachen Stand jetzt.

Und wenn es bei der nächsten Generation anders herum ist, dann wird das genauso gesagt.
Dieses Fanboy artige Verteidigen irgendwelcher Hardware regt einfach nur noch auf.
Ich hab selbst noch einen 5600x rumfliegen, aber aktuell ist es doch sinnfrei wenn man einen AM5 AMD holt..

Das belegen sämtliche Verkaufszahlen.. aber hier darf man es nicht sagen :d

Obwohl AMD diesmal gegen Intel verloren hat, habe ich trotzdem zugeschlagen heute bei AMD mit einem 7900X.

Bei genau den Sachen die ich mache, ist ZEN4 sehr viel schneller als ZEN3.
h265 encoding und Linux compiling.
 
Das hättest mit einer nvidia gpu günstiger haben können wenn du auf die 5-8% von zen4 verzichten kannst.So mache ich das auf einem anderen PC.
 
Ich kapier das hier nicht.
Wieso darf man nicht mal mehr aussprechen wenn etwas schlechter ist als etwas anderes?
Weil nebulus ständig auch mit Unwahrheiten, Ahnungslosigkeit und Rüpelhaftigkeit eine Fehde gegen AMD reitet. Insofern hat nebulus sich selber beschädigt.

Schaue ich mir die Ausführung seines Eröffnungsbeitrags mal an.
Im ersten Bild, Cyberpunk, ein klassisches Intel gewinnt Spiel, ist ein 12900K langsamer als ein 5800X. Sehr sehr seltsam.
Im zweiten Bild wurde das Bild von nebulus um den 12900K gekürzt, der praktisch auch bei Borderlands langsamer als ein 5800X ist. Was wiederum sehr seltsam ist.

Und wer gibt ständig ich mag nebulus Beiträge ab? Natürlich Spieltuhr, der auch penetrant ständig seine Intel ist so geil und AMD so schlecht Emotionen in den Threads erbricht.
Natürlich darf auch nicht dein Nick darunter fehlen der sagen will, ich mag nebulus Kommentare, wenn mal wieder nebulus gegen AMD pinkelt.
Und wirklich darüber diskutieren willst du ja auch nicht, wie du oft genug zeigst.

Insofern kann ich es gut verstehen, dass du es nicht kapierst, offensichtlich wohl noch nie darüber reflektiert.
 
Zuletzt bearbeitet:
Der 7900X macht Hardware encode/decode bei H265 aber lassen wir das führt nur zu endlos Diskussionen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh