Weshalb Ryzen eine hervorragende Gaming CPU 2017 ist

Witzig, dass er die Benchmarks von Pcgameshardware nimmt. Bei Computerbase z.B performt Ryzen besser. Viel Wert sind die Benchmarks aber nicht weil unter DX12 mit Nvidia läuft Ryzen schlechter als mit der AMD Karte. Dann kommen auch noch die Verbessrungen seit dem Release dazu.

Witzig ist, daß der Threadbeginner nur Computerbase ausgesucht hat. Alle anderen Webseiten oder Magazine lehnt er ab weil diese seiner Meinung nach nicht richtig testen.
Auch kommen laut ihm alle neuen Spiele nur fuer viele viele cores heraus, obwol unter 40 freshen games gerade mal 2 oder 3 dabei sind.
Ist eben Kaese.

Und natuerlich ist hohe Auslastung eines processors nicht gleichbedeutend mit an der Kotzgrenze arbeiten.:haha:
Einfach leacherlich was hier erzaehlt wird.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na ja,

nehmen wir mal wirkliche Blockbuster auf der Daily Basis, ist Dota2 mittlerweile Ryzen optimiert und ein User hat mit Core Lazzo gezeigt, dass er ein Ryzen 1700 OC mit CSGO auf über 500fps bekommt, ansonsten düften noch eine Menge Leute BF1 zocken und hier ist ein Ryzen im Multiplayer 64, wirklich nicht weit weg. Sonst spielen noch 700000 Leute täglich WoT, da glaube ich auch nicht an eine Schwäche von Ryzen!

Wo ist dein Problem?
 
Zuletzt bearbeitet:
Na ja,

nehmen wir mal wirkliche Blockbuster auf der Daily Basis, ist Dota2 mittlerweile Ryzen optimiert und ein User hat mit Core Lazzo gezeigt, dass er ein Ryzen 1700 OC mit CSGO auf über 500fps bekommt

Dota und CSGO koennen 8 cores nutzen? Das waere mir neu. Fuer diese Spiele reicht auch eine uralt cpu.

ansonsten düften noch eine Menge Leute BF1 zocken und hier ist ein Ryzen im Multiplayer 64

Die grosse Mehrzahl spielt andere multiplayer games und auch nicht immer auf einem 64server. Und selbst dort ist Ryzen !nicht! schneller.
Gibt außer BF1 keine anderen Spiele mehr?

Steam: Die meistgespielten Games 2016 - COMPUTER BILD SPIELE

Wo ist dein Problem?

Ich habe kein Problem. Andere haben Probleme.
 
Zuletzt bearbeitet:
Was willst du eigentlich aussagen?

Ich habe vorgebracht, dass Ryzen in allen Blockbustern mehr als aureichende Leistung bringt, WILLST du das bestreiten?
Was anderes steht doch gar nicht zu Debatte! Ryzen ist ein Mix aus Anwendung und Games, wobei verblendete Intel Jünger, Ryzen absprechen, Gaming tauglich zu sein!

Der User muss sich doch überlegen was bekomme ich für mein Geld?! In englisch: The best bang for the buck und das liefert nunmal Ryzen in der Overall Performance bezogen auf das P/L Verhältnis!
 
Zuletzt bearbeitet:
Es gibt Leute die haben eine andere Meinung. Wenn mein Lieblingsspiel mit Hardware Y besser als mit Hardware Z läuft, ist es doch mir überlassen das ich lieber Hardware Y habe.

Gesendet von meinem VKY-L09 mit Tapatalk
 
Möchte mir auch einen 1600/1600X mit gutem AM4 Board kaufen (das ich anders als bei Intel, speziell 7700K weiterverwenden kann) und vielleicht wenn Ryzen 2 deutlich besser wird auf einen Octa der 2ten Zen Generation umsteigen werde/kann.

Mann... verbreitet doch nicht solche Ideen. Wenn das jeder macht bekomme ich meinen 1600er nächstes Jahr schlechter bei Ebay los. :)
Spaß beiseite. Bin noch am überlegen ob ich Skylake-X abwarte und dann entscheide ob es mir den Aufpreis wert ist. Aber ich glaube Intel wird die Preise dieses Jahr noch nicht stärker anpassen. Aber ein Quad-Core will ich mir auf jeden Fall nicht mehr kaufen.

Zu der ganzen Diskussion hier wollte ich mal noch anmerken: "Es ist ja OK in einem Ryzen-Thread seine Meinung anzufügen, aber einen Glaubenskrieg zu führen ist etwas anderes. Ich würde nie auf die Idee kommen in einem 7700k-Thread auf Biegen und Brechen die Leute dort überzeugen zu wollen, dass die CPU/Plattform eine Fehlentscheidung ist (auf längere Sicht gesehen)."
 
Zuletzt bearbeitet:
Es gibt Leute die haben eine andere Meinung. Wenn mein Lieblingsspiel mit Hardware Y besser als mit Hardware Z läuft, ist es doch mir überlassen das ich lieber Hardware Y habe.

Gesendet von meinem VKY-L09 mit Tapatalk

Klar, deshalb leben wir in einem freien Land! Deshalb darf sich doch auch jeder einen Ryzen kaufen, ohne von Intel Jümgern angegriffen zu werden, wenn er das beste für sein Geld bekommen will, weil er nun nicht auf den aller letzten Frame wert legt!
 
Zuletzt bearbeitet:
Ich frag mich echt was immer alle haben. Ein User möchte auf biegen und brechen die beste FPS zahl in Games was geht. Der jenige kauft sich den Intel Core weil er da halt am besten Punktet. Ein anderer User ist es scheiß egal ob er max FPS hat 80% reichen ihm, also kauft sich der User ein AMD Ryzen. Ein anderer User wiederum ist es noch mehr egal ob er max FPS hat, er möchte aber nebenbei Streamen und Video Bearbeitung machen, also kauft er sich den Ryzen weil er das beste gesamtpaket darstellt.
 
Ich frag mich echt was immer alle haben. Ein User möchte auf biegen und brechen die beste FPS zahl in Games was geht. Der jenige kauft sich den Intel Core weil er da halt am besten Punktet. Ein anderer User ist es scheiß egal ob er max FPS hat 80% reichen ihm, also kauft sich der User ein AMD Ryzen. Ein anderer User wiederum ist es noch mehr egal ob er max FPS hat, er möchte aber nebenbei Streamen und Video Bearbeitung machen, also kauft er sich den Ryzen weil er das beste gesamtpaket darstellt.

Grandios zusammen gefasst und das ist ohne Ironie! :bigok:
 
Ich frag mich echt was immer alle haben. Ein User möchte auf biegen und brechen die beste FPS zahl in Games was geht. Der jenige kauft sich den Intel Core weil er da halt am besten Punktet. Ein anderer User ist es scheiß egal ob er max FPS hat 80% reichen ihm, also kauft sich der User ein AMD Ryzen. Ein anderer User wiederum ist es noch mehr egal ob er max FPS hat, er möchte aber nebenbei Streamen und Video Bearbeitung machen, also kauft er sich den Ryzen weil er das beste gesamtpaket darstellt.
Dem kann man sich nur anschließen.

Einige wollen es eben nicht wahrhaben, dass die beste Gaming-Leistung weiterhin von einem Intel Core-i7-Quad kommt. Wenn anderen die 80% Gaming-Leistung reichen, ist das doch okay, dann sollen sie aber nicht behaupten, er wäre besser.

Mir tun halt vor allem die Leute leid, die dann so ein Quadcore- System kaufen, was nur 6 Monate lang top läuft und zwei Jahre später ihre neue Karte mit dem 8- Thread- optimiertem Konsolenport nicht mehr ausgelastet bekommen.
Tja, und das wird erst 2018 passieren - genau dann, wenn Ryzen "Plus" kommt.

Aber ist ja nicht so, als würde ich das seit 100 Seiten runterbeten... :rolleyes:
 
... Mir tun halt vor allem die Leute leid, die dann so ein Quadcore- System kaufen, was nur 6 Monate lang top läuft und zwei Jahre später ihre neue Karte mit dem 8- Thread- optimiertem Konsolenport nicht mehr ausgelastet bekommen.
mit den kommenden Konsolen wird das dann wohl so sein. die aktuellen Konsolen mit ihren 8-Kern-Jaguars haben ne dermaßen laue Leistung, dass mein oller i5 Null Probleme hat meine Ansprüche zu befriedigen.
 
Genau deshalb hat eben auch der Ryzen Oktacore das Problem nicht. Und genau deshalb gibt es auch keinen Grund dazu, auf die theoretische Möglichkeit, im CPU- Limit nur für den aktuellen Moment ein paar mehr FPS zu haben, so abzufahren, wenn der Fall praktisch so gut wie nicht auftritt, und in den neu erscheinenden AAA- Spielen fast immer mindestens 6 Kerne vorteilhaft sind. Man würde also den Quad für ein Szenario kaufen, was so gut wie nicht eintritt, und der muss dann auch für Szenarien herhalten, die definitiv eintreten: Nämlich wenn man alle Regler hochprügelt und seine GPU mal upgraded.

Dass es in 2 Jahren dann eine neue Generation gibt, ist für mich auch kein Grund - warum soll man sich jetzt einen Quadcore kaufen, und in 2 Jahren schon wieder die ganze Plattform verscherbeln müssen, wenn man sich seine neue ultraschnelle GPU reinbaut.

Deshalb haben Massen an Testern in meinen Augen gnadenlos versagt. Es ist völlig offensichtlich gewesen, dass eine CPU mit mehr Kernen für den Preis in den nächsten Jahren klar den Ton angeben wird. Und es ist auch genauso klar gewesen, dass die Singlethread- Leistung mit einem 7700K nicht mithalten kann. Dass man jetzt tatsächlich zum Großteil alte Schinken ausgräbt, und ernsthaft Vergleiche in 720p mit mehr FPS macht, als die schnellsten Monitore überhaupt darstellen können, ist der reinste Witz.

Ich habe erst gestern Heroes of the Storm gezockt... und genau das gleiche Ergebnis bekommen, wie auch davor: Ich merke in diesen Singlecore- Games null Unterschied zum 5820K@4,4GHz - außer dass mein CPU- Lüfter für 8€ leiser bleibt, als der NH- D15S auf der alten 200W- Heizung... Dafür läuft anderes top. Zum Beispiel Dolphin mit Vulkan...

Hier mal ein krasses Beispiel auf Linux mit einer GTX 1080 Ti. Das ist auf dem Preset "Ultra". Und jetzt mal zum Vergleich auf "Normal".

Wie man sieht, kann man Tomb Raider(2013) problemlos mit Ryzen auf Ultra und auf einem 144 Hz- Screen in 4K auf Linux zocken. Der 7700K dagegen packt geradeso 60 Hz. - Wie ist sowas dadurch rechtfertigbar, dass in einem gestellten Szenario in 720p der Ryzen durch lauter geringfügig schlechtere FPS- Zahlen dann als weniger geeignet zum Zocken gesehen wird, obwohl er auch eine gute Leistung bringt???
Das muss doch ein Witz sein, jemandem eine CPU mit 4 Kernen zu empfehlen, weil sie besser wäre wenn er in älteren Spielen mit weniger Threads in niedriger Auflösung zocken würde. Und er sonst in dem Szenario so gut wie keinen Unterschied merkt, während in anderen Titeln, die die 8 Threads des Ryzen voll ausnutzen, mit entsprechender Grafikkarte die Kiste dann total zusammenbricht.
 
Zuletzt bearbeitet:
Ich frag mich echt was immer alle haben. Ein User möchte auf biegen und brechen die beste FPS zahl in Games was geht. Der jenige kauft sich den Intel Core weil er da halt am besten Punktet. Ein anderer User ist es scheiß egal ob er max FPS hat 80% reichen ihm, also kauft sich der User ein AMD Ryzen. Ein anderer User wiederum ist es noch mehr egal ob er max FPS hat, er möchte aber nebenbei Streamen und Video Bearbeitung machen, also kauft er sich den Ryzen weil er das beste gesamtpaket darstellt.

Das schlimme ist ja, dass gerade diese User auf 1080p Monitoren ohne G/Freesync rumkrebsen und gar keine Ahnung haben was "flüssig spielen" überhaupt bedeutet. Wer also wirklich ambitioniert spielt, der hängt dank >=1440p und vernünftigen Detail zu 100% im GPU Limit und da spielt die CPU quasi keine Rolle mehr, solange sie die GPU versorgen kann.

Jeder der hier mit "bester Gamingleistung" argumentiert, ist einfach nur ein verblendeter Balkengucker, der vermutlich noch in 720p spielt - und das hat mit dem Gamingerlebnis nichts zu tun.

- - - Updated - - -

Ich bin immer noch ziemlich erstaunt darüber, wie hier diskutiert wird.
Fakt ist doch, dass man mit beiden CPUs so ziemlich jedes Games ohne Einschränkung zocken kann. Man macht mit keiner der CPUs was falsch. Wo ist also das Problem? :rolleyes::rolleyes::rolleyes::rolleyes:

Allerding ist es sehr aufschlussreich wie hier zum Teil argumentiert wird.

+1
 
Habt ihrs nun bald? Solltet ihr nach eurer Pro Ryzen Argumentation für den 8 Kerner mit Hinweis auf die Konsolen nicht den Thread mal umbenennen? Denn nach eurer Argumentation sind ja nur diese Zukunftsfähig und ein 4 Kerner mit Multithreading an der "Kotzgrenze".
Deshalb sollte der Thread in " Warum der 8 Kerner Ryzen eine hevorragende gaming CPU ist" umbenannt werden.
Jedenfalls ist das ja der O-Ton, den man hier so herausliest, zwischen den ganzen persönlichen Anfeindungen.
 
Ich bin immer noch ziemlich erstaunt darüber, wie hier diskutiert wird.
Fakt ist doch, dass man mit beiden CPUs so ziemlich jedes Games ohne Einschränkung zocken kann. Man macht mit keiner der CPUs was falsch. Wo ist also das Problem? :rolleyes::rolleyes::rolleyes::rolleyes:

Allerding ist es sehr aufschlussreich wie hier zum Teil argumentiert wird.

Was einfach schade ist, dass in dem Forum bei solchen Themen kaum fachlich diskutiert wird, nur jeder seine Meinung einem anderem Aufzwingen will, kommt man isch zT fast wie in der siebten Klasse vor, nur da gings damals glaub auch gesitteter zu. Dann wird immer wieder das gleiche Thema durchgekaut, das gleiche nochmal in ähnlichen Threads angefangen, ... . Verdirbt einem irgendwie die Laune zum Lesen.
 
Ich denke die interessante Frage hier ist für viele wo der Ryzen 7 1700 und wo der 7700K in 3-5 Jahren in Bezug auf Gaming stehen wird. Stand heute ist der 7700K die wohl etwas bessere Gaming-CPU. Allerdings gehe ich davon aus das der Ryzen in dieser Zeitspanne besser altern wird als die Intel-CPU, jedoch glaube ich nicht das dies allzu dramatisch ausfallen wird. Heute ist der 7700K 10% besser und in 3-5 Jahren wird der Ryzen vielleicht 10% + x besser sein. Meiner Meinung nach entscheidet hier die persönliche Präferenz was besser ist und welchen Weg man gehen möchte. Ganz egal ob Ryzen 7 1700 oder 7700K mit beiden macht man die nächsten Jahre nicht viel falsch. Ohnehin dürften unterm Strich beide nach spätestens 5 Jahren zum Alt-Silizium gehören und damit ein Update rechtfertigen.

Mal ein paar aktuelle Beispiele, an dennen ich dir zeigen kann, dass der Unterschied deutlich größer ausfallen wird.

1) Hyperthreading hilft in Games deutlich
Zwischen einem 2500k und 2600k liegen nur 100MHz und eben Hyperthreading. In Cinebench sollten laut theoretischem Test maximal 25% im Extremfall bei rumkommen. Bei Games, welche eine Mindesthreadzahl fordern sieht das aber auch mal ganz anders aus. Nicht nur weil sich der 2600k absetzt, sondern weil die fehlenden Ressorcen dem 2500k das Genick brechen.
BF1, DX12, Computerbase

Warum ist das so? Eine CPU, welche zu 100% ausgelastet ist, kann einfach keine kritischen Aufgaben mehr dazwischen schieben, sodass man deutliche Hänger oder Leistungseinbußen hat. Willkommen im SingleCore-Zeitalter - Manche erinnern sich. Eingrund weshalb ich vor Jahren schon einen Intel E3-Xeon empfholen habe. Das hohe OC eines 6600k verpufft daher in der Bedeutungslosigkeit. Ein Grund weshalb eben auch CPUs mit mehr Kernen die deutlich besseren Frametimes aufweisen.

2) fehlende Kerne kann man nicht immer durch Hyperthreading ersetzen.
Zwischen dem 2500k und dem 7700k liegen 30% Takt, Hyperthreading und über 30% IPC. Es kommt fast nichts davon an.



3) Es wird auch Spiele geben, welche nicht alle Kerne nutzen, na und?
Es ist doch keine Überraschung, dass es Spiele geben wird, welche auch mal nicht alle Kerne nutzen. Viel interessanter ist die Tatsache, dass man durch einen ausreichenden Takt von grob 3,5Ghz und eine aktuelle IPC keine Nachteile hat. Viele moderne Spielengines zeigen bereits, dass Threads wichtiger sind als ein hoher Takt. Die Spielentwickler kommen nicht drum herum den Overhead zu reduzieren. Selbst unter DX11. 5Ghz als Vorrasusetzung werden wir nicht sehen in den nächten Jahren.

10 Jahre alt. Nach wie vor aktuell. Takt hängt bei grob 4GHz.
moores-law-doesnt-matter-anymore-6-638.jpg


Ich bin zwar auch immer davon ausgegagen, dass moderne Spiele eine moderne IPC und Takt vorraussetzen, aber mal ein Beispiel, welches das Gegenteil eindrucksvoll beweist. 2Ghz als Gaming-CPU wäre vor ein paar Jahren noch eine Lachnummer gewesen. Hier skaliert die Engine mit 10 Kernen und lediglich 2GHz Takt suverän ins GPU-Limit. Klar reichen 4 Kerne mit hohem Takt auch aus, darum geht es aber nicht. 4 schnelle Kerne reichen aus, dass heißt aber nicht, dass sie schneller sind.
Beispiel: mit 4 Ghz und 4 Kernen ab ins GPU-Limit.

Ghost-Recon-Wildlands-CPU-Skalierung-4-0-GHz-pcgh.png


Dreht man einmal den Takt auf sehr niedrige 2 GHz runter sieht man wie gut die Engine skaliert. Und siehe da man ist wieder im GPU-Limit, also der Grafikkarte geht die Luft aus. Und das wo doch 2 GHz ein Unding sind! Leider hat der 6950x "nur" 10 Cores, daher man sieht garnicht ob noch mehr möglich wäre.

Ghost-Recon-Wildlands-CPU-Skalierung-2-0-GHz-pcgh.png


4) Wie sieht die perfekte Gaming CPU aus?
Die gibt es schlicht nicht. Da die Software zu unterschiedlich ist. Aber im Schnitt über alle Anwendungen ist die Frage ganz einfach zu beantworten, da dies Ausreißer ausschließt.
IPC, Takt, Kerne, Threads - jede dieser Eigenschaften sollte man soweit wie möglich mit seinem Budget ausreizen.

Vor 2 Jahren habe ich immer den 5820k empfohlen, aber der war ja vielen schon zu sehr "mehr als 4 Kerne braucht man ja eh nicht". Schauen wir mal in 2 Jahren wieder vorbei. Dann ist mein 5960x an die 4,5 Jahre alt @ Stock schneller als jeder Quad@OC in Games. Bereits heute ist die CPU im Schnitt ja so schnell wie der 7700k trotz 1 Ghz weniger Takt. Und dann kommen noch die 50% OC. Vielleicht topt die Platform ja die Nutzungsdauer von 7 Jahren meines Q6600@3,7Ghz. ;)

Ich bin hier weder für AMD noch für Intel. Ich bekämpfe nur den "4 Kerne reicht für alles Blödsinn" und die mangelhaften Testberichte oder nicht vorhandenen Prognosen zur Zukunft der Gaming-CPUs.

Habt ihrs nun bald? Solltet ihr nach eurer Pro Ryzen Argumentation für den 8 Kerner mit Hinweis auf die Konsolen nicht den Thread mal umbenennen? Denn nach eurer Argumentation sind ja nur diese Zukunftsfähig und ein 4 Kerner mit Multithreading an der "Kotzgrenze".
Deshalb sollte der Thread in " Warum der 8 Kerner Ryzen eine hevorragende gaming CPU ist" umbenannt werden.
Jedenfalls ist das ja der O-Ton, den man hier so herausliest, zwischen den ganzen persönlichen Anfeindungen.

Könnte man machen, da aber AMD über das ganze Ryzen-Lineup mehr Kerne bzw Threads bietet als Intel ist das dann schon wieder egal. Klar sind 8 Kerne in den Konsolen verbaut, aber die Skalierung der Titel zeigt, dass im Gegensatz zu früher hier nicht mehr genau dort aufgehört wird mit der Paralelisierung. Ein Grund wird vermutlich sein, dass die Release-Abstände der Konsolen dank PC Technik nun kleiner ausfallen.
 
Zuletzt bearbeitet:
Sehr gut formuliert und belegt
nur ein problem gibt es, Directx allgemein ist auf Takt beschränkt auf einen Kern an Zeichenbefehlen drawcalls.
Weil dieser thread aber seriell ist lässt sich dieser wegen der api nicht addieren.
das ist klar eine api limitierung
Vulkan machte s besser aber da scheiterts an den drivern von nvidia und amd
Wogegen amd einfach den vorteil hat das sie einen hardware sheduler haben anstatt wie bei nvidia einen software sheduler haben.
Aber driver war schon immer in problem bei den gpu herstellern, es wird erst dann was getan wenn es eng wird.
Siehe theater zu mantle release 2013 und dann die folgenden wunder treiber bei nvidia
und dx12 wird nichts ändern. Weil nvidia einfach kein hardware sheduler hat und diesen auch nicht einstezen wird in den nächsten 5 Jahren
das würde mich schon stark wundern das die Planungen bei volta anfang 2015 das berücjsichtig hat. Wo keienr was von dx12 akä amd gcn architektur api wusste
und vor 2022 wird da nichts mehr neues kommen von nvidia
Eine gänzlich neu konstruierte gpu Architektur entwickelt man nicht in 2 Jahren
die letzte von nvidia war g80 von 2006 der nachfolger ist tesla 2008 (gt200) die aktuelle ist pascal (gp102)
Pascal ist zu 100% identisch zu maxwell gm100 mehr takt
maxwell ist zu kepler etwa 95% identisch gk100 mehr takt
kepler ist zu 80% identisch zu fermi gf100 wieder geändert shader takt gleichgestellt zum coretakt
fermi ist zu 50% identisch zu tesla gt200 da war der größte Sprung weil nvidia shader Takt getrennt vom coretakt
tesla ist zu 80% identisch zu g80
g80 ist die legendäre gtx8800 ultra wo nvidia von dedizierten vertex pixel shader zu unified shader gewechselt hat mit den support auf dx10
nvidia hatte nie wirklich hardware sheduler weil eben directx dies nicht erfordert. Die idee hatte amd mit gcn 2011
anyway
Was ist also bei volta ich erwarte mehr Takt shader Anzahl ansonsten keine Änderung
bedeutet einfach das die gtx1180 ti (gv100) ein plus von 15% bekommt entweder durch mehr shader oder mehr Takt.
Wird damit die Architektur geändert nein.
Was nach volta kommt ist noch unklar. das zeigt aber klar an das nvidia was völlig neues bringt was bestimmt einen hardware sheduler beinhaltet.
AMD währenddessen kann beruhigt ihre gcn technik weiter setzen und am driver overhead arbeiten in dx11
ich sehe sogar kommen das amd navi, nvidia volta überholt in dx12. einfach weil eben die cpu limitieren mehr als 4,4ghz sind momentan unrealistisch
Das wird erst dann zum thema wenn mehr games dx12 als Grundlage haben also ab 2018/19
vermutlich wird aber dx11 als standard bleiben.Weil optisch dx12 nicht bringt und performance nur bei einen GPU Hersteller etwas und das auch den der den kleineren Marktanteil hat.
 
Zuletzt bearbeitet:
Mal ein paar aktuelle Beispiele, an dennen ich dir zeigen kann, dass der Unterschied deutlich größer ausfallen wird.

1) Hyperthreading hilft in Games deutlich
Zwischen einem 2500k und 2600k liegen nur 100MHz und eben Hyperthreading. In Cinebench sollten laut theoretischem Test maximal 25% im Extremfall bei rumkommen. Bei Games, welche eine Mindesthreadzahl fordern sieht das aber auch mal ganz anders aus. Nicht nur weil sich der 2600k absetzt, sondern weil die fehlenden Ressorcen dem 2500k das Genick brechen.
BF1, DX12, Computerbase

Warum ist das so? Eine CPU, welche zu 100% ausgelastet ist, kann einfach keine kritischen Aufgaben mehr dazwischen schieben, sodass man deutliche Hänger oder Leistungseinbußen hat. Willkommen im SingleCore-Zeitalter - Manche erinnern sich. Eingrund weshalb ich vor Jahren schon einen Intel E3-Xeon empfholen habe. Das hohe OC eines 6600k verpufft daher in der Bedeutungslosigkeit. Ein Grund weshalb eben auch CPUs mit mehr Kernen die deutlich besseren Frametimes aufweisen.

2) fehlende Kerne kann man nicht immer durch Hyperthreading ersetzen.
Zwischen dem 2500k und dem 7700k liegen 30% Takt, Hyperthreading und über 30% IPC. Es kommt fast nichts davon an.



3) Es wird auch Spiele geben, welche nicht alle Kerne nutzen, na und?
Es ist doch keine Überraschung, dass es Spiele geben wird, welche auch mal nicht alle Kerne nutzen. Viel interessanter ist die Tatsache, dass man durch einen ausreichenden Takt von grob 3,5Ghz und eine aktuelle IPC keine Nachteile hat. Viele moderne Spielengines zeigen bereits, dass Threads wichtiger sind als ein hoher Takt. Die Spielentwickler kommen nicht drum herum den Overhead zu reduzieren. Selbst unter DX11. 5Ghz als Vorrasusetzung werden wir nicht sehen in den nächten Jahren.

10 Jahre alt. Nach wie vor aktuell. Takt hängt bei grob 4GHz.
moores-law-doesnt-matter-anymore-6-638.jpg


Ich bin zwar auch immer davon ausgegagen, dass moderne Spiele eine moderne IPC und Takt vorraussetzen, aber mal ein Beispiel, welches das Gegenteil eindrucksvoll beweist. 2Ghz als Gaming-CPU wäre vor ein paar Jahren noch eine Lachnummer gewesen. Hier skaliert die Engine mit 10 Kernen und lediglich 2GHz Takt suverän ins GPU-Limit. Klar reichen 4 Kerne mit hohem Takt auch aus, darum geht es aber nicht. 4 schnelle Kerne reichen aus, dass heißt aber nicht, dass sie schneller sind.
Beispiel: mit 4 Ghz und 4 Kernen ab ins GPU-Limit.

Ghost-Recon-Wildlands-CPU-Skalierung-4-0-GHz-pcgh.png


Dreht man einmal den Takt auf sehr niedrige 2 GHz runter sieht man wie gut die Engine skaliert. Und siehe da man ist wieder im GPU-Limit, also der Grafikkarte geht die Luft aus. Und das wo doch 2 GHz ein Unding sind! Leider hat der 6950x "nur" 10 Cores, daher man sieht garnicht ob noch mehr möglich wäre.

Ghost-Recon-Wildlands-CPU-Skalierung-2-0-GHz-pcgh.png


4) Wie sieht die perfekte Gaming CPU aus?
Die gibt es schlicht nicht. Da die Software zu unterschiedlich ist. Aber im Schnitt über alle Anwendungen ist die Frage ganz einfach zu beantworten, da dies Ausreißer ausschließt.
IPC, Takt, Kerne, Threads - jede dieser Eigenschaften sollte man soweit wie möglich mit seinem Budget ausreizen.

Vor 2 Jahren habe ich immer den 5820k empfohlen, aber der war ja vielen schon zu sehr "mehr als 4 Kerne braucht man ja eh nicht". Schauen wir mal in 2 Jahren wieder vorbei. Dann ist mein 5960x an die 4,5 Jahre alt @ Stock schneller als jeder Quad@OC in Games. Bereits heute ist die CPU im Schnitt ja so schnell wie der 7700k trotz 1 Ghz weniger Takt. Und dann kommen noch die 50% OC. Vielleicht topt die Platform ja die Nutzungsdauer von 7 Jahren meines Q6600@3,7Ghz. ;)

Ich bin hier weder für AMD noch für Intel. Ich bekämpfe nur den "4 Kerne reicht für alles Blödsinn" und die mangelhaften Testberichte oder nicht vorhandenen Prognosen zur Zukunft der Gaming-CPUs.



Könnte man machen, da aber AMD über das ganze Ryzen-Lineup mehr Kerne bzw Threads bietet als Intel ist das dann schon wieder egal. Klar sind 8 Kerne in den Konsolen verbaut, aber die Skalierung der Titel zeigt, dass im Gegensatz zu früher hier nicht mehr genau dort aufgehört wird mit der Paralelisierung. Ein Grund wird vermutlich sein, dass die Release-Abstände der Konsolen dank PC Technik nun kleiner ausfallen.



Alright ich stimme 100% zu
 
Mal ein paar aktuelle Beispiele, an dennen ich dir zeigen kann, dass der Unterschied deutlich größer ausfallen wird.

Da hätte ich absolut nichts dagegen - ganz im Gegenteil. Schön zu sehen, dass mein Beitrag hier zu etwas wirklich produktiven geführt hat.
 
@ Orangefruit

weder muss ein bilder- noch ein fullquote sein für den einen satz.
bitte ändern!
 
Mal ein paar aktuelle Beispiele, an dennen ich dir zeigen kann, dass der Unterschied deutlich größer ausfallen wird.

1) Hyperthreading hilft in Games deutlich
Zwischen einem 2500k und 2600k liegen nur 100MHz und eben Hyperthreading.


2) fehlende Kerne kann man nicht immer durch Hyperthreading ersetzen.
Zwischen dem 2500k und dem 7700k liegen 30% Takt, Hyperthreading und über 30% IPC. Es kommt fast nichts davon an.


3) Es wird auch Spiele geben, welche nicht alle Kerne nutzen, na und?
Es ist doch keine Überraschung, dass es Spiele geben wird, welche auch mal nicht alle Kerne nutzen. Viel interessanter ist die Tatsache, dass man durch einen ausreichenden Takt von grob 3,5Ghz und eine aktuelle IPC keine Nachteile hat. Viele moderne Spielengines zeigen bereits, dass Threads wichtiger sind als ein hoher Takt. Die Spielentwickler kommen nicht drum herum den Overhead zu reduzieren. Selbst unter DX11. 5Ghz als Vorrasusetzung werden wir nicht sehen in den nächten Jahren.

Ich bin zwar auch immer davon ausgegagen, dass moderne Spiele eine moderne IPC und Takt vorraussetzen, aber mal ein Beispiel, welches das Gegenteil eindrucksvoll beweist. 2Ghz als Gaming-CPU wäre vor ein paar Jahren noch eine Lachnummer gewesen. Hier skaliert die Engine mit 10 Kernen und lediglich 2GHz Takt suverän ins GPU-Limit. Klar reichen 4 Kerne mit hohem Takt auch aus, darum geht es aber nicht. 4 schnelle Kerne reichen aus, dass heißt aber nicht, dass sie schneller sind.

Dreht man einmal den Takt auf sehr niedrige 2 GHz runter sieht man wie gut die Engine skaliert. Und siehe da man ist wieder im GPU-Limit, also der Grafikkarte geht die Luft aus. Und das wo doch 2 GHz ein Unding sind! Leider hat der 6950x "nur" 10 Cores, daher man sieht garnicht ob noch mehr möglich wäre.


4) Wie sieht die perfekte Gaming CPU aus?
Die gibt es schlicht nicht. Da die Software zu unterschiedlich ist. Aber im Schnitt über alle Anwendungen ist die Frage ganz einfach zu beantworten, da dies Ausreißer ausschließt.
IPC, Takt, Kerne, Threads - jede dieser Eigenschaften sollte man soweit wie möglich mit seinem Budget ausreizen.

1.
Nein, der 2600k hat auch mehr L3-Cache. Mehr L3-Cache muss nicht unbedingt mehr Leistung bringen, kann aber mehr Leistung bringen.
Schau dir mal den i7-5775C der durch den "L4-Cache" teilweise ordentlich an Leistung gewinnt.

2.
Yup, mit der Betonung auf nicht immer.

Aber als Anmerkung. Zwischen dem i5 2500k und dem i7-7700k liegen mehr als nur Takt, IPC und HyperThreading.
Z.b. gab es Änderungen ab Haswell (Haswell – Thomas-Krenn-Wiki) und bei Skylake/Kabylake kommen noch Sachen wie Speedshift hinzu.

3.
Keine Nachteile? Was ist denn mit Far Cry 4 oder Primal, die relativ abhängig von der Singlecore Leistung sind?

Und sich über unrealistische 720p Tests beschweren und dann so einen Vergleich bringen. Wer untertaktet seinen 6950x schon auf 2 GHz?

Wie du sagst, skaliert das Spiel sehr gut mit Kernen sowie Threads und nutzt auch 8+Threads, also ein gutes Beispiel für ein "Multicore-optimiertes" Spiel oder? Und mehr Kerne werden in solchen Spielen immer Vorteile bringen oder nicht?
Interessant, dass sich der i7-7700k mit weniger Kernen und Threads gegenüber dem Ryzen 7 1700 mit 4 GHz behaupten kann um gute 10%

Siehe hier: CPU Bottleneck? GeForce GTX 1080 Ti Tested on AMD Ryzen versus Intel Kaby Lake - Page 5 of 6 - Legit ReviewsFallout 4 Ghost Recon Wildlands

Ja der Trend geht in Richtung mehr Kerne, mehr Threads, aber nicht so, dass 4C/8T CPUs abrupt unbrauchbar werden. Viele Spiele nutzen schon heute mehr als 8 Threads, nur ist die Last der Threads so gering, dass diese so schnell abgearbeitet werden, dass man keinen Nachteil von 4C/8T hat. Was dein toller Vergleich ja auch bestätigt, da 4C/4T mit 4GHz schon reichen um ins GPU-Limit zu laufen.
Auch muss man beachten, dass durch immer mehr Threads der Synchronisierungsaufwand immer größer wird und zudem lässt sich nicht immer alles parallelisieren, sodass man die Anzahl an Threads, bei Spielen oder Anwendungen, nicht beliebig hoch schrauben kann.

Siehe dazu: Amdahlsches Gesetz – Wikipedia

4.
Yup.


G3cko schrieb:
Ich bin hier weder für AMD noch für Intel

^^


Ps: Ich habe keine bunten Bildchen eingefügt, ich hoffe ihr mögt den Beitrag trotzdem :d
 
Zuletzt bearbeitet:
1.
Nein, der 2600k hat auch mehr L3-Cache. Mehr L3-Cache muss nicht unbedingt mehr Leistung bringen, kann aber mehr Leistung bringen.
Schau dir mal den i7-5775C der durch den "L4-Cache" teilweise ordentlich an Leistung gewinnt.

2.
Yup, mit der Betonung auf nicht immer.

Aber als Anmerkung. Zwischen dem i5 2500k und dem i7-7700k liegen mehr als nur Takt, IPC und HyperThreading.
Z.b. gab es Änderungen ab Haswell (Haswell – Thomas-Krenn-Wiki) und bei Skylake/Kabylake kommen noch Sachen wie Speedshift hinzu.

3.
Keine Nachteile? Was ist denn mit Far Cry 4 oder Primal, die relativ abhängig von der Singlecore Leistung sind?

Und sich über unrealistische 720p Tests beschweren und dann so einen Vergleich bringen. Wer untertaktet seinen 6950x schon auf 2 GHz?

Wie du sagst, skaliert das Spiel sehr gut mit Kernen sowie Threads und nutzt auch 8+Threads, also ein gutes Beispiel für ein "Multicore-optimiertes" Spiel oder? Und mehr Kerne werden in solchen Spielen immer Vorteile bringen oder nicht?
Interessant, dass sich der i7-7700k mit weniger Kernen und Threads gegenüber dem Ryzen 7 1700 mit 4 GHz behaupten kann um gute 10%

Siehe hier: CPU Bottleneck? GeForce GTX 1080 Ti Tested on AMD Ryzen versus Intel Kaby Lake - Page 5 of 6 - Legit ReviewsFallout 4 Ghost Recon Wildlands

Ja der Trend geht in Richtung mehr Kerne, mehr Threads, aber nicht so, dass 4C/8T CPUs abrupt unbrauchbar werden. Viele Spiele nutzen schon heute mehr als 8 Threads, nur ist die Last der Threads so gering, dass diese so schnell abgearbeitet werden, dass man keinen Nachteil von 4C/8T hat. Was dein toller Vergleich ja auch bestätigt, da 4C/4T mit 4GHz schon reichen um ins GPU-Limit zu laufen.
Auch muss man beachten, dass durch immer mehr Threads der Synchronisierungsaufwand immer größer wird und zudem lässt sich nicht immer alles parallelisieren, sodass man die Anzahl an Threads, bei Spielen oder Anwendungen, nicht beliebig hoch schrauben kann.

Siehe dazu: Amdahlsches Gesetz – Wikipedia

4.
Yup.




^^


Ps: Ich habe keine bunten Bildchen eingefügt, ich hoffe ihr mögt den Beitrag trotzdem :d

Stimmt den L3 -Cache hatte ich nicht auf dem Schirm. Dieser wird aber nicht für 60% Unterschied sorgen. Was dafür spricht ist eben die Tatsache, dass es auch auf dem 7600k ebenfalls nicht wirklich rund läuft. Siehe Postings hier im Forum. Dieser hat zwar deutlich mehr fps als der 2600k (35%), trotzdem gibt es störende Hänger. Der 5775C mit seinen 128MB ist aber eine große Ausnahme.

Es geht um die Skalierbarkeit von modernen Engines, nicht darum wer seine CPu auf 2GHz taktet. Und die Behauptung, dass der Takt eben zu Nebensache wird. => Thema nicht verstanden. Farcry4 ist von 2014, ergo kein aktueller technischer Maßstab. Primal als Nachfolger läuft bereits mit einem FX mit 75 fps. AMD Ryzen 7 1800X Review - Performance - dGPU Extended Tests GeForce GTX 1080 - DX11: Far Cry Primal

Speedshift kam als Verbesserung wegen dem problematischen Core-Parking. Speedshift bringt dir nur etwas wenn die Kerne einer CPU unterschiedlich takten können und man häufige Lastwechsel hat. Schlafzustand -> Tubro kostet Zeit. Ergo bringt es bei einer CPU mit 100% Auslastung garnichts mehr. Bei einer CPU wo alle Kerne synchron takten entfällt der Vorteil ebenfalls. Deshalb demonstrierte auch Intel Speedshift auf einem Tablet wo man beim typischen Wischen eben keine Ruckler mehr hat. Schneller Wechsel des Lastzustands. Total unsinnig sind daher MultiCore Benchmarks in Cinebench um den neuen Energiesparplan von AMD zu testen.

Ich würde nicht immer Ryzen als Maßstab nehmen. Orientiere dich an Broadwell-E. Ryzen wird auf dem Niveau oder sogar darüber landen. Da gibt es einfach zu viele Ausreißer welche nicht ins Bild passen. Du vergisst, dass die ganze Softwarelandschaft eben noch nichts mit Ryzen anfangen kann. Siehe auch DX12 Treiber von Nvidia in Kombination mit Ryzen. Compiler welche seit über 10 Jahren auf die Core-Architektur abgestimmt sind. Die syntethischen Bechmarks geben hier einen guten Ausblick. Eine gute Analyse AMD Ryzen 7 1800X Review – Teil 2 | Planet 3DNow!
 
3) Es wird auch Spiele geben, welche nicht alle Kerne nutzen, na und?

Was heißt da auch? Es von heutigem Stand aus kaum games die mehr als 4 Kerne und hyperthreading benoetigen.

Es ist doch keine Überraschung, dass es Spiele geben wird, welche auch mal nicht alle Kerne nutzen.
Die Untertreibung des jahrhunderts. Genau umgekehrt.

Viel interessanter ist die Tatsache, dass man durch einen ausreichenden Takt von grob 3,5Ghz und eine aktuelle IPC keine Nachteile hat. Viele moderne Spielengines zeigen bereits, dass Threads wichtiger sind als ein hoher Takt.

Genau das Gegenteil ist richtig. Du siehst bei niedrigem Takt wie 8 cores etwas bewirken und bei normalen Taktraten tun sie es nicht.

Zwischen einem 2500k und 2600k liegen nur 100MHz und eben Hyperthreading.

Cache!!

2) fehlende Kerne kann man nicht immer durch Hyperthreading ersetzen.
Zwischen dem 2500k und dem 7700k liegen 30% Takt, Hyperthreading und über 30% IPC. Es kommt fast nichts davon an.

Genau deshalb ist ein FX8370 mit 8 cores weit hinter einem 2500k mit 4 cores?
Auch here gilt cache!!!! keine Kerne.
Der 6850k ist vor dem 6950x und 6900k!

Es wird auch Spiele geben, welche nicht alle Kerne nutzen, na und?

So lange das so ist ist ryzen langsamer als ein cabylake 7700k. Nicht egal.
Kann auch egal sein wen ryzen spaeter etwas schneller ist.

Ich bin zwar auch immer davon ausgegagen, dass moderne Spiele eine moderne IPC und Takt vorraussetzen, aber mal ein Beispiel, welches das Gegenteil eindrucksvoll beweist. 2Ghz als Gaming-CPU wäre vor ein paar Jahren noch eine Lachnummer gewesen.

Was fuer ein Bloedsinn. Haswell- E hat eine hohe instructions per cycle performance, natuerlich reichen here auch 2ghz aus.
Bereits 4 threads mit solidem Takt reichen locker aus fuer das game.

Dreht man einmal den Takt auf sehr niedrige 2 GHz runter sieht man wie gut die Engine skaliert. Und siehe da man ist wieder im GPU-Limit, also der Grafikkarte geht die Luft aus. Und das wo doch 2 GHz ein Unding sind!

Man kann auch mit nur halbe ram-takt messen. Das bringt fuer die Praxis nichts. Und 2ghz sind kein Unding, das haben heutzutage viele notebookprocessors.

4) Wie sieht die perfekte Gaming CPU aus?

Eine CPU welche fuer das Geld am meisten Leistung liefert.

Dann ist mein 5960x an die 4,5 Jahre alt @ Stock schneller als jeder Quad@OC in Games.

Glaube ich nicht! Und wenn fuer was 4,5 Jahre warten.:haha:
Eine solche CPU kostet 1000 dollars. In 2 Jahren gib es ryzen2.

Ich bekämpfe nur den "4 Kerne reicht für alles Blödsinn" und die mangelhaften Testberichte oder nicht vorhandenen Prognosen zur Zukunft der Gaming-CPUs.

Das ist kein Bloedsinn, sonder das ist fuer games richtig und kein Test ist mangelhaft.
Mangelhaft sind die Schlussziehungen von dir.

Du machst es dir sehr sehr einfach mit allem und begehst handwerkliche Fehler.
 
Aufgeräumt.
:btt2:
Danke.
 
Stimmt den L3 -Cache hatte ich nicht auf dem Schirm. Dieser wird aber nicht für 60% Unterschied sorgen. Was dafür spricht ist eben die Tatsache, dass es auch auf dem 7600k ebenfalls nicht wirklich rund läuft. Siehe Postings hier im Forum. Dieser hat zwar deutlich mehr fps als der 2600k (35%), trotzdem gibt es störende Hänger. Der 5775C mit seinen 128MB ist aber eine große Ausnahme.

Ich wollte es halt nur erwähnen, dass auch der L3-Cache eine Rolle spielen kann. Klar wird dieser nicht für 60% Unterschied sorgen, allerdings man muss schon alle möglichen Variablen beachten^^

Es geht um die Skalierbarkeit von modernen Engines, nicht darum wer seine CPu auf 2GHz taktet. Und die Behauptung, dass der Takt eben zu Nebensache wird. => Thema nicht verstanden. Farcry4 ist von 2014, ergo kein aktueller technischer Maßstab. Primal als Nachfolger läuft bereits mit einem FX mit 75 fps. AMD Ryzen 7 1800X Review - Performance - dGPU Extended Tests GeForce GTX 1080 - DX11: Far Cry Primal

Ich habe schon verstanden, dass es um die Skalierbarkeit von Multicore geht. Die Sache ist nur, 720p Tests werden als Schwachsinn und sinnlos abgetan, da sie nicht der Realität entsprechen (ich meine du gehörst auch zu denen, die dies behauptet haben), obwohl so nur versucht wird das GPU-Limit entfernen. Aber dann ist auf einmal so ein Test in Ordnung? Hört sich ehr nach Doppelmoral an.
Außerdem zeigt der Test eben nicht, dass Takt Nebensache ist, denn um ins GPU-Limit zu laufen reichen bei 4GHz 4C/4T während du bei 2 GHz mit 8C/16T noch nicht im GPU-Limit bist. Ja ich weiß es sind nur ~4 FPS Unterschied, aber wie große wäre wohl der Unterschied, wenn man noch nicht im GPU-Limit wäre?

Und zu Far Cry Primal, hier sind die Unterscheide etwas größer:


ab Minute 4:46.

Speedshift kam als Verbesserung wegen dem problematischen Core-Parking. Speedshift bringt dir nur etwas wenn die Kerne einer CPU unterschiedlich takten können und man häufige Lastwechsel hat. Schlafzustand -> Tubro kostet Zeit. Ergo bringt es bei einer CPU mit 100% Auslastung garnichts mehr. Bei einer CPU wo alle Kerne synchron takten entfällt der Vorteil ebenfalls. Deshalb demonstrierte auch Intel Speedshift auf einem Tablet wo man beim typischen Wischen eben keine Ruckler mehr hat. Schneller Wechsel des Lastzustands. Total unsinnig sind daher MultiCore Benchmarks in Cinebench um den neuen Energiesparplan von AMD zu testen.

Schön erklärt, was Speedshift macht, aber das weiß ich.
Es ging mir ehr darum aufzuzeigen, dass es zwischen 2500k und 7700k mehr Unterscheide gibt als nur IPC, Takt und Kerne.

Ich würde nicht immer Ryzen als Maßstab nehmen. Orientiere dich an Broadwell-E. Ryzen wird auf dem Niveau oder sogar darüber landen. Da gibt es einfach zu viele Ausreißer welche nicht ins Bild passen. Du vergisst, dass die ganze Softwarelandschaft eben noch nichts mit Ryzen anfangen kann. Siehe auch DX12 Treiber von Nvidia in Kombination mit Ryzen. Compiler welche seit über 10 Jahren auf die Core-Architektur abgestimmt sind. Die syntethischen Bechmarks geben hier einen guten Ausblick. Eine gute Analyse AMD Ryzen 7 1800X Review – Teil 2 | Planet 3DNow!

x86-Befehlssatzarchitektur ist x86-Befehlssatzarchitektur, daher denke ich schon, dass die Software etwas mit Ryzen anfangen kann. Dies bestätigen ja auch die synthetischen Tests.
Die Probleme scheinen ehr am Core-Parking und dem Flaschenhals bei der Kommunikation zwischen den beiden L3-Cache-Blöcken der beiden CCX zu liegen.
Der neue Energieplan von Amd hat ja schon was an Leistung gebracht und das Core-Parking entfernt.
 
Zuletzt bearbeitet:
Bitte versuch wenigstens deine Texte halbwegs lesbar zu gestalten. Die Texte lesen sich grauenhaft und deine Gedankengänge sind auch nicht nachvollziehbar. Was soll der Vergleich zwischen einen FX und einem i7 und was soll der Cache damit zu tun haben? Die Singlecoreleistung eines FX liegt hinter dem eines Core i. Generell gilt dort übrigens auch, wenn Spiele mehr als 4 Threads nutzen, dann profitiert auch ein FX davon.

Wie man hier sehen kann.

Just Cause 3 те�т GPU | Action / FPS / TPS | Те�т GPU

Pro Modul legt der FX ordentlich zu. Genau wie auch die i7 vor den i5 liegen (und Sockel 2011 vor 115x) und das dürfte eher weniger am Cache liegen. sonst gäbe es auch beim FX nicht diesen Sprung.

Oder hier. Dort liegt ein oller Sandy-E ziemlich weit vorne.

Watch Dogs те�т GPU | Action / FPS / TPS | Те�т GPU

Oder wie wäre es mit dem Nachfolger Watch Dogs 2.

Watch Dogs 2 те�т GPU 2016 | Action / FPS / TPS | Те�т GPU

Läuft auf Skylake wesentlich besser, als auf SB, trotzdem kommt der 2600 K einem 6600 nahe. Der Fx skaliert hier auch klar mit mehr Kernen. Ein 6300 liegt 20% vor dem 4300 trotz weniger Takt.
Der 8350 liegt sogar mit knapp 70% (4300) bzw 40% (6300) vorn.


Alternativ mal ein Spiel, dessen Mehrkernunterstützung eher im unteren Bereich ist.

Bulletstorm Full Clip Edition те�т GPU | Action / FPS / TPS | Те�т GPU

i5 und i7 liegen sehr nach beieinander (trotz der 2 MB mehr Cache) und auch beim FX liegt wieder Takt vor Kerne.
 
Zuletzt bearbeitet:
x86-Befehlssatzarchitektur ist x86-Befehlssatzarchitektur, daher denke ich schon, dass die Software etwas mit Ryzen anfangen kann. Dies bestätigen ja auch die synthetischen Tests.
Die Probleme scheinen ehr am Core-Parking und dem Flaschenhals bei der Kommunikation zwischen den beiden L3-Cache-Blöcken der beiden CCX zu liegen.
Der neue Energieplan von Amd hat ja schon was an Leistung gebracht und das Core-Parking entfernt.

Zu erwähnen wäre da noch der IMC. Golem.de bringt das ganz gut auf den Punkt.

Spiele funktionieren anders als viele Anwendungen

Das wird allerdings nichts an der grundlegenden Schwäche der aktuellen Zen-Implementierung bei Ryzen ändern: In Spielen werden kontinuierlich große Datenmengen zwischen RAM, Caches, Kernen und Bussystem verschoben. Ein schneller Speichercontroller ist essenziell, und genau den hat Ryzen nicht, nur durch Übertaktung lässt er sich beschleunigen. Dass die neuen AMD-Chips bei Rendering-Anwendungen oder Videotranscodern schnell sind, liegt daran, dass sich die Daten aus Eingangs- und Ausgangsmaterial zur Laufzeit nicht ändern und die Algorithmen so klein sind, dass sie in der Regel in die Caches passen. Bei Spielen und Packern ist das anders, sie erzeugen zur Laufzeit stets sich ändernde Daten. Aber: Games profitieren nicht von Intels Quadchannel.

Quelle: In Spielen etwas zur - Golem.de
 
oder einfach auf Ryzen 2.0 warten,dann sollten die Boardhersteller auch alles ausgemerzt haben
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh