Weshalb Ryzen eine hervorragende Gaming CPU 2017 ist

Ich muss aber auch mal anmerken das die ganzen Online Portale dran schuld sind. An diesem Ryzen ist nicht so toll *buhuhu*. Die Testen in 720P natürlich um zu zeigen was die CPU so reißt. Das ist aber fern ab von der Praxis. 90% der Leute fliegen über die Test drüber sehen 20% schnellere Intel´s und der Trobs ist gelutscht.... Da macht sicher keiner mehr Gedanken drüber über Skallierung oder kommende Patches. G3cko ich finde dein Arrangement echt gut aber du kannst den Blinden nicht lesen beibringen. Ich hab mein Ryzen 6Kerner und bin überaus Glücklich damit. Der Rendert wie die Hölle und beim Zocken alles i.O. da ich sowieso mit Vsync Spiele ist das mir Herzlich egal ob nur 120 FPS anliegen wärend ein i7 132 machen würde.

max FPS sind die uninteressantesten. MIN und AVG sind deutlich wichtiger sowie konstante frames. erst dann kommen die max frames

Die Testen in 720P natürlich um zu zeigen was die CPU so reißt

genau das ist doch der sinn darin.

Das ist aber fern ab von der Praxis.

warum benchst du nicht gleich in 8 oder 16k ? ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es macht schon Sinn, in 1080p zu benchen, da das Groß der Gamer zwischen 720p und 1440p zockt - also "mittig" bei 1080p. In 4K zocken die wenigsten - genau so wie unter 720p.

Außerdem dadurch nicht nur die CPU, sondern die komplette Plattform getestet.

So kann man bspw. bei Games mit deutlich umfangreicheren Draw Calls etc. beobachten, wie die jeweilige Plattform oder Kernanzahl mit der höheren (DX11) oder niedrigeren (DX12) CPU-GPU-Bandbreitenproblemen umgeht. In 720p ist die GPU nicht so stark belastet, so dass nur die CPU bei den Draw Calls gefordert wird - was aber, wenn die GPU in 1080p auch auf die CPU wartet/einwirkt, ohne gleich im Limit rumzuspringen? ;)
 
So kann man bspw. bei Games mit deutlich umfangreicheren Draw Calls etc. beobachten, wie die jeweilige Plattform oder Kernanzahl mit der höheren (DX11) oder niedrigeren (DX12) CPU-GPU-Bandbreitenproblemen umgeht. In 720p ist die GPU nicht so stark belastet, so dass nur die CPU bei den Draw Calls gefordert wird - was aber, wenn die GPU in 1080p auch auf die CPU wartet/einwirkt, ohne gleich im Limit rumzuspringen? ;)

Zum ersten, das ist effektiv immer CPU ;)
Das Limit entsteht bei Zeichenaufrufen. Und diese tätigt die Software. Mehr Aufrufe = mehr Leistungsanforderung. Bei NV mit einem Aufsatz, der daraus eine gewisse Skalierung über Multithreading erzeugt. Bei AMD weniger MT Skalierung. (bis einschließlich DX11). Drüber dann MT aber auch nur in dem Maße, wie es der Spieleprogrammierer implementiert. Kleckern die Aufrufe vorn nur so rein, kann dir hinten eine DX12/Vulcan MT Implementation auch nicht mehr helfen. Die nunmehr völlig andere Skalierung zwischen AMD und NV macht eine Messung mit AMD sowie NV GPU ebenso notwendig um allgemeingültige Aussagen treffen zu können.

Zum zweiten, eigentlich wartet die GPU IMMER auf die CPU. Warum? ...
Weil ein Frame IMMER aus einem Teil CPU rechenarbeit und einem Teil GPU Rechenarbeit besteht. Die Summe beider Zeiten ist die "Frametime", welche über mehrere Frames hinweg pro Sekunde zusammengefasst angegeben wird. (FPS halt)
Von einem GPU Limit spricht man, wenn die Zeit, die die GPU benötigt, viel länger ist als die, welche die CPU benötigt (und umgekehrt für ein CPU Limit). Warum? Weil während die GPU rechnet, die CPU schon das nächste Frame berechnen kann. Kommt die GPU dann nicht hinterher, entsteht Leerlauf auf der CPU. Andersrum, wenn die CPU nicht hinterher kommt, entsteht Leerlauf auf der GPU.
Bei der CPU kommt aber erschwerend hinzu, wenn der Thread (bis DX11), der für die API-Calls zuständig ist, durch Hintergrundtasks NICHT volle Leistung aufrufen KANN, dann flacht die Skalierung ab, bzw. es brechen die Frames ein. (Beispiele sind hohe CPU Last bei CPUs mit SMT, also 50%. Oder/Und ungünstige Threadverteilung)
Man sollte allerdings nicht unterschätzen, dass hier dynamische Szenen gemessen werden. Das heist, schon das nächste Frame der (idR schon sehr kurzen) Benchszene könnte völlig andere Anforderungen haben. Damit gibt es idR immer mal ein hin und her zwischen GPU und CPU Wartezeit.

Im Unterschied zu den Anfängen der 3D Grafik/den Anfängen der avg. FPS Balkendiagramme sind heute FPS und Game-Backend weitestgehend voneinander gelöst, aber gewisse Beziehungen sind trotzdem vorhanden. Bspw. wenn es auf der Backend-Seite ZU langsam ist/wird, so dass die KI/Physik/Sound/whatever Geschichten nicht fertig sind. Denn dann wartet sowohl der CPU-Part für die API (denn der braucht Input vom Backend) als auch der GPU Part (der braucht Input von der API). Die Game-Backend Tasks sind aber weitestgehend auf MT ausgelegt. Die Grafik-API nur bedingt. Der NV-MT-Aufsatz erzeugt höheren Overhead, es fällt also mehr Arbeit an, dafür gibt es ein Stück weit MT Skalierung. Wenn ein Spiel also unter DX11 und älter auch mit einer AMD GPU über die CPU Breite halbwegs skaliert, dann kommt diese Skalierung idR NICHT von der API, sondern, weil das Backend skaliert. Was aber auch zeigt, DX12/Vulcan ist gar nicht zwangsweise notwendig für eine MT Skalierung (krasses Beispiel ist hier Crysis3 im Graslevel!). Der Fehler, der allerdings immer begannen wird -> man versucht MT-Skalierung über die CPU Breite nach OBEN zu ermitteln. Das Problem ist aber, der API-Part skaliert nicht endlos... Ab einem gewissen Punkt ist idR. schluss. -> wenn die CPU schnell/breit genug ist, um das C3 Graslevel zu stemmen, dann skaliert das auch nicht mehr! Das wird erst DX12/Vulcan wohl ändern. Das heist aber auch, ein Spiel, was heute am Markt ist, wird kaum bis gar nicht deutlich über 4-8 Threads skalieren können, es sei denn, es ist Vulcan/DX12 (denn wenn das API-Limit einsetzt, dann kann der Spaß noch so gut auf MT aufgebaut sein. Mehr Zeichenaufrufe sind irgendwann einfach nicht drin.) oder das Backend ist extrem breit und hochanfordernd (weit über dem aktuellem Marktschnitt von 2-4C Prozessoren).
Um so älter also das Spiel, desto höher die Warscheinlichkeit ins API-Limit zu rennen, weil die CPUs idR schnell genug sind, den Backend Stuff zu bewältigen, die API aber obenraus nur mit pro Thread Performance wirklich zieht...

Ehrlich gesagt sollte man so langsam mal anfangen, den Spaß zu trennen. Ein Grafik-API Limit (DrawCall Limit) ist was anderes als ein Limit durch das Spielebackend, KI, Physik (abseits von GPU-PhysX) usw. usf.
Leider halten die meisten Redaktionen das nichtmal auseinander mit deren "Belegen" man hier umsich schmeißt, obwohl es eigentlich getrennt gehört... Denn ein API Limit wirkt sich völlig anders aus als ein Spiele-Backend Limit. Es ensteht ein anderes Bild bei der Skalierung über IPC/Takt/Kerne und über verschiedene GPUs. Irgendwie wird aber immer alles in einen Topf geschmissen und alle wundern sich ;) So sieht man bspw. dass heute ein Phenom II X6 gern auch mal alt ausschaut, weil völlig ins API Limit laufend oder auch die Bulldozer FXen, obwohl eine gewisse CPU Breite aber vorhanden ist und auch gewissen Backend-Stuff abfedern kann. Das gleiche gilt auch für andere, pro Thread-leistungsschwache Konstellationen mit viel CPU Breite (und damit immernoch brauchbarer MT Performance) -> wie ältere Dual/Multi-CPU Maschinen.
Warum ist auch letzteres wichtig zu verstehen? Solange man weiterhin DX11 und älter einsetzt wird es zwar eine gewisse CPU-MT Skalierung in aktuellen Titeln geben. (das ist ja das, worauf man hier im Thread ein Stück weit abzielt -> Zukunftssicherheit Ryzen 8C) Aber da die pro Takt Performance stagniert seit geraumer Zeit, wird es in Zukunft dann auch nicht (viel) schneller als heute gehen... Ergo Messungen mit einer Skalierung nach OBEN sind eigentlich kappes, weil dann sehr schnell am Ende. -> falsches Bild entsteht, nämlich keine Skalierung. Auf der anderen Seite -> dann später neuere CPUs mit mehr pro Thread Performance werden wohl wieder in den Titeln die Nase vorn haben, als breite CPUs älterer Bauart, weil pro Thread einfach wieder der Bumms fehlt.

Aber macht mal. Diskusionen über technische Details sind idR ja nicht gewünscht...

Bei AMD versagt der Journalismus meist total, weshalb ich viele Quellen vergleiche bzw. oft kleinere bis mittelgroße Youtuber herziehe.

Und selber Testen ist keine Option für dich?
Kann ich nur empfehlen ;)
 
Selber testen eine Option?
Hab ich vor paar Jahren gemacht, Gelben und viel Zeit gehabt.
Am Ende war man der Troll, weil X, Y und Z ganz andere Werte haben und so seriös sind - ne Danke :d

Wenn man selbst testet, und den Müll anderer damit entlarvt, ist es so, als würde man sich selbst ne Melone in den Anus schieben, weil man das Gefühl bekommt, das halbe Internet flamet dich in Grund und Boden. :banana:
Die Wahrheit tut scheiße weh und das merkt man dann, sobald man hinterfragt ( Was wenige gute YTler tun und als sonstwas abgestempelt werden )

Also, Fdsonne, deinen Tipp kannste behalten und an die Wand klatschen :d

Und für, RAZ0RLIGHT hab ich den Tipp, es nicht zutun. Die Lynchen dich dann nur noch. Lass es bleiben, macht nur Krank.
 
Zuletzt bearbeitet:
Kleiner Funfact: ein fps Cap ist nichts anderes als ein GPU-Limit per Software... :eek:
 
Es wird sich immer beklagt wegen 720p, in diesem Video, na ja geht es hauptsächlich um den Pentium G 4560, ist aber alles in 1080p. Um den soll es uns aber nicht gehen. Wir interessieren uns für die Diagramme.
Dort wird eins schon mal klar, momentan ist Intel noch ein paar Prozentpunkte vorn, aber der Agesa
1.0.0.6 soll schon demnächst mit vielen Verbesserungen mit dem nächsten BIOS geliefert werden.
Danach müssen sowieso alle Benchmarks neu gemacht werden, außer für die Leute die, wie sagt man so schön, einen Betonkopf haben und zu den ewig gestrigen gehören. Zu Thema Software und Spiele Optimierungen gab es die Mitteilung das, das neue CoD schon für Ryzen optimiert sein soll. Habe das Video gefunden, weil ich ein absoluter Fan vom G 4560 bin. Nicht falsch verstehen, bin Fan vom Pentium nicht von Intel. Hätte AMD zuerst nicht nur die größten CPU´s raus gebracht sondern auch noch die kleinsten , z.B. R3 1100, wäre ich vielleicht ein Fan von einem R3 geworden. Ja die kommen auch noch, also ist jede Diskussion über den Sinn und Zweck von 4C/4HT Prozessoren eigentlich überflüssig.

Aber schaut euch mal die Vergleichsdiagramme an, da wird es interessant, auch in Bezug mit welchen RAM Takt getestet wurde.

Intel Pentium G4560 Review: Cannibalizing the i3 - YouTube

Und zum Thema „zukunftssicher“, einige werden ja wahrscheinlich mit dem Gedanken spielen sich VR zu zulegen. Hier gilt das gleiche wie oben gesagte, nach dem BIOS Update werden die Karten neu gemischt.

R7 1700 vs. i7-7700K VR Benchmarks: Vive Rift In-Depth - YouTube
 
Zuletzt bearbeitet:
Ich finde diese ganzen Benchmarks in 720p bissl albern.

720p in 2017, also bitte. Ist doch albern.
 
Ich finde diese ganzen Benchmarks in 720p bissl albern.

720p in 2017, also bitte. Ist doch albern.
+1

Besonders in 720p was keinen interessiert.

Gesendet von meinem SM-G935F mit Tapatalk
 
Gibts irgendwo Benches für Ryzen R7 1700/1800 mit The Division? Wieweit würde ich da von einem 4790K mit 4,6 GHz zum Ryzen zulegen? Mir gehts um FullHD, aber mit 120Hz.
 
Einen Bench könnte ich machen, hab aber nur eine 290X.
 
Robbe das lohnt nicht.
 
@ Tabantel & iwebi

Wenn man nicht kapiert warum man in 720 bencht ist es natürlich albern - aber nur in der heutigen zeit :xmas:
 
ich kann den Threadtitel nur so für mich beenden. ", für alle die nicht einen Intel i5/i7 ab gen3 haben, und aufrüssten wollen als echte Alternaive!"

Das ist aber auch keine neue Erkenntnis. Das war schon vor Jahren so. CPUs halten immer länger, gerade auch weil Taktsteigerungen ausblieben und bleiben. Deshalb war es ja auch so schwer die ganzen C2Q@OC oder, nehalem@OC oder Sandy@OC zu einem Neukauf zu bewegen. Kerne ausreichend und Takt sowieso. Im Gegensaz zu den ganzen DualCores. Um so wichtiger ist es halt nun beim Neukauf eben lieber auf mehr Cores zu setzen und hohen Takt, anstatt nur auf sehr hohen Takt und wenig Kerne. Die Gesamtperformance macht's.
 
Zuletzt bearbeitet:
Wenn man nicht kapiert warum man in 720 bencht ist es natürlich albern - aber nur in der heutigen zeit :xmas:
Das hat schon Gründe. Man trifft Aussagen über den aktuellen Zustand mit Settings aus der Vergangenheit(720p), die in der Praxis schon seit längerem unüblich sind, und erst recht nicht das sind, was Neukäufer sich vorstellen. Man unterstellt einfach, mit den alten Settings die Zukunft zu simulieren, denn aktuell limitiert die CPU in gängigen Auflösungen mit durchschnittlichen Grafikkarten ja sehr selten. Damit macht man es Prozessoren der Vergangenheit natürlich viel einfacher, weil sie genau für den Zweck angepasst wurden.

Normal müsste man Ryzen mit nur aktuellen Spielen in 1080p testen, um zu sagen: Die zusätzlichen Kerne sind jedenfalls nicht schädlich, man hat selbst in schlecht programmierten Spielen noch eine ähnliche Leistung. Und in 4K und WQHD mit Vulkan/DX12, um herauszufinden, ob der Ryzen in den nächsten Jahren zukunftssicher ist. Und die Antwort kennen wir eben schon alle, weil es ein paar wenige Magazine wie Chip gibt, die das tatsächlich getan haben. Dann hat ein Ryzen 1700 gegen den 7700k zwar im Durchschnitt in 1080p geringe Abstriche zu verkraften, kommt aber in aktuellen Spielen insgesamt schon häufiger vor den 7700k. - beim 1600 übrigens aktuell noch fast das gleiche Bild, der 150€ weniger als der 7700K kostet, mit Kühler, vergleichbar mit 30€- Kühler vom Dritthersteller, und auf einem 80€- Board übertaktbar.
 
Zuletzt bearbeitet:
Mir wäre es am liebsten wenn in 720p und 1440p getestet wird - wobei mich bei 1440p wohl nur die Frametimes/Percentile interessieren würde. Ich finde damit könnte man mehr anfangen und die anderen Auflösungen abschätzen. Bei 720p und 1080p kann ich mit den 1080p nicht wirklich viel anfangen (je nach verwendeter Graka). Sprich einmal CPU im GPU-Limit testen und einmal rein die CPU.
 
Zuletzt bearbeitet:
Es gibt genügend benchmarks zu allen möglichen Spielen, Auflösungen & Detailsettings. Da kann sich ja jeder das raus ziehen was er für sinnvoll erhält, und wenn er die 720p Benches für Quatsch hält kann man sie ja ignorieren (einige praktizieren das ja tatsächlich so) ;)
 
Schon klar, trotzdem wäre es schön das in einem Test unter gleichen Bedingungen zu haben und auf den Review-Seiten die ich nutze. :)
CB macht ja auch 720p und 1080p und ich finde die sollten die Zeit lieber für 720p und 1440p (oder 4k) verwenden. Aber dann heulen natürlich wieder alle rum, dass das niemand hat, obwohl man Reviews doch nutzen sollte für Dinge die man in Zukunft kaufen will. Dann kommt wieder jeder mit Steam-Statistik usw. Oder auch immer die, die rumheulen warum gerade ihre eigene 5 Jahre alte Graka oder CPU nicht mehr mit im Test ist.
 
Es gibt genügend benchmarks zu allen möglichen Spielen
Naja. Ich ärger mich oft, dass viele Benchmarks in 1080p und 4k, aber weniger oft in 2k ist. 4k halte ich immer noch für blödsinnig (Achtung persönliche Meinung) weil mir dreistellige Frames einfach viel lieber sind...bin so an 100+ Frames gewöhnt 60 FPS kommt mir da sofort laggy vor.
 
Ich habe nicht den Eindruck, dass hier das AGESA Update der Grund dafür ist.


Gesendet von iPhone mit Tapatalk
 
Doich ist es und zwar ausschließlich!

Mit dem neuen AGESA 1006 konnte er seine RAM Timings und Subtimings erst so einstellen, das diese Werte zustande kamen.
Steht auch so haargenau im Thread.
 
Dann lag es aber an den Timings und nicht dem AGESA Update.
Reisserischer Titel mit wenig Relevanz zum Link. Top.
 
Nur durch das AGESA Update konnten die Timings überhaupt so gesetzt werden!

Und die Relevanz für den Thread ist absolut hoch, da auch in anderen Spielen deutliche Verbesserungen festgestellt wurden, im 3D Center wurden ganze Testreihen gemacht, mit bis zu 20% Performance Gewinn!
 
Das heißt ja aber andererseits auch, dass die Hardware schon vorher dazu in der Lage gewesen wäre und AMD einfach noch etwas Zeit für den Feinschliff braucht ;)


Gesendet von iPhone mit Tapatalk
 
@ Tabantel & iwebi

Wenn man nicht kapiert warum man in 720 bencht ist es natürlich albern - aber nur in der heutigen zeit :xmas:

Schon geil wie viele Leute null peilen, warum in 720p getestet wird :bigok:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh