AMD erklärt, wer für die mäßige Ryzen-Spieleperformance bei niedrigen Auflösungen verantwortlich ist

NVidia ist doch irrelevant hierbei, es geht doch um CPU-Optimierungen. AMD will halt nicht den gleichen Fehler wie bei vergangenen Architekturen machen und direkt offensiv auf die Spielehersteller zugehen, damit nicht wieder alles nur auf Intel programmiert/optimiert wird. Die Meldung ist etwas reißerisch formuliert, es ging um was ganz anderes in Wirklichkeit. Was Hullok damit sagen wollte, sollte in erster Linie suggerieren, dass man sich diesmal um die CPU-Schwächen bei Spielen kümmern will.
Ja, aber in die gleiche Richtung was die Aussagen betrifft. Alle anderen sind Schuld, weil Spiele nicht auf der AMD Plattform optimiert wurde. Werden sie es doch (angeblich??), dann kommen trotzdem Fails dabei raus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nenene, das hat der nicht gesagt. Er hat gesagt, dass es keinen Grund gibt, warum Spiele schlecht laufen sollen auf Zen. Und er hat gesagt, dass einige Entwickler auf Zen direkt optimieren wollen, Oxide z.B.
Oxide ist aber auch ein Sonderfall, da die ganz krass auf Intel-CPUs optimiert haben, damit Ashes mit möglichst guter Performance läuft. Das Spiel sollte als technisches DX12-Paradebeispiel dienen und verkaufte sich auch darüber. Eine Optimierung auf Zen ist also kein Wunder bei denen.
Bethesda enthält ja id - die waren ja eh schon mit AMD verbundelt - welche ja helfen, die neue Creation-Engine für die neuen Rollenspiele von Bethesda zu entwickeln. Jetzt ist da eben nicht nur id mit im AMD-Boot, sondern gesamt Bethesda. i.Ü. ist bis auf den Sonderfall Prey, welcher ja übernommen wurde und mit Cryengine läuft, bei allen Vertragsstudios id-Technik im Einsatz, das wird sich auch künftig nicht ändern.
 
Zuletzt bearbeitet:
Weil in den Auflösungen ja auch die CPU entscheidend ist :lol:

Noch paar Nebelkerzen auf Lager?



Im AMD-Fanboy-Wunderland werden Intel CPUs mit steigender Auflösung schwächer. Sollte man wissen :d

Okay, dann nochmal anders für dich.

Ich spiele in 1440p und es wird nicht mehr lange dauern bis ich auf nen 4K-Monitor umsteige.

Unter FHD ist ein 7700K noch minimal schneller als ein Ryzen 7 1700.

Ryzen 1700 vs i7 7700K | An Unbiased Look at Benchmarks - YouTube (GTX1080, also kein Bottleneck in FHD, 1700@3,9GHz & 7700K@5GHz)

Geht es dann auf 1440p und spätestens bei 4K werden die GPUs - auch die 1080Ti sowie die kommende Vega sicherlich immer noch - mal mehr mal weniger zum Bottleneck. Dann werden die CPUs allesamt eingebremst und der 7700K steht NICHT vor dem R7 1700.

Ich bin übrigens kein AMD Fanboy (siehe Hardware in der Signatur) - ich mag den Laden, weil sympatischer als Intel und nVidia.

Man kann das Szenario auch auf nen 6800K übertragen. Unter FHD etwas langsamer als 7700K. Bei 1440p/4K nicht mehr. Also welchen Nachteil habe ich wenn ich in 1440p/4K zocke bei nem Ryzen? Keinen. Unabhängig davon wird die Performance noch minimal ansteigen - das Produkt ist brandneu. Völlig normal. Nur hat Ryzen den Vorteil des Preises und der Anwendungsperformance auf seiner Seite.

Verstehst du jetzt wie ich das meine?
 
Ist doch klasse, dass amd überhaupt wieder ausschließt.
Man kann das natürlich boykottieren, sollte aber die Anschaffungspreis und somit sie gebotene Leistung pro Euro Investition bedenken.

Komplett ohne amd wird der 7700K solange den gleichen Preis haben, bis Intel einen Nachfolger auf den Markt bringt.
 
Zuletzt bearbeitet:
Das ist wie wenn ein Autohersteller A einen neuen Sportwagen rausbring, der eckige Räder hat, aber doppelt so viel PS wie der von Konkurent B, der dann mit den Doppelten PS wegen der eckigen Räder nicht schneller ist, aber wenn es irgendwann mal strassen gibt die gezackt sind, so das die eckigen räder in den zacken halt finden, dann geht der aber richtig ab. Aber da nur wenige diesen wagen Kaufen werden, wegen der Räder, warum sollen dann die Strassen umgebaut werden ?
 
Das war keine Schuldzuweisung seitens AMD, lediglich eine plausible Erklärung.

Nur ist da nix plausibles dran, wenn man sagt es liege an den Spieleentwicklern... Bspw. hat es CB an der Stelle recht plausibel aufgeteilt. Es gibt Titel, da skaliert Ryzen mit (analog/ähnlich den Intel Hexa/Oktacores), aber es gibt auch Titel, da skaliert Ryzen eben NICHT mit, die Intel Modelle aber schon. Jetzt zu sagen, dass da ein Spieleentwickler die Schuld trägt, weil die Software nicht mit Ryzen kann? Was ist das bitte für ne Aussage... Der Spieleentwickler kümmert sich nen feuchten Kehrricht um den Prozessortyp. Er entwickelt auf Threads und auf gewisses Leistungsniveau hin. Was bei Ryzen zweifelsfrei vorhanden ist... Mehr sogar noch als bei so nem popligen Intel Quad.

Auch sollte man sich mal die Frage stellen, warum gerade Games hier Probleme machen? Die Masse der Anwendungen kommt ja wohl damit klar... Woran liegt es also, dass die Gruppe von Programmierern, die an Spielen arbeitet (und auch nur Codezeilen schubst) da entgegen den ebenso breiten Intel CPUs keine Skalierung zum Teil hinbekommen, während die andere Gruppe von Programmierern, die an Anwendungen schraubt es auf die Reihe bekommen?
-> sieht für mich so aus als ist da noch was nicht ganz im Lot... Was genau? Ja das ist halt die Frage.


PS: wenn man mal noch genauer drüber nachdenkt -> die Aussage ansich ist schon putzig, wo doch die Masse der aktuellen Titel Konsolenports sind. Und was steckt da drin??? Tada... #RaschelRaschel #KlingelKlingel -> ein Oktacore AMD Prozessor... :d

Ist doch vollkommen klar, dass Ryzen in Spielen nicht so gut abschneidet. Die Architektur ist komplett neu und deutlich anders als bei Intel und auch völlig anders als bisher bei AMD.

Da kann nicht von jetz auf gleich alles optimiert daher kommen. Und die Benchmarks mit Cinebench etc. zeigen ganz eindeutig, dass der CPU die Leistung bringen kann.

Nein, Cinebench zeigt, dass der Ryzen Prozessor unter dem konkreten Workload 1A funktioniert. Und andere Benches zeigen, dass gewisse andere Workloads ihm scheinbar nicht sonderlich schmecken...
Das ist immer ein hin und her. Dreh den Spieß mal um -> man könnte auch sagen, der Workload vom Cinebench schmeckt dem Broadwell-E Intel nicht so gut, während anderer Workload ihm deutlich besser schmeckt ;)
Nur weil es ein paar Rosinen gibt, wo das Ding abgeht, gilt das nicht für ALLES andere auch. Ebenso ist Intel zwar die Basis für den Vergleich aufgrund am Markt befindlicher Produkte, aber auch dort erkennt man stärken und schwächen bei verschiedenen Workloads. Es ist ja nicht das erste mal, dass AMD Umsetzungen gerade in Games eher mau ausschauen. Und auch nicht das erste mal, dass das Cache/Speichersubsystem scheinbar problematisch ist!

Was ist denn nun für die mäßige Ryzen-Spieleperformance verantwortlich AMD?

Steht doch da -> die Spieleentwickler :fresse:
 
Im Gründe alles nur "faule" Ausreden. Bei 450 bis 800€+ für eine Kombi aus MoBo und 8-Kerner,
erwarte ich dass die HW einwandfrei funktioniert. Hat AMD nicht getestet und optimiert? Wieso
hinken die MoBo Hersteller hinterher?

Die Meisten Features sind Weiterentwicklungen und Abwärtskompatibel. Was ist mit versprochenen ECC?
Die beworbenen DDR4-3000+ nur mit teuren X370 MoBos. Die Leistungseinbrüche mit SMT: on, ist ein
grober Schnitzer.

Ich kaufe doch nicht jetzt, für teueres Geld, verbugte Beta-HW (eagl wieviel Leistung) damit es in paar
Monaten (vielleich) mit Patches und Software-Optimierungen einwandfrei läuft.

Versteht es nicht falsch: tolle CPU und AMD ist back, keine Frage. Aber ich warte.

BTW: bei viele Tests fehlen Temps. (Idel, Last & OC). USB 3.0 / 3.1 Speed, SATA-Speed, PCIe Vollbestückung, ...
 
@slot108
AMD gibt mit keiner Silbe den Entwicklern die Schuld, sondern weist nur darauf hin, dass die fehlende Optimierung einen Einfluss auf die Spieleleistung hat. Und wie hier häufig schon festgehalten wurde, ist dies auch nicht unrealistisch.

Das eine ist doch nur eine blumige Umschreibung vom Anderen ;)
Mal ehrlich, einen Tag nach Vorstellung des Prozessors für die breite Masse sich hinzustellen und zu sagen, ja die anderen müssen aber auch Optimieren -> ist es das, was die Leute hören wollen? Ich glaube nicht... Die Leute wollen doch viel eher hören, gibt dem Ding zu fressen was du willst und es geht ab... Direkt und unmittelbar nach dem Release schon auf Softwareoptimierungen angewiesen zu sein halte ich persönlich für den falschen weg. Denn die absolut gleiche Leier haben wir mit Bulldozer schon bekommen und auch im GPU Umfeld trifft man derartige Aussagen häufig, komisch aber immer nur genau dann, wenn es mal nicht so gut ausschaut bei den Balken. Das sollte aus meiner Sicht zum Nachdenken anregen ;)

Ich seh das ganz pragmatisch. Wer oben mitspielen will, sollte auch entsprechendes Spielzeug mitbringen anstatt allen anderen zu sagen, aber wenn ihr mit unseren Regeln spielt, dann bekommt ihr auch den entsprechenden Wert. Das kann man zwar tun, aber es wirkt eben wie gewollt und nicht richtig gekonnt. Davon ab, wie schon erwähnt, auch Intel kämpft mit dem selben Problem.
 
Die Leistungseinbrüche mit SMT: on, ist ein
grober Schnitzer.

DAS sollte man nicht überbewerten!
Denn hier spielt der Threadscheduler von MS massiv eine Rolle. Ein Update wird es dort recht sicher noch geben und sich das Thema damit legen bzw. äußerst gering ausfallen!
Man sollte allerdings korrekterweise MS hier die notwendige Zeit geben, das Update auch zu bringen... Ein Vista auf nem i7 Prozessor läuft phasenweise auch absolut scheiße. Denn die gleiche Thematik tritt ein -> der Threadscheduler schubst Load auf beide Threads eines Cores obwohl noch physische Cores im Leerlauf sind -> das kostet extrem Performance. Im Zweifelsfall sogar weit über 50% im Vergleich zur Verteilung auf zwei Cores!
 
Beide CPUs sind unter 1400p/4K gleich auf - kosten dasselbe.

Ist das so?
IMMER und in allen Szenarien? Ich behaupte ganz frech das Gegenteil...

Beispiel: gemoddetes Gothic 3. Läuft selbst mit UHD + 8xSGSSAA auf EINER! popligen 980TI ins CPU Limit, sobald man die Sichtweite massiv erhöht. Ein ~4GHz Prozessor aktueller Generation schafft da phasenweise bei Szenen mit Weitsicht keine 20 FPS. 5,5GHz auf nem 7700k machen schlicht 30+% mehr.

Ergo Pauschalaussage widerlegt :wink:

Kurzum, es wird immer Szenen geben, die hängen mehr an der CPU oder mehr an der GPU. Auch in 1440p und/oder UHD ist das der Fall. Games nutzen nunmal nicht statischen Kontent sondern sind Szenenweise dynamisch aufgebaut. Reviews testen dabei idR genau EINE einzige Szene. -> daraus eine allgemeine Aussage ggü. dem kompletten Spiel oder allen Spielen zu tätigen ist schlicht unmöglich.
Solche Beispiele wie BF im MP auf so mancher Karte rennen dir auch mit hohen GPU Settings noch ins CPU Limit. Nämlich indem phasenweise die Drops einfach stärker ausfallen als bei deutlich schnelleren CPUs.
 
Nur ist da nix plausibles dran, wenn man sagt es liege an den Spieleentwicklern... Bspw. hat es CB an der Stelle recht plausibel aufgeteilt. Es gibt Titel, da skaliert Ryzen mit (analog/ähnlich den Intel Hexa/Oktacores), aber es gibt auch Titel, da skaliert Ryzen eben NICHT mit, die Intel Modelle aber schon. Jetzt zu sagen, dass da ein Spieleentwickler die Schuld trägt, weil die Software nicht mit Ryzen kann? Was ist das bitte für ne Aussage... Der Spieleentwickler kümmert sich nen feuchten Kehrricht um den Prozessortyp. Er entwickelt auf Threads und auf gewisses Leistungsniveau hin. Was bei Ryzen zweifelsfrei vorhanden ist... Mehr sogar noch als bei so nem popligen Intel Quad.

Auch sollte man sich mal die Frage stellen, warum gerade Games hier Probleme machen? Die Masse der Anwendungen kommt ja wohl damit klar... Woran liegt es also, dass die Gruppe von Programmierern, die an Spielen arbeitet (und auch nur Codezeilen schubst) da entgegen den ebenso breiten Intel CPUs keine Skalierung zum Teil hinbekommen, während die andere Gruppe von Programmierern, die an Anwendungen schraubt es auf die Reihe bekommen?
-> sieht für mich so aus als ist da noch was nicht ganz im Lot... Was genau? Ja das ist halt die Frage.


PS: wenn man mal noch genauer drüber nachdenkt -> die Aussage ansich ist schon putzig, wo doch die Masse der aktuellen Titel Konsolenports sind. Und was steckt da drin??? Tada... #RaschelRaschel #KlingelKlingel -> ein Oktacore AMD Prozessor... :d



Nein, Cinebench zeigt, dass der Ryzen Prozessor unter dem konkreten Workload 1A funktioniert. Und andere Benches zeigen, dass gewisse andere Workloads ihm scheinbar nicht sonderlich schmecken...
Das ist immer ein hin und her. Dreh den Spieß mal um -> man könnte auch sagen, der Workload vom Cinebench schmeckt dem Broadwell-E Intel nicht so gut, während anderer Workload ihm deutlich besser schmeckt ;)
Nur weil es ein paar Rosinen gibt, wo das Ding abgeht, gilt das nicht für ALLES andere auch. Ebenso ist Intel zwar die Basis für den Vergleich aufgrund am Markt befindlicher Produkte, aber auch dort erkennt man stärken und schwächen bei verschiedenen Workloads. Es ist ja nicht das erste mal, dass AMD Umsetzungen gerade in Games eher mau ausschauen. Und auch nicht das erste mal, dass das Cache/Speichersubsystem scheinbar problematisch ist!



Steht doch da -> die Spieleentwickler :fresse:
Auch du fällst darauf herein.
Wie gesagt, niemand hat den Spieleherstellern was vorgeworfen, es wurde lediglich darauf hingewiesen, dass es sein könnte, dass einige Spiele aufgrund fehlender Optimierung nicht optimal laufen könnten - was logisch ist bei einer neuen µArchitektur. Da braucht man kein Fass aufzumachen, das ist lächerlich.

Zudem möchte ich NOCHMALs Leos Zusammenfassung posten:
AMD Ryzen Launch: Anwendungs-Performance auf einen Blick | 3DCenter.org

Ryzen ist im Durchschnitt - nicht optimaler Workload - schnell, da gibt es keinen Zweifel.

Das es noch Startschwierigkeiten gibt ist bei sowas auch absolut normal.
 
Zuletzt bearbeitet:
Das war keine Schuldzuweisung seitens AMD, lediglich eine plausible Erklärung.
So ist es. Aber anscheinend können einige AMD Hater, die verzweifelt nach dem letzten Strohhalm suchen, um Ryzen noch irgendwie schlecht zu reden, obwohl der Markt ein ganz anderes und durchweg positives Urteil gefällt hat, nicht mal ansatzweise sachlich und objektiv bei solchen Themen bleiben.


@topic

Natürlich ist diese Erklärung nachvollziehbar und plausibel. Oder wie erklären sich die AMD Hater dann, dass Ryzen in Anwendungen praktisch auf Augenhöhe mit dem i7-6900K agiert, während er in Spielen dagegen etwas gegenüber dem BDW-E abfällt? Kleiner Tipp, allein am QC SI liegt es ganz sicher nicht. ;)

Es liegt nun mal in der Sache der Natur, dass mit Optimierungen erst richtig begonnen werden kann, wenn die Hardware auch verfügbar ist. Auf jeden Fall begrüssenswert dass sich AMD dessen bewusst ist und viele Entwickler mit entsprechenden Kits ausrüstet bzw mit einigen auch enger kooperiert. Die AMD Hater, die hier jetzt wieder völlig grundlos stänkern, sollten mal daran denken, wie lange Entwickler gebraucht haben, um Intels HTT einigermassen in den Griff zu bekommen. Und das kann selbst heute noch Probleme bereiten.


Hat jemand Benchmarks für Ryzen OHNE SMT?
ZB Hardware.fr hat welche:

getgraphimg.php


Wie man sieht legt Ryzen alleine dadurch schon ~10% zu. Die Spieleperformance ist also keineswegs schlecht oder mässig oder was einige sonst noch fürn Käse schreiben, sondern agiert etwa auf Haswell Level. Und soweit liegen SKL/KBL da auch nicht drüber. Und das spricht eben auch dafür, dass noch einiges mit Softwareoptimierung rausgeholt werden kann. Womöglich auch was Windows betrifft, Stichwort Thread-Scheduler.


Die Mehrkerner "kommen" :hmm:

Der Sechskerner i7-980 kam 2010 in den Consumer Markt, der 8-Core 5960X 2014.
Sie kommen seit gestern auch von AMD, thats all.
Wie lange hat denn dein Winterschlaf gedauert? :fresse: 6-Kerner gab es bei AMD schon 2009 (Istanbul). 2010 kamen die dann auch für Desktops (Thuban). Da hatte AMD allerdings auch schon 12-Kerner für G34 im Angebot. Richtig ist lediglich, dass Ryzen der erste echte AMD 8-Kerner für Desktops ist. Solange gibt es den bei Intel da aber auch noch nicht. Und auf einer bezahlbaren Mainstream Plattform bis heute nicht. ;)
 
Lass uns das beenden, bringt nix.

Völlig egal wie man es dir sagt, du verstehst es nicht.

R7 1700 hat faktisch keinen Nachteil bei 1440p/2160p. Ende.

Blub.

Richtig, weil man im GPU Limit ist und die CPU entsprechend entlastet - aber das verstehst du und viele andere leider auch nicht.

Das ist "Schönrederei" von Produkten wenn man sich solche 4K Benches für CPU Vergleiche zu Grunde legt, irgendwann kommt der Bottleneck und dann ist die CPU nicht mehr ausreichend eine neuere VGA zu befeuern.
 
Du weißt aber schon dass das jetzt ein harter Nischen-Fakt ist, oder @fdsonne... :)

@Kaaruzo

Was hat dein Gefasel von wegen wie man CPUs testet denn damit zu tun, verfickt? NIX!

Ja, man sollte CPUs in allen möglichen Auflösungen testen, dazu gehört auch FHD um jegliches Bottleneck zu vermeiden - in meinem verlinken Video sieht man das ja auch. Und dort kann der 7700k auf 5GHz den R7 1700 auf 3,9GHz nicht nennenswert abhängen.

Es ändern alles aber NICHTS daran, dass FAKTISCH HIER UND JETZT der R7 1700 keinen Nachteil gegenüber einem i7 7700K hat wenn man in 1440p/2160p zockt - da man dann eh im GPU Bottleneck hängt, was ich übrigens die ganze Zeit auch sage...

Raffst du das nicht? Oder willst du das nicht raffen?

Welchen Vorteil habe ich denn deiner Meinung nach wenn ich nen 7700K@5GHz kaufe gegenüber einem R7 1700 wenn ich in 1440p/2160p zocke? Jetzt und hier, nicht in 2 Jahren oder so. Los, raus damit.

Lass gut sein ;) Ich hol mir den R7 1700 und hab dann wieder ein paar Jahre Ruhe.
 
Alter Falter, was ist mit euch verkehrt?!

JA, es liegt am Bottleneck welches die GPU verursacht, dass der 7700K ab 1440p nicht mehr schneller ist (wenn es auch unter FHD nicht dramatisch ist). JA!!!!

Aber was juckt mich der scheiß denn als 1440p/2160p Gamer? Wollt ihr eure CPU 5 Jahre behalten? Kauft bloß keinen Ryzen!!!

Ansonsten scheiß der Geier drauf!

Warum lasse ich mich von euch Eumeln eigentlich wieder bis zur Verwarnung treiben? Danke für die Erinnerung daran. Ihr habt gewonnen :)
 
Zuletzt bearbeitet:
Woher willst du wissen, was ein CPU leistet, wenn du effektiv nur die GPU testest? Kannst du das erklären?

Ja,nur ist das fürs Gaming völlig irrelevant und hat nur ein theoretischen Mehrwert und keinen Praktischen. GPU hat fürs Gaming nach wie vor priorität und Ryzen kann alle neuen Karten mit genügend Rechenpower liefern. Dass Intel bei ICP&Takt top ist, ist nun schon länger bekannt und war im Vorfeld bereits klar.
Im realen Workload, wo Zeit und Geschwindigkeit auch Geld bedeutet, ist die Zeit für Intel 4C mehr oder weniger abgelaufen. Der einzige, der dabei mit Ryzen mithalten kann ist der 6900k.
 
AMD ist immer zu spät dran was die Zusammenarbeit mit Entwicklern angeht. Bei Grafikkarten das Gleiche. Zum Release ist nie irgendetwas optimiert, Treiber in der Beta und oder nur eingeschränkt funktionstüchtig. Die Spiele Devs trifft die definitiv nicht die Schuld, AMD macht sich einfach viel zu wenig Mühe im Vorfeld sowas aus den Weg zu räumen.

Eventuell fehlen AMD aber auch einfach die Ressourcen dafür. Eine Zusammenarbeit mit Devs kostet halt Geld und Zeit und muss langfristig durchgezogen werden.
 
Macht was ihr wollt, die die es verstehen wollen die verstehen es, die anderen reagieren halt etwas gereizt ;)
 
Du meinst vom P/L-Verhältnis her über Intel?
 
Zuletzt bearbeitet:
@fdsonne
Erst verlangst du das Software schon optimiert ist und dann sagst du man solle MS noch was Zeit geben?! Das ist in meinen Augen widersprüchlich.
 
Ein schönes hin und her hier.Seh es auch so wie ein Schreiberling auf der ersten Seite.Spiele werden dieses jahr nicht mehr von ryzen profitieren.Wie würdet ihr denn das machen als spieleentwickler? ein topgame das millionenfach gekauft wurde und sein geld verdient hat optimieren und umschreiben wegen ryzen? neee.wer zahlt den aufwand? ein game welches in entwicklung ist,die Planung steht etc auch wieder verwerfen,vorallen wenn man noch zeitdruck hat? auch ned.Erste Games werden kommen wenn auch ryzen richtig läuft und das wird dauern.
 
Ist das so?
IMMER und in allen Szenarien? Ich behaupte ganz frech das Gegenteil...

Beispiel: gemoddetes Gothic 3. Läuft selbst mit UHD + 8xSGSSAA auf EINER! popligen 980TI ins CPU Limit, sobald man die Sichtweite massiv erhöht. Ein ~4GHz Prozessor aktueller Generation schafft da phasenweise bei Szenen mit Weitsicht keine 20 FPS. 5,5GHz auf nem 7700k machen schlicht 30+% mehr.

Ergo Pauschalaussage widerlegt :wink:

Kurzum, es wird immer Szenen geben, die hängen mehr an der CPU oder mehr an der GPU. Auch in 1440p und/oder UHD ist das der Fall. Games nutzen nunmal nicht statischen Kontent sondern sind Szenenweise dynamisch aufgebaut. Reviews testen dabei idR genau EINE einzige Szene. -> daraus eine allgemeine Aussage ggü. dem kompletten Spiel oder allen Spielen zu tätigen ist schlicht unmöglich.
Solche Beispiele wie BF im MP auf so mancher Karte rennen dir auch mit hohen GPU Settings noch ins CPU Limit. Nämlich indem phasenweise die Drops einfach stärker ausfallen als bei deutlich schnelleren CPUs.

mich würde mal folgendes interessieren.

egal wie krass die gpu durch eine höhere auflösung mehr gefordert wird, die cpu last müsste doch immer gleich sein da die arbeit für die gpu nach der cpu kommt?

ich könnte es auch heute abend mal ausprobieren aber rein von der logik her müsste das doch hinhauen?

oder anders gesagt, eine höher ausgelastete gpu entlastet die cpu keineswegs weil die cpu ja eh schon fertig ist? also eine entlastung kann nur durch ein cpu limit richtung gpu erfolgen oder durch künstliche limiter?
 
Zuletzt bearbeitet:
Woher willst du wissen, was ein CPU leistet, wenn du effektiv nur die GPU testest? Kannst du das erklären?

Ja,nur ist das fürs Gaming völlig irrelevant und hat nur ein theoretischen Mehrwert und keinen Praktischen. GPU hat fürs Gaming nach wie vor priorität und Ryzen kann alle neuen Karten mit genügend Rechenpower liefern. Dass Intel bei ICP&Takt top ist, ist nun schon länger bekannt und war im Vorfeld bereits klar.
Im realen Workload, wo Zeit und Geschwindigkeit auch Geld bedeutet, ist Ryzen mit dem 6900k auf Augenhöhe. Dazu noch bezahlbar für jedermann.
 
mich würde mal folgendes interessieren.

egal wie krass die gpu durch eine höhere auflösung mehr gefordert wird, die cpu last müsste doch immer gleich sein da die arbeit für die gpu nach der cpu kommt?

Ja, soweit es die Auflösung betrifft, sollte das stimmen.

oder anders gesagt, eine höher ausgelastete gpu entlastet die cpu keineswegs weil die cpu ja eh schon fertig ist?

Das dürfte so nicht richtig sein, da wenn einige andere Grafikoptionen als die Auflösung, wie z.B. die Sichtweite, verändert werden, auch eine Mehrarbeit für die CPU entstehen kann. Bei der Sichtweite sind plötzlich mehr Objekte sichtbar, d.h. die CPU muss der GPU deren Lage, Ort und Physik usw. berechnen.
Kantenglättung hätte wiederum keine Auswirkung, da dadurch keine CPU Mehrarbeit anfällt. D.h. es kommt ganz auf die einzelne Option an.

Das ist zumindest mein Verständnis davon.

Edit: Wenn du mit deinem letzten Absatz meinst, dass - ohne irgendwelche Optionen - eine höhere Auslastung der GPU keinen Einfluss auf die CPU hat, dann ist das mMn richtig. Das liegt einfach daran, dass beide, CPU und GPU, ja keine Arbeitsteilung machen. D.h. die GPU übernimmt keine Arbeiten der CPU. Wenn sich sonst nichts verändert - oder eben nur Dinge, welche ausschließlich die GPU betreffen - dann muss die CPU immernoch diesselbe Rechenleistung vollbringen. Nur kommt es eben in der "Spielewirklichkeit" auf die einzelne Option an, da manche beide Workloads beeinflussen.

Edit2:

Muss meine Aussage bezüglich der Auflösung nochmals revidieren. Glaube, auch die Auflösung kann die CPU beeinflussen. Kommt ganz auf das Spiel an. Ich bin jetzt gedanklich zuerst von einem FPS ausgegangen. Gerade kommt mir allerdings der Gedanke an ein Strategiespiel. Der Unterschied ist: Bei einem FPS ändert die Auflösung nichts an den dargestellten Objekten. Bei manchen (!) Strategiespielen steigt mit der höheren Auflösung auch der sichtbare Anteil an der Karte. In einem solchen Fall kann es dann durchaus sein, dass bei einer höheren Auflösung der eine Panzer plötzlich sichtbar ist, der bei geringerer Auflösung außerhalb des Sichtfeldes liegt. Wenn er sichtbar ist und sogar feuert, muss die CPU diese Schüsse berechnen und physikalisch berechnen. Außerhalb des Bildschirm reicht evtl. eine reine Statusmeldung.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh