G3cko
Enthusiast
Thread Starter
- Mitglied seit
- 06.05.2005
- Beiträge
- 3.273
Mittlerweile gibt es ein AMD optimiertes Energiemanagmentprofil. Dieses kann man downloaden und nutzen. Soll auch mit dem AMD Radeon Grafiktreiber zukünftig automatisch installiert werden können. Alternativ auf Höchstleistung stellen, dann ist Coreparking deaktiviert. Bei Ryzen sind das keine 10 Watt Mehrverbrauch. Der Punkt ist also bereits gelöst.
Einen Nachteil beim Umstieg von 7700k auf einen 1700x oder 1800x hast du aktuell nur in Dx12 Titeln in Kombination mit einer Nvidia GPU. Ältere Spiele werden problemlos laufen, wenn auch mit weniger fps. In aktuellen ist es ein Kopf an Kopf rennen und bei zukünftigen Titeln wird der 8 Kerner davon ziehen.
- - - Updated - - -
Nein, wenn man CPU-Benchmarks vergleichen will sollte man vor allem eine Auflösung wählen mit welcher man im CPU -Limit ist. Es gibt Spiele da ist man trotzt 720p und High End Grafikkarte immer noch im GPU Limit. Das heißt der Grafikkarte geht die Luft aus. ZB in Doom. Siehe erste Seite.
Die Unterschiede sind auch recht gering (keine 10%). Man müsste also gucken, ob die CPU überhaupt überall am Limit war. Jeden Benchmark im Detail.
Und willst du ohnehin eine Prognose für die Zukunft solltest du auch die aktuellsten Spiele testen. Keine 2-4 Jahre alte Schinken.
Lies dir den Startpost durch.
Einen Nachteil beim Umstieg von 7700k auf einen 1700x oder 1800x hast du aktuell nur in Dx12 Titeln in Kombination mit einer Nvidia GPU. Ältere Spiele werden problemlos laufen, wenn auch mit weniger fps. In aktuellen ist es ein Kopf an Kopf rennen und bei zukünftigen Titeln wird der 8 Kerner davon ziehen.
- - - Updated - - -
Hey Leute! Ich habe eine Verständnisfrage bzw. eine zur Terminologie.
(und dabei beziehe ich mich vor allem auf zweite Tabelle hier)
Wenn ich mir einen Prozessor zulegen will und verschiedene Modelle miteinander vergleiche und es mir (auch) um Spiele geht, dann sollte ich doch nur auf die Benchmarks in der Auflösung achten, in der ich auch wirklich spielen will?
Wenn ich zwei Prozessoren vergleichen würde (und dazu z.B. 2x1080ti nehmen würde, so dass ich nicht ins GPU-Limit komme), und einer bei 720p um 10% schneller wäre, könnte ich wirklich daraus schließen, dass in 1080p der Abstand genau so groß sein wird? Kann diese Leistungsdifferenz wirklich so 1:1 interpolieren?
Z.B. in der 2. Tabelle, die ich verlinkt habe, sind R7 1800x, 7700k und 5820k bei 1080p etwa gleich stark. Bei WQHD sind Intels etwas stärker. Und bei 4k fällt 7700k plötzlich 4% hinter den Ryzen zurück und i7 5820 kann mit dem Ryzen mithalten. Wenn ich nur die Werte für 1080p habe, könnte ich doch nie im Leben die Differenzen für WQHD und 4k vorhersagen.
Ist dann die Information zu der Leistung(sdifferenz) in einer Auflösung nicht höchstens ein Indiz zu der Leistung in einer anderen Auflösung? Und müsste man dann nicht korrekterweise von einer "Spielestärke/schwäche in der konkreten Auflösung" sprechen und nicht gleich sagen, dass es in anderen Auflösungen auch ganz anders aussehen könnte?
Nein, wenn man CPU-Benchmarks vergleichen will sollte man vor allem eine Auflösung wählen mit welcher man im CPU -Limit ist. Es gibt Spiele da ist man trotzt 720p und High End Grafikkarte immer noch im GPU Limit. Das heißt der Grafikkarte geht die Luft aus. ZB in Doom. Siehe erste Seite.
Die Unterschiede sind auch recht gering (keine 10%). Man müsste also gucken, ob die CPU überhaupt überall am Limit war. Jeden Benchmark im Detail.
Und willst du ohnehin eine Prognose für die Zukunft solltest du auch die aktuellsten Spiele testen. Keine 2-4 Jahre alte Schinken.
Lies dir den Startpost durch.