Weshalb Ryzen eine hervorragende Gaming CPU 2017 ist

Hoffentlich hat PCGH die 1080 TI vor Redaktionsschluss der neuesten Ausgabe, damit das in den Ryzen Megatest mitreinfließen kann.

- mit neuen Biosversionen
- mit höherem Speichertakt Memory Speed Has a Large Impact on Ryzen Performance | eTeknix
- DX11/12 Schwächen (Ashes of ... DX 12 Patch hoffentlich rechtzeitig draussen) The Ryzen Launch Aftermath s Response To Gaming Performance
- neuem Chipsetdriver von AMD vom 03.03 oder neuer Chipset

- Nvidia Graka-Treiber nicht optimiert verglichen mit FuryX (wen wunderts...) AMD zur Low-Res-Spieleschwäche von Ryzen: Es liegt an der Software! | heise online
- Win 7, Win 10 Update vermutlich nicht rechtzeitig draussen Page 8 - Ryzen: Strictly technical
- Frametime Messungen AMD Ryzen 7 1800X, 1700X, 1700 im Test: König in Anwendungen, PrinzÂ*in Spielen (Seite 4) - ComputerBase
- minFPS Einbrüche https://i.redd.it/t9icjhfrzdjy.png
- mit Workarounds wie High Performance Mode, SMT OFF, HPET OFF, clean Windows installation, etc pp RYZEN OVERCLOCKING! 1700, 1700X d - Will It Help Gaming? - YouTube

Und dann kann man schon eher sagen, ob das einem zusagt oder nicht
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Klingt logisch! Aber wäre es vom Sinn her nicht besser unter 1080 oder höher zu testen, damit man sieht was halt eine CPU/GPU unter den Bedingungen leistet was die meisten User halt auch nutzen? 720 nutzt niemand.

Also langsam ist ein Punkt erreicht, da wird man entweder dafür bezahlt, oder sollte akzeptieren das man nichts sinnvolles zur Diskussion beitragen kann.

Hier nochmal eine Autovergleich:
Du stellst den Tempomat eines Ferrari und VW Gold auf 70kmh (aka 4k Test, GPU Limit).
Und misst dann die V-Max die der Wagen erreicht. Überraschung .. beide 70Kmh.

Jetzt würde man aber vermutlich, um die Fahrzeugleistung messen zu wollen den Tempomat abschalten wollen? Also muss man das GPU Limit entfernen. Und genau das macht der 720p Test.
Und es ist völlig irrelevant ob niemand auf 720p spielt. Die Leistung wurde korrekt gemessen.
Und wenn ihr weiterhin "stumpf" behauptet der "Test" ist schlecht/falsch/nutzlos, dann zerstört ihr jegliche sachliche Diskussionsgrundlage.

Der Intel hat mehr Leistung als der AMD im Gaming! (bezogen auf das Thema dieses Threads!)

Es ist schon legitim jetzt am Kauf eines Ferraris zu zweifeln, wenn man die Leistung dann am Ende wegen Tempolimits nie nutzten wird können. Nur Kostet der Ferrari ungleich mehr als der Golf. Bei den CPUs 7700k und 1800x ist aber aber umgekehrt.
Und genau deshalb, ist derzeit AMD keine gute Gaming-CPU.

Pro AMD ist zu sagen:
Es gibt einige rationale Ansätze wie wirklich softwareseitige Updates die Leistung noch stark verbessern könnten. Ich bin gespannt darauf, nur ist es derzeit nicht mehr als Hoffnung und Träumerei. Ich hoffe Sie kriegen es hin.
 
Zuletzt bearbeitet:
Ryzen ist eine hervorragenden Gaming CPU. Jetzt schnell genug für alles und in Zukunft noch schneller.
 
Alles genau so schon gehört und hat mich auch vom fx8350 überzeugt. Deshalb glaub ich nicht das da großartig irgendwelche patches/fixes/treiber/spieleindustrieumbruch/sonstwas für Ryzen kommt das an der gaming performance von ryzen großartig etwas ändert

Es werden schon früher oder später MT Optimierte Titel kommen. Die Frage ist eher wann?
-> ob das Ryzen hilft? Ggü. einem Quadcore ganz sicher, zumindest den Ryzen Hexa/Oktacores... Ggü. den anderen Modellen größer Quadcore am Markt? Eher nicht... Denn die skalieren einfach ebenso mit und die Relation zueinander wird wohl ähnlich bleiben.
Die Spieleindustrieb wird sich früher oder später auf den Markt einlassen (müssen). Nämlich ab dem Punkt andem die Verbreitung der CPUs am Markt bedeutet, dass man mehr Threads auch bedenkenlos ausreizen kann ohne dass die Titel dann unspielbar für die Massen werden. Nimmt man es genau, der Anteil der 12+ Thread Nutzer ist heute im Bereich unter 5% (geschätzt). Jegliche Titel, die es drauf anlegen nur anständig zu performen, wenn da 12+ Threads aktiv Last erzeugen würden von der Masse einfach nicht genutzt werden können. Die Masse nutzt heute 4-8 Threads.

Ryzen setzt hier ganz klar den Fuß in eine Tür, die bis dato für die Massen verschlossen waren. Nämlich für ~350-550$/€ einen 16 Thread Prozessor zu haben, der klar auch Massentauglich ist und dabei eben nicht Unmengen kostet. Es hat schon Gründe, warum auch aktuelle Titel nicht wirklich gut über die Threadanzahl der Intel Hexa/Okta/10C CPUs skalieren. -> weil das Zeug einfach keiner hat...

Wie in meinem Beispiel:
CPU A liefert konstant 100 FPS, egal was im Spiel passiert. -> AVG 100 FPS.
CPU B liefert im wechsel 50 und 200 -> AVG 125 FPS.

Wirst du etwas davon merken, wenn du in 4K eine GPU hast, die 90 FPS liefern kann? Bei CPU A nicht, bei CPU B wirst du sehr starke Ruckler haben. Auch wenn dir die AVG FPS etwas komplett anderes erzählen und dir sogar sagen, dass du eine 30% schnellere GPU mit CPU B betreiben könntest. An den Min FPS von CPU B mit 50 FPS ändert sich da nichts.

Du machst es dir hier zu einfach... Ein Spiel erzeugt doch idR nicht konstant xxx FPS, immer und in jeder Lebenslage. Ein Spiel erzeugt idR stark variable Framerates. Das sind mal 50, das sind auch mal 150.
Die ganzen Tests in niedrigen Auflösungen sagen absolut gar nix über die Spielbarkeit aus. Eigentlich wollen diese eher ausdrücken, wie in Relation zueinander die CPUs in diesem Titel bzw. dieser Szene performen können.
Normal wird es dir in effektiv jedem Spiel passieren können, dass du vom GPU ins CPU Limit rutscht, nicht immer und überall. Aber hier und dort... Wenn das dann Keyszenen sind -> dann ist es doch äußerst sinnig zu wissen, wie man diese Schlüsselstellen am besten abfedern kann?

Ist doch im Endeffekt bei GPUs nichts anderes. Da werden Spiele getestet mit Settings xyz und auf nem sinnigerweise sehr schnellen Prozessor um zu zeigen, wie schnell das Teil ist und die Relation zu anderen Modellen zu schaffen.
Da nimmt doch dann keiner den absoluten FPS Wert für bahre Münze... Sondern weis viel eher, GPU A schafft eine gewisse Basisleistung und GPU B ist so und so viel Prozent schneller (im Schnitt)
Reicht dir nun in einem Titel GPU A nicht für den anvisierten FPS Count, wirst du wohl auf GPU B aufrüsten -> oder eben die Details reduzieren...

was soll daran relevant sein in 720p wenn keiner mehr damit zockt???Hab ich was davon wenn ich 1080p zocke????Was bringen mir die hammer fps in 720p übertragen die sich magisch in 1080p oder höher......
Sry aber das is einfach zu hoch.

Wie schon mal erwähnt, nicht an den absoluten FPS aufhängen... Es geht um die Relation der Werte zueinander. Wenn da A) 20% schneller als B) ist, dann hast du diese Relation in einem CPU Limit eben auch in höheren Auflösungen...
Was am Ende eigentlich durchaus sinnig ist zu wissen. Denn es wird immer Szenen geben, die hängen mehr an der CPU als andere.
Um es mal konkret in einem Titel zu nennen. Lauf im aktuellen TombRaider in der Startmission rum und du hast eine sehr geringe Abhängigkeit bei der CPU Leistung ab einer gewissen Basisperformance. Lauf mit dem selben PC im Geothermalen Tal im Dort auf und ab und du hast eine sehr hohe Abhängigkeit zur CPU Leistung.
-> was sagen dir nun 1440p/UHD Tests bei der Startmission? -> nichts. Denn du kommst im späteren Spielverlauf zwangsweise (mehrfach) in dieses Geothermale Tal und latscht da durch das Dorft. Dann bricht dir die FPS Rate massiv zusammen und du wunderst dich warum...

Es gibt sehr viele Spiele, wo das ähnlich oder sogar schlimmer läuft. Allen vorran auch MP Shooter ala BF, wo auf einmal mit nem vollen 64er Server auf so mancher Map der deutlich langsamere Prozessor für massiv störende Framedrops sorgt, während die Masse der Reviews im SP Modus ermittelt haben, dass es eigentlich kein Problem sein dürfte. :wink:

PS: ich persönlich kann auch nicht ganz nachvollziehen warum man sich hier über die Werte überhaupt so streitet... Soll halt jeder kaufen was er für richtig hält -> fällt er ggf. auf die Nase oder weis gar nichts vom Limit und denkt das muss so... Interessant wird dann bspw. die Erkenntnis, wenn man es dann höchstselbst erlebt, wie Szenenweise da auf einmal die FPS hochschießen können, wenn die Limits ausgehoben werden!
 
Kannst du ja auch gerne machen. Aber solange du keine klaren Beweise hast, dann solltest du es auch nicht einfach so als Fakt hinstellen, dass der i7 mit einem anderen Takt gelaufen ist. Laut Joker lief er auf 5 GHz und so sollte man es auch erst mal wiedergeben.

Korrekt. Joker sagt es aber zeigt es auch nirgends. Jeder kann sagen dass er die 100M in unter 10 Sekunden rennt. So werde ich es aber nicht wiedergeben, weil es gegen jede Logik spricht. Du siehst wohin das führt. Joker sagt nur etwas, Tech City bringt zu ihren Anschuldigungen "Beweise" in dem sie die relativen Werte zeigen.
 
Du machst es dir hier zu einfach... Ein Spiel erzeugt doch idR nicht konstant xxx FPS, immer und in jeder Lebenslage. Ein Spiel erzeugt idR stark variable Framerates. Das sind mal 50, das sind auch mal 150.
Die ganzen Tests in niedrigen Auflösungen sagen absolut gar nix über die Spielbarkeit aus. Eigentlich wollen diese eher ausdrücken, wie in Relation zueinander die CPUs in diesem Titel bzw. dieser Szene performen können.
Normal wird es dir in effektiv jedem Spiel passieren können, dass du vom GPU ins CPU Limit rutscht, nicht immer und überall. Aber hier und dort... Wenn das dann Keyszenen sind -> dann ist es doch äußerst sinnig zu wissen, wie man diese Schlüsselstellen am besten abfedern kann?

Ist doch im Endeffekt bei GPUs nichts anderes. Da werden Spiele getestet mit Settings xyz und auf nem sinnigerweise sehr schnellen Prozessor um zu zeigen, wie schnell das Teil ist und die Relation zu anderen Modellen zu schaffen.
Da nimmt doch dann keiner den absoluten FPS Wert für bahre Münze... Sondern weis viel eher, GPU A schafft eine gewisse Basisleistung und GPU B ist so und so viel Prozent schneller (im Schnitt)
Reicht dir nun in einem Titel GPU A nicht für den anvisierten FPS Count, wirst du wohl auf GPU B aufrüsten -> oder eben die Details reduzieren...

Das ist ein einfaches Beispiel, das zeigen soll, das AVG-FPS nicht alles sind. Hätte ich jetzt 90-110 FPS bei CPU A geschrieben, hätte das an der Aussage nichts geändert. Bleiben 100 AVG-FPS.
Das selbe gilt für die GPU, die wird auch nicht konstant 90 FPS liefern. Aber wie gesagt, es ist nur ein Beispiel.

Aber schön, dass du meinen ersten Satz und den vorherigen Post ignorierst, indem steht, das AVG-Werte bei 720p nicht aussagekräftig sind. :wink:
 
Aber schön, dass du meinen ersten Satz und den vorherigen Post ignorierst, indem steht, das AVG-Werte bei 720p nicht aussagekräftig sind. :wink:

Ganz im Gegenteil, ich bin sogar einer Meinerung mit dir, zumindest über die Aussagekraft der absoluten FPS Höhe... Was ja in eurer Diskusion da oben aber mehrfach angezweifelt wurde, nämlich anhand der Frage, was einem FPS Werte von 720p Benches bringen ist aber wie gesagt nur der halbe Teil.
Am Punkt der Relation zueinander wird man aus meiner Sicht nichts drum rum reden können. Zumal, aus meiner Sicht man das Thema generell nicht überbewerten sollte. Da werden idR Szenen von 20-30sec. gebencht! Das heist der avg. bezieht sich auf eine extrem kurzen, idR wenig schwankenden/geänderten Workload.

Dennoch sind solche Benches durchaus aussagekräftig, wenn man die Werte nicht als absolute FPS für bahre Münze nimmt, sondern die Relation im Hinterkopf für Problemszenen hat.
 
Bei bf@64 Server zählen die drops und lags. Also Frametimes, die Zeit zwischen den ausgegebenen Frames.
bf1ft1sumv.png


->8C Ryzen läuft smoother und flüssiger unter bf1@64 weil es keine drops und lags gibt wie beim 4C Kabylake. Da zählen nunmal Cores und die sind mit Takt nicht mehr auszugleichen.
 
Bei bf@64 Server zählen die drops und lags. Also Frametimes, die Zeit zwischen den ausgegebenen Frames.
bf1ft1sumv.png


->8C Ryzen läuft smoother und flüssiger unter bf1@64 weil es keine drops und lags gibt wie beim 4C Kabylake. Da zählen nunmal Cores und die sind mit Takt nicht mehr auszugleichen.

Ich glaube das würde auch niemand anzweifeln. Das "Problem" ist das die Belastung von eines 64 Server ziemlich einzigartig ist und die breite Masse an Spielen nicht annähernd solch eine CPU Last erzeugt. Das Problem ist als Spieler das du noch eine Grafikkarte brauchst und die 200€ Aufpreis bringen dir Grafikkartentechnisch mehr FPS als sich der 1800X vom 7700K absetzen kann. Zum Spielen geeignet aber P/L schlicht nicht sonderlich gut.
Man müsste also einen 1800X mit einer 1070 gegen einen 7700K mit einer 1080 entgegenstellen.
 
Zuletzt bearbeitet:
BF ist auch mit eines der einzigsten titel wo der amd punktet ^^

und gegen fps schwankungen nach oben hin helfen framelimiter.

aber wie lange ist die szene auf die sich die grafik hier bezieht? auf 20 sekunden oder mehrere minuten überall auf der map oder sogar mehreren maps was schon sinnvoller wäre?
 
Zuletzt bearbeitet:
In dem Diagramm da sind das knapp über 3000 Frames mit im Schnitt ca. 8ms. Kommt also was von ca. 25sec raus...
 
Bei bf@64 Server zählen die drops und lags. Also Frametimes, die Zeit zwischen den ausgegebenen Frames.
bf1ft1sumv.png


->8C Ryzen läuft smoother und flüssiger unter bf1@64 weil es keine drops und lags gibt wie beim 4C Kabylake. Da zählen nunmal Cores und die sind mit Takt nicht mehr auszugleichen.

Tjo, nur ist das halt DX11. Der 7700k legt unter DX12 um etwa 15% zu, während Ryzen um 20% einbricht.

Edit: Sehe gerade das es server ist, sry. Keine Ahnung wie es sich da mit DX11 und DX12 verhält.
 
Zuletzt bearbeitet:
Hier nochmal eine Autovergleich:
Du stellst den Tempomat eines Ferrari und VW Gold auf 70kmh (aka 4k Test, GPU Limit).
Und misst dann die V-Max die der Wagen erreicht. Überraschung .. beide 70Kmh.

Jetzt würde man aber vermutlich, um die Fahrzeugleistung messen zu wollen den Tempomat abschalten wollen? Also muss man das GPU Limit entfernen. Und genau das macht der 720p Test.
Und es ist völlig irrelevant ob niemand auf 720p spielt. Die Leistung wurde korrekt gemessen.
Und wenn ihr weiterhin "stumpf" behauptet der "Test" ist schlecht/falsch/nutzlos, dann zerstört ihr jegliche sachliche Diskussionsgrundlage.

Der Intel hat mehr Leistung als der AMD im Gaming! (bezogen auf das Thema dieses Threads!)

Es ist schon legitim jetzt am Kauf eines Ferraris zu zweifeln, wenn man die Leistung dann am Ende wegen Tempolimits nie nutzten wird können. Nur Kostet der Ferrari ungleich mehr als der Golf. Bei den CPUs 7700k und 1800x ist aber aber umgekehrt.
Und genau deshalb, ist derzeit AMD keine gute Gaming-CPU.

Ok, Groschen gefallen, Danke für die Erklärung.
Mit der Einschränkung das der Ryzen eine Top CPU ist, im Gamebereich ( geb ich Dir recht ) noch leichte Schwächen hat.
 
Ich versteh nicht, wieso noch immer auf den 720p Tests rumgeritten wird.
Zuletzt waren vernünftige CPU-Tests immer in 720p und evtl. noch in FullHD. Die höheren Auflösungen 1440p und 4k machen nur als Ergänzung für den Praxisvergleich Sinn.

Um die reine CPU in Spielen zu testen nimmt man eben 720p damit die Testergebnisse nicht von der GPU abhängig sind.
Daraus Rückschlüsse über die Spielbarkeit mit Ryzen zu ziehen ist falsch, erst recht da klar ist, dass noch Optimierungspotential besteht .
Es ist nur ein Anhaltspunkt und daraus kann man eben bereits erkennen, dass Ryzen im Gegensatz zu Bulldozer kein totaler Reinfall geworden ist!

Das wird insbesondere bei halbwegs ordentlich programmierten Spielen mit CPU-lastigen Passagen (z.B. Hintergrundberechnungen) deutlich.
 

7700k@DX12 + DX11 sind schlechter als Ryzen@DX11.

In diesem Fall
Ryzen DX11>7700k@DX11>7700k@DX12>Ryzen DX12
Was sagt das? Mit Ryzen läuft bf1 am flüssigsten bzw. "smoth" und während der 7700k nicht mithalten kann. API übergreifend DX11 und DX12, wobei hier DX11 nativ ist.

Bei den fps sowieso:
bf1mpkhuij.png


Gibt ja Leute die sich Gedanken machen ob sie vom Ryzen umsteigen auf 7700k wegen bf1@server.
 
Zuletzt bearbeitet:
Das Problem an so MP Messungen ist aber, dass du zwar eine vllt vermeintlich gleiche Szene aufzeichnest, aber nicht weißt was deine 63 Mitspieler so anstellen.

Man müsste da schon mehrere Minuten mit intensivem Gefecht testen und dann halt darauf hinweisen das es nicht exakt gleiche Szenarien sind.

Was bringen mir den zum Beispiel 100fps am Start der Runde wenn es mitten im Gefecht kurz vor Ende auf 30 abkackt und man deswegen stirbt (nur als Beispiel)...

Ist natürlich deutlich mehr Aufwand, aber sonst versteifen sich gerade die ganzen Jünger auf die Werte und verweisen darauf wenn jemand behauptet er hat anderes gemessen oder erlebt!

Kenn ich noch von damals als ich vom 955 auf den 2500K gewechselt bin wegen BF3.

Wo der AMD auf 30fps abgestürtzt ist, liefs mit dem Intel immernoch mit 50fps oderso, ob sich die AVG-FPS dann nur um 5fps unterscheiden war vollkommen egal.
 
wie oft wollt ihr das noch durch kauen langsam reichts doch oder ???
 
Moin, ich möchte mir einen ganz neuen Rechner zusammenbauen, habe jetzt nun auf den Ryzen 1800x gewartet aber man liest ja nur Gutes aber auch schlechtes über ihn, sonst würde ich auf ein I7700K umsteigen.
Was meint ihr, noch warten oder jetzt zugreifen? Was mich bei den meisten X370 Bords stört, ist das sie nicht alle M.2 Slots besitzen, wollte ein Raid0 aus 2 960 Evo 500gb machen.

Baue ein Rechner rein für Gaming , der einen WQHD Monitor füttern soll.

Als Grafikkarte wird wohl eine 1080Ti kommen oder evt 2 Gtx1080, wobei ich lieber eine Karte aufgrund von Microlags ( gibt es die noch?) hätte.
 
Unter 720p im CPU-Limit zu benchen ist absolut sinnvoll. Aber man muss halt auch mal den Ball flach halten. Wenn in der normlerweise schlechteren API in BF1 120fps erreicht werden und in DX12 deutlich weniger, dann liegt es schlicht nicht an der CPU, sondern an der Software, BIOS, Windows what ever. Besonders, wenn dann wohl Win7 besser läuft als Win10, wohl aus dem Grund das die CPU in Windows10 als BulldozerModul angesprochen wird anstatt einem Intel mit SMT.

Die Anwendungsbenchmarks zeigen ganz klar wieviel Performance die CPU hat. Bei den Spielebenchmarks gibt es große Ausreißer. Das ist aber wie gesagt nicht verwunderlich, da es eine komplett neue Architektur ist. Den größten Sprung in der Architektur bei Intel hatte man zuletzt mit dem Nehalem 2008 als man den FSB abgeschafft hat samt Tripple Channel, Hyperthreading und dennoch war es eine weitere Iteration der Core-Architektur.

Von Bulldozer ist aber nicht viel übrig geblieben. Direkt nach dem Flop hat man mit Anstrengungen nun 6 Jahre daran gearbeitet. Nun geht es an den Feinschliff. Der Unterschied, Bulldozer war jedoch ein Rückschritt zum eigenen Vorgänger. Nicht mal im Anwendungsbenchmark war man schneller als der 2600k. Bei Ryzen sind IPC und Takt sehr vergleichbar zu Broadwell-E mit identischer Corezahl. Das ist der erste wichtige Unterschied.

Der Zweite Punkt ist der Zeitpunkt. Die PS4 und XboxOne kamen erst 2 Jahre nach Bulldozer Release! Die Spiele waren also noch auf die Vorgänger-Konsolengeneration angepasst. Das bedeutet 3 Kerne bei der Xbox360 und daher auch die Argumentation "von mehr als 4 Kernen profitieren Spiele sowieso nicht". Spiele werden aber für die größte Zielgruppe entwickelt, dass bedeutet in der Anfangszeit sind das Corssplattformtitel. Bestes Beispiel GTA5. Erst-Release war 2013. Nach Überarbeitung 2014 auf PS4 und X1. Und 2015 dann für PC. Man sieht aber dennoch, dass die Engine bis 3 Kerne am besten skaliert. Warum sollte sich auch durch ein paar bessere Effekte und hauptsächlich hübschere Texturen das Grundgerüst ändern. Die neuen Konsolen erschlagen das doch sowieso mit mehr Leistung.

Erst ab 2015 gab es überhaupt Spiele exklusiv für die neue Generation mit besserer Skalierung. Heute ist Bulldozer mit dem 2600k gleichauf und hat den Rückstand von etwa 44% ausgeglich, aber da ist die CPU auch schon 5 Jahre alt und sowieso kein Blumentopf mehr zu gewinnen. Bei Ryzen mit 8 Kernen sieht das aber schon ganz anders aus, gerade je aktueller die Titel sind ein Gleichstand. In Cinebench lag der Bulldozer 14% hinter dem 2600k. Der 1700x liegt 60% vor dem 7700k!
 
Was meint ihr, noch warten oder jetzt zugreifen? Was mich bei den meisten X370 Bords stört, ist das sie nicht alle M.2 Slots besitzen, wollte ein Raid0 aus 2 960 Evo 500gb machen.

Baue ein Rechner rein für Gaming , der einen WQHD Monitor füttern soll.

Wenn du einen reinen Gamingrechner willst, wozu schmeißt du dann so viel Geld für ein nutzloses NVMe Raid raus? Die bringen beim Gaming genau nichts.
 
so ist es. selbst von einer sata 830 auf eine 960evo birngt es quasi nichts.

wenn der rest passt dann würd ich eine 250gb 960 fürs os nehmen und eine 500er oder 1tb für games. wobei 500 schon reicht. man zockt ja nicht 50 spiele auf einmal. auf eine 500er passen genug drauf. den rest holt man vom datengrab HDD oder NAS sofern man eines besitzt.
 
Zuletzt bearbeitet:
@SilentShadow

Rein für Gaming lohnt Ryzen R7 nicht!

Ist als ob man sich einen SUV kauft obwohl man in der Stadt wohnt nur um damit in der Stadt zum einkaufen zu fahren.
Zumal der Ryzen mehr Strom verbrät als ein 7700K, erst recht wenn man ihn übertaktet um in ähnliche Regionen zu kommen.

Ein R5 könnte ne Alternative sein, kommt aber wohl erst im April, je nachdem wann du kaufen willst!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh