Weshalb Ryzen eine hervorragende Gaming CPU 2017 ist

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
siehst du iwo frametimes in der präsi`? da stehen NUR FPS

und in gta und watch dogs 2 was im anschluss läuft, ist beides im cpu limit sofern eine der beiden % angaben die GPU Load ist, die der ochse nicht beschriftet.
 
Zuletzt bearbeitet:
Ist doch völlig egal was wo limitiert. Der Tester sagt, und das ist eine Aussage, der wir blind vertrauen müssen, dass es mit der AMD CPU flüssiger läuft.
 
Zuletzt bearbeitet:
Nvidia@DX12 läuft scheiße in dem Game und es bringt nichts. Was soll diese Diskussion?

In welchem game? Wovon redest du?
Wie kommst du darauf das nvidia@DX12 scheiße ist.
Für mich ist das wichtig weil ich im Moment zum 7700k tendiere wegen der DX12 Probleme bei Ryzen und ich sonst den 1700/1700x kaufen würde, von dem her hätte ich das gerne etwas genauer erklärt bzw gib mir bitte ne quelle.
 
Was ist an meinem Post denn schwachsinniges Gewurstel. Scheint ja unmöglich zu sein hier mal Argumente zu bringen. Du versteckst dich immer wieder hinter einem Performancerating.

Ein Webmi der nach Lust und Laune hier Werte zusammen trägt sodass immer ein möglichst großer Vorsprung für Intel dabei heraus springt ist ja anscheinend genau dein Niveau.
 
Zuletzt bearbeitet:
In welchem game? Wovon redest du?
Wie kommst du darauf das nvidia@DX12 scheiße ist.
Für mich ist das wichtig weil ich im Moment zum 7700k tendiere wegen der DX12 Probleme bei Ryzen und ich sonst den 1700/1700x kaufen würde, von dem her hätte ich das gerne etwas genauer erklärt bzw gib mir bitte ne quelle.

Guck dir doch CB an, da skaliert Nvidia negativ mit DX12 Maske bei DX11 nativ. Deswegen nehmen die bei Grakavergleichen immer die besseren Werte, und diese sind bei Nvidia@DX11 und bei AMD@DX12.
Grafikkarten von Nvidia im Test: GTX 480, 580, 680, 780 Ti, 980 Ti und 1080 im Vergleich (Seite 2) - ComputerBase
Bitte mal selber durchgucken...

Bei korrekt nativen DX12 läuft ne Fury schneller als ne 1070, die 1080 und Titan können noch von der Rohpower leben.
 
Hm, probiert mal vinacis_vivids auf Ignore zu setzten und guckt euch dann mal den Thread an. Gar nicht mehr so unsachlich :o

Logisch, AMD ist da langsamer. Aber ich bin kein Gamer, deswegen die Frage, ob es dem Auge wirklich auffällt, ob man nun mit 83,3 fps oder 107 fps spielt?

Es fällt am Preis-Tag der Schachtel auf.
I7700k, 360€
Ryzen 1800x: 560€

Ja und nein. Behauptet wurde, Ryzen ist keine gute Gaming CPU. Wenn ich allerdings den PC nicht nur zum spielen verwende, aber eben auch spielen will, habe ich dann wirklich eine schlechte Wahl mit Ryzen getroffen? Rein hypothetisch, weil die Frage stellt sich bei mir erst nächstes Jahr.

Primär ist immer die Frage was neben Gaming noch gemacht wird.
Browser/Mail und Office sind mehr oder weniger irrelevant - weil das "überall" läuft.

Ich denke das Ryzen sogar schon in 2 Monaten eine gute Wahl sein könnte, auch als Spieler. Es gibt logisch nachvollziehbare Ansätze, wo AMD wirklich massiv Leistung via Software nachpatchen könnte. Die Frage ist aber, schaffen Sie das?
Nächtes Jahr wird die Marktsituation sowieso wieder ganz anders sein. Aber vermutlich ein wesentlich klareres Bild zeigen :)

ryzen ist eine gute architektur, auch für spieler.

für reine gamer ist, zumindest der 1800x derzeit, aber zu teuer.

high fps gamer sind, mit dem 7700k derzeit was preis/leistung angeht besser beraten.

der 1700 non x könnte mit oc in naher zukunft zum preis/leistungs-hit werden.

/sign
 
Guck dir doch CB an, da skaliert Nvidia negativ mit DX12 Maske bei DX11 nativ. Deswegen nehmen die bei Grakavergleichen immer die besseren Werte, und diese sind bei Nvidia@DX11 und bei AMD@DX12.
Grafikkarten von Nvidia im Test: GTX 480, 580, 680, 780Â*Ti, 980 Ti und 1080 im Vergleich (Seite 2) - ComputerBase
Bitte mal selber durchgucken...

Bei korrekt nativen DX12 läuft ne Fury schneller als ne 1070, die 1080 und Titan können noch von der Rohpower leben.

Schön und gut, ich versteh da den Zusammenhang zu Ryzen nicht. Und in wie weit spielt das dann den Intel CPUs in die Karten, warum brechen die nicht weg?
 
@Gubbl3L
Hab es für dich mal berichtigt

Nein ich meine das schon so wie ich es sage.
Webmi hat in seiner Auflistung den x1800 mal mit dem Intel 4,6,8 oder 10 Kerner verglichen. Halt einfach immer schön den Wert genommen der am größten war. Dabei verfälscht er natürlich kaum das Ergebnis. AMD kann dabei einfach nur schlecht aussehen!
Spiele die gut in der breite Skalieren sind die Intels mit vielen Kernen natürlich auch schön schnell. Bei allen anderen nimmt man dann einfach den hoch getakteten 4 Kerner.
Dann wird natürlich noch schön angeprangert das AMD unter in BF1 DX12 fast 30% langsamer ist. Das der DX11 Wert (siehe BF1) zwar besser war als der 7700k unter DX12 ist, wird einfach ignoriert. Dass die Intel "Vielkerner" aber auch unter DX12 im Vergleich zu DX11 in dem Spiel einbrechen bzw alle gleich schnell sind wird auch wieder verschwiegen. Kann es sein das BF1 DX12 auf 4 Kerne + SMT optimiert wurde und somit deckelt ?

Es gibt scheinbar ein Problem mit der Zuweisung der Threads wie der Sondertest zeigt(Windows ?).
Das ist nicht das erste mal und auch in der Vergangenheit gab es sowohl bei 4 Kerner i7 als auch den anderen damit Probleme. Das dies Teils signifikant (bis zu 17%) Leistung kostet wird ebenso einfach unter den Tisch fallen gelassen.

Nochmal die Aufforderung an Alle:
Wenn ihr keine Lust habt den Test mal etwas genauer im Detail zu betrachten dann lasst es doch sein. Ihr habt hier doch jetzt oft genug "Aber die sagen doch in ihrer Zusammenfassung XY" gesagt.
 
Zuletzt bearbeitet:
eins kann ich noch sagen. der gta V test auf CB ist mit low res und low settings gefahren worden ;)

auf Max settings und LOW Res und kein AA hab ich im test min fps von unter 60 mit einem 6700k

stell ich lediglich Gras auf LOW und alle Sichtweiten sowie verkehr auf die minimalste stufe hab ich min fps von über 80 und die max fps schießen bis auf knapp 200 rauf.

wenn ich jetzt noch alles andere abschalte wie schatten, postprocess, shader etc also alle anderen settings dann komme ich vermutlich auch auf die 125min fps den 7700k auf cb xD

ich finds halt um es selber nachvollziehen oder gegentesten zu wollen echt schäbig, dass man sowas nicht dazu schreibt oder einfach 2 Screens der Settings anhängt.^^
 
Die DX12 bf1 werte sind Müll bei Nvidia Karten, das gleiche wie bei Tomb Raider. Egal ob Ryzen oder Intel.

Kapier nicht was du meinst.
Die Intel gewinnen gut 15% mehr fps, ryzen bricht um 20% ein. Verstehe nicht wo das etwas mit Ryzen vs 7700k/6900k zu tun hat. Wo verfälscht es das Ergebnis zugunsten Intel wenn mit Nvidia getestet wurde? Klar wenn du ne AMD graka nimmst bist du früher im gpu limit und sieht dann wohl besser für ryzen aus.....ist aber nicht Sinn der Sache wenn die gpu noch früher limitiert.
 
Ryzen 1700: 359€
gleiche Perf wie der 1800X da nicht gebinnt wird und alle außer A320 OC können ;)

Ja, darauf spekuliere ich ja auch noch. ABER @Topic, hättest du dann halt die 5Ghz OC des Intel als Konterargument. Und ich bin noch am researchen, augenscheinlich hat aber AMD OC dann nen negativen Beigeschmack was Energiesparmechanismen angeht.
 
Kapier nicht was du meinst.
Die Intel gewinnen gut 15% mehr fps, ryzen bricht um 20% ein. Verstehe nicht wo das etwas mit Ryzen vs 7700k/6900k zu tun hat. Wo verfälscht es das Ergebnis zugunsten Intel wenn mit Nvidia getestet wurde? Klar wenn du ne AMD graka nimmst bist du früher im gpu limit und sieht dann wohl besser für ryzen aus.....ist aber nicht Sinn der Sache wenn die gpu noch früher limitiert.

Hier dein Intel/AMD-Patch:
Deus Ex Benchmark: Patch für mehr Leistung im CPU-Limit unter DirectX 12 - ComputerBase

Soweit ich weiß gibs den für Ryzen noch nicht...

Deux Ex Werte kann man also bei dem CB-Ryzen Test in den Müll hauen.
 
Zuletzt bearbeitet:
Kapier nicht was du meinst.
Die Intel gewinnen gut 15% mehr fps, ryzen bricht um 20% ein. Verstehe nicht wo das etwas mit Ryzen vs 7700k/6900k zu tun hat. Wo verfälscht es das Ergebnis zugunsten Intel wenn mit Nvidia getestet wurde? Klar wenn du ne AMD graka nimmst bist du früher im gpu limit und sieht dann wohl besser für ryzen aus.....ist aber nicht Sinn der Sache wenn die gpu noch früher limitiert.

Auch die Intel brechen ein ? 6,8 oder 10 Kerner deckeln auf einmal alle bei ca 122 FPS obwohl sie vorher teils fast 150 erreicht haben. Da stimmt generell was nicht mit der DX12 Umsetzung in BF1.
 
Page 8 - Ryzen: Strictly technical
I did some 3D testing and eventhou there is not nearly enough data to confirm it, I'd say the SMT regression is infact a Windows 10 related issue.
In 3D testing I did recently on Windows 10, the title which illustrated the biggest SMT regression was Total War: Warhammer.

All of these were recorded at 3.5GHz, 2133MHz MEMCLK with R9 Nano:

Windows 10 - 1080 Ultra DX11:

8C/16T - 49.39fps (Min), 72.36fps (Avg)
8C/8T - 57.16fps (Min), 72.46fps (Avg)

Windows 7 - 1080 Ultra DX11:

8C/16T - 62.33fps (Min), 78.18fps (Avg)
8C/8T - 62.00fps (Min), 73.22fps (Avg)

At the moment this is just pure speculation as there were variables, which could not be isolated.
Windows 10 figures were recorded using PresentMon (OCAT), however with Windows 7 it was necessary to use Fraps.
Nach dem Windows 10 patch hat man evtl schon die Gaming-Leistungskrone.
 
- - - Updated - - -

@Gubb3L

Das ist leider das problem hier.....
 
Auch die Intel brechen ein ? 6,8 oder 10 Kerner deckeln auf einmal alle bei ca 122 FPS obwohl sie vorher teils fast 150 erreicht haben. Da stimmt generell was nicht mit der DX12 Umsetzung in BF1.

Auf welches review beziehst du dich? Auf CB sind die intel 6,8, 10 kerner ziemlich even in DX11/12, der 7700k bekommt aber nen deutlichen boost.
 
Auf welches review beziehst du dich? Auf CB sind die intel 6,8, 10 kerner ziemlich even in DX11/12, der 7700k bekommt aber nen deutlichen boost.

CPUDX11DX12DX12 vs DX11
1800x122,490,774,1%
1800x ohne SMT128,529876,25%
6950X129,6120,993,28%
6900K143,8122,494,44%
6850K120,9122,0100,9%
7700k116,4127,6109,62%
4770K84,488,4104,74%
7600K94,199,3105,52%

Und das sieht jetzt nicht nach einer sehr komischen Skalierung aus?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh