D.h. die CPUs deckeln einfach bei einem gewissen maximalen Stromverbrauch. Wirklich effizient sind die CPUs nämlich nicht. AMD trickst hier einfach gekonnt.
Schon klar. Und wenn nicht gedeckelt und die TDP überschritten wird, dann heulst du rum, dass Ryzen mehr Strom zieht als AMD angibt. Bei einigen kann man echt nur noch den Kopf schütteln. Die suchen regelrecht nach lächerlichen und peinlichen Ausflüchten, nur um irgendwas schlecht machen zu können. Und immer wieder die gleichen.
Um mal bei den Fakten zu bleiben, mit tricksen hat das nicht das geringste zu tun. Es wird lediglich der Takt reguliert, um innerhalb der TDP zu bleiben. Nennt sich bei Ryzen neuerdings Precision Boost. Ähnliches macht auch Intel bei ihren CPUs ja schon seit Jahren. Und das hat genauso wenig irgendwas mit schlechter Effizienz zu tun. Effizienz bzw konkret Energieeffizienz ist immer noch das Verhältnis aus der erzielten Performance zur Leistungsaufnahme, völlig unabhängig irgendwelcher Boost Technologien. Nur ist Energieeffizienz dabei keine Konstante, sondern verändert sich mit Takt, Spannung und anderen Faktoren. Deshalb versucht man auch Sweet-Spots zu finden und Prozessoren in jeweilige TDP-Klassen einzuordnen. Boost sorgt dann lediglich dafür, diese TDPs auch möglichst effektiv auszunutzen. Fakt ist, Ryzen zeigt sich bisher verdammt effizient.
Ich sehe im Moment keine Intel Desktop CPU, die das besser hinbekommt. Ganz im Gegenteil, Ryzen schafft es die Messlatte in einigen Bereichen höher zu legen.
Respekt. 30% über der TDP unter Last.
Wie die da auf 104W für den R7 1700 kommen, keine Ahnung. Anhand der Messwerte sehe ich maximal 100W Last-Idle. Egal. Auch dir sei nochmal gesagt, mit aktivem XFR _darf_ sich Ryzen auch mehr genehmigen als die TDP vorgibt, entsprechende Kühlung natürlich vorausgesetzt. Grob überschlagen, 104W abzüglich Wirkungsgraden von Netzteil und SpaWas und zuzüglich von vielleicht maximal 5W Idle ergibt ~85W. Die neuen Kühler sind auf mindestens 95W ausgelegt. Also alles im grünen Bereich.
Damit wird die CPU ins Schwitzen gebracht, genau das möchte man doch oder möchtest du die GPU testen?
Wenn ich eine CPU ins Schwitzen bringen möchte, dann nehme ich x265 oder ähnliches und keine Spiele.
Die meisten haben den Sinn einer CPU in Spielen leider immer noch nicht wirklich verstanden. Mich interessiert vor allem, ob CPU X mit GPU Y bei praxisnahen Einstellungen ausreichend hohe FPS erzielen, damit ich ein flüssiges Spielgefühl habe. Wenn ich auf eine schnellere GPU upgrade, dann nicht um noch mehr FPS zu erzielen, sondern um Einstellungen weiter hoch schrauben zu können, zB höhere Auflösung, mehr AA/AF, mehr Details usw. Die Anforderungen an die CPU ändern sich dadurch ja nicht. Die muss immer noch die gleiche Arbeit pro Frame verrichten. Daher brauche ich dann auch keine schnellere CPU. Seine CPU upgradet man für Spiele nur, wenn die Anforderungen an die CPU pro Frame steigen. Und genau hier liegt der Denkfehler vieler. Auch bei low Res low Settings sind die Anforderungen an die CPU _pro Frame_ die gleichen, sofern wir natürlich vom selben Spiel sprechen. Dass die CPU gezwungen wird, mehr Frames in der gleichen Zeit zu verarbeiten, ändert daran ja nichts. Deshalb lassen sich damit _heute_ auch keine zuverlässigen Rückschlüsse für _zukünftige_ Titel ziehen. Wie schon gesagt, low Res low Settings Tests sind und bleiben Blendwerk. Im Gegenteil, ich halte sie für Uninformierte irreführend und schädlich, weil sie nicht die Praxis widerspiegeln und man womöglich zu falschen Kaufentscheidungen verleitet wird. Es ist dann eben nicht mehr YSWYG. Aussagekräftiger für Zukunftssicherheit wäre, wohin sich Grafik-APIs entwickeln, Grafikengines, Grafiktreiber, Physik-Engines usw. Aber das zu beurteilen ist natürlich sehr schwierig ohne gute Kristallkugel. Unterm Strich kann man daher nur bilanzieren, Spieler kaufen am besten das, was ihre Anforderungen _im Moment_ erfüllt. Zukunftssicherheit war und ist bei Spielehardware extrem begrenzt.