Schlechte Reviews es eben zushauf im Netz, das ist ja auch nicht neu. Bei
Anandtechs Skylake Review der Core i7-6700K and i5-6600K schaut man sich z.B. besser mal die Einzeltests und nicht nur dessen Zusammenfassung der IPC über alle Benchmarks an, denn die ist ja nicht die ganze Wahrheit sondern ein Mix aus verschiedenen Benchmarks die unterschiedliche Ergebnisse bringen, weil sie auch unterschiedliche Aspekte messen. Daher es ist eben auch nicht die IPC wie Anandtech da behauptet, sonder was davon bei dem sepziellen Mix aus Benchmarks ankommt. Der i7-5775C gewinnt ja z.B. bei 7zip und WinRAR nicht wegen der effizienten Archtektur, sondern weil beide Benchmarks die Speicheranbindung sehr belasten und er da mit seinem 128MB eDRAM welches als L4 Cache arbeitet, eben einen klaren Vorteil hat.
Wenn man wirklich die IPC der CPU vergleichen will, muss man die Benchmarks wählen, die vor allem die CPU belasten und das sind z.B. Dolphin, PovRay und Cinebench, da sind die Steigerungen von SandyBridge auf Skylake dann 69,3%, 38,2% und 22,2% (ST) bzw. 22,3% bei Multithreading. Von Hawell zu Skylake (DDR4) sind es dann 8,7%, 9,6%, 8,3%(ST) bzw. 8% (MT). Bei
Anandtech Tests unter Linux liegt bei NPB, Fluid Dynamics oder Redis Memory-Key Stor 10x der 6700k sogar fast 20% gegenüber dem 4790k zu.
Klar wird das einen Gamer nicht interssieren und bei den
Game Tests mit High-End Grakas liegen die i5 und i7 seid SandyBridge mehr oder weniger gleichauf, aber das ist doch eben kein Beleg für einen angeblich nicht vorhandenen Leistungszuwachs, sondern nur dafür das die Games diese Mehrleistung nicht brauchen bzw. nutzen können. GRID: Autosport ist da eines der wenigen Games bei denen die CPUs überhaupt einen Unterschied jenseits der Messgenauigkeit ausmachen und schon liegt der 2600k auch mit 77,2 Frame auf der R9 290X zu 112,24fps des 4790k um 45% zurück. Komisch, wo es doch kaum einen Leistungszuwachs geben soll
Aber schon mit der GTX980 schrumpft der Vorsprung des 4790k zum 2600k auf weniger als 11% zusammen, da kann das CPU Potential offenbar schon wieder nicht mehr voll genutzt werden und wenn man natürlich nur solche Games und Anwendungen hat die das nicht können, dann lohnt sich ein Upgrade natürlich auch nichts, das ist eine klare Sache, aber eben auch kein Beleg für mangelnden Leistungzuwachs bei Skylake, sondern für die mangelnde Fähigkeit der SW diesen zu nutzen.
Nein ganz im Gegenteil, die launchen hier zwei Architekturen schnell hintereinander und takten die CPu´s mit 4,0 und 4,2ghz absolut ans Limit.
Nein, Anandtech hat seine 3 Engineering Samples auf über 4,6GHz und die eine Retail CPU auf 4,5GHz bekommen, so ganz am Limit sind die also nicht, auch wenn sie weniger Luft haben als frühere Generationen, aber das ist der Preis für die Effizienz, die eben auch über kleinere Fertigungsstrukturen erzielt wird. Das dürfte AMD ebenso passieren, deren 14nm CPUs dürfte wohl auch keine Übertaktwunder mehr werden.
Intel kocht halt auch nur mit Wasser.
Klar, Wunder kann auch Intel nicht vollbringen, das wird AMD aber auch nicht gelingen, nur verspricht deren Markting die vorher immer so groß und sorgt so hinterher für umso merr Enttäuschung.
Hier bei
Anandtech ist dazu ein schöner Test wo alle mit 3,0Ghz und 4c/4t durch die Game-Benches geschickt werden.
Das sieht sehr, sehr ernüchternd aus.
Die meisten Games könne die Leistung der CPU einfach nicht abfordern bzw. nutzen, dass ist aber auch nicht neu und nicht die Schuld der CPU, sondern der Gamingentwicklet.
Wenn man einen PC kauft, dann mit dieser CPU, ansonsten für ein Aufrüsten sehe ich seit der 2xxx Gen keinen wirklichen Grund in BEzug auf Spiele.
Im Bezug auf Spiele nicht, wobei es da aber eben auch Ausnahmen gibt, aber das hängt dann wie man sieht auch schon wieder stark ab der Graka.
Ansonsten Intel lässt sich "schön Zeit" - warum stressen lassen - Konkurrenz ist quasi nicht vorhanden...
Das es keine Konkurrenz in der Leistungsklasse gibt ist zwar richtig, aber auch für Intel wird es ja nicht leichter die Leistung immer weiter zu steigern, zumal ohne die bei den großen Xeons die Anzahl der Kerne zu erhöhen und auch noch die Effizienz weiter zu verbessern. Man sieht da ja auch, dass beim i5 6600K mit seinem geringeren Basistakt die Effizenz mehr gestiegen ist als bei i7 6700K. Design und Fertigung ist mehr auf beste Effizienz bei geringeren Taktraten optimiert, was ja eben gerade auch für mobile Anwendungen und Server-CPUs mit vielen Kernen wichtig ist, aber darunter leidet die maximale Performance weil man so Taktraten nicht mehr bei vernünftiger Effizienz erzielen kann der Takt bei dem die Effizenz sich anfangt massiv zu verschlechtern immer gering wird und die Verschlechterung darüber dann auch noch immer massiver ausfällt.
Hab mal Tomb Raider verglichen
Schau Dir mal
diesem Review für fast 10 Jahre Intel CPUs vom Core2 bis 4790k an, da ist
bei den Games auf der GTX980 Tomb Raider das wo Unterschiede minimal sind und einzig der alte Core2 E6600 etwas deutlicher zurückhängt, was zeigt das Tomb Raider als wirklich gar nicht CPU fordernd ist und die fps dort über die CPU Performance praktisch garnichts aussagen. Umgekehrt kommen Leute sie nur Tomb Raider spielen daher ewig selbst mit einer sehr alten CPU aus und brauchen wirklich nicht an ein Upgrade zu denken.
Das gilt aber eben nicht für alle Spiele, bei Hitman Absolution liegt da mal eben ein Faktor 3 zwischen einem 4790K und dem E6600 und auch die Core2Quad hängen da deutlich zurück, wenn auch nicht so weit wie bei Metro Redux, wo der schnellte Core2Quad Q9650 im Test nur ein Viertel der fps eines 4790k erreicht.
Es ist also nicht nur falsch zu behaupten es gäbe keine Leistungssteierung, es ist auch falsch zu behaupten Spiele würde davon gar nicht profitieren, denn es hängt auch vom jeweiligen Spiel und der Graka ab, ob und wie sehr es von einer neuren und schnelleren CPU profitiert.
Gibt genug Leute, die mit Ihrem PC ernsthaft arbeiten wollen und eben nicht nur daddeln
Das stimmt und bei Anwendungen hat man fast bei jeder neuen CPU Generation von Intel auch einen Vorteile bei der Performance, außerdem ist Übertakten da eher nicht angesagt, weil es die Stabilität mindert und das Fehlerrisiko erhöht. Workstations für wichtige, ernsthafte Anwendungen greifen deshalb auch meist auf Xeons zurück, aber die folgen ja für Broadwell und Skylake erst noch später, wenn da nicht eine Generation überprungen wird, z.B. E3 Broadwell Xeons.
Von daher sehe ich keinerlei Grund die nun in die CPU zu packen und jeden zu vergewaltigen diese mitzukaufen obwohl sie kein Mehrgewinn bringt.
Wenn man diese weg läßt wären die CPUs billiger, Leute die dann Onboard Grafik haben wollen kaufen eben ein passendes Mainboard.
Auch ich würde mir CPUs für den Mainstream ohne iGPU wünschen, zumal bei Skylake ja nun nicht wie bei Broadwell ein eDRAM dabei ist, welches auch der CPU als Cache zugute kommt. Vielleicht kommt das ja dann irgendwann bei den Xeons und es wird dadurch wieder ein preislich attraktives Modell ähnlich den E3-1231 geben.