...
Das die Haswell und Ivy so schlecht gingen, lag an der implentierung der spannungswandler seitens intel, was schon im vorraus von kritikern als dummer schritt vorrausgesagt wurde, der sich dann bewahrheitet hat. ein sandy mit den spannungswandlern intern wie ivy, hätte viel weniger takt gefahren, daher sieht man den shrink vorteil des ivy kaum. einfach mal kopf einschalten und nachdenken.
Das stimmt so nicht. Ivy hatte die Spannungswandler (FIVR) noch nicht integriert, das kam erst mit Haswell.
Bei Ivy war der Shrink auf die FinFet Tri-Gate 22nm Technologie nicht ganz als reiner Shrink zu sehen und bestimmt noch nicht ausgereift. Dazu hat Intel hier angefangen ALLE IVY CPUs am Mainstreamsockel 1155 nicht mehr zu verlöten. Davor waren nur ab und zu ein paar kleinere Modelle nicht verlötet (Celerons auf Core2 Basis z.B.) Dadurch generell wesentlich höhere Temps was die OC Eigenschaften der Ivys auch einschränkte.
Bei Haswell kamen dann wie Du sagst die integrierten Spannungswandler noch dazu ...
...
Die hohe TDP ist relevant für OC Potential damit die CPU einen Ocer nicht Hindert.
Das gilt jedoch nicht generell für jede CPU. Einige drosseln bei überschreiten der TDP, andere nicht, sonst könnte man wohl nie mit extremer Kühlung sehr hohe Spannungen und Frequenzen fahren da die TDP ja sehr schnell überschritten wären.
Kurz nochmal zum Thema TDP - seht mal in den Namen: Thermal Design Power
Wie einige hier schon vermutet und angesprochen haben bezieht sich das auf die Kühlungsauslegung. Das besagt lediglich daß die Kühlung (z.B. der CPU Kühler) bzw. das ganze Kühlkonzept (z.B. in Laptops oder Gehäusen/Servern die ein gemeinsam konzipiertes Kühlsystem haben) dafür ausgelegt sein sollten. Wie man schön erkennen kann liegt die TDP bei Intel gerne über viele verschiedene Modelle einer Serie gleich hoch. Das besagt noch lange nicht daß die Modelle alle gleich viel Verbrauch und Abwärme haben. Einige können Peak Werte über TDP erreichen und andere kommen nicht mal in die Nähe. Weiter ist die TDP auch eine Richtlinie für Mainboardhersteller. Die Boards müssen auch dafür ausgelegt sein. Sah man früher ja immer wieder daß einige ältere/günstigere Boards nicht zu CPUs mit hoher TDP kompatibel waren.
Und wie einige schon vermuten spielt die iGPU da auch eine große Rolle. Je stärker diese ist desto mehr TDP hat die CPU. Ich vermute auch daß vielleicht die K CPUs mit mehr TDP auch eine stärkere GPU bekommen als die non K. War doch bei den Ivys auch schon so. Die K und die i7 haben die HD4000 erhalten, non K i5 und fast (Ausnahme einige wenige i3) alles darunter die HD2500.
...Abgesehen davon, steigt mit der erhöhten Grafikkartenlast immer die CPU last mit an.
Das würde ich so nicht sagen. Hängt immer vom Programm/Spiel ab. Wie schon erwähnt steigt die GPU Last ja schon mit der Auflösungserhöhung stark an. Limitiert hier irgendwann die Grafikkarte hilft Dir auch ein schnellerer Prozessor nicht viel. Und tendeziell ist man eher in einem Grafiklimit als einem CPU Limit, kommt aber wie gesagt stark auf die Anwendung(in dem Fall wohl Spiel) drauf an.
...
Zusätzlich wird die Standardauflösung immer höher, und 4k wird im Jahre 2017 bei immer mehr Leuten einzug halten, was wieder zu Expotentiell mehr CPU last führt.
Nein, 4K alleine führt nicht zu wesentlich mehr CPU Last, die GPU Last steigt jedoch enorm.
Ein FX4100 kann in Battlefield 4 eine Titan nicht mit genug Daten versorgen sobald du auf Ultra Details gehst. Da ists dann egal ob 800x600 oder 4K, die CPU bringt kein Flüssiges Bild, und genau das ist der Springende Punkt den ich meinte mit CPU Last.
...
Dann liegt es aber daran daß das Spiel/Programm generell nicht schneller auf der CPU rennt, egal was Du für eine GPU und Auflösung verwendest. Sprich das hat nichts mit 4K zu tun.
Ich weiß schon was Du meinst mit:
Der Kontext war, das man eine Starke GPU mit einer Starken CPU paaren muss, um Ultra Details Flüssig darstellen zu können.
Schau mal hier.
http://cdn.overclock.net/0/0b/0ba46a68_bf4_cpu_radeon2vrua.png
Allerdings kann man das nicht so verallgemeinern. Sieh Dir mal selbst die Grafik an ... ein i3-4340 im Vergleich mit einem i7-2600K. 40 zu 50 FPS. Wirklich? Finde ich nicht die Welt.
Und BF4 ist ein nettes Beispiel da es tatsächlich von mehr als 4 Threads gebrauch macht, viele andere Spiele machen das aber nicht. Da kleben die i5 und i7 zusammen und meist nicht weit die i3 hinterher. Und je höher die Auflösung desto enger rücken die zusammen.
Nimm z.B. GTA V ...
http://pclab.pl/zdjecia/artykuly/chaostheory/2015/04/gtav/charts5/gtav_vhigh_cpu.png
Klar würde ich (zum Gamen!) keine Titan X zu einem Pentium G stecken und auch keinen i7-4790K mit einer GeForce GT 610 paaren, aber global zu sagen je stärker die GPU desto stärker muß auch die CPU sein ist nicht ganz richtig. Verlangt ein Spiel eine starke CPU muß diese her, klar, ist aber trotzdem eher unabhängig von Grafikkarte und eingesetzter Auflösung und (Grafik) Details (wo ich jetzt mal sowas wie PhysX oder CPU lastige Grafikeffekte weglasse).
Fazit - braucht bzw. nutzt ein Spiel viele Threads und somit eine starke CPU, sollte diese her. Ansonsten sollte die GPU so stark wie möglich sein.
Ob der 6600 auch so eine Legende wird wie der Core2 Namensvetter?
Ich glaube nicht. "Legenden" sind ja meist CPUs gewesen die einen großen Leistungssprung boten oder sonst irgendwie sehr besonders waren.
Die Core2 Serie war ja ein Meilenstein für Intel und ein Core2Duo E6600 den alten Pentium 4 und D in vielen Bereichen weit voraus. Der Q6600 ist eine legende da er der erste Consumer Quad Core war und wenn genutzt zu der Zeit eine gewaltige Leistung hatte.
Der i5-2500K ist in meinen Augen auch ähnlich da der Sprung der Vorgänger (i5-750 z.B.) recht groß war UND er einen freien Multi hatte. Die Sprünge danach waren wieder klein weshalb der i5-2500K bei vielen nach wie vor im Sys werkelt und eine Quasi Referenz darstellt. Wäre der Nachfolger (z.B. der i5-3570K) wieder so ein Sprung gewesen wäre der i5-2500K heute bestimmt nicht soo besonders.
Zen wird laut aktuellen gerüchten, 32 Threads haben. Ich glaube nicht dran, aber selbst die hälfte davon wäre Krasser als Krass.
...
Naja sind halt alles bisher sehr vage Gerüchte. 16 Kerne und 32 Threads wurde aktuell nur im Zusammenhang mit Servern erwähnt und das ist durchaus realistisch (siehe die letzten Opterons). Am Desktop bezweifle ich auch wie Du daß AMD sowas bringt, hat bestimmt auch in 2 Jahren noch keinen Sinn so viele Kerne am Desktop zu haben.
...
Und einen 6 Kerner unter 250€ von intel wirds in den nächsten 3 Jahren auch nicht geben.
Wieso nicht? Bei Skylake sieht es aktuell (lt. Roadmaps) nicht danach aus daß für den Sockel 1151 6-Kerner kommen, aber in 3 Jahren ist doch bestimmt schon ein Shrink/Refresh (Cannonlake "Tick") und wohl auch schon wieder eine neue Architektur (Cannonlake "Tock" Nachfolger) raus.
Auch preislich könnte es durchaus realistisch sein daß Intel die Preise endlich mal senken muß (wenn AMDs Zen z.B. leistungsfähig UND günstig ist).
Immerhin konnte man bereits im Herbst 2014 einen i7-5820K Sechskerner um etwa 350 EUR kaufen.
...
Andererseits kann es durch AMD viel Sinn machen von Sandy auf AMD Aufzurüsten wenn Zen wirklich so eine Bombe wird wie man es bisher vermutet.
Also quasi ein 200 euro teurer 8 Kerner auf dem Speedniveau zwischen Nehalem und Sandy bei weniger verbrauch als FX8350.
Wenn Zen tatsächlich die Hoffungen und Erwartungen erfüllt oder gar übertrifft kostet ein 8 Kerner (16 Threads) Zen bestimmt keine 200 EUR. Oder meinst Du jetzt einen 4 Kerner mit 8 Threads? Das wäre schon realistischer, obwohl wenn dieser mit z.B. einem Skylake i7 (4 Kern + HT) mithalten kann wird er wohl auch mehr als 200 EUR kosten.
mich würde mal interessieren an welche art von käuferschaft sich die verkauften cpu's von intel verteilen. ich nehme mal an das die gruppe der, ich nenne sie jetzt einfach mal "gamer, video / photo bearbeiter, hobby musikproduzenten, "average HWluxx user"" usw...ihr wisst was ich meine, prozentual weitaus niedriger ist als der absatz in gewerbliche gefilde (firmen)? ...auf der anderen seite kenne ich keine firma welche bei erscheinen eines 4790K diese sofort auf ihre mitarbeiter an deren arbeitsrechner ausrollt (gibt aber bestimmt da auch welche die das benötigen, will hier nicht pauschalisieren).
Du vermutest richtig, der Absatz an Firmen macht einen sehr großen Anteil aus, und selbst dort sind es nicht immer nur normale Desktops sondern oft verbaute Lösungen für alles mögliche (Automaten, Maschinen, Rechner für Public Displays etc.). Dort sind nirgends K CPUs interessant da in so gut wie jeder Firma nicht übertaktet wird und in den sonstigen non Desktop Systemen sowieso nicht.
Ein weiterer großer Markt ist wohl der klassische Consumer / Fertig-PC Markt. Auch hier ist der Anteil der K CPUs sehr sehr gering. Ist auch okay so denn der Großteil der Käuferzielgruppe hat wohl keine Ahnung bzw. kein Interesse am Übertakten.
d.h. eine cpu ohne integrierte gpu (produktionskosten sinken?) mit offenem multi / bclk, generell getrimmt auf hohe single core leistung / takt, weiteren abgespeckten features welche o.g. gruppe nicht benötigt, dadurch geringerem preis...müssten die "leute" doch intel aus den händen reißen?! klar was ich meine?
Die iGPU ist jedoch Bestandteil der Ferigungsmaske und extra eine neue Maske / Produktion dafür anwerfen? -> Kosten steigen.
Der Rest wird doch bereits mit den K CPUs gemacht -> immer höchste Taktraten des Modells, offenere Multi, Features entfernt (bei Sandy und Ivy K Modellen kein vPro, kein VT-d, kein TXT und bei Haswell sieht es ähnlich aus, lediglich VT-d ist bei den Devils Canion wieder dabei)
edit: das ganze dann noch als "gamer cpu" (oder so in der art) vermarkten? :>
Wurde ja quasi mit dem Pentium Anniversary Edition so gemacht.
...
95 Watt TDP haben wir schon bei Sandy gehabt. Dann ging sie auf 77 Watt bei Ivy herunter und stiegt bei Haswell wieder auf 88 Watt an. Nun bei Skylake haben wir wieder 95 Watt und das soll plötzlich besser sein ?
Ivy = 77 Watt TDP
Skylake = 95 Watt TDP
Skylake = sparsamer ?
Du vergisst die iGPU, die macht bestimmt einen großen Teil aus. Der CPU Teil wird von Skylake wohl sparsamer sein als bei Ivy denke ich.
Bei deaktivierter iGPU zeigt sich das ja schon bei den Haswell CPUs die mit 84W TDP trotzdem sparsamer sind als die 77W TDP Ivys:
Haswell im Test: Core i7-4770K, Core i5-4670K und Core i5-4570 [Artikel des Monats Juni 2013] - Haswell im Test: Benchmarks, Fazit
Allerdings kann hier die Plattform (Z77 zu Z87) vielleicht auch ein wenig mitspielen.
...
Ich orientiere mich da mehr an Benchmarks, in denen etwas nachgemessen wurde und nicht an feuchten Träumen:
Irgendwie ist der Intel X6 dort langsamer als der Intel X4... wen wunderts? Mich nicht.
...
Von den getesteten Spielen nutzt auch nur mal gerade ein Spiel mehr als 4 Kerne, und das ist BF4. Die anderen nutzen teilweise nicht einmal mehr als 2 (StarCraft 2 z.B.). Somit sollte es nicht wundern daß ein 6 Kerner mit weniger Takt nicht OnTop ist.
Die Spiele die tatsächlich von mehr als 4 Kernen profitieren sind aber leider wirklich noch ziemlich rar, wohingegen es immer noch einige gibt die nicht über 2-3 Kernen raus skalieren. Somit stimme ich Dir teilweise zu daß aktuell ein 6(+) Kerner noch wenig bringt und man mit einem guten Quad immer noch Top dabei ist.
Wird es eigentlich noch Broadwell-E geben oder geht Intel direkt auf Skylake-E?
Hab nur mal was von Broadwell-E Q1 2016 und Skylake-E 2017 gelesen. Ob das noch aktuell ist?
Also ich bilde mir ein das mal in Roadmaps gesehen zu haben daß Broadwell-E für den Sockel 2011-3 kommt. Würde auch dem bisherigen Schema entsprechen, sprich der große Sockel bekommt immer (etwas versetzt) die Aktuelle CPU (Tock) und den Shrink (Tick). Chipsatz bleibt. Skylake-E wird wohl wieder ein neuer Sockel, kommt aber bestimmt nicht vor Ende 2016.
...
Ich habe im Januar ein Kumpel mit ein C2D 6X00 eine Geforce 660 TI eingesetzt.
Ist die CPU lahm? Klar, aber genauso boosted die GraKa sein System soweit nach vorne das er nun endlich volle Details aktivieren kann und es deutlich(!) flüssiger läuft.
...
Das Problem an diesen Quatsch der dort verbreitet wird ist das soviele ahnungslose Leute Angst haben sich schnellere GraKas zu holen und/oder lieber CPU aufrüsten wollen anstatt ne schnelle GraKa zu holen.
Eine neue GraKa bringt noch immer mehr als eine neue CPU.
...
Bei den minimun FPS scheiden sich eh die Geister.
...
Das kann ich im Prinzip direkt so bestätigen. Komme selbst von einem (stark) übertakteten Core2Quad und habe nun eben aufgerüstet. Die GTX 680 hatte ich schon vor zwei Jahren gekauft und die hat das alte Core2 System nochmal ordentlich gepushed. Klar war diese wohl schon etwas zu stark, trotzdem konnte ich damit alles problemlos zocken. Auch BF4 läuft mit 1920x1200 Ultra mit ein paar Einstellungen verändert einwandfrei.
So lange wie das Core2Quad System hatte ich bisher auch kaum noch ein Sys. Man sieht daß sich in den letzten Jahren wirklich nicht mehr so sonderlich viel tut am Desktop Markt.
Jetzt habe ich aufgerüstet auf einen i7-5820K und die GTX 680 und SSD vom alten Sys mitgenommen. Mit der CPU/Plattform komme ich bestimmt wieder für die nächsten Jahre aus. GPU wird irgendwann mal ersetzt und gut isses.
Allzuviel habe ich bisher aber noch nicht getestet wie sich das Sys nun im Vergleich zum alten Core2Quad schlägt, auch OC bin ich noch nicht angegangen.
BF4 läuft auf jeden Fall eine Spur geschmeidiger und ich denke die GTX 680 wird nun endlich besser ausgelastet. Mit einer starken GPU und schwächeren CPU hat man wie Ihr schon angesprochen habt halt niedrigere min. FPS bzw. öfters FPS drops.
Was erwarte ich von Skylake?
- Tja die etwa 10% Mehr IPC dürften realistisch sein
- Die iGPU wird wieder ein gutes Stück zulegen
- Neue Chipsätze mit neuen Features (wurde ja schon erwähnt daß die Anbindung etwas aufgebohrt wurde)
- Bei gleicher Leistung etwas Effizienter als Haswell
Was bleibt noch offen?
- OC Potential gut? Maybe
- iGPU Iris Pro? Glaube eher nicht am Desktop, aber lassen wir uns überraschen
- Neue bahnbrechende Features wie MorphCore oder CoreFusion? Glaube ich auch nicht