Intel "Skylake-S": Der Core i5-6600K und der Core i7-6700K machen den Anfang (Update)

Ich hab irgendwie das Gefühl das alle diejenigen, die rummeckern, dass das nur 10% Leistungssteigerung sind, die sind, die eh jede neue Generation kaufen und so den Unterschied überhaupt nicht merken. Wenn ich jetzt von nem Pentium Conroe auf einen Quadcore mit HT auf Skylake Basis wechsel, sind das Welten dazwischen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich sitz nun schon über drei Jahre auf meinem Sandy @4,5 rum - und erstmal haut mich jetzt auch die Infos zu Skylake nicht aus den Socken - muß man halt abwarten wie sie sich der 6700K dann wirklich macht von Temps und OC.

Ansonsten hoffe ich wirklich das Amd mit Zen wirklich mal wieder halbwegs einen Volltreffer landet und auch die Spiele/Anwendungen da halbwegs mitspielen - würde mich freuen wieder mal Cpu mässig zu Amd zu wechseln, wenn die Leistung besser als bei meinem Sandy ist.
 
Zuletzt bearbeitet:
Ich bin mittlerweile mehr als froh, dass ich vor zwei Monaten auf Wakü umgerüstet habe, denn da die Grafikkarte mit im Kreislauf hängt (nebst eines Mora 3 ^^), hält sich meine Lust, auch nur an einen CPU-Wechsel zu denken, doch arg in Grenzen. Zudem wird der 4790K @4.5Ghz (sozusagen undervolted bei 1.17V) eh noch ein paar Jahre halten, außer AMD bringt mit Zen wirklich mal eieder was konkurrenzfähiges auf den Markt, dann könnte ich doch schwach werden :fresse: .
 
I7 920 Bloomfield @3,6GHz unter Wasser mit R290x. Ich sehe heute immer noch keine Aufrüstgrund. Der Stromverbrauch rechnet sich nicht wirtschaftlich und directx12 ist bald am start und bringt bei den neueren Games wieder Schub.
 
Zuletzt bearbeitet:
Ohne Zen und ohne Dx12 hat AMD nichts in der Hand. Und solange das der Fall ist wird Intel die Quad mit HT nicht verschenken, da sie viel besser mit aktueller Software zurecht kommen. Mit Dx12 wird sich das ändern und mehr Kerne werden auf einmal interessant, aber auch wenn die IPC etwas an Bedeutung bezogen auf Spiele verliert so wird sie immer noch ein extrem wichtiger Faktor sein. Ich glaube nicht, dass man den Treiberoverhead durch DX12 gänzlich ausmerzt. So oder so. Ein 5960x bietet bereits heute Cores und IPC und deshalb kostet er nun einmal. Selbst wenn Skylake "nur" 10% schaffen sollte, was schon eine Menge wäre, würde das Intel in Gamebenchmarks viel bringen.
Der nochmals geringere Takt (obwohl die integrierten Spannungswandler wieder rausfliegen) zeigt auch, dass die hohe IPC an der Maximalen-Taktbarkeit zerrt und die Verlustleistung über 4Ghz immer schneller explodiert. Aber gerade im interessanten Bereich zwischen 3-4Ghz (Notebook, Server) hat man dadurch eine viel höhere Effizienz. Und gerade bei sehr vielen Kernen ist dies enorm wichtig.

Ich glaube auch nicht, dass AMD nach Jahren des Verlustgeschäfts die CPUs verschenken wird, auch wenn Konkurenz sicherlich gut wäre. 8 Cores werden auch bei AMD mindestens 600-1000€ kosten.
 
Zuletzt bearbeitet:
8 Cores werden auch bei AMD mindestens 600-1000€ kosten.

Laut den Aktuellen Zen Gerüchten kann man dir nicht zustimmen.

Und jetzige 16 Kerner von AMD kosten nichtmal 300€ (Server CPU,s).

Es wird doch von 32 Threadern gesprochen.

Selbst wenn der 32 Threader ein 16 Core Server Modell wäre, so wäre ein 16 Threader aka 8 Kerner im Desktop für 200-300€ Realistisch.

Und AMD hatte mit Bulldozer doch schon 8 Kerner für 200€.

Es gab doch schon vor 5 Jahren einen echten 6 Kerner für das Geld von AMD. Und das in 45nm wo ein 6 Kerner noch viel aufwendiger war als heute in 32 und 22nm etc.

Und heute nach all den Jahren mit 16nm finfet etc, soll ein 8 Kerner so Teuer sein ? Unlogisch.

AMD Könnte mit 200 Euro Cpu,s total die Kunden Reißen, und zeitgleich Gewinn machen.
 
@DerGoldeneMesia

Aus Interesse:
Welche Spiele spielst du und wie viel fps bekommst du @1080p ?
(Graka?)
 
Zuletzt bearbeitet:
Wenn Intel im Jahr 2016/2017 keinen 6 kerner für desktop bringt (was ich nicht glaube), sind sie selber schuld und überlassen AMD einen dicken Kundenanteil.

Der Kundenanteil von Leuten, die einen 6 Kerner im Desktop Bereich wirklich brauchen, dürfte in der Tat riesig sein. So 0,1%, schätze ich.

Für die meisten Anwendungen sind echte 6 Kerne schlichtweg unnötig. Selbst wenn man viel Multitasking macht sind echte 6 Kerne unnötig. Es gibt einige wenige Spezialanwendungen, in denen echte 6 Kerne etwas bringen und das wars. Natürlich kann man sich Gegenbeispiele konstruieren, nur habe die mit der Realität nichts zu tun.

Mein Upgrade von einem AMD Hexacore auf ein Intel Dual-Core war das beste Upgrade seit ich das erste mal eine SSD in das System geschraubt habe. Ich hoffe Intel arbeitet weiter an hervorragenden Dual- und Quadcores und überlässt die Pseudo-Kern-Bauernfängerei AMD.
 
Da ist doch mein Neuer i7-6700K! Werde aber nicht vor Oktober kaufen und schaue mir erst einmal an, wie die CPU sich macht.
 
95W :hmm: da erwarte ich aber eine dicke Grafikeinheit
 
Kann mich (und vermutlich viele andere Leute) jemand aufklären, warum die TDP so extrem angestiegen ist zu den Vorgängermodellen?
Dass die Spannungswandler wieder "Outgesourced" hab ich mittlerweile mitbekommen, aber irgendwie erklärt mir das genau gar nichts.

Wenn die Leistungssteigerung nur 10% betragen soll, dann ist doch ein Wattantieg von 30% nicht gerechtfertigt? Die Rechenleistung/Watt würde ja damit sinken?


Ganz einleuchtend ist die Sache nicht, woher kommen nun die +30W, wenn doch sogar ein "Stromverbaucher" entfernt wurde?

Die TDP kommt ja der einer 5 Jahre alten CPU nahe?



Oder hab ich das grundsätzlich was nicht verstanden? Ist die TDP die Wattleistung welche die CPU unbeschadet aushaltet? Und in Wahrheit benötigt sie sowieso viel weniger?
Aber 95W ist doch auch weit unter dem, was zB ein Sandy aushalten kann, und er hat ähnliche TDPs in den Produktreihen.



Und generell noch:
Kann man jetzt vorraussichtlich wie bei Sandy die Skylakes über 4,5GHz pushen unter Luft, eben weil die Spannungswandler anders konzipiert wurden?

Bitte bitte klärt mich auf :)
 
Kann mich (und vermutlich viele andere Leute) jemand aufklären, warum die TDP so extrem angestiegen ist zu den Vorgängermodellen?
..
Wenn die Leistungssteigerung nur 10% betragen soll, dann ist doch ein Wattantieg von 30% nicht gerechtfertigt? Die Rechenleistung/Watt würde ja damit sinken?


Ganz einleuchtend ist die Sache nicht, woher kommen nun die +30W, wenn doch sogar ein "Stromverbaucher" entfernt wurde?
...
Oder hab ich das grundsätzlich was nicht verstanden?

Also ich sehe weder einen extremen Anstieg, noch eine Wattanstieg von 30%, noch einen Anstieg von 30W. Wo siehst du die denn genau?

Es geht von 84W auf 95W, d.h. +11 Watt oder +13%.

Wo der Wattanstieg her kommt? Ich hoffe von der iGPU. Die ist schon in den Haswell CPUs ein echtes Zuckerl.

Nicht um sie als Grafikkartenersatz zu nutzen - auch wenn das für Office Systeme Sinn machen kann - aber in Kombination mit einer dGPU kann man sie parallel als Hardware Encoder für H.264 benutzen. Das macht schon richtig Spaß - und die Qualität hat von SB zu Haswell diesbezüglich schon deutlich zugelegt, so dass ich hoffe, dass Skylake dort noch einmal einen draufsetzt und dort die extra 11W verbrät.

Z.B. mit H.265 Hardware Encoding in 4k... o.k. das wird wohl genauso wenig mit Skylake kommen wie USB 3.1 - aber naja, man wird ja noch träumen dürfen... HDMI 2.0 wird aber wohl onboard sein, oder?
 
Zuletzt bearbeitet:
Der Kundenanteil von Leuten, die einen 6 Kerner im Desktop Bereich wirklich brauchen, dürfte in der Tat riesig sein. So 0,1%, schätze ich.

Das kann gut sein. Jedoch geht es nicht ums brauchen, sondern ums haben wollen. Da sind wir hier im Luxx bestimmt bei > 50%. :)
 
Also ich sehe weder einen extremen Anstieg, noch eine Wattanstieg von 30%, noch einen Anstieg von 30W. Wo siehst du die denn genau?

Es geht von 84W auf 95W, d.h. +11 Watt oder +13%.

Wo der Wattanstieg her kommt? Ich hoffe von der iGPU. Die ist schon in den Haswell CPUs ein echtes Zuckerl.

Woher kommt eigentlich die Idee, die thermal design power mit dem realen Verbrauch gleichzusetzen? Die TDP ist nur die Richtgröße für die notwendige Kühlung. Der Anstieg kann auch von der höheren Packdichte kommen, die mehr hot spots hat und daher die Wärmeabfuhr höher sein muss.

Skylake allein ist mäßig spannend, als Plattform aber mit den ganzen neueren höchst interessant: 20 PCIe-3.0-Lanes im Plattform Controller Hub und ein auf PCIe 3.0 aufgebohrtes DMI finde ich schon sehr gut.
 
Bin ich froh, das ich auf den Intel i5820K gegangen bin und ich mit mein Gefühl richtig lag.

Immer dieser Trend mit dem Sparen und dadurch gleiche Leistung.
 
und Sandy hat wohl immer noch nicht ausgedient...
Es geht nicht mehr so sehr um die CPU Performance, die steigt schon länger von Generation zu Generation nur noch wenig an, die Frequenzen ebenfalls bzw. die maximal erreichbare Frequenz beim OC fällt eher. Es gibt um die Plattforem und (deren) Features, wie Schnittstellen und deren Geschwindigkeit. genau wie zEph schreibt:
freu mich auf den 6600K und entsprechenden unterbau. betreibe noch einen i5750 @3600 im alltagsbetrieb seit feb 2010 und überlegte auf devil's canyon zu upgraden (mein P55 chipsatz benutzt halt auch noch sata 3gb/s und ich besitze neuste ssd's)
Eben genauso ist es, die Schnittstellen und die iGPU sind die größten Änderungen bei neuen Generationen und damit die Argumente für ein Systemupgrade. Wer beides nicht braucht / nutzt, der wird lange kein Upgeade brauchen, denn die Zeite wo die CPUs einer Generation mal eben doppelt so schnell wie ihre Vorgänger waren, sind vorbei Wenn, dann erreicht man signifikative Leistungssteigerungen nur über mehr und Befehlssatzerweiterungen, aber beides bedarf der SW-Unterstützung.

Die SW hängt aber bekanntlich meist Jahre hinter den Möglichkeiten der HW hinterher.

solange keiner einen 8/16 Kern Prozessor hat, wird auch niemand Software dafür schreiben... -> Teufelskreis
Du denkst nur an Spiele, bei Anwendungssoftware ist das Angebot an SW die auch gut über mehrere Kerne sakliert, auch über mehr als 4, durchaus größer. Aber es bleibt weiterhin so, dass eine schnelle CPU zuerst einmal auch eine gute Singlethread Performance bieten muss und wenn sie obendrein eien gute Multihtread Performance har, umso besser.


Kann mich (und vermutlich viele andere Leute) jemand aufklären, warum die TDP so extrem angestiegen ist zu den Vorgängermodellen?
Erstens hat die TDP immer weniger mit der realen Leistungsaufnahme zu tun und zweitens geht die Entwicklung bei Intel im Mainstream vor allen in die iGPU (und den Chipsatz und dessen Features), so dass dort ein immer größerer Anteil der Leistung verbraucht wird.
 
Ich finde Skylake sehr spannend. Weniger wegen der Mehrleistung oder neuen Technik, sondern weil die Spannungsregler wieder extern sind. Gerade für das Übertakten könnte das sehr interessant werden. Mit Haswell musste man sehr viel Zeit investieren um auf passable Ergebnisse zu kommen.
Aus OC-Sicht war Haswell eher ein Rückschritt.
 
Freut mich, ich denke mit dem 2600k werde och erstmalig die 6 Jahre knacken ehe ich aufrüsten muss/werde :d
 
Intels 14nm Technologie scheint ja sehr effizient zu sein...Zumindest für sie.
Außer ein zusätzlichen Kauf von einem neuen Board mit neuem RAM, da die meisten Boards für DDR4 ausgelegt sein werden, wird es für den Verbraucher nur das jährliche Geldbörsenöffnen sein, was er für sein Erspartes erwarten kann.
Man kann echt nur hoffen, das AMD mit ihrem Zen einen guten Griff macht. Ich selber besitze noch einen 3 Jahre alten Ivy mit 77 Watt TDP und das war wohl ein sehr guter Kauf.

Wie war das nochmal ? Konkurrenz braucht man nicht ?? Ja,klar doch. :rolleyes:
 
mich würde mal interessieren an welche art von käuferschaft sich die verkauften cpu's von intel verteilen. ich nehme mal an das die gruppe der, ich nenne sie jetzt einfach mal "gamer, video / photo bearbeiter, hobby musikproduzenten, "average HWluxx user"" usw...ihr wisst was ich meine, prozentual weitaus niedriger ist als der absatz in gewerbliche gefilde (firmen)? ...auf der anderen seite kenne ich keine firma welche bei erscheinen eines 4790K diese sofort auf ihre mitarbeiter an deren arbeitsrechner ausrollt (gibt aber bestimmt da auch welche die das benötigen, will hier nicht pauschalisieren).

d.h. eine cpu ohne integrierte gpu (produktionskosten sinken?) mit offenem multi / bclk, generell getrimmt auf hohe single core leistung / takt, weiteren abgespeckten features welche o.g. gruppe nicht benötigt, dadurch geringerem preis...müssten die "leute" doch intel aus den händen reißen?! klar was ich meine?

edit: das ganze dann noch als "gamer cpu" (oder so in der art) vermarkten? :>
 
Zuletzt bearbeitet:
Ich weiß was du meinst, aber auch wenn ich die igp noch nie gebraucht habe bin ich froh sie zu haben, falls mal die dgpu abrauchen sollte...
 
Der Kundenanteil von Leuten, die einen 6 Kerner im Desktop Bereich wirklich brauchen, dürfte in der Tat riesig sein. So 0,1%, schätze ich.

Anscheinend hast du nicht alles gelesen was ich schrieb. Also bitte nochmal Informieren warum ich das Schrieb.

Ich geb dir n Tipp, es geht um ein Spiel, welches Millionen von Menschen spielen werden, und einen heutigen i7 an seine grenze bringt, und auf 6 Kernen optimal läuft, und sogar 8 Kerne Unterstützt. Ach komm ich sags gleich. Star Citizen. Und bevor du jetzt den fehler machst und guckst was ein i7 für fps bei dem game schaft, denke erstmal über die umstände nach.

Das spiel kommt 2017, wird viel mehr leistung fressen als heute schon, da noch richtig viel fehlt was den leistungshunger defenetiv vergrößern wird.

Zusätzlich wird die Standardauflösung immer höher, und 4k wird im Jahre 2017 bei immer mehr Leuten einzug halten, was wieder zu Expotentiell mehr CPU last führt.
 
Freut mich, ich denke mit dem 2600k werde och erstmalig die 6 Jahre knacken ehe ich aufrüsten muss/werde :d

Wenn mein 2600k das mitmacht, wirds bei mir wohl genauso ablaufen. Vieleicht muß ich allerdings, um meinen Basteltrieb zu befriedigen, nächstes Jahr auf AMDs Zen umsteigen. :d
 
Kann mich (und vermutlich viele andere Leute) jemand aufklären, warum die TDP so extrem angestiegen ist zu den Vorgängermodellen?
Dass die Spannungswandler wieder "Outgesourced" hab ich mittlerweile mitbekommen, aber irgendwie erklärt mir das genau gar nichts.

Wenn die Leistungssteigerung nur 10% betragen soll, dann ist doch ein Wattantieg von 30% nicht gerechtfertigt? Die Rechenleistung/Watt würde ja damit sinken?


Ganz einleuchtend ist die Sache nicht, woher kommen nun die +30W, wenn doch sogar ein "Stromverbaucher" entfernt wurde?

Die TDP kommt ja der einer 5 Jahre alten CPU nahe?



Oder hab ich das grundsätzlich was nicht verstanden? Ist die TDP die Wattleistung welche die CPU unbeschadet aushaltet? Und in Wahrheit benötigt sie sowieso viel weniger?
Aber 95W ist doch auch weit unter dem, was zB ein Sandy aushalten kann, und er hat ähnliche TDPs in den Produktreihen.

deine frage wurde eigentlich schon beantwortet.

es ist nicht gesagt das die cpu so viel verbrauchen wird.

wenn man eine CPU mit 45W TDP spezifiziert, kann man ab einem gewissen Stromverbrauchspunkt nicht mehr Übertakten, da die CPU nur eine gewisse menge Stromzufuhr erlauben würde.

95W TDP hat nichts mit dem realstromverbrauch zu tun. es kann sein das die CPU nur 45-60W benötigt. diese 95W ist dennoch wichtig für Extrem übertakter. so wurde mir das zumindest mal erklärt.

achja, die spannungswandler sind zwar draußen, doch mit dem Strom für die CPU hat das nicht wirklich was zu tun. Egal ob drinnen oder draußen, eine CPU frisst grob gleich viel. Denn der Stromzufluss für die CPU bleibt der gleiche, nur die strecke wird verändert, und daher wird nur die Wärmebeeinflussung anders, nicht aber der verbrauch.

- - - Updated - - -

von 22nm auf 14nm

Wieso denkst du das der stromverbrauch durch den Shrink auf 14nm Größer wird wenn bis dato in der realität der stromverbrauch durch einen shrink immer verkleinert wurde ?

war nur eine fangfrage. die antwort ist, du liegst falsch.

- - - Updated - - -

@ madjim. Kann dir nur zustimmen.
@ Pickebuh. Warum so ein negativbild von Skylake ? Nur wegen den 95W TDP ?

ein Skylake i5 @ 4 ghz wird bei mehr leistung, weniger verbrauchen als ein 4ghz i5 Ivy oder Haswell oder Broadwell.

gegenüber Haswell wird der Skylake mindestens 15-20% mehr Leistung pro Watt bringen. Und OC wird höchstwarscheinlich auch besser gehen.
Ich erwarte Sandy ergebnisse.
Ergo, 4,4-4,8 ghz mit Luft oder 5ghz mit Wasser.

- - - Updated - - -

Star Citizen giert unter DirectX geradezu nach einer schnellen CPU.

Viele Kerne sind Pflicht, mit nur zwei CPU-Kernen ist das Weltraumspiel unspielbar.

Vier Kerne bringen bei gleichem Takt einen Leistungszuwachs von 97 Prozent auf der GeForce GTX 980.


Ein Haswell i5 @ 3,5 GHz bringt bei Auflösungen von 2K gerademal 19 fps in verbindung mit einer GTX980.
ein i7 4770 mit 3,5 ghz schafte dank HT 35 fps, was aber immernoch absolut unspielbar für einen weltraumshooter ist.

Und jetzt mal mitbedenken das da noch keine Sonnensysteme waren, keine Tausende NPC,s keine Planeten, keine Tausende Mitspieler usw usw.

Die CPU Last wird noch Extrem krasser. Das Spiel wird nicht umsonnst auf 8 Kerner Optimiert.
 
Das könnte nach langer Zeit mal wieder in interessantes CPU Jahr werden mit Skylake und dann später mit Zen.

Da könnte es mir tatsächlich mal wieder in den Fingern jucken :)
 
ja da kann ich dir auch nur zustimmen :) ich persönlich würde an deiner stelle bis Zen Release warten.
Wenn Zen kein Reinfall wird, könnte Intel ziemlich schnell mit einem 300-350€ 6 Kerner für Desktop Reagieren.

So hätte AMD immernoch das bessere P/L, aber Intel würde immernoch genug Kunden durch das Image bekommen.

Ich wollte mir eigentlich zwecks Star Citizen einen i5 Skylake zulegen, bin aber der meinung, das nichtmal Mantle/DX12 so viel rausreißen wird, das ein normaler Quad Core aussreichen wird.

Man sieht ja das ein 4 Kern Kaveri mit Mantle Support bei Battlefield 4, immernoch weniger FPS bietet als ein FX6.

Somit haben wie eine schöne vorschau, für Direct X12. Man sollte also keine Weltenveränderungen durch DX12 erwarten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh