Intel beginnt mit der Auslieferung der Kaby-Lake-Prozessoren

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.130
<p><img src="/images/stories/logos-2015/intel3.jpg" alt="intel3" style="margin: 10px; float: left;" />Intel hat gestern die Zahlen für das 2. Quartal 2016 veröffentlicht. Darin wird ein im Vorjahresvergleich leicht gestiegener Umsatz von 13,5 Milliarden US-Dollar (von 13,2 Milliarden US-Dollar) ausgewiesen. Allerdings ging der Gewinn deutlich zurück – von 2,9 Milliarden US-Dollar auf 1,3 Milliarden US-Dollar.</p>
<p>Weitaus spannender aber sind die Ankündigungen, die im Rahmen der Bekanntgabe gemacht wurden. Dazu gehört auch, dass Intel bereits damit begonnen haben will, die 7. Generation der Core-Prozessoren auszuliefern. Kaby Lake erscheint damit in etwa ein Jahr nach Skylake. Kaby Lake ist dabei ein Optimierungs-Schritt in der Architektur, denn das Tick-Tock-Prinzip, bei dem...<br /><br /><a href="/index.php/news/hardware/prozessoren/39858-intel-beginnt-mit-der-auslieferung-der-kaby-lake-prozessoren.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wohl eher für Nutzer der IGP. Das ließt sich alles ganz gut, für mich als DirectX 11 Spieler leider gänzlich irrelevant.
 
Was jetzt? erst hat es geheißen ende 2016 dann anfang 2017 und jetzt doch herbst?
mir kommt es so vor als ob Intel schon seit nem halben jahr auf den fertigen Chips rumsitzt aber die lager vom sky noch voll sind und die jetzt einfach sagen ach sch**** drauf schickt sie einfach raus:hmm:
 
Wenn die mal mit vernünftigen Preisen ankommen nehm ich ihnen einen Chip ab, sonst warte ich eben auf zen
 
Zuletzt bearbeitet von einem Moderator:
Ja, es wird sehr sehr spannend, ob Intel die 5% Performance-Steigerung je Generation wird halten können...
 
Spannend ist bei Intel schon lange nichts mehr.

giphy.gif
 
Nun skylake hatte schon eine IPc Steigerung von stolze 2%
Mit kaby lake erwarte ich nichts, broadwel-e hat preislich enttäuscht und neue CPU software gebracht null Sinn fürn desktop.
Intel ruht sich aus und lässt jedes Prozent mehr IPC bezahlen. Auch wenn dies nur durch mehr Takt ermöglicht wird.
Skylake ist deswegen schneller als haswel weil dieser Kühler bleibt.Toller fortschritt seit nunmehr 5 Jahren passiert nichts mehr auf dem Einsteiger sockel 11xx
Und intel sieht sich gezwungen per Software OC die IPC der CPU zu erhöhen ich vermute kaby lake wird turbo boost 3 bekommen
heißt Anwender darf bestimmen wie viel Takt anliegen kann auf einen Kern und diesen auf eine Software zu fixieren (taskmanager anyone)
 
Zuletzt bearbeitet:
@angelsdecay Glaube du weisst nicht genau was IPC ist, richtig? Da sind nämlich ein haufen Unegreimtheiten in dem was du geschrieben hast...

Dem Fazit kann man aber zustimmen. Im Consumer-Desktop-Bereich bringt Intel seit Jahren keinen Fortschritt.
 
Instruction per clock
Diese kann man auf einen CPu Kern messen und auf allen CPU Kernen siehe cinebench
Ich bezog mich aber auf die Gesamtleistung der CPu und da ist amd fx und intel core i7 sehr dicht zusammen.
Nur durch mehr core kann intel davon ziehen mit bis zu 200%
Und die Zwischenlösung 6 Kern und 8 Kern intel ist derzeit überteuert.
Mir würde ein Sixcore intel wie ci7 4930k völlig reichen für die nächsten 5 Jahre bekommt man aber nicht gebr.
neu ist die Plattform um glatte 150€ zu teuer lass es 100€ sein aber das wäre mein maximum für so ein System
Wäre 550€ neu
gebr etwa 450€
das bremst den Fortschritt auf dem Desktop markt keiner kauft hardware im bereich von 1500€ um nur mal paar videos zu schneiden oder mal zu Spielen
also muss alles auf nen quad laufen.und wehe man ist multitasker und will einiges gleichzeitig machen.
 
Zuletzt bearbeitet:
Instruction per clock
Pro Taktzyklus, also sollte Dir dann auch klar sein, dass dies Schwachsinn ist:

lässt jedes Prozent mehr IPC bezahlen. Auch wenn dies nur durch mehr Takt ermöglicht wird.
Denn mehr Takt bringt eben nicht mehr IPC. Es werden im Gegenteil sogar meist eher weniger, weil mehr Takte vergehen während auf I/O wie RAM Zugriffe gewartet werden muss.

Was die 2% angeht, zitiere ich mich mal selbst, der Link dazu ist auch in meiner Signatur:
 
Alles... Luft, Wasser, LN2... ganz egal was ;)
Sagen wir mal so:
Luft/Wasser = Richtung Sandy Bridge
LN2 = Richtung Ivy Bridge
Was da gepaart mit einer höheren IPC als Skylake passiert kann sicher jeder ausrechen :fresse2:

Bezieht sich zu 99.9% auf Skylake/kabylake X aka Socket R4. Bei den Preisen, die sich da in meinem Kopf schon rumtummeln bei den ganzen LED Lichterketten Steckports, für die neu noch kommenden Socket 2066 Mainboards, sag ich jetzt schon nein Danke!

Intel bedient seit SandyBridge eben nur noch die Server und OEM Welt, der mehr und mehr and Absatz verlierend und stagnierende Retail Handel ist für Intel, abseits der überteuerten Socket R Plattform, so gut wie tot.

Was solls, werde die kommenden 2 bis 3 Jahre schon mit Skylake H glücklich werden, Kompilern sei Dank!



Ach und ja, wie gewohnt; danke AMD :wink:
 
Zuletzt bearbeitet:
Sehr spannend.. Kaby Lake wird wenn überhaupt vl 2% schneller sein.
 
Was die 2% angeht, zitiere ich mich mal selbst, der Link dazu ist auch in meiner Signatur:
Deine Auflistung kenne ich schon, aber du sagst es ja auch selbst am Ende - bei Games sieht es meist anders aus als in den generischen Benchmarks wie Cinebench.
Sicher, es kommen 5-10% zur Generation zusammen (2% ist übertreieben wenig) aber es sind grundsätzlich keine spürbaren Sprünge mehr da so wie es vor 10 jahren der Fall war.

Ob sich Intel wirklich ausruht kann man natürlich nicht mit bestimmtheit sagen, aber ich glaube daran dass wir, bei mehr Konkurenz (also wenn Bulldozer so einegschlagen wäre wie von AMD gewünscht), erstens spätestens mit Ivy, mehr Kerne für den Mainstreamsockel bekommen hätten und zweitens man mehr Risiken richtung neuer Ansätze eingegangen wäre (so wie es AMD mit der Modul-bauweise getan hat, was ja leider ein Schuss in den Ofen war).

EDIT: Hab grad nach einem Artikel wie den hier gesucht, auf Basis von etwas was mein Professor uns erzählt hat - und es beginnt mit einem intel Zitat :d
http://www.handelsblatt.com/politik...tfuehrer-traege-werden-seite-3/3308970-3.html
Schade dass der Herr grade 2004 das Unternehmen verlassen hat...
Jetzt erfüllt Intel genau diese Befürchtungen.

Der Markt hat einfach etwas Revolution nötig statt ewiger Evolution. Hoffentlich wird AMD das bewirken können. Einen heissen Kandidaten haben sie immerhin, auch wenn der wohl noch in den Kinderschuhen steckt: VISC.

Blöd beim Computermarkt ist, dass es so viel bestehende Standardisierung durch tausende Dritt-Unternehmen gibt. Sonst wäre schon längst ein weiteres Unternehmen aufgetaucht das mal eben den Markt umkrempelt ala Netflix und Co.
 
Zuletzt bearbeitet:
Nur das es bei den meisten Games anderes aussieht, liegt ja an den Games und den Grakas, die nun allerdings einen großen Sprung in der Leistungsfähigkeit gemacht haben. Das dort wenig von der Leistungssteigerung der CPUs angekommen ist, belegt ja aber eben nicht, dass es keine Leistungssteigerungen gab, wie es so oft unterstellt wird. Das ist als würde man sich Beschwerden, dass das neue Auto trotz doppelt so viel PS nicht schneller wäre, nur weil man immer noch nur 50 Innerorts fahren darf.
 
Der Markt hat einfach etwas Revolution nötig statt ewiger Evolution.
Die kann es nicht geben! VLIW ist gescheitert, der Itanium stirbt gerade. Was man aus diesem Desaster lernen kann ist Folgendes, Compiler sind nur zu einem sehr geringem Teil in der Lage Mikroparallelisierung umzusetzen, somit gibt es Grenzen für die IPC und der Takt läßt sich aus physikalischen Gründen nicht mehr sinnvoll steigern. IBM hat vor Jahren mit einem POWER6 Prototypen stabil 6GHz erreicht und dann entschieden, daß das nichts bringt und die Verkaufsversion auf 5GHz limitiert. Wegen dieser Rahmenbedingungen bleibt nur der Weg in die Breite und die Anpassung der Software, und hier ist die Entwicklung keineswegs zum Stillstand gekommen. Die 28 Kerne des Xeon E7v4 zeigen das sehr deutlich. Es gibt eine neue Softwarekrise, die insbesondere die kleinen Computer betrifft. Die technischwissenschaftlichen Spezialanwendungen nutzen seit Jahrzehnten Parallelisierung und das nicht nur auf Ebene einer CPU, daher existieren seit langer Zeit die notwendigen Werkzeuge für die Softwareentwicklung. Insbesondere Spieleentwickler scheuen die Kosten für die Veränderung der Software, und deshalb gibt es diese Stagnation. Intel ist hier sicherlich nicht die Ursache, da auch alle anderen CPU Hersteller mit dem gleichen Problem zu kämpfen haben.
 
das bremst den Fortschritt auf dem Desktop markt keiner kauft hardware im bereich von 1500€ um nur mal paar videos zu schneiden oder mal zu Spielen
also muss alles auf nen quad laufen.und wehe man ist multitasker und will einiges gleichzeitig machen.

Versetz dich doch mal in die Lage der Hersteller...
Wenn für Steigerungen der Leistung pro Takt klar Grenzen absehbar sind, Takt durch andere Grenzen physischer Art ebenso nicht unendlich steigerbar ist, was bleibt dann noch über?
Heute werden die Prozessoren schon deutlich länger verwendet als vor Jahren noch. Nicht nur privat, auch im Business... So ne OEM Notebook Schmette von vor sagen wir 10 Jahren hat keine 5 Jahre durchgehalten. Heute bekommst du das schon hin. (mein Ivy-i7 Mobile Quad hat nunmehr 4 Jahre auf der Uhr -> und es sieht eher dünn aus am Markt, was einen Wechsel rechtfertigt)
Was soll der Hersteller also machen? Er wird die Preise anziehen MÜSSEN, denn weniger abgesetzte Einheiten durch längere Laufzeit = weniger Umsatz in dieser Laufzeit.

Gleiches Bild hast du, sogar noch massiv schlimmer, im Serverbereich. Vor 10 Jahren noch wurden da ohne wirkliche Virtualisierungslayer für fast jeden Service eigene Bleche ins Rack geschraubt. Heute nutzt du ne Hand voll "dicker" Server und deckst die physische Trennung mit einem Virtualisierungslayer ab. Bietet dein Unternehmen sagen wir 50 verschiedene Services, waren das damals ziemlich sicher 50 verkaufte Prozessoren. Vielleicht sogar mehr (wegen Dual-Socket). Heute kauft das Unternehmen vielleich 2-4-6 Prozessoren. -> rechne selbst, was das für den Hersteller der Prozessoren bedeutet.

Die Preise pro Einheit müssen zwangsweise steigen. Sonst ist der Part doch quasi nicht mehr stemmbar. Schaut man sich dazu noch die Zahlen an -> neben Intel Bemühungen für Mobilezeug aka Tablet Markt, so sinken die Zahlen dort auch rapide. Die Boom-Blase droht früher oder später zu zerplatzen. Das CPU/Computergeschäft ist mittlerweile auf einem Level, wo es obenraus ziemlich dünn wird. Und der Markt ist durch die extreme Verbreitung soweit insich festgefahren, dass rapide technische Wechsel nur äußerst schwer zu bewerkstelligen sind. Denn Compatibilität ist eins der größten Pluspunkte auf der einen Seite von x86. Wäre es vor sagen wir 20-25 Jahren absehbar gewesen, wo es hinführt, hätte man damals andere Entscheidungen treffen müssen. -> ob dann allerdings die Welt so ausgesehen hätte wie heute? Fraglich...

Ob sich Intel wirklich ausruht kann man natürlich nicht mit bestimmtheit sagen, aber ich glaube daran dass wir, bei mehr Konkurenz (also wenn Bulldozer so einegschlagen wäre wie von AMD gewünscht), erstens spätestens mit Ivy, mehr Kerne für den Mainstreamsockel bekommen hätten und zweitens man mehr Risiken richtung neuer Ansätze eingegangen wäre (so wie es AMD mit der Modul-bauweise getan hat, was ja leider ein Schuss in den Ofen war).

Was sind denn bei dir "Risiken richtung neuer Ansätze"?
Zu Zeiten von Ivy war doch das Kind schon im Brunnen... Es säuft effektiv schon ab. Denn einen derart festgefahrenen Markt völlig umzubiegen ist effektiv nicht möglich... Andere Ansätze hat es ja in diversen Bereichen. Nicht zuletzt auch von Intel mit den Xeon Phi Ablegern oder AMD/NV mit den FirePro/Tesla "GPUs". Das bringt aber einen festgefahrenen Markt genau gar nix. Denn eine Kompatibilität ist damit nicht mehr gegeben. Das KANN nur als langsam schleichender Prozess fruchten oder eben auf anderen Märkten.
Der AMD Ansatz mit "Fusion" ist da bspw. eine sehr interessante Sache... Aber man sieht halt atm nicht viel davon. Sprich wir sind seit Jahr und Tag nach Bekanntgabe dieses Vorhabens nicht weiter als am Anfang noch in dem es nach wie vor "nur" den CPU Part + beigestellte GPUs gibt.

Der Markt hat einfach etwas Revolution nötig statt ewiger Evolution. Hoffentlich wird AMD das bewirken können. Einen heissen Kandidaten haben sie immerhin, auch wenn der wohl noch in den Kinderschuhen steckt: VISC.

Das Thema ist aktuell leider nicht so recht greifbar... Denn es fehlt da irgendwie an Kommunikation zu den Endanwendern.
Nach den letzten Meldungen dazu scheint man dort recht geringe Taktfrequenzen zu fahren und auch (aktuell) primär auf das Mobile Geschäft zu zielen?
Die vor nicht all zu langer Zeit gezeigten Infos sprechen von 2GHz für den virtuellen DC pro VISC Kern und einer Effizienzsteigerung um Faktor 3-4 ggü. anderen Vertretern.
Wenn es euch aber primär um Performance geht, dann wird DAS zumindest so noch nicht reichen...
Auch wird bei sowas gern vergessen, dass Prozessoren nicht ausschließlich legacy x86 Code abarbeiten. Du kannst heute zwischen sagen wir einem Sandy und einem Haswell bei Taktgleichheit eine Leistungssteigerung von vielleicht ~10-15% Messen bei ausschließlich legacy Code. Aber auch teils Faktor 2+ wenn neuere Befehlserweiterungen genutzt werden. -> letzteres siehst du bspw. häufiger im Bereich Video(de/en)coding in Software auf dem Prozessor.
Stellt sich also die Frage, was ist der Spaß am Ende in der Praxis wert? -> und hier fehlt es imho leider noch an Infos, wenn ich das richtig sehe...
 
Denn Compatibilität ist eins der größten Pluspunkte auf der einen Seite von x86.
Die Kompatibilität der x86-64 Plattform ist deren größter Schwachpunkt, weil dadurch die Innovationskraft und die Effizienz der Plattform beschränkt wird. Intel versucht das durch immer neue Befehlssatzerweiterungen zu kompensieren, die in ihrer Struktur und Abarbeitung nahezu vollständig RISC Designrichtlinien folgen. Bisher hat Intel sich immer retten können, in dem sie schneller neue Produktionsmethoden einführen konnten als die Konkurrenz. Wenn es wegen der physikalischen Rahmenbedingungen nicht mehr möglich sein wird die Strukturen zu verkleinern wird die x86/x86-64 Plattform sterben. ARM, Power oder MIPS werden dann das Rennen machen.

Zwar war in der Vergangenheit die Kompatibilität der x86/x86-64 Plattform deren größter Erfolgsgarant, aber mit dem eintretenden Bedeutungsverlust von Windows wird Kompatibilität unwichtiger. Linux und die diversen UNICES sind nämlich nicht darauf angewiesen.
 
Zwar war in der Vergangenheit die Kompatibilität der x86/x86-64 Plattform deren größter Erfolgsgarant, aber mit dem eintretenden Bedeutungsverlust von Windows wird Kompatibilität unwichtiger. Linux und die diversen UNICES sind nämlich nicht darauf angewiesen.

Neja, ich sag mal so, einer der größten Pluspunkte schließt ja nicht aus, dass es nicht gleichzeitig auch einer der größten Schwachpunkte sein kann -> eben unter der Betrachtungsweise wie du es nun tätigst...
Der Markt ist in Jedemfall im Wandel. Ob MS da die Zügel soweit behaupten kann, wie es bis dato der Fall war, wird sich zeigen müssen. Linux ansich ist ja nun schon seit Jahr und Tag als "Alternative" verfügbar. Was dort aus meiner Sicht aber fehlt ist eben diese eine Line, der rote Faden sozusagen. Die Tonnen von verschiedenen Distributionen und das hinterherreiten von jedweden neuen Ansätzen ist dort klar ein Pluspunkt, aber genau so eben auch ein Nachteil. Es gibt unter Umständen viel gebastel bzw. gebastel wird notwendig, wenn viele Köche am selben Brei rumrühren.
Das OpenSource Thema ist auch immer so eine Sache... Hat es rein bei der Basis bei MS nun aber so explizit nicht. Da weist du, du kaufst/zahlst dafür und gut ist. Bei OpenSource? Schwierig damit Geld zu verdienen...

Die Frage ist dann nur, kann/will man das auf den mehr oder weniger klassischen x86 Mobile/Desktop Markt runterbrechen oder zieht man andere Märkte mit rein? Intel war/ist ja bestrebt, dort auch andere Märkte anzusprechen. Klappt allerdings nicht soo gut, gerade im Tablet/Smartphone Bereich ging es bis dato nicht auf und Andere machten und machen das Rennen. Ob sich damit aber für die klassischen Intel/Microsoft Heimanwender-Desktopschiene was ändert in absehbarer Zeit? Wäre ich zumindest vorsichtig mit Behauptungen... Denn es krankt aus meiner Sicht lange schon nicht mehr an der Hardware als Alternative zum x86 Prozessor, sondern viel eher an der Softwareumsetzung bei den Mittbewerbern.

Wir sind wie oben erwähnt allerdings schon länger an dem Punkt, wo dieser klassische PC Markt nicht mehr von neuen Innovationen geprägt wird, sondern viel eher es primär um reine Lauffähigkeit und Funktionalität geht. Der Boom auf den Markt, wie es ihn zu Anfängen gegeben hat, hat sich quasi vollständig gelegt. Die Investitionen von Dritten in diesen Markt aufgrund von Innovationen gehen heute deutlich zurück. Über bleibt eine bis dato "solide" Basis. Ob das allerdings mit einem wirtschaftlich agierenden Unternehmen unter einen Hut zu bringen ist? Muss sich wohl zeigen. Wenn Intel als Unternehmen primär auf Wachstum geht, es sich aber aufgrund stagnierender Absätze nicht mehr "wachsen" lässt, wirds halt eng... Und das haben wir wohl aktuell.
 
Das einzige was mich direkt an Windows bindet sind Programme dritter und DX zum spielen. Selbst Vulkan würde daran nichts ändern solange die Programme auf Linux nicht portiert worden sind. Die meisten würden wohl einfach Vulkan für Windows nutzen und ein Bogen um Linux einschlagen und evtl. ältere Windows Versionen weiter nutzen. Vulkan allein ist kein Indikator dafür das alle Windows deinstallieren und zu Linux konvertieren. Und mal ehrlich seit Ende XP und nun Windows 7 kann ich nicht drüber klagen. Also was ist den das Killerargument für Linux? Heartbleed hat doch gezeigt das der Sicherheitsgedanke Schmarn ist und persönliche Infos muss man heute soviel rausgeben OS unabhängig da wäre Windows nur noch ein Tropfen auf dem heissen Stein.
 
Die kann es nicht geben! VLIW ist gescheitert, der Itanium stirbt gerade. Was man aus diesem Desaster lernen kann ist Folgendes, Compiler sind nur zu einem sehr geringem Teil in der Lage Mikroparallelisierung umzusetzen, somit gibt es Grenzen für die IPC und der Takt läßt sich aus physikalischen Gründen nicht mehr sinnvoll steigern. IBM hat vor Jahren mit einem POWER6 Prototypen stabil 6GHz erreicht und dann entschieden, daß das nichts bringt und die Verkaufsversion auf 5GHz limitiert. Wegen dieser Rahmenbedingungen bleibt nur der Weg in die Breite und die Anpassung der Software, und hier ist die Entwicklung keineswegs zum Stillstand gekommen. Die 28 Kerne des Xeon E7v4 zeigen das sehr deutlich. Es gibt eine neue Softwarekrise, die insbesondere die kleinen Computer betrifft. Die technischwissenschaftlichen Spezialanwendungen nutzen seit Jahrzehnten Parallelisierung und das nicht nur auf Ebene einer CPU, daher existieren seit langer Zeit die notwendigen Werkzeuge für die Softwareentwicklung. Insbesondere Spieleentwickler scheuen die Kosten für die Veränderung der Software, und deshalb gibt es diese Stagnation. Intel ist hier sicherlich nicht die Ursache, da auch alle anderen CPU Hersteller mit dem gleichen Problem zu kämpfen haben.

Du vergisst in dem Vergleich, dass Spezialanwendungen eben das sind, Spezialanwendungen. Parallelisierung ist enorm teuer, stark abhängig von der Aufgabe und der Hardware, und eben auch nur möglich und sinnvoll, wenn große Teile entkoppelt werden können.

Der übliche Consumergebrauch dagegen beinhaltet ungleich mehr serielle Anteile, und da kannst du versuchen was du willst, das kriegst du nicht parallel.

Ebenso bei Spielen, es sind nicht nur die Kosten, sondern auch die Tatsache, dass vor allem bei Spielen ein großer Teil nicht parallelisiert werden kann. Manches kann man auslagern, wird auch teils gemacht, aber oft lohnt es nicht.
 
Man sollte übrigens nicht vergessen, dass jeder weitere Shrink mit immer weiter steigenden Kosten verbunden ist und diese bei immer geringe werdenden Stückzahlen immer schwerer wieder einzuspielen sind. Da hilft es den gleichen Prozess länger zu benutzen um die Investitionen über längere Zeit und auf größere Stückzahlen verteilen zu können.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh