Weitere Sparmaßnahme: Intel steigt aus dem Serverbaugeschäft aus

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.861
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
offenbar hatte man mit Sapphire Rapids schon keine Eigenentwicklung bei den Servern mehr vorgesehen.
Ausgerechnet Sapphire Rapids hat sich dann wegen Problemen der Plattform massiv verzögert. Vielleicht sollte Intel diesen Bereich eher wie eine Prototypenbau betrachten und ich denke nicht, dass ein Autohersteller auf die Idee kommen würde seine Abteilung die die Prototypen baut zu schließen, auch wenn die Kosten hoch und die produzierten Stückzahlen minimal sind. Intel hat doch lange fette Gewinne gemacht, da müsste doch eigentlich etwas in der Kasse sein um die schlechten Zeit zu überstehen, die wir gerade vor uns haben.
 
Sehr gut, wie ihr den Titel formuliert habt. Golem war reißerischer unterwegs mit "Intel steigt aus Servergeschäft aus". Das ging bei uns wie ein Laubfeuer durch die Firma xD.
 
Intel hat doch lange fette Gewinne gemacht, da müsste doch eigentlich etwas in der Kasse sein um die schlechten Zeit zu überstehen, die wir gerade vor uns haben.
Intel hat in der Vergangenheit schon so manche Sparte abgestoßen und später wieder akquiriert. Mich würde wundern, wenn dieser Ausstieg final bleibt, denn ich stimme deinem Vergleich zu und würde sogar vermuten, dass Intel eine gewisse Summe der Prototypen-Entwicklung ohnehin stemmen muss. Sie können die Entwicklung sicherlich nicht zu 100% stoppen, nur weil keine eigenen Endprodukte mehr auf den Markt kommen sollen.
 
Denke das hängt von dem Produkten ab.

Manche Bereiche werden davon gar nicht betroffen sein (Verbindungen innerhalb / untereinander von Komponenten, Netzwerkkarten). Denke hier geht es wirklich um Referenz Implementierungen von Servern (also Motherboards, Chiplet GPUs - und CPUs inkl. Speicher und Co-Prozessoren als CPU / GPU Beschleuniger etc.)

Es wird halt einfach nicht weiter investiert bzw. weiter geforscht:

Zitate aus den Links des HWLuxx Artikels:

"... man einige Projekte einstellen werde. So wird es keinerlei weitere Investitionen in die Netzwerk-Sparte (NEX) geben. Bestehende Produkte würden weiterhin unterstützt, es wird allerdings keinerlei Weiterentwicklungen mehr geben."


"Falcon Shores soll die aktuelle GPU-Strategie zusammenführen. CPU-, GPU-, AI-, Speicher-Tiles in einem Package sollen die Chips flexibel auf den jeweiligen Anwendungsfalls ausrichten können. x86-Kerne und eine Xe-Architektur in einem Package – dies erinnert stark an AMDs Instinct MI300A, der CDNA-3-Chiplets und Zen-Kerne zusammenbringt.

Geplant ist Falcon Shores ab 2025. Bis dahin wird Intel also keinerlei neue Datancenter-GPU präsentieren. Somit werden AMD mit Instinct MI300A und NVIDIA mit Grace Hopper diesen Bereich (x86-CPU + GPU) bedienen, während Intel mit Ponte Vecchio wird ausharren müssen. Stetige Weiterentwicklungen bei der Software sollen dabei helfen."

Die "geringe" Marge im Client und Enterprise Segment schlägt zu Buche.
AMD macht länger schon Druck und ARM bedient auch schon länger wichtige Marktbereiche. Die Marge wird nun verteilt und AMD hat endlich auch (verdientermaßen) die OEMs für sich gewinnen können (alleine die Energiekosten haben dafür gesorgt).

Die kleinen Sparten waren jedoch eher stabil.

Jedoch macht hier auch die Masse an kleinen Sparten (selbst mit geringen Verlusten) einfach den Haushalt unflexibel.
Gerade da lässt sich durch temporären Verkauf (und ggfls. spätere neue Einverleibung bei höheren Erfolgschancen von Innovationen) einfach mehr Bewegungsfreiheit zu.

Intel setzt in die Automobilindustrie (Chips) und versucht dort noch etwas von dem Kuchen abzubekommen.
Die aktuelle Chip und Komponenten Knappheit (Asien) wird dazu beitragen, ist für mich aber nur ein Teil der Wahrheit.


Intel wird sich halt eher auf die Partner (hier erwähnt wird ja der Mutterkonzern von Tyan) verlassen, dass Innovationen durch diese (mit Intel Unterstützung) weiterhin in den Bereichen Fuß fassen können.

Nur kann Intel die eigenen Vorstellungen von Innovationen / Forschung nicht mehr nur alleine bestimmten.

Dies wird sich auch auf kommende Produkte (Chiplets mit GPUs und Speicher) auswirken und als Beispiel im mobilen Sektor mit der ARM Partnerschaft versucht zu kompensieren.


Dies ist aber seit Saphire Rapid wohl schon der Fall.

Ich denke dadurch, daß AMD, Apple und teilweise Samsung exklusiv Verträge in Bezug auf die Fertigungskontigente (über viele Jahre) bei TSMC besitzen, kann Intel die Forschungskosten und Fabriken immer noch nicht auslagern.

Das frisst den Haushalt halt immer weiter auf und zwingt Intel dazu, immer weiter Fabriken hoch zu ziehen, was dem Aktienkurs auch nicht auf Dauer schmecken wird.

Daher befindet sich Intel hier in der Zwickmühle.
Sie müssen weiter Fabs ausbauen und dafür braucht es halt Geld. Sonst zieht AMD halt immer weiter davon durch die Shrinks von TSMC.

Aber Intel erhält hier Geld aus dem EU Haushalt (unserere Steuergelder) und deswegen wird in der EU auch ausgebaut:

Ich vermute daher stark, dass alles, was keinen Gewinn bringt (kleine Sparten / kurzsichtige Projekte oder Projekte ohne hohe Innovationskraft) abgeschrieben werden müssen.

Sonst steigen die Aktionäre auf das Dach ohne fette Ausschüttung.

Interessant werden die dedizierten GPUs in diesem Zusammenhang werden.

Alle Hersteller planen auf mehrere Jahre und alles was nicht spätestens Mittelfristig (3 - 5 Jahre) erfolgversprechend wirkt, wird halt abgestoßen oder in Hände übergeben, welche man zu mindestens gut einschätzen kann aufgrund von langer Partnerschaft untereinander.

Verständlicherweise werden durch die letzten vorbeugenden Aktionen wie das Abstoßen von Sparten und Forschung in den Bereichen / Deals / Partnerschaften / Unterstützung durch EU Förderung bei Intel die Löcher füllen können und den Aktienkurs kurz - bis mittelfristig beruhigen.

Ob das wirklich so große Auswirkungen besitzt, kann man vorerst gar nicht genau wissen oder beurteilen. Das werden die nächsten Jahre erst aufzeigen können.

Strategisch ist es ein cleverer Schachzug von Intel.

Auf lange Sicht, werden wir sehen, ob die Strategie aufgeht oder nicht.

"Prestige" Auswirkungen sind auf jeden Fall deutlich vorhandenen und betrifft die Supercomputer / HPC Sparte.
Dort wird angesagt, welcher Hersteller was genau leisten kann.
Das hat weitaus mehr praktische Auswirkungen auf das Enterprise Business als man ggfls. zuerst annimmt.

AMD hat seit der Zen Architektur die Anzahl im Top Ranking verdoppeln können und Intel muss sich auch NVIDIA (dank Übernahmen z.B. von Mellanox für schlanke / schlappe 7 Milliarden US Dollar) dort seit längerer Zeit geschlagen geben.

Das sind die wahren Gründe für die Probleme von Intel und deren Handeln.

Warum sollten die es auch weiterhin versuchen? Den Krieg können die seit Jahren schon nicht mehr gewinnen.

Also schnappt man der Konkurrenz lieber andere Segmente Mithilfe der Partnerschaft zu ARM weg, um sich zu sanieren und wieder danach forschen zu können mit frischer und sanierter Haushaltkasse.
Das kann sich höchstens mit ARM zusammen ab 2025 ändern. Aber bis dahin hat AMD auch wieder abgeliefert. Bleibt daher spannend.

Intel hat den Mainstream lange genug gemelkt gehabt (4 Cores mit geringer IPC Steigerung vor Zen, kaum PCIe Lanes mehr und DMI Limitierungen) und sich zurück gelehnt = mein Mitleid (was kein Unternehmen verdient hat) hält sich daher stark in Grenzen.

AMD hat damals mit Bulldozer und FX viel riskiert und viel Geld verloren.
Die dazugehörigen Forschungsergebnisse haben sich aber seit Zen ausgezahlt.
Die Auslagerung der Fertigung war dabei als Risikominimierung überaus erfolgreich.
Seitdem wird der Spieß mal umgedreht und Intel darf den Druck gerne spüren.
Das schafft Konkurrenzdruck und Bestenfalls Innovationsdruck.
 
Zuletzt bearbeitet:
Denke hier geht es wirklich um Referenz Implementierungen von Servern (also Motherboards, Chiplet GPUs - und CPUs inkl. Speicher und Co-Prozessoren als CPU / GPU Beschleuniger etc.)
Es dürfte kaum um CPUs oder GPUs gehen was da für Tiles (Chiplet ist ein Begriff den AMD verwendet, Intel nutzt mit EMIB eine andere Verbindungstechnik und nennt sie Tiles) diese haben, sondern nur um die Mainboards auf die diese dann kommen.

Dies ist aber seit Saphire Rapid wohl schon der Fall.
Und ausgerechnet Saphire Rapids hat sich wegen Problemen mit der Plattform massiv verzögert, also gleich beim ersten mal wo sie die Referenzsystem nicht Inhouse gemacht haben, ging dies kräftig in die Hose und trotzdem wollen sie den Weg weitergehen.

Dies wird sich auch auf kommende Produkte (Chiplets mit GPUs und Speicher) auswirken und als Beispiel im mobilen Sektor mit der ARM Partnerschaft versucht zu kompensieren.
Intel und ARM haben seit 1998 ein License Agreement und wer die Geschichte von ARM kennt, der weiß auch wieso. ARM hatte in den 90er sein Befehlssatz an DEC (Digital Equipment Corporation ) lizensiert, die dann ihre eigene CPU, den Strong ARM entwickelt haben und dazu haben sie die Testsuite von ARM lizensiert, was auch ein wichtiger Teil der CPU Entwicklung ist, nämlich die Validierung um zu schauen ob die CPU auch alles richtig macht. DEC hat da eine gute FPU integriert, die waren damals der zweitgrößter Computerhersteller hinter IBM und hatten ihre ersten CPUs schon in der Zeit entwickelt, also man sie noch mit diskreten Transistoren aufgebaut hat. 1997 hat Intel dann die Halbleiterabteilung von DEC übernommen, zusammen mit den Rechten an StrongARM und Intel war an der Entwicklung des SA-1100 beteiligt und hat ihn auch gefertigt, eben in der ehemaligen DEC Fab und weiterentwickelt. Daraus wurden die Intel XScale Prozessoren, die ARM v5 CPUs waren. 2006 hat Intel diese Sparte dann für 600 Mio an Marvell verkauft.

Intel und ARM haben also schon eine lange Geschichte zusammen und Intel hat in der Vergangenheit auch schon ARM CPUs entwickelt und gefertigt!
Also schnappt man der Konkurrenz lieber andere Segmente Mithilfe der Partnerschaft zu ARM weg, um sich zu sanieren und wieder danach forschen zu können mit frischer und sanierter Haushaltkasse.
Soweit ich das verstanden habe, geht es eher darum TSMC das Geschäft mit Fertigung von ARM CPUs wegzuschnappen, da Intel, sofern sie ihren Zeitplan einhalten können, wohl mit der 18A Fertigung dann wieder der Halbleiterhersteller mit dem führenden Fertigungsprozess sein wird, eine Position die sie ja lange innehatten und nur durch die Probleme mit dem 10nm Prozess aufgeben mussten.

AMD hat damals mit Bulldozer und FX viel riskiert und viel Geld verloren.
Die dazugehörigen Forschungsergebnisse haben sich aber seit Zen ausgezahlt.
Also wenn man sich ansieht was die Philosophie hinter der Bulldozer Architektur und den APUs war, nämlich die Integration der GPU als eine Art Befehlssatzerweiterung um auch kleine Aufgaben effizient auf der GPU lösen zu können, denn dies lohnt sich normalerweise nicht weil man dazu ja erst die Befehle und Daten an die GPU übermitteln und die Ergebnisse zurückübertragen muss und damit mehr Zeit verliert als man bei kleinen Berechnungen durch die Nutzung der GPU gewinnen kann, so hat AMD dies mit Zen wieder komplett über Board geworfen. Zen dürfte von Bulldozer wenig bis nichts übernommen haben, weshalb es dann ja auch erfolgreich war.

Intel hat den Mainstream lange genug gemelkt gehabt (4 Cores mit geringer IPC Steigerung vor Zen, kaum PCIe Lanes mehr und DMI Limitierungen) und sich zurück gelehnt
Erstens hat AMD auch nicht mehr Kerne geboten, denn Mainstream waren die FM Sockel mit den APU und das auch nur weil sie bei einem Modul immer von zwei Kernen gesprochen haben und zweitens lag damals der Fokus auf den iGPUs und die haben sich in der Zeit massiv weiterentwickelt. So gering wie gerne behauptet war die IPC Steigerung gar nicht, man sollte dabei nicht vergessen, dass mehr IPC auch deutlich mehr Transistoren bedeutet und die muss man ja auch erstmal unterbringen können und wo die DMI Anbindung limitiert haben soll, weiß ich wirklich nicht. Das einzige wo die je ein echter Flaschenhals gewesen wäre, was bei 2 NVMe SSDs im RAID 0, denn nur so bekommt man wirklich eine hohe Datenmenge pro Richtung übertragen. Aber sowas ist nur für Benchmarksfreaks relevant die den längsten Balken bei der maximalen Lese- und Schreibrate wollen relevant, im Alltag wegen der höheren Latenz, denn es gibt ja bei der RAID Verwaltung immer eine Verzögerung, aber kontraproduktiv und für sowas gab es immer die HEDT Enthusiastenplattform, auf der man auch mehr als 4 Kerne bekommen konnte. Dies sind so die typischen Argumente der AMD Fanboys, die aber bei genauer Hinsicht Null Sinn ergeben, denn wenn man ein Problem mit DMI und nur 4 Kernen hat, wieso beschränkt man sich dann bewusst auf den Mainstream Sockel? Dafür gab es immer HEDT CPUs die solche Wünsche abgedeckt haben!
 
Danke dir.

Die Historie zu ARM und Intel war mir nicht geläufig (dafür war ich einfach damals zu jung).

Bin jedoch kein Fanboy von AMD oder Intel oder sonstigen Herstellern. 😉
Hatte bisher (als Beispiel) noch nie eine AMD CPU.
Daher bitte vorsichtig mit so Aussagen, da bewegt man sich direkt wieder abseits der Sachlichkeit. 🙃

Aber ich bin mir auch nie zu schade, falsche Behauptungen von mir zu korrigieren.
Daher (laut PCGH) hatte die Zen Architektur nie etwas mit den da vorigen FX oder Bulldozern gemein oder basierten auf diesen.
Da hast du völlig Recht.
Die FinFet Fertigung bei GlobalFoundries (gehörte wohl mal vorher AMD) inkl. SMT hat sich AMD hier damals von Intel abgeschaut. 😉


Es ging auch nie darum, das AMD mehr Kerne geboten hatte damals als Intel, aber das sich Intel schon bewusst nicht bewegt haben (seit dem x58 Sockel eigentlich schon - da gab es schon 6 Kerne), da AMD einfach keine Konkurrenz darstellen konnte.

Und die 6 Kerne für so viele Jahre auf den HEDT Plattformen als besonders mehr darzustellen, mit jeweils neuem Sockel (und geringen Anpassungen an dem 14nm Prozess / Tick - Tock) und bewiesener / geringer Steigerung der IPC, ist wiederum eine leichte Verblendung der Tatsachen.

Hätte AMD mit Zen keinen Druck aufgebaut, wären wir da heute im Mainstream immer noch!
Und nur so war das gemeint.

Das gleiche Spiel gilt übrigens auch für NVIDIA.
Daher bin einfach nur froh, dass es in beiden Fällen einfach Konkurrenz gibt für Innovationsdruck ~ um mehr ging mir doch gar nicht!

AMD war damals mehr als nur am straucheln und haben einfach nur Respekt von mir dazu erhalten, dass Sie in den hart umkämpften (beiden Bereichen) einfach durch den Kauf von ATI / Wiedereinstellung von Jim Keller damals für Zen, sich retten konnten und Innovationen (sehr viele freie Standards bei GPUs als Beispiel) brachten.

Diesen erhält natürlich auch wieder Intel, wenn das mit ARM zu etwas anständiges bringen wird.

Die Berichte von den AGESA Updates (je nach Mainboard Hersteller gibt es da wohl richtig viel Spaß mit) wird auch in Bezug auf Zen3 das nicht ändern, dass ich auf AMD CPUs gar nicht so scharf bin (ausser vielleicht Epyc ~ wo die Plattform aber einfach nix für mich ist).
Werde eh auf 2025 oder später schielen, was Intel mit ARM zusammen schaffen kann.
Auch wenn mich der Wegfall von Erweiterungen (AVX 512 etc. inkl. Hyperthreading) vorerst stutzig macht in diesem Bezug.

Laut den Artikeln ging es zwar sehr wohl um CPU / GPU / Speicher auf einem Package (ob Intel ihre Technik zur Verbindung der Komponenten nun EMIB / Tiles nennt oder AMD diese als Chiplets benennt, wären jetzt Details - aber auch kostenlosen Wissen, welches man gerne mit nimmt - stand aber auch auf chipwiki welche ich verlinkt hatte).

Die dedizierten GPUs sollen damit ja auch von dem Weiterentwicklungsstopp betroffen sein. Das finde ich schade und hätte dem dGPU Markt wieder ein wenig spannender machen können.

Ich stimme dir übrigens zu, dass Intel (Voraussgesetzt die bekommen die Fertigung bald endlich wieder in den Griff) an AMD wieder vorbei ziehen wird.
Da hoffe ich wieder auf eine ähnliche HEDT Plattform wie Saphire Rapids mit ein wenig mehr Flexibilität.

Ansonsten willst du es einfach nicht (bewusst? ) verstehen, dass (für mich!) das Angebot von 3 oder 4 x8 oder x16 PCIe Lanes (Beispiel AM5 für High End Boards für über 1000 € wegen 1 oder 2x 10 GBit Controllern?) eine Farce für mich persönlich darstellen, wenn diese elektrisch (bei der Nutzung von PCIe Erweiterungskarten - welche diese auch ausnutzen könnten wie Hyper M.2 Cards = nur ein Beispiel) gar nicht mehr voll angebunden sind, deaktiviert oder geshared werden oder andere on board Chips einfach deaktiviert werden müssen.

Und nein, deswegen sollte man sich kein TR Pro / Intel WS kaufen, da es dort um andere Features gehen sollte (High CPU Counts, mehr RAM und RDIMM, validierte WS Funktionen, fast schon teilweise Server Management Features). Aber auch das bleibt meine persönliche Meinung dazu, das der Preis einfach absurd ist und nicht dazu passt. Einer der Gründe, warum ich dann lieber abwarte, bis beide (AMD und Intel) wieder stark zu einander konkurrieren und dem Kunden "das Besondere" anbieten müssten.
 
Zuletzt bearbeitet:
Bin jedoch kein Fanboy von AMD oder Intel oder sonstigen Herstellern. 😉
Hatte bisher (als Beispiel) noch nie eine AMD CPU.
Dann hast Du aber trotzdem deren Argumente geschluckt ohne sie je kritisch zu hinterfragen.

aber das sich Intel schon bewusst nicht bewegt haben (seit dem x58 Sockel eigentlich schon - da gab es schon 6 Kerne),
Das stimmt doch gar nicht, der i7 5960x EE erschien in Q3 2014 und war ein 8 Kerner. 2 Jahre später erschien mit dem i9 7980XE sogar eine 18 Kern HEDT CPU von Intel. Eund ein Jahre bevor AMD dies dann mit seinen TR2000ern überboten hat.

Werde eh auf 2025 oder später schielen, was Intel mit ARM zusammen schaffen kann.
Auch wenn mich der Wegfall von Erweiterungen (AVX 512 etc. inkl. Hyperthreading) vorerst stutzig macht in diesem Bezug.
Was meinst Du da genau? Du solltest mal Deine Gedanken besser sortieren und mehr Zusammenhänge schreiben.

ob Intel ihre Technik zur Verbindung der Komponenten nun EMIB nennt oder AMD diese als Chiplets benennt, wären jetzt Details
Nein, die Verbindungstechnik die AMD bisher bei seinen CPU verwendet wird nicht Chiplet genannt, dies ist die Bezeichnung der Dies und die nennt Intel eben Tiles. AMD verbindet die Chiplet in seinen CPUs bisher per BGA, also so wie auch die meisten Chips auf eine Platine gelötet werden und nichts anderes ist es auch, nur ist es eben die Trägerplatine der CPU und da kommt ein HS drüber. EMIB ist eine Technik die auf Halbleiter Interposer setzt und damit viel, viel mehr Verbindungen auf der gleichen Fläche erlaubt.
 
Hier ist der ganz allgemeine Push (Core Counts) wegen AMD zu finden.
Die Folien sollten für sich sprechen (Jahre 2013 - 2019 genügt) und benötigen keinerlei weiteren Diskussion.
Damit kannst du deine sorgsam heraus gesuchten Beispiele wieder weg sperren.

Nix anderes meinte ich in diesem Bezug.


Wenn du schon die IPC Tatsache in Frage stellst, wundere ich mich doch schwer. Du hast eigentlich (selbst aktuelles) Wissen und nutzt es nicht oder verblendest damit dich selbst oder vor allem andere (Mitleser)!

Damit direkt zur IPC:

Normalisiert (auf 3 GHz) seit und zu AMD Bulldozer im Anhang!
Und die haben bewußt den alten Cinebench genutzt, da sonst kein normalisierter Vergleich möglich ist / wäre bis Skylake & Zen +!

Jetzt hätte ich gerne (nur) für jeden Mitleser mal deine Erklärung, wie die (von anderen Redaktionen / Foren schwer erarbeiteten und zusammengetragen) Sachlage/n andere Aussagen treffen können, als deine Aussagen (Meinungen), welche einfach andere dazu verleiten würden, die auch als Fakten wahrzunehmen.

Das gilt auch für die Kommentare im 56 Core Saphirre Rapid Thread!

Abhängig davon, daß wir über IPC sprechen (taktbereinigt) und nicht von Leistung, wegen mehr Cache, Takt oder neuen Patches für den Sheduler, Engines etc.!

Und wenn ich dort sehe, daß die Broadwell IPC immer noch so gut mit halten kann, dann versteht man vielleicht, warum selbst ein Zen 2 / 3 oder Saphirre Rapid (bis auf die Plattform!) mich schon etwas kalt lässt, da die Leistung zwar (enorm) gestiegen ist, diese Hersteller aber dies mit mehr Takt, mehr TPD, Cache, MT bzw. HT, und Patches für das OS / Sheduler (Abwärme, je nach dem Watt) erreichen.
Das hat nichts mit IPC zu schaffen.

Und verstehe mich bitte richtig:
Ich schätze deine Meinung, deine Anmerkungen, Hinweise immer sehr, genauso deine Korrekturen.

Aber bis auf deinen Anandtech Link, hast du nie Quellen zu deinen Meinungen oder Äußerungen zur Verfügung gestellt (damit andere auch von deinen Wissen profitieren können und vor allem die Zusammenhänge herstellen können).

Das macht man einfach nicht und man ist selber immer in der Bringschuld, wenn du teilweise vermeintliche Argumente dagegen vorlegst (welche du einfach mit einem Link valide nachvollziehbar gestalten könntest - anstatt die Gegenseite mit der anderen Meinung, welche dies eigentlich die ganze Zeit über schon ausführt bis auf den 'Intel zurücklehnen Thema seit x58" und dem damaligen PCGH Artikel).
Das ist (auf Dauer) dann einfach kein sachlicher Austausch mehr.

Trotzdem (immer) mein Respekt an dich, vor deinen langjährigen Erfahrungen und damit deinen Wissen inklusive aktuellen Wissen.

Ändert aber nichts daran das Fakten nun einmal auf Quellen beruhen.

Außer Igor von IgorsLab, nehmen die wenigsten Tech Redaktion mal neue Hardware auseinander, messen durch, gehen auf die einzelnen Zusammenhänge der Platine richtig ein oder lassen hier und auch mal (berechtigte) Kritik fallen, beschäftigen sich mit dem Themen und Hintergründe investigativ (Igor hat da schon als einziger mindesten drei Produktfehler oder wichtige Hinweise in den letzten Jahren aufgedeckt) und vergleichen sinnvoll, verhindert oft auch für den Kunden Fehlkäufe und informieren die Hersteller öffentlich über Fehler bei neuen Produkten.

Das ist einfach mittlerweile sehr schade!
Und igors Lab finanziert sich auch nur durch Werbung und Spenden!

Natürlich bin ich trotzdem für jeden Artikel / News dankbar von HWLuxx und Computerbase, Andantech und jedem Forum!

Hier der alte Artikel, das Intel je nach Bereich, die P Kerne und E Kerne trennen möchte und damit bei den E Kernen bestimmte Features (AMX, AVX512, HT.) steichen könnte:

Und


Zitat (letzter Link) :

With this week’s announcements, we learned a little more about Sierra Forest. Singhal told us it would have 144 cores in a single package and that the E-core would strip out the AVX-512 vector math units, the AMX matrix math units, and the HyperThreading implementation of simultaneous multithreading, which provides two virtual threads for each core. This is akin to what Ampere Computing has done with its minimalist (yet powerful) Arm cores, and what we think AMD will also do with Bergamo Epycs.
 

Anhänge

  • AMD-and-Intel-Core-Count-Growth-2010-2022-with-2023-Bergamo-only-years-with-new-CPUs-1068x646.png
    AMD-and-Intel-Core-Count-Growth-2010-2022-with-2023-Bergamo-only-years-with-new-CPUs-1068x646.png
    11 KB · Aufrufe: 55
  • cbr15-ipc-comparison.png
    cbr15-ipc-comparison.png
    60,2 KB · Aufrufe: 57
Zuletzt bearbeitet:
Hier ist der ganz allgemeine Push (Core Counts) wegen AMD zu finden.
Die Folien sollten für sich sprechen (Jahre 2013 - 2019 genügt)
Und warum beschränkt man sich auf Server mit 2 Sockeln? Weil AMDs EPYC nicht mehr unterstützen, während Intels Xeons Server mit 4 und teils sogar 8 Sockeln unterstützen. Wie gesagt, Du hast deren Argumente geschluckt ohne sie je kritisch zu hinterfragen und für mich ist hier Schluss, zumal es langsam zu viele Threads werden in denen Deine Aussagen kommen, die meist schon nichts mehr mit dem Thema zu tun haben und wo Deine Gedankengänge und damit die Zusammenhänge oft schwer zu verstehen sind.
 
Da hast du wiederum wahrscheinlich völlig Recht.
Ich habe mich je nach dem auch schon sehr rein gesteigert.
Das muß von meiner Seite auch einfach nicht sein.

Mir ging es wirklich nur um die fehlenden Quellen. Damit ich selbst und andere auch einfach viele Dinge nachvollziehen könnten.

Der Rest ist / war belanglos.

Ich denke serve the home beschränkt sich hier auf dual sockets, da es halt aus Sicht der Lizenzbedingungen von Microsoft einfach Sinn ergibt (die haben die immer wieder angepasst und mehrere Sockel zu lizenzierten, wird da irgendwann richtig teuer). Bleibt aber auch eine reine Vermutung von mir.

Darüber hinaus, einzelne HEDT Sockel wo zeitweise 16 oder 18 Kerne bei Intel möglich waren als Beispiele heraus zu nehmen, passt nicht zu dem, was Konsumenten seit Zen einfach (vor allem im Desktop / Mainstream) einfach ganz offensichtlich bemerken.

Erst wenn AMD im Mainstream die CPU Core Anzahl erhöht hatte, erst dann zog Intel immer erst nach.

Wir könnten uns auch selbst die Arbeit machen und die Core Anzahl vor Zen im Mainstream von Intel für den Desktop (nicht HEDT) oder für einzelne Server CPUs angeben. Wäre gespannt, was dabei rauskommen würde (auch wenn ich da schon mehr als eine Ahnung zu habe).

Da würde es trotzdem (ohne HEDT / Server ) bei 4 - 6 Cores bei Intel im Desktop bleiben. Und das für viele Jahre.

Und ich denke das weißt du auch ganz genau, deswegen hast du dir die HEDT Plattform dann auch bewusst herausgesucht.

Intel besitzt selbst heute noch durch z.B. AVX-512 Alleinstellungsmerkmale, die AMD nicht erfüllen kann.

Ich bin nicht gegen Intel oder Nvidia.
Aber deren Bewegung immer nur zu kontern wenn es sein muss, fällt glaube ich einfach jeden auf.

Und das Intel mit der Leistung / Core Anzahl im Server Segment für Einzel Sockel Systeme und Dual Sockel Systeme seit Zen (aufgrund der Fertigungsprobleme) nicht konkurrieren kann, ist denke ich auch kein Geheimnis.
Von dem Verbrauch mal ganz zu schweigen.

Da bringt denen (vermutet) auch kein Quad oder Okta Sockel nichts mehr, da dies einfach nicht für die Masse praktikabel ist.
 
Zuletzt bearbeitet:
Zeige mir doch mal bitte eine valide Quelle, dass Intel im Desktop Segment (kein HEDT) vor Zen nicht auf 4 - 6 Cores geblieben ist.

PS. Gehe aber trotzdem mal ins Bett... 😉

Und danke dir einfach für den Austausch! 👍
Ich freue mich darüber wirklich.
Da du halt einfach wirklich viel Wissen hast und das auch teilen möchtest / kannst. 😉
 
Zeige mir doch mal bitte eine valide Quelle, dass Intel im Desktop Segment (kein HEDT) vor Zen nicht auf 4 - 6 Cores geblieben ist.
Wieso? Das habe ich doch gar nicht behauptet!

HEDT steht für High End DeskTop, ist also auch Desktop und von davon und nicht von Mainstream hattest du auch gesprochen:
aber das sich Intel schon bewusst nicht bewegt haben (seit dem x58 Sockel eigentlich schon - da gab es schon 6 Kerne),
X58 ist damals HEDT gewesen und bei seinen Nachfolgern gab es schon bevor Zen erschienen ist mehr als 6 Kerne und HEDT war eben das Marktsegment mit dem Intel damals solche Ansprüche abgedeckt hat. Wer mehr als 4 Kerne wollte, der musste eben Intel lange zu einer HEDT CPU mit der entsprechenden Plattform greifen, dafür bekam er auch mehr RAM Channels und PCIe Lanes direkt von der CPU, eben was Enthusiasten meisten so woll(t)en.

Außerdem seien wir mal ehrlich: AMD hat doch die ersten Zens nicht mit 8 Kernen gebracht weil sie 4 Kerne im Desktop Mainstream für zu wenig gehalten haben, sondern damit diese wenigstens bei der Multithreadperformance die Nase vor Intels Mainstream CPUs haben, da sie dies weder bei der Singlethread- noch der Spielperformance geschafft haben. Da AMD die gleichen Chiplets auch für die dicken EYPC Server CPUs verwendet, waren viele Kerne natürlich auch da hilfreich. Damit hat AMD den Krieg der Kerne losgetreten und zusammen mit dem Ende von SLI das HEDT Segment gekillt, denn aktuelle HEDT CPUs gibt es weder von AMD (nachdem der TR PRO die TR abgelöst haben) noch Intel. Jetzt müssen die großen (AMD hat nur eine, aber Intel ja mit dem W680 auch noch eine kleine) Workstationplattformen diese Rolle mit übernehmen.

Wobei man sich dann immer fragen muss, wie viel Sinn so viele Kerne jeweils haben, selbst bei Servern ist es oft nicht sinnvoll die CPUS mit der größten Kernanzahl zu nehmen, entweder wegen der Lizenzekosten oder auch, wenn die Anwendung viel RAM Durchsatz braucht und das RAM einfach nicht mehr Kerne füttern kann, weshalb wir hier ja auch klar den Trend zu mehr RAM Channels (AMD ist schon bei 12 angekommen), zusätzliche Caches (3D Cache bei AMD, HBM2 bei Intel) und schnellere RAM (MCR DIMM), was mehr Sinn macht wenn ständig große Datenmengen verarbeitet werden müssen die so nicht in den Cache passen, damit die vielen Kerne eben auch gefüttert werden können.

Dann kommt noch ein anderes Problem dazu, denn auch wenn man mit einem Server mit zwei der fettesten CPU die gestellte Aufgabe erfüllen könnte, was macht man wenn der mal ausfallt und die Downtime der womöglich wieder läuft zu lang wäre? Kauft man dann noch eine dieser sehr teuren Kisten? Oder nimmt man nimmt man lieber 3 mit kleineren CPUs die jeder für sich günstiger ist und wo zwei zusammen ausreichen und der Dritte die Reserve ist, sollte man einer ein Problem haben? Klar, wenn man sowieso Dutzende oder Hunderte Server für ein Projekt braucht, dann hat man dies Problem nicht, aber längst nicht alle Projekte sind so große das man dies bräuchte und auch nicht alle wandern in die Cloud ab.

Am Ende ist es deshalb auch bei Servern so wie im Desktop, die Mittelklasse CPUs sind die Volumenmodelle, das Brot- und Buttergeschäft und die Topmodelle sind vor allem für Image und die Fanboys da, spielen aber im Alltag eben nicht die so große Rolle wie es beim Lesen der Reviews scheint, für die die Reviewer dann natürlich diese Topmodelle gestellt bekommen. Das ist bei Autos nicht anders, da können sich die Fanboys auch am Stammtisch streiten oder der M3 oder der AMD C63 besser ist und fahren dann in ihren 318i und C180 wieder nach Hause, denn die Masse kauft eben nicht die Spitzenmodelle, sondern die Brot- und Modelle, eben weil die auch reichen und weitaus bezahlbarer sind. Klar wird am Verkauf der Topmodelle auch nett verdient, aber die sollen eben vor allem der Image aufpolieren und den Verkauf der ganzen Baureihe ankurbeln. Während bei den Autos die M und AMD Modelle aber meist erst später erscheinen, sind wir zumindest bei den Mainstream CPUs aber inzwischen da angekommen, dass zuerst nur die Topmodelle rauskommen und die kleineren, billigeren CPU erst später nachgereicht werden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh