Intel präsentiert die Xeon-W-Prozessoren für Einsteiger-Workstations

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
intel-core-i9.jpg
Intel nennt heute die weiteren Details zu den Cascade-Lake-X-Prozessoren. In der Vergangenen Woche hat man die Vorstellung der neuen Core-X-Prozessoren bereits vorgezogen und bietet dort 18 Kerne für unter 1.000 US-Dollar. Verkaufsstart ist aber nicht heute, sondern erst Ende Oktober bzw. vermutlich erst im Verlauf des November. Dies gilt auch für die neuen Xeon-W-Prozessoren, die heute vorgestellt werden.Die Xeon-W-2200-Plattform basiert auf Prozessoren der Cascade-Lake-X-Serie. Die...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alle Xeon-W-Prozessoren der 2200-Serie bieten bis zu 72 PCI-Express-Lanes
Das ist schlecht formuliert, denn die Plattform bietet bis zu 72 PCIe Lanes, die Prozessoren selbst haben ja wie ihre Vorgänger 48 Lanes, plus der 4 für die Anbindung des C422, also nach AMD Zählweise dann 52. Da steht doch auch extra "Up to 72 platform PCIe lanes on all SKUs" auf der Folie.

Intel-Cascade-Lake-XeonW-CoreX-Pressdeck00004_29BB029588B643549144EE8FF62DD779.jpg


eine Reduzierung der Preise ist wohl für Intel eine Maßnahme, um die Xeon-W-Prozessoren gegen die starke Konkurrenz von AMD zu stellen.
Zumindest bisher hat Intel da noch keine direkte Konkurrenz von AMD, da die TR bisher als Desktop CPUs angepriesen und vermarktet werden, während die Xeon-W als Workstation CPUs platziert sind. Dies ist aber ein weiterer Hinweis das sich das mit TR3000 ändern dürfte und AMD diese dann auch offiziell als Workstation qualifiziert.

- - - Updated - - -

Eine gute Nachricht bei Anandtech:
 
Der Ramsch muss sofort raus!
Intels verzweifelter Versuch noch einige Kunden durch den Preis zum Kauf zu bewegen.
Die werden schon ahnen, was noch mit Ryzen TR 3000 kommt!

Das Problem von Intel wird aber sein, dass AMD durch den modularen Aufbau schlicht viel billiger fertigen kann.
Die riesigen monolithischen CPUs erzeugen in der Produktion einfach mehr defekte Ware.
Den Preiskampf wird Intel verlieren, wenn sie nicht tatsächlich anfangen die Dinger unterhalb der Produktionskosten zu verkaufen.
 
Zuletzt bearbeitet:
Bin mir fast sicher das die noch immer sehr gut dran verdienen gerade WEIL sie selbst fertigen, im Gegensatz zu AMD.
Das "selbst fertigen" hat aber auch den Nachteil, dass Intels Kapazitäten futsch sind. Intel kommt nicht hinterher, weil der 10nm-Prozess im Sack ist und 14nm++++++++ aus dem letzten Loch pfeift.

AMD hat dadurch den Vorteil, auf das modernste Pferd setzen zu können.
 
Der Ramsch muss sofort raus!
Intels verzweifelter Versuch noch einige Kunden durch den Preis zum Kauf zu bewegen.
Die werden schon ahnen, was noch mit Ryzen TR 3000 kommt!

Das Problem von Intel wird aber sein, dass AMD durch den modularen Aufbau schlicht viel billiger fertigen kann.
Die riesigen monolithischen CPUs erzeugen in der Produktion einfach mehr defekte Ware.
Den Preiskampf wird Intel verlieren, wenn sie nicht tatsächlich anfangen die Dinger unterhalb der Produktionskosten zu verkaufen.

Deine Beiträge verlieren auch immer mehr an Qualität, schade eigentlich.
 
Deine Beiträge verlieren auch immer mehr an Qualität, schade eigentlich.
Als ob sie je eine Qualität gehabt hätte, der hat nur Gamerkind nachgeäfft. Das die großen monolithischen CPUs mehr teildefekte Dies haben, ist klar und nicht neu, aber ebenso lange gibt es die Politik diese dann für CPUs mit weniger aktiven Kernen zu verwenden als auf dem Die sind. Dies machen Intel und AMD schon sehr viel Jahren so und so ausgereift wie die 14nm Prozesse bei Intel inzwischen sind, sollte die Ausbeute dort inzwischen nun wirklich schon sehr gut sein.

Zum Thema: Ist doch klar das auch Intel sich bei den Preisen am Wettbewerb orientieren muss, dies hat mit Ramsch nichts zu tun und gegen die 3000er TR werden eher die Xeon-W 3200 antreten müssen, wenn es stimmt das der offiziell zur Workstation Plattform wird und die Produktpalette erst ab 24 Kernen beginnt.
 
Als ob sie je eine Qualität gehabt hätte, der hat nur Gamerkind nachgeäfft.

Iss ja auch logisch, jetzt wo er weg ist, hab ich nix mehr zum nachäffen ergo Qualität der Beiträge gesunken! Ein Teufelskreis /:
 
Wäre an sich ja ein recht interessanter Prozessor und könnte mit manchen Rome-Modellen bzw. dem 7371 konkurrieren, wären da nicht die nur 48 PCIe-Lanes der CPU :/
4,8 GHz SC-Boost ist natürlich ne Ansage.
 
Wieso nur 48 Lanes? Außerdem sind die Rome Server CPUs und bisher gibt es nicht einmal Versionen mit etwas höheren Takt, wie es sie noch von den Vorgängern gab, während die Xeon-W eindeutig Workstation CPUs sind. Bei den TR 2990WX die AMD als Desktop CPU bezeichnet, wollten so viele Leute aus dem W in der unbedingt ableiten das es Workstation CPUs wären, bei den Xeon-W gibt es auch das W und Intel sagt sogar ganz offiziell, dass es Workstation CPUs sind! Wieso will man die nun mit dem Rome vergleichen? Deren künftige Gegner dürften die TR 3000 werde, wenn AMD diese dann offiziell als Workstation Plattform qualifiziert.

Außerdem braucht man ja nicht für jede Anwendung so viele Lanes oder auch extrem viele Kerne oder extrem viel RAM. Die Wahl der richtigen CPU hängt immer vor allem vom geplanten Einsatz ab!
 
@Holt
Lassen sich die "Xeon W-2265 12+HT 3,5 / 4,8 GHz 19,25 MByte 165 Watt 944 US-$" auch übertakten?
Das ist eine Menge Holz für ein 12+HT...
 
Wieso nur 48 Lanes? Außerdem sind die Rome Server CPUs und bisher gibt es nicht einmal Versionen mit etwas höheren Takt, wie es sie noch von den Vorgängern gab, während die Xeon-W eindeutig Workstation CPUs sind. Bei den TR 2990WX die AMD als Desktop CPU bezeichnet, wollten so viele Leute aus dem W in der unbedingt ableiten das es Workstation CPUs wären, bei den Xeon-W gibt es auch das W und Intel sagt sogar ganz offiziell, dass es Workstation CPUs sind! Wieso will man die nun mit dem Rome vergleichen? Deren künftige Gegner dürften die TR 3000 werde, wenn AMD diese dann offiziell als Workstation Plattform qualifiziert.

Außerdem braucht man ja nicht für jede Anwendung so viele Lanes oder auch extrem viele Kerne oder extrem viel RAM. Die Wahl der richtigen CPU hängt immer vor allem vom geplanten Einsatz ab!

Es ging bei dem Vergleich um meine eigene Anschaffung. Xeon-W stand vor einem Jahr auf meiner Favoritenliste, hat mir aber damals noch zu viel gekostet und zu wenig geboten. Ich möchte 16 Kerne bei hohem Takt mit >256 GB RAM und vielen PCIe-Lanes. Damals hätten mir vielleicht die 48+4 Lanes wohl gereicht, jetzt spiele ich aber dank fallender NVMe SSD-Preise (Intel DC P4510 z.B.) schon mit dem Gedanken, mir 4-8 Stück davon in den Server zu stecken. Wenn man dann noch ne Dualport 10GbE bzw. Dualport 40GbE Karte, einen HBA, eine Optane, eine 970 Evo, eine DVB-C Karte und eine kleine Graka für Transkoding hat, ist schnell Schicht im Schacht mit 52 Lanes.
 
Was bringen dir die vielen NVME und 40 GBE ? Steht dein Server im Rechenzentrum und hast darauf Anwendungen laufen wo Pro Sekunde tausende oder zehntausende Zugriffe erfolgen ? Oder ist das wieder mehr so ne Spielerei ? Ist ne ernstgemeinte Frage. :)
 
Nach vor allem wird man dann für das ganze was drauf und dran steckt so viel Geld los, da kommt es doch auf den Preis der CPU gar nicht mehr so an.
 
Was bringen dir die vielen NVME und 40 GBE ? Steht dein Server im Rechenzentrum und hast darauf Anwendungen laufen wo Pro Sekunde tausende oder zehntausende Zugriffe erfolgen ? Oder ist das wieder mehr so ne Spielerei ? Ist ne ernstgemeinte Frage. :)

Wenn du beruflich mal mit Rancher/K8s und großen Elasticsearch Clustern zu tun hast und privat gerne damit rumspielen möchtest, brauchst du IOPS ohne Ende. Nebenbei arbeite ich noch mit DPDK als Stresstests für Anwendungen, da können die CPUs nie hoch genug takten, wobei ich das aber eher auf der Arbeit teste, da es mir daheim an passenden Gegenspielern dazu fehlt. Meine PCs sind daheim auch schon mit 10G angebunden, ivm Resilio Sync ganz nett nicht immer den PC die halbe Nacht anlassen zu müssen für Backups oder ihn vollgestopft zu haben mit Platten, die Shares zum Zwischenspeichern sind mit 10G ja ausreichend schnell angebunden. Mittlerweile merke ich auch, das 8 HDDs als VM Storage trotz viel RAM, nativem Solaris ZFS und einer Intel Optane als SLOG ziemlich träge und lahmarschig ist. Außerdem kosten die 1TB P4510 SSDs nicht mehr so viel, 4-8 Stück davon gestripped mit Sicherung auf dem RAIDZ2 Plattenpool gehen garantiert ab wie Lutzie :shot:
Nebenbei dient der Server noch als Steamcache auf unserer LAN-Party mit 60-80 Usern und lahmer 50 Mbits Leitung.
 
Das ist ein Fake Account. :)

Wenn du beruflich mal mit Rancher/K8s und großen Elasticsearch Clustern zu tun hast und privat gerne damit rumspielen möchtest, brauchst du IOPS ohne Ende. Nebenbei arbeite ich noch mit DPDK als Stresstests für Anwendungen, da können die CPUs nie hoch genug takten, wobei ich das aber eher auf der Arbeit teste, da es mir daheim an passenden Gegenspielern dazu fehlt. Meine PCs sind daheim auch schon mit 10G angebunden, ivm Resilio Sync ganz nett nicht immer den PC die halbe Nacht anlassen zu müssen für Backups oder ihn vollgestopft zu haben mit Platten, die Shares zum Zwischenspeichern sind mit 10G ja ausreichend schnell angebunden. Mittlerweile merke ich auch, das 8 HDDs als VM Storage trotz viel RAM, nativem Solaris ZFS und einer Intel Optane als SLOG ziemlich träge und lahmarschig ist. Außerdem kosten die 1TB P4510 SSDs nicht mehr so viel, 4-8 Stück davon gestripped mit Sicherung auf dem RAIDZ2 Plattenpool gehen garantiert ab wie Lutzie
shot.gif

Nebenbei dient der Server noch als Steamcache auf unserer LAN-Party mit 60-80 Usern und lahmer 50 Mbits Leitung.

Danke für deine ehrliche Antwort, also wie vermutet mehr eine Spielerei. Habe da nichts gegen, wollte es nur wissen. :)
 
Zuletzt bearbeitet:
Iss ja auch logisch, jetzt wo er weg ist, hab ich nix mehr zum nachäffen ergo Qualität der Beiträge gesunken! Ein Teufelskreis /:

Nur macht das Nachäffen den Aussagegehalt nicht besser. Was du leider wieder mal absichtlich (ja Absicht, es wurde schon x-fach angesprochen, auch in den Diskussionen mit deinem Vorbild Gamerkind) völlig ausblendest - TSMC machts AMD nicht umsonst. Es gibt keine belastbaren Zahlen ob TSMC billiger 7nm als Intel fertigen kann. Es gibt lediglich die Aussage von AMD, dass der Kostenblock pro yielded mm2 (ich glaub so oder so ähnlich sage man) um grob Faktor 2 teurer ist als zum Vorgänger. Es ging dabei um die geprüfte belichtete Waferfläche. Also eben das, was hinten funktionierend bei rum kommt.

Zudem gibt es eine simple Annahme in diesem Umfeld -> TSMC ist atm quasi Technologieführer und wird was verdienen mit ihrer Technik, während eine Intel ihre Produkte zum Selbstkostenpreis intern fertigt. Die Wahrscheinlichkeit, dass TSMC hier teurer als Intel ist, ist mMn sehr hoch. Gründe dafür wären bspw. der Wettbewerb, der in Sachen 7nm/10nm Prozess effektiv nur bedingt bis gar nicht vorhanden ist. Wer bitte soll TSMC im Preis drücken? Die Kapazitäten verkaufen sich allein durch die eh hohe Nachfrage. Ob da jetzt eine AMD ein paar mehr oder weniger Wafer abnimmt -> das stört dort ziemlich sicher Niemanden. Selbst wenn AMD auf die Tränendrüse drückt und um niedrigere Preise bettelt - TSMC wird den Spaß auch anderswo los. Das heist damit also auch, AMD zahlt das, was TSMC meint dafür zu verlangen. Oder sie gehen leer aus...
Ganz im Gegensatz zu GloFo, die es AMD immer schön günstig gemacht haben... Weil sie eben auch nicht so ultra viele andere Standbeine hatten.


Übrigens noch fix zum Behauptung mit den Chiplets. Der Rome IO DIE ist grob 430mm², die Chiplets ~75mm². AMD bekommt also auf die Größe des IO DIEs ca. 5,73x Chiplets theoretisch... Bei ca. doppelten Kosten pro belichteten mm an Waferfläche für 7nm bei TSMC schleppt man für alle teildeaktivierten Epyc Romes nicht nur die volle DIE Size beim IO Chiplet mit sondern auch die Chiplets um auf die L3 Cachegrößen zu kommen.

Nur mal im Vergleich, Intel fertigt den größten XCC DIE mit knapp 700mm², das sind gerade mal 65% mehr Fläche als AMD in JEDEM Epyc einfach so rumschleppt, scheiß egal ob benötigt oder nicht. Im für Intel billigen, weil durch lange Erfahrung sehr hohe Ausbeute alt Prozess von 14+++++++++++++++ oder wie viele Plus auch immer...
Da können die noch so günstig an 7nm Chiplets kommen, das riesen IO Ding macht hier 1/4-1/3tel der Waferkosten alleine für sich. Und im Verhältnis sogar noch mehr, wenn da eben kein 64C Rome bei raus kommt - bei 32C und vier Chiplets sinds ~430mm² für den IO DIE + ~300mm² für die Chiplets. Halbe Kosten beim IO DIE auf den mm² macht also schon 2/3tel der Kosten.
Noch witziger ist der Vergleich HCC DIE Intel vs. IO DIE AMD. Das sind unwesentliche 40mm² oder so Unterschied. Das kostet real also am Silizium ziemlich ähnlich. So steckt also in jedem Rome ein Kostenblock eines HCC 18C Skylake based Intel DIEs :fresse: So als ganz grobe Richtung. Real wird das Verhältnis sicher bisschen anders sein, aber der IO DIE kostet eben nicht nichts... Und die Chiplets auch nicht. Genau so wie Intels Output da exorbitante Kosten verursacht. Nur so wird das hier immer dargestellt...

So naiv hier von "günstiger" als Intel zu philosophieren, schaffen auch nur die treuen Anhänger der Marketingfolien. Einfach mal Hirn einschalten würde dabei schon helfen. Ganz ohne Zahlen sind das logische Schlussfolgerungen mit nur einer einzigen Annahme, die nicht belastbar ist -> Intel kann 14nm mindestens genau so günstig produzieren wie AMD ihren IO DIE bei gleicher Fläche kosten wird. Wäre Intel hier sogar noch ne Ecke günstiger (weil Selbstkostenfertigung intern) - geht die Rechnung gleich 2x nicht auf. Aber hey, das interessiert euch ja idR eh nicht. Hauptsache die Hucke vollhauen ;)


Ach und bevor es kommt, für AMD ist das ganze trotzdem stimmig. Denn ihre Chiplet Strategie sorgt dafür, dass sie einen viel größeren Marktbereich mit ein und der selben Fertigung abdecken können. Das ist in Summe ab einem gewissen Volumen nicht die kosteneffizienteste Methode. Aber ohne dieses Volumen eben ganz sicher günstiger, als für alle Marktbereiche ne eigene Produktion hoch zu ziehen.
Heist unterm Strich, JA, die Chiplets lohnen für AMD. Aber NEIN, es ist nicht davon auszugehen, dass sie dadurch günstiger als Intel fertigen.
 
Zuletzt bearbeitet:
Das ist ein Fake Account. :)



Danke für deine ehrliche Antwort, also wie vermutet mehr eine Spielerei. Habe da nichts gegen, wollte es nur wissen. :)

Naja, aber es bringt mir ja beruflich was, klar braucht Privat idr kaum einer 40G, selbst 10G oder 1G bräuchte man nicht, aber es ist schon schön es zu haben ;)
 
Naja, aber es bringt mir ja beruflich was, klar braucht Privat idr kaum einer 40G, selbst 10G oder 1G bräuchte man nicht, aber es ist schon schön es zu haben ;)

Wie geschrieben, habe da nichts gegen. Sind nicht alle so ehrlich wie du. Andere erfinden Gründe um sich solche Systeme zu rechtfertigen. :bigok:
Bei dir verstehe ich jedenfalls zum Teil, weil du Beruflich mit solchen Systemen arbeitest, wie du schreibst brauchen tut man es eigentlich nicht, aber nicht alles im Leben is vernünftig und es bringt dich vielleicht sogar im Beruf weiter und du hast Spaß daran. Daher voll OK. :)

Gibt aber auch Leute wie Holzmann die sich ein fettes TR oder Intel System bauen obwohl sie dafür 0 wirklich 0 Verwendung haben.
 
Zuletzt bearbeitet:
Na ja, Folding@home und dann kannste auch sowas anschmeißen. ;-)

Aber bevor hier wieder der Damm bricht:

Übrigens noch fix zum Behauptung mit den Chiplets. Der Rome IO DIE ist grob 430mm², die Chiplets ~75mm². AMD bekommt also auf die Größe des IO DIEs ca. 5,73x Chiplets theoretisch... Bei ca. doppelten Kosten pro belichteten mm an Waferfläche für 7nm bei TSMC schleppt man für alle teildeaktivierten Epyc Romes nicht nur die volle DIE Size beim IO Chiplet mit sondern auch die Chiplets um auf die L3 Cachegrößen zu kommen.

Nur mit dem Unterschied, dass AMD mit dieser Methode auf 64 Kerne kommt. Auch steigt die Defektrate exponentiell mit der Fläche an. Egal wie toll der Prozess ist, mit 700mm² hast du ne Menge kaputte Chips. Oben drauf kommt die geringere Effizienz im Vergleich zu 7nm. Das kann man aber alles ignorieren, gelle?

Nur mal im Vergleich, Intel fertigt den größten XCC DIE mit knapp 700mm², das sind gerade mal 65% mehr Fläche als AMD in JEDEM Epyc einfach so rumschleppt, scheiß egal ob benötigt oder nicht.
Jo, nur "mal eben". Hat auch keinen Einfluss auf Defekte oder so.


Im für Intel billigen, weil durch lange Erfahrung sehr hohe Ausbeute alt Prozess von 14+++++++++++++++ oder wie viele Plus auch immer...
Da können die noch so günstig an 7nm Chiplets kommen, das riesen IO Ding macht hier 1/4-1/3tel der Waferkosten alleine für sich. Und im Verhältnis sogar noch mehr, wenn da eben kein 64C Rome bei raus kommt - bei 32C und vier Chiplets sinds ~430mm² für den IO DIE + ~300mm² für die Chiplets. Halbe Kosten beim IO DIE auf den mm² macht also schon 2/3tel der Kosten.
Und weil der I/O Die ja auch mit so vielen Transistoren ausgestattet ist und absolut gar keine redundanten Elemente hat, genauso viele Masken benötigt und die gleiche Komplexität wie ne CPU hat, ist die Ausbeute mit den CPUs auch total vergleichbar.


Noch witziger ist der Vergleich HCC DIE Intel vs. IO DIE AMD. Das sind unwesentliche 40mm² oder so Unterschied. Das kostet real also am Silizium ziemlich ähnlich. So steckt also in jedem Rome ein Kostenblock eines HCC 18C Skylake based Intel DIEs :fresse: So als ganz grobe Richtung. Real wird das Verhältnis sicher bisschen anders sein, aber der IO DIE kostet eben nicht nichts... Und die Chiplets auch nicht. Genau so wie Intels Output da exorbitante Kosten verursacht. Nur so wird das hier immer dargestellt...

Und weil so ein Chiplet ja nicht in gefühlt 50 unterschiedlichen SKUs landet, wo man praktisch jeden als irgendein Produkt rauskloppen kann, hat AMD da total dran zu knabbern. Ist ja nicht so, dass bestimmte SKUs nahezu ausverkauft sind oder so...

So naiv hier von "günstiger" als Intel zu philosophieren, schaffen auch nur die treuen Anhänger der Marketingfolien.
Hast du den Zug verpasst? Zeig mir mal den Intel 64 Kerner und dessen Ausbeute. Ich hab da mal was bei semiaccurate gelesen, was da mal eben gar nicht so rosig klang. Gut, der Typ ist wahrscheinlich auch nur ein Vollidiot der keine Ahnung hat oder so.


Einfach mal Hirn einschalten würde dabei schon helfen. Ganz ohne Zahlen sind das logische Schlussfolgerungen mit nur einer einzigen Annahme, die nicht belastbar ist -> Intel kann 14nm mindestens genau so günstig produzieren wie AMD ihren IO DIE bei gleicher Fläche kosten wird. Wäre Intel hier sogar noch ne Ecke günstiger (weil Selbstkostenfertigung intern) - geht die Rechnung gleich 2x nicht auf. Aber hey, das interessiert euch ja idR eh nicht. Hauptsache die Hucke vollhauen ;)
Ja, das ist auch Intels einziger Punkt der ihnen das Geschäft so halbwegs rettet: Selbstkostenfertigung. Sie können es billiger, aber nicht besser und schon gar nicht konkurrenzfähiger. Wo ist im Lineup da oben ein 64 Kerner mit 128 PCIe Lanes?

Aber ja, es ist der "Server Einsteiger Markt". Seit wann gibts den denn? Ich dachte, das wurde bis vor kurzem noch HEDT genannt? Also was nun? Vergleichen wir die Dinger da oben jetzt mit Threadripper oder Rome oder nem 2700X? Wir können die Chips da oben auch gegen VIA antreten lassen damit der Balken besonders lang wird...

Ach und bevor es kommt, für AMD ist das ganze trotzdem stimmig. Denn ihre Chiplet Strategie sorgt dafür, dass sie einen viel größeren Marktbereich mit ein und der selben Fertigung abdecken können. Das ist in Summe ab einem gewissen Volumen nicht die kosteneffizienteste Methode. Aber ohne dieses Volumen eben ganz sicher günstiger, als für alle Marktbereiche ne eigene Produktion hoch zu ziehen.
Heist unterm Strich, JA, die Chiplets lohnen für AMD. Aber NEIN, es ist nicht davon auszugehen, dass sie dadurch günstiger als Intel fertigen.
Da AMD keine eigene Fab hat, ist das Silizium pro Stück *gleichwertiger* Technologie teurer. Allerding hat AMD auch gar nicht das Kapital ne eigene Fab zu bezahlen. Die Kosten dafür gehen in die Milliarden und allein die Entwicklungskosten für 7nm waren höher als AMDs kompletter Umsatz. Damit sich das überhaupt lohnen würde, müsste AMD massive Stückzahlen umsetzen - ähnlich wie Intel.

Da ist es dann günstiger es fertigen zu lassen, weil:
A) Man genau das los wird, was produziert wird und die Nachfrage an die Bestellung anpassen kann
B) Man kann Überschuss in SKUs legen, wo stärkere Nachfrage gefordert wird
C) Man ist techologisch immer vorne mit dabei

Kann man natürlich alles vernachlässigen, weil... ähm... Intel einfach toller ist oder so.
 
Zuletzt bearbeitet:
Übrigens noch fix zum Behauptung mit den Chiplets. Der Rome IO DIE ist grob 430mm², die Chiplets ~75mm². AMD bekommt also auf die Größe des IO DIEs ca. 5,73x Chiplets theoretisch... Bei ca. doppelten Kosten pro belichteten mm an Waferfläche für 7nm bei TSMC schleppt man für alle teildeaktivierten Epyc Romes nicht nur die volle DIE Size beim IO Chiplet mit sondern auch die Chiplets um auf die L3 Cachegrößen zu kommen.

Nur mal im Vergleich, Intel fertigt den größten XCC DIE mit knapp 700mm², das sind gerade mal 65% mehr Fläche als AMD in JEDEM Epyc einfach so rumschleppt, scheiß egal ob benötigt oder nicht.
65% mehr Fläche? 700mm² sind keine 63% mehr als 430mm², also nur die Größe des I/O Chips. Wenn auch noch in jedem Rome immer 8 Chiplets stecken (keine Ahnung ob dies so ist, gibt es dazu Quellen?), kommen noch 8*75mm² = 600mm² dazu und dann stecken im Rome schon 1030mm² Diefläche (fast 50% mehr als die 700mm²) und wenn man die Kosten für die 7nm Chiplets mit dem doppelten Preis wie für 12/14nm ansetzt, dann kommt man bei Rome mit 8 Chiplets auf Kosten wie für 1630mm², bei einem mit 4 Chipets wären es dann Kosten wie für 1030mm² in 12/14nm. Ob die Kosten von AMD bei GF nun höher oder geringer als die von Intel für seine eigene 14nm[+/++] Fertigung sind, wissen wir nicht, aber bei der Größe von Intel und GF dürfte die Skaleneffekte eher zu Gunsten von Intel ausfallen und GF muss ja auch Geld verdienen, kann also auch an AMD nicht zum Selbstkostenpreis abgeben.

Im für Intel billigen, weil durch lange Erfahrung sehr hohe Ausbeute alt Prozess von 14+++++++++++++++ oder wie viele Plus auch immer...
Eben und außerdem kann Intel die Dies mit defekten Kernen ja auch für die Modelle mit weniger Kernen verwendet, keine Ahnung wie viel Redundanz AMD im I/O Chip bei Teildefekten hat, aber wenn es nicht der I/O Bereich für die Anbindung von Chiplets ist die dann bei kleineren Modellen nicht bestückt werden, so müsste es bei den PCIe Lane und RAM Controller mehr geben als benötigt werden um bei Teildefekten in diesem Bereich die Dies noch verwerten zu können, oder man verwurstet sie dann in TR 3000, sofern dort Modelle mit weniger als 8 RAM Channels und 128 PCIe Lanes erscheinen.
Und im Verhältnis sogar noch mehr, wenn da eben kein 64C Rome bei raus kommt - bei 32C und vier Chiplets sinds ~430mm² für den IO DIE + ~300mm² für die Chiplets. Halbe Kosten beim IO DIE auf den mm² macht also schon 2/3tel der Kosten.
2/3 der Kosten entfallen dann auf die Chiplets, sofern deren Kosten pro mm² eben doppelt so hoch sind wie die für das I/O Die. Und da die Kosten von Intel 14nm Prozess wohl eher mit denen von GFs 12/14nm zu vergleichen sind als denen von TSMCs 7nm, liegen die reinen Herstellungskosten für ein XCC mit seinen 700mm² damit noch unter denen für ein Rome mit 4 Chiplets, denn bei doppelten Kosten für 7nm, muss man kostenmäßig die Größe pro Chiplet ja mit 150mm² und nicht nur mit 75mm² ansetzen.
So naiv hier von "günstiger" als Intel zu philosophieren, schaffen auch nur die treuen Anhänger der Marketingfolien. Einfach mal Hirn einschalten würde dabei schon helfen. Ganz ohne Zahlen sind das logische Schlussfolgerungen mit nur einer einzigen Annahme, die nicht belastbar ist -> Intel kann 14nm mindestens genau so günstig produzieren wie AMD ihren IO DIE bei gleicher Fläche kosten wird. Wäre Intel hier sogar noch ne Ecke günstiger
Eben, ich denke schon das Intel seine Xeons günstiger fertigt als AMD seine TR und Rome fertigen wird. Außerdem sind die reinen Fertigungskosten nur ein Teil der Kosten, die Entwicklungskosten sind auch nicht zu verachten, vom Design bis hin zu den Masken für die Fertigung, bis alles final läuft. Dazu die Validierungen und diese ganzen Kosten muss man dann eben durch die Anzahl der verkauften Chips teilen (die teuren Modelle müssten mehr dazu beitragen als die Einstiegmodelle, aber so eine Mischkalkulation sollte jedem bekannt sein) und da dürfte Intel mit seinen hohen Marktanteile in den meisten x86 Segmenten klar im Vorteil sein, auch wenn man mehr unterschiedliche Modelle hat als AMD.

Ach und bevor es kommt, für AMD ist das ganze trotzdem stimmig. Denn ihre Chiplet Strategie sorgt dafür, dass sie einen viel größeren Marktbereich mit ein und der selben Fertigung abdecken können.
Eben, sie haben aus der Not eine Tugend gemacht, denn man hätte es sich gar nicht leisten können so viele Bereiche mit eigenen Designs abzudecken, gerade bei den Server CPUs wäre es bei dem minimalen Marktanteil den AMDs vor Erscheinen der ersten EPYC noch hatte, ein enormes Risiko gewesen die hohen Kosten für große eigene Dies für die Server CPUs zu stemmen.
Das ist in Summe ab einem gewissen Volumen nicht die kosteneffizienteste Methode. Aber ohne dieses Volumen eben ganz sicher günstiger, als für alle Marktbereiche ne eigene Produktion hoch zu ziehen.
Heist unterm Strich, JA, die Chiplets lohnen für AMD. Aber NEIN, es ist nicht davon auszugehen, dass sie dadurch günstiger als Intel fertigen.
So ist es und wir werden ja sehen wie die nächste APU Generation aussehen wird, ob diese dann mit I/O Chip und einem CPU und einem GPU Chiplet kommen oder wieder als ein eigens monolithisches Die mit allem drauf. Ich tippe auf letzteres, einfach weil die Kosten dafür viel geringer sind und die APUs inzwischen auch auf ausreichende Stückzahlen kommen dürften. Spätestens wenn die Aussage stimmt, dass das bisherige I/O Die für RYZEN nicht für APUs vorbereitet ist, was Sinn macht um die Fläche kleiner zu halten und Kosten zu sparen, dann wäre sowieso ein neues Die fällig, entweder ein neues I/O Die oder eben ein Die wo man gleich alles integriert und letzteres ermöglich dann hinterher eine kostengünstigere Fertigung der APUs. Dies ist wichtig, man schaue sich nur an in welchem Marktsegment die APUs positioniert sind. Und träumt nicht von einer Monster APU mit HBM, sowas macht Null Sinn, dies wäre ein Produkt für eine extrem kleine Nische. Wie klein diese Nische ist, hat man bei Kaby Lake-G gesehen, den Intel gerade erst EoL gesetzt hat.
 
Eben, sie haben aus der Not eine Tugend gemacht, denn man hätte es sich gar nicht leisten können so viele Bereiche mit eigenen Designs abzudecken, gerade bei den Server CPUs wäre es bei dem minimalen Marktanteil den AMDs vor Erscheinen der ersten EPYC noch hatte, ein enormes Risiko gewesen die hohen Kosten für große eigene Dies für die Server CPUs zu stemmen.[/URL].

Das Intel jetzt auch mit den Chiplets angefangen hat, ist dann jetzt also was?

Die Diskussionen hier laufen sowas von im Kreis, dass ich verstehen kann, warum einige User sagen, dass die Gebetsmühlenartige Predigt von "AMD Jüngern" ihnen auf den Senkel geht. Aber was bleibt uns auch anderes übrig, wenn in jedem zweiten Satz solche Aussagen wie da oben kommen.

"Intel ist billiger und deswegen kaufe ich deren teurere Chips" ergibt keinen Sinn. Es ergibt auch keinen Sinn AMDs Chiplets anzugreifen und dann so zu tun, als wäre Intels Versuch der heilige Gral - vor allem weil Foveros so arg thermisch limitiert ist, dass deren erstes Design auf 1 GHz im Basistakt runtergefahren werden musste.

Intel möchte mit dem Foveros Ansatz auch eine Monster-APU mit HBM rausbringen, aber bei AMD macht das alles überhaupt keinen Sinn weil is ja von AMD.
Der I/O Die wurde auch deswegen auf 14nm belassen, weil er nicht nur günstiger ist, sondern weil die dickeren Leiterbahnen einen besseren SNR für die Speicheranbindung ermöglichen. Genau das will man ja mit so einem I/O Die erreichen und deshalb skalieren die auch so schlecht mit kleineren Strukturbreiten.

Die Armlehneningenieure hier im Forum wissen immer alles besser, warum AMD sich für bestimmte Technologien entschieden hat. Ist alles nur "weil AMD es nicht besser hinbekommt" und nicht, weil es dafür physikalische Gründe gibt oder so.

Bestätigt euch mal schön weiter in eurer Echokammer. Irgendwie muss man ja seine Kaufentscheidungen rechtfertigen. Wenn 14nm+++++ so super ist, müsstet ihr laut eigenen Angaben auch von eventuellen 10nm Produkten von Intel Abstand nehmen. Wenn Intel in 3 Jahren dann mal ihre ersten Desktop Prozessoren auf der Node rausbringt, werden sie AMD schon so ordentlich in Grund und Boden stampfen und dann könnt ihr auf 1080p so richtig zeigen, wie toll euer Gaming-System ist.
 
Zuletzt bearbeitet:
Kann man die CPUs mittlerweile irgendwo kaufen? Weiß das zufaellig jemand?
 
@Holt würde sagen, eine reine Papiererscheinung. Da Intel selber kommuniziert, dass sie Probleme haben alle ihre vorgestellten Produkte zu liefern, kannst sicher noch lange warten bis die Teile für diesen mini Markt kommen. Auch kann man es wohl vergessen, dass so eine 18 Kern CPU alsbald unter 1000€ zu haben sein wird.
p4n0
Warum muss es eine 2066 CPU bei dir sein? Es gibt Alternativen.
 
@DTX xxx
Das is fuer mich die optimale Plattform fuer ne eierlegende Wollmichsau. >6c, >4,5ghz, >128GB ECC, 10G LAN etc...
Geht auf anderen Sockeln leider nicht so guenstig wie hier.
Oder an welche Alternativen dachtest du?
 
Bin ich froh das ich meine Platform hab :) 5 Jahre und immer noch kein Fortschritt^^ (außer bei amd)

Ansonsten nimm s3647 - aber eigentlich..auch nicht mehr, doch lieber zu einem threadripper 3000 greifen, 28 core vs 64 core, 14nm vs 7nm, pcie 3.0 vs 4.0
 
S3647 faellt aus, die CPUs sind VIEL zu teuer wenn man n bisschen Takt braucht. Gebrauchtmarkt quasi nicht existent.
Mit den AMDs habe ich keine Erfahrung im Server/Workstation Umfeld :-( Keine Lust auf Ueberraschungen bei nem ESXi.
 
ECC Speicher wird nicht unterstützt.
Exemplarisch hier 2 Modelle
Ist die die Anzahl der bereitgestellten PCI-E Lanes wichtig?

 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh