Intel: Erwartungen an 14 nm nicht erreicht, 10 und 7 nm mit gebremstem Schaum

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.076
<p><img src="/images/stories/logos-2015/intel3.jpg" alt="intel3" style="margin: 10px; float: left;" />Im Zuge eines Investoren-Meetings hat sich Intel zu den eigenen Erwartungen an die aktuelle 14-nm-FinFET-Fertigung geäußert und gibt einen Ausblick auf die weitere Entwicklung in 10 und 7 nm. Selbstkritisch wirft man aber auch einen Blick zurück auf das Jahr 2014, in dem man davon ausging, dass die 14-nm-Fertigung hinsichtlich der Ausbeute bereits im ersten Halbjahr 2015 mit der vorangegangenen 22-nm-Fertigung aufschließen kann. Dem war und ist noch immer nicht so, was die anhaltende knappe Liefersituation bei den Skylake-Prozessoren unterstreicht.</p>

<a target="_blank" href="images/stories/newsbilder/aschilling/2015/intel-investors-fertigung-1.jpg"><img alt="Intel Investor...<br /><br /><a href="/index.php/news/hardware/prozessoren/37254-intel-erwartungen-an-14-nm-nicht-erreicht-10-und-7-nm-mit-gebremstem-schaum.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Intel vergleicht sich aber mit 14nm LPE und 16nm FF+, denn darin sind die A9 gefertigt. AMD nutzt aber den LPP, der höhere Packdichten ermöglicht, das nur nebenbei.
Aber es ist schon erstaunlich, das Fertigungsoptimum von 14nm war ursprünglich für Mitte 2014 erreicht, dann auf Mitte 2015 verschoben worden und wird voraussichtlich erst 2016 wirklich erreicht (was nicht 100% sicher ist). Das ist eine Verzögerung von 2 Jahren. Und 10nm wird nicht einfacher. Neben den Materialschwierigkeiten, die Intel mit 14nm hat, kommen dann jetzt auch noch aufwendigere Belichtungsverfahren hinzu. Wenn ich jetzt die Situation für 10nm einschätzen würde, würde ich sagen, dass keine Foundry vor 2018 bereit ist für 10nm, eher 2019. Und dann stellt sich immer noch die Kostenfrage. Intel will in 2017 10nm rampen (also Testproduktionen starten), wenn das nicht auch noch mal verschoben werden muss wegen anhaltender Probleme mit 14nm. Wenn alles glatt geht, kann Intel in 2018 dann an Massenproduktion denken und man hätte zum Jahresende 2018 hin Endprodukte.
 
Zuletzt bearbeitet:
Der Fertigungsvorteil ist eben Geschichte, Samsung, TSMC und Globalfoundries werden Intel bei dem 10nm Node überholen!

Xeon Phi, Xeon D,... werden sehr spät kommen und nur sehr schlecht verfügbar sein.
Die Verfügbarkeit von Skylake Quadcores wird noch über Monate sehr schlecht bleiben.
 
@Don: Der Weiterlesen-Link hier im Forum ist kaputt.
 
Intel vergleicht sich aber mit 14nm LPE und 16nm FF+, denn darin sind die A9 gefertigt. AMD nutzt aber den LPP, der höhere Packdichten ermöglicht, das nur nebenbei.
Aber es ist schon erstaunlich, das Fertigungsoptimum von 14nm war ursprünglich für Mitte 2014 erreicht, dann auf Mitte 2015 verschoben worden und wird voraussichtlich erst 2016 wirklich erreicht (was nicht 100% sicher ist). Das ist eine Verzögerung von 2 Jahren.

Gibts da Zahlen darüber? Weil so recht kann ich mir das nicht vorstellen...
Mitte 2014 von einem Fertigungsoptimum von 14nm auszugehen? Wie soll das funktionieren, was hat/hätte Intel denn da fertigen sollen? Mitte 2014 war Haswell-Refresh Zeit. Das ist ca. ein Jahr nach Haswell Release. Selbst wenn da keine Probleme dagewesen wären, hätte Intel bestenfalls doch Mitte 2014 gerade mal Broadwell ausgeliefert. Also den quasi Shrink von Haswell im neuen Prozess.
Ich weis nicht, wie es bei den anderen/vorherigen Prozessen im Detail gelaufen ist, aber das erste Massenprodukt zum in etwa geplanten Vorstellungstermin wäre doch niemals nie mit dem Fertigungsoptimium für eben jenen neuen Prozess unter einen Hut bringbar gewesen?? Mindestens ein Jahr später, OK, also Mitte 2015... Das wäre doch gerade mal die erste Massenfertigung in diesem Prozess. Klar dass da die Ausbeute noch etwas hinterm Berg ist.

Der Fertigungsvorteil ist eben Geschichte, Samsung, TSMC und Globalfoundries werden Intel bei dem 10nm Node überholen!

Xeon Phi, Xeon D,... werden sehr spät kommen und nur sehr schlecht verfügbar sein.
Die Verfügbarkeit von Skylake Quadcores wird noch über Monate sehr schlecht bleiben.

Wie kommst du darauf?
Intel hat Probleme mit 14nm, das steht außer Frage. Die Frage ist doch, was passiert, wenn GF und TSMC mal anfangen für ihre neuen Prozesse endlich mal die Logikdickschiffe vom Band laufen zu lassen? Bis dato hinkt der Vergleich doch schon etwas. Und vor allem auch, wäre der Prozess heute schon so gut bei GF und TSMC, dass man da in Masse auch fette Logik unterbringen kann, warum kommen die neuen GPU Generationen dann wohl frühesten Q1/2016 oder gar erst Q2/2016? Das passt doch nicht unter einen Hut. Zwischen den ersten ausgelieferten Intel CPUs in 14nm und Q2/2016 liegt ne Menge Zeit...

Auch heisen Probleme bei 14nm doch nicht, das man 10nm nicht schon angeht? Das werden doch so oder so wohl andere Fabs sein. Bestenfalls wird man "alte" Fabs umrüsten oder andere Fabs aufrüsten. Aber die Kapazitäten werden doch für den zum Zeitpunkt aktuellen Prozess viel eher gebraucht. Der neue Prozess hat so wohl wenig mit dem alten zutun. Und jede Problemlösung, welche dem alten Prozess hilft, kommt tendenziell auch dem neuen zugute.

PS: auch der Spaß mit der Skylake Verfügbarkeit hinkt. Nicht verfügbar ist der 6700K... Die anderen CPUs? Keine Ahnung. Stichproblenartik habe ich mir vorhin mal ein paar angesehen. Sieht doch gut aus. Von einer einzigen CPU auf die Verfügbarkeit der ganzen Reihe zu schließen halte ich für unsinnig. Zumal doch der "K" auch wieder so ne Sonderlocke ist. Im Business wird der nicht verbaut. Im Serverbereich wird der nicht verbaut sondern der zielt klar auf den privaten Endkundenmarkt ab. Und dort auch eher auf Selbstschrauber... Es wäre zumindest ebenso vorstellbar, dass man einfach zu wenig von diesen Dingern losgetreten hat. Möglicherweise hält man auch künstlich hinterm Berg damit. Bspw. weil man die anfänglichen Berichte über ganz brauchbares OC Potential nicht mit hart ans Limit gefahrenen Prozessoren zerstören will, wo gerade Skylake doch eigentlich ganz gut zu OCen geht im Schnitt. (gerade auch im Vergleich zu Broadwell) Selbst wenn da keine 50MHz OC drin wären, würde das Ding sein eigentliches Soll erfüllen... Nur wäre die Presse bei solchen Vorgehensweisen eher negativ.
 
Zuletzt bearbeitet:
Bringt ja eh nix für den Endkunden, ob nun die CPU in 22nm oder gar in 7nm gefertigt wird.
 
Neja, zumindest den S2011-3 CPUs kommt das sicher zugute. Für acht Core CPUs mit viel viel weniger Verbrauch ist noch ne Menge Luft.
Auch im Ultramobile Bereich ist viel Luft nach oben. Warum im "Surface" mit nem mini Dualcore hantieren, wenn das Teil mit besserer Fertigung viel mehr Leistung haben könnte?

Es gibt genügend Bereiche, da hängt es quasi fast ausschließlich an der Fertigung. Die pro Takt Performance ist ja durchaus OK heute. Aber eben ohne Takt auch keine Performance ;)
 
Und schon haben Wir ein Scheinargument für die künstliche Verknappung.
Aber echt gut verpackt.
 
welche künstliche verknappung?
Intel tut sicher alles um die 14nm fertigung zu verbessern, aber sie haben da eben große probleme!

gibt keinen grudn da etwas künstlich zu verknappen, wenn man starke konkurrenz hat...
 
Neja, zumindest den S2011-3 CPUs kommt das sicher zugute. Für acht Core CPUs mit viel viel weniger Verbrauch ist noch ne Menge Luft.
Auch im Ultramobile Bereich ist viel Luft nach oben. Warum im "Surface" mit nem mini Dualcore hantieren, wenn das Teil mit besserer Fertigung viel mehr Leistung haben könnte?

Soweit ich nachlesen kann, ändert sich die TDP kaum in diesem Bereich.
Beim Quadcore hat sie sich sogar erhöht. Ivy Bridge 3570K 77 Watt TDP in 22nm und Skylake 6700K in 14nm 91 Watt TDP.
Leistungsbezogen liegen sie dann wieder gleich auf bei kleiner Fertigung von Skylake. Hätte Skylake bei den K-Modellen 65 Watt, so könnte man von einem spürbaren Vorteil sprechen der die immer teurer werdende Strukturverkleinerung rechtfertigt.

Es ist einfach so, das man bei der CPU eben kaum etwas ändern kann, nur weil die Strukturbreite verkleinert wird.
Warum Intel dann so viel Geld in die Strukturverkleinerung steckt, ist zu hinterfragen.
Zwar kann Intel dann mehr Chips pro Wafer produzieren, aber die immer teurer werdende Produktion ist dem doch entgegen zu setzten.

Es ist einfach ein Konkurrenzdenken und eine Vorbereitung auf den Wettbewerb. Wenn Samsung und Qualcomm ihre Fertigung so optimieren können, das sie plötzlich Intel überholen, steht Intel eben nicht mehr so gut dar. Das ist zwar zur Zeit egal, da Intel den CPU-Markt dominiert, kann sich aber in Zukunft ändern und wie schnell das gehen kann, wissen wir ja alle. ;)

Also wird weiterhin die Strukturgröße verkleinert um dann, wenn es nötig werden sollte, gewappnet zu sein.
Das wird jetzt natürlich erst mal etwas auf Sparflamme gelegt um Geld zu sparen. Man nennt es wohl eine marktwirtschaftlich effiziente Vorbereitung auf den kommenden Sturm.

Der Sturm wird im Bereich der CPU-GPU-Speicher-Verschmelzung liegen. Nur da nutzt eine Strukturverkleinerung erst richtig für hohe integrierte GPU-Leistung. Wenn AMD mit der Zen-Architektur in den APU-Bereich vordringen kann mit HBM oder HSA als Speicher und eben Artic Island, so wird das für Intel sehr schwer werden, wenn sie bis dahin keine kleine Strukturfertigung hin bekommen.
Den Trend sieht man ja jetzt schon. Alle Konsolen werden von AMD-Hardware angetrieben. Das wird sich in Zukunft auch nicht mehr so schnell ändern, wenn keine gleichwertige Konkurrenz entsteht.

Meine Zukunftsprognose ist wie folgend.
Intel wird sich mit NVIDIA noch mehr zusammenschließen müssen und AMD wird sich mit einem großen Fertiger einen Partner sichern.
Aber das kann sich ja alles anders entwickeln. :cool:
 
Gibts da Zahlen darüber? Weil so recht kann ich mir das nicht vorstellen...
Da musst du dich bei P3Dnow umsehen, hab die Zahlen nicht mehr im Kopf und sind ziemlich in den Threads vergraben. Ich weiss aber, dass LPP geringere Prozessparameter hat als LPE - was auch kein Wunder ist, da man sich bei LPE ja Spielräume lässt um möglichst schnell in Produktion zu kommen - das kann ja dann nicht optimal sein (E steht für Early). Intel hingegen verglich sich damals mit den Parametern von Samsung LPE und TSMC FF, heute vergleicht man sich mit Samsung LPE und TSMC FF+, wobei der jetzige FF+ nicht ganz der FF+ ist, den TSMC vorgesehen hat, dafür gibts den FFC. Ist kompliziert, ich weiss. Da es den A9 sowohl in FF+ als auch in LPE gibt, gab es dort vergleiche (such selber nach Quellen wenns dich interessiert, hab grad keine zur Hand), wobei der FF+ wohl leistungsfähiger ist (welch Wunder), der LPE-A9 aber kleiner. Apple hat sich dafür entschieden, LPE und FF+ weiterlaufen zu lassen, und LPP nicht mehr aufzulegen, 2 FF-Prozesse reichen auch für einen Chip, das versteh ich. LPP und FFC wird es dann beim A10 geben.
Mitte 2014 von einem Fertigungsoptimum von 14nm auszugehen? Wie soll das funktionieren, was hat/hätte Intel denn da fertigen sollen? Mitte 2014 war Haswell-Refresh Zeit. Das ist ca. ein Jahr nach Haswell Release. Selbst wenn da keine Probleme dagewesen wären, hätte Intel bestenfalls doch Mitte 2014 gerade mal Broadwell ausgeliefert. Also den quasi Shrink von Haswell im neuen Prozess.
Ich weis nicht, wie es bei den anderen/vorherigen Prozessen im Detail gelaufen ist, aber das erste Massenprodukt zum in etwa geplanten Vorstellungstermin wäre doch niemals nie mit dem Fertigungsoptimium für eben jenen neuen Prozess unter einen Hut bringbar gewesen?? Mindestens ein Jahr später, OK, also Mitte 2015... Das wäre doch gerade mal die erste Massenfertigung in diesem Prozess. Klar dass da die Ausbeute noch etwas hinterm Berg ist.
Ganz einfach: Tick Tock.
Ursprünglich sollte 22nm Ende 2011 starten und Mitte 2012 sein Optimum erreichen, 14nm sollte Ende 2013 starten und Mitte 2014 sein Optimum erreichen. Jetzt klar? Intel musste schon bei 22nm eine Verzögerung in Kauf nehmen (1/2 Jahr), bei 14nm dann 1 Jahr (allerdings wurden die Y-Broadwells in Risc-Produktion gestartet), bis zum Fertigungsoptimum jetzt 2 Jahre Verzögerung.
Wie kommst du darauf?
Intel hat Probleme mit 14nm, das steht außer Frage. Die Frage ist doch, was passiert, wenn GF und TSMC mal anfangen für ihre neuen Prozesse endlich mal die Logikdickschiffe vom Band laufen zu lassen? Bis dato hinkt der Vergleich doch schon etwas. Und vor allem auch, wäre der Prozess heute schon so gut bei GF und TSMC, dass man da in Masse auch fette Logik unterbringen kann, warum kommen die neuen GPU Generationen dann wohl frühesten Q1/2016 oder gar erst Q2/2016? Das passt doch nicht unter einen Hut. Zwischen den ersten ausgelieferten Intel CPUs in 14nm und Q2/2016 liegt ne Menge Zeit...
Das ist auch so nicht richtig. TSMC und GloFo können sich finanziell nicht wie Intel erlauben, irgendwas für Normalpreise in Risc-Produktion laufen zu lassen. Intel fertigt ja in-House. Das impliziert, dass die Fertigung bei den Foundries laufen muss. Wobei GloFo hier noch keine Werte liefert, aber da Samsung das geschafft hat, wird GloFo das auch schaffen.
Auch heisen Probleme bei 14nm doch nicht, das man 10nm nicht schon angeht? Das werden doch so oder so wohl andere Fabs sein. Bestenfalls wird man "alte" Fabs umrüsten oder andere Fabs aufrüsten. Aber die Kapazitäten werden doch für den zum Zeitpunkt aktuellen Prozess viel eher gebraucht. Der neue Prozess hat so wohl wenig mit dem alten zutun. Und jede Problemlösung, welche dem alten Prozess hilft, kommt tendenziell auch dem neuen zugute.
So hab ich auch mal gedacht, aber das ist Unsinn. Solange die Probleme bei 14nm nicht gelöst sind, macht es überhaupt keinen Sinn, 10nm anzufahren, selbst wenn alles weitere bei 10nm soweit theoretisch läuft, denn die Probleme sind bei Intel ja Materialprobleme und/oder Belichtungsprobleme. Das betrifft 10nm selbstverständlich auch. Und die werden erst weitere Probleme feststellen, wenn sie die 10nm-Produktion rampen, vorher nicht. Ich halte es für unwahrscheinlich dass dann plötzlich alles wieder glatt laufen soll.
PS: auch der Spaß mit der Skylake Verfügbarkeit hinkt. Nicht verfügbar ist der 6700K... Die anderen CPUs? Keine Ahnung. Stichproblenartik habe ich mir vorhin mal ein paar angesehen. Sieht doch gut aus. Von einer einzigen CPU auf die Verfügbarkeit der ganzen Reihe zu schließen halte ich für unsinnig. Zumal doch der "K" auch wieder so ne Sonderlocke ist. Im Business wird der nicht verbaut. Im Serverbereich wird der nicht verbaut sondern der zielt klar auf den privaten Endkundenmarkt ab. Und dort auch eher auf Selbstschrauber... Es wäre zumindest ebenso vorstellbar, dass man einfach zu wenig von diesen Dingern losgetreten hat. Möglicherweise hält man auch künstlich hinterm Berg damit. Bspw. weil man die anfänglichen Berichte über ganz brauchbares OC Potential nicht mit hart ans Limit gefahrenen Prozessoren zerstören will, wo gerade Skylake doch eigentlich ganz gut zu OCen geht im Schnitt. (gerade auch im Vergleich zu Broadwell) Selbst wenn da keine 50MHz OC drin wären, würde das Ding sein eigentliches Soll erfüllen... Nur wäre die Presse bei solchen Vorgehensweisen eher negativ.
Offenbar hat Intel immer noch Probleme bei der Produktion von 14nm über 4 GHz. Die Streuung wird bei dem Takt sehr hoch sein, weswegen viele Dice beim Funktionstest in kleinere Kategorieren sortiert werden und nicht als 6700K klassifiziert werden können. Der 6700 non-K ist problemlos lieferbar, also muss es am Takt liegen. Das wird im Laufe des nächsten Jahres besser werden, markiert aber auch gleichzeitig das Maximum für 14nm. Mehr Kerne bei mehr TDP ja, mehr Takt nein. Ist halt kein echter High-Performance-Prozess mehr, dafür braucht er bei wenig Takt weniger Saft.
 
Zuletzt bearbeitet:
auf sparflamme läuft da sicher NIX, 2016 steht der POWER8+ mit NVLink in 14nm SOI FinFET an.
2017 kommt der POWER9.
2013 hat IBM bei den Server-CPUs ca. 20% des umsatzes erwirtschaftet, man darf sich da von den prozenten nicht täuschen lassen!

bis dahin sollte Intel auch größere 14nm Xeon liefern können, wobei man da durch Bulk bei der fertigung trotzdem einen nachteil hätte!

Qualcomm wird seine fertigung kaum optimieren können, die haben keine fertigung...

CPU-GPU-RAM werden nicht verschmelzen, aber in den RAM werden in zukunft ausführungseinheiten integriert werden.
AMD hat ein patent auf HBM mit einem integriertem FPGA.

AMD: Fastforward Project
https://asc.llnl.gov/fastforward/AMD-FF.pdf

IBM/Micron: Active Memory Cube (Basiert auf HMC)
http://www.cs.utah.edu/wondp/Nair.pdf
Active Memory Cubes: Hans-Meuer-Preis für Forscher des Jülicher Supercomputing-Centers und von IBM | heise online
 
Qualcomm wird seine fertigung kaum optimieren können, die haben keine fertigung...

Selbstverständlich lassen sie etwas fertigen.
Qualcomm beschafft sich mehr Fertigungskapazität für 28-nm-SoCs | c't
Selber zwar nicht, trotzdem gehören sie zu einem großen Auftragsgeber. Ob TSMC oder GloFo gerfragt sind, ist dann egal, wenn Intel keine gleichwertigen Produkte im eigenen Haus abliefern kann.

Übrigens, dein Bäcker um die Ecke backt ja auch keine Brötchen mehr. Der lässt sich auch nur beliefern.

CPU-GPU-RAM werden nicht verschmelzen, aber in den RAM werden in zukunft ausführungseinheiten integriert werden.
AMD hat ein patent auf HBM mit einem integriertem FPGA.

AMD: Erste Details zu Exascale Heterogenious Processor

Ja, die Zeit ändert alles so schnell. ;)
 
Soweit ich nachlesen kann, ändert sich die TDP kaum in diesem Bereich.
Beim Quadcore hat sie sich sogar erhöht. Ivy Bridge 3570K 77 Watt TDP in 22nm und Skylake 6700K in 14nm 91 Watt TDP.
Leistungsbezogen liegen sie dann wieder gleich auf bei kleiner Fertigung von Skylake. Hätte Skylake bei den K-Modellen 65 Watt, so könnte man von einem spürbaren Vorteil sprechen der die immer teurer werdende Strukturverkleinerung rechtfertigt.

Neja, offensichtlich ist doch aber bei den Top Mainstream Quadcores die Sache etwas anders als in den beiden Beispielen, welche ich aufgezählt habe. Obenraus, also wenn es um Taktraten überhalb des normalen geht, wirds für alle Prozesse schwer. Da gibts doch gar keine Ausnahmen... Ob da nun 32nm oder 16nm stehen, ab gewissen Taktraten wird überverhältnismäßig Spannung notwendig und der Verbrauch steigt expotentiell zur Leistungssteigerung. Dazu vergisst du bei deinem Vergleich die GPUs. So eine Skylake IGP ist einfach bedeutend schneller als die Ivy IGP. Bspw. macht es doch Broadwell vor, wie es geht. 65W Einstufung, nicht nennenswert langsamer als Haswell/Skylake und die noch viel fettere IGP samt externem Speicher.
Ich denke aber auch, dass das Interesse von Intel im Mainstream Markt der Quadcore CPUs auf Biegen und Brechen noch viel schneller zu werden, gar nicht so groß ist. Reicht doch imho für jegliche Spielereien.
Da sind andere Märkte durchaus eher an der besseren Fertigung interessiert, wie eben Ultramobile oder die Dickschiffe aus dem Xeon Bereich... In beiden Beispielen bist du klar im Verbrauchslimit und beide Bereiche könnten mehr Performance vertragen, dürfen aber nicht mehr Verbrauchen, also muss Effizienz her und die kommt auch maßgeblich von der Fertigung.

Der Sturm wird im Bereich der CPU-GPU-Speicher-Verschmelzung liegen. Nur da nutzt eine Strukturverkleinerung erst richtig für hohe integrierte GPU-Leistung. Wenn AMD mit der Zen-Architektur in den APU-Bereich vordringen kann mit HBM oder HSA als Speicher und eben Artic Island, so wird das für Intel sehr schwer werden, wenn sie bis dahin keine kleine Strukturfertigung hin bekommen.
Den Trend sieht man ja jetzt schon. Alle Konsolen werden von AMD-Hardware angetrieben. Das wird sich in Zukunft auch nicht mehr so schnell ändern, wenn keine gleichwertige Konkurrenz entsteht.
Gegen eine APU mit HBM Speicher hätte Intel in der Tat aktuell wohl nix gegenzusetzen, denn das eliminiert den bis dato schwer wiegenden Nachteil der mauen Speicherbandbreite bei den APUs von AMD. Die Frage ist eher, ob der Markt sowas benötigt? Auch im IGP Bereich reicht die Performance eigentlich für stino Desktopzeugs aus. Interessant sind da eher generische GPU beschleunigte Anwendungen. Auch Spiele gehören dazu. Allerdings ist das auch wieder kein Bedarf ganzer Massenmarkte im Vergleich. Bspw. interessiert das im Serverbereich wenig bis nichts. Auch spielt nicht jeder mit seinen PCs. Der ganze Office-Businessbereich braucht sowas nicht usw. Mal schauen, was die GT4e mit Skylake bringt... Dann können wir abschätzen, was Intel zu leisten im Stande ist. atm reicht es zumindest um den großen APUs konkurenz zu machen ;)

Ganz einfach: Tick Tock.
Ursprünglich sollte 22nm Ende 2011 starten und Mitte 2012 sein Optimum erreichen, 14nm sollte Ende 2013 starten und Mitte 2014 sein Optimum erreichen. Jetzt klar? Intel musste schon bei 22nm eine Verzögerung in Kauf nehmen (1/2 Jahr), bei 14nm dann 1 Jahr (allerdings wurden die Y-Broadwells in Risc-Produktion gestartet), bis zum Fertigungsoptimum jetzt 2 Jahre Verzögerung.

Neja, was irgendwann ursprünglich mal im Plan war, dürfte doch aber weniger Relevanz haben... Wenn man dieser Aussage folgt, dann zieht sich das Problem ja schon seit Generationen durch. Viel eher sollte man das doch in Relation zu den Generationen sehen?
Tick Tock hat ja bis einschließlich Haswell noch ansatzweise funktioniert. Mittlerweile hat doch Intel wohl sogar offiziell auf 2,5 Jahre gestreckt?? Aber sei es drum. Dass es nicht Endlos 1:1 ohne Probleme weiter geht, war doch vorher schon klar... Um so wichtiger ist es doch, dass es überhaupt noch in einem vergleichsweise schnellen Takt weiter geht. Mit 14nm hats halt nicht hingehauen. Also ist es nun an Intel, da mit den Nachfolgern den Takt wieder aufzunehmen. Ich denke nicht, dass sowas unrealistisch ist. Schließlich werden alle Problemlösungen zumindest nach bissherigem Stand wohl auch bei 10nm helfen.

Das ist auch so nicht richtig. TSMC und GloFo können sich finanziell nicht wie Intel erlauben, irgendwas für Normalpreise in Risc-Produktion laufen zu lassen. Intel fertigt ja in-House. Das impliziert, dass die Fertigung bei den Foundries laufen muss. Wobei GloFo hier noch keine Werte liefert, aber da Samsung das geschafft hat, wird GloFo das auch schaffen.
Na mal schauen, was halt kommen wird... Bis dato halte ich da nix in den Händen um mir ein Urteil bilden zu können ;)

So hab ich auch mal gedacht, aber das ist Unsinn. Solange die Probleme bei 14nm nicht gelöst sind, macht es überhaupt keinen Sinn, 10nm anzufahren, selbst wenn alles weitere bei 10nm soweit theoretisch läuft, denn die Probleme sind bei Intel ja Materialprobleme und/oder Belichtungsprobleme. Das betrifft 10nm selbstverständlich auch. Und die werden erst weitere Probleme feststellen, wenn sie die 10nm-Produktion rampen, vorher nicht. Ich halte es für unwahrscheinlich dass dann plötzlich alles wieder glatt laufen soll.
Ich sprach ja nicht von anfahren... Sondern wollte eher auf die Forschung hinaus. Wenn man heute weis, dass man Material/Belichtungsprobleme mit 14nm hat, dann weis man ebenso, dass dies morgen mit 10nm nicht anders sein wird. -> was liegt also näher auf der Hand, bei der Problemlösung gleich Richtung 10nm oder gar 7nm zu "denken"? Das klingt ja gerade so, als das man bei Intel erst die heutige Fertigung ins Optimum treiben würde und dann erstmal anfängt über den nächsten Schritt nachzudenken. -> nur kann sich so ein Handeln selbst Intel nicht erlauben. Viel eher dürften die Grenzen da doch fließend sein. Wenn die Forschung das Problem unter dem Gesichtspunkt von 10nm angeht, dann wird das wohl auch für 14nm "helfen". Was spricht also dagegen?

Und schon haben Wir ein Scheinargument für die künstliche Verknappung.
Aber echt gut verpackt.

Na was ist es denn sonst? Dass es diese Modelle gibt, steht doch außer Frage... Es fehlt aber an der Anzahl...
Zwischen gar nicht liefern weil Problem und etwas liefern ist der Übergang doch fließend. Wenn die aktuellen Wafer für die hochtaktenden Modelle nicht wirklich taugen, wird man da auch nix liefern oder eben, man fährt das Ding ans absolute Maximum. Ich denke schon, dass man da mehr liefern könnte, aber das erkauft man sich mit Nachteilen, ziemlich sicher sogar. Und sei es nur OC Potential, was die Massen sowieso nicht interessiert. Da sind doch noch ganz andere Themen, Verbrauch/Effizienz, Stabilität usw.
Es wäre sogar denkbar, dass man die aktuellen i5k/i7k Modelle eher vorvalidiert und somit nur die besseren DIEs solch eine CPU werden... Da OC ja sowieso nicht wirklich geht bei den Kleinen. Nur laufen möglicherweise nicht genügend DIEs vom Band, die die selbst gesteckten Spezifikationen erfüllen um solch ein Label zu erhalten? Skylake selbst ist auf die ganze Reihe betrachtet eigentlich gut verfügbar und auch nicht sonderlich teurer als andere Modelle. Eher ist das dem üblichen Preisaufschlag für die neue Reihe geschuldet.
 
Das ist auch so nicht richtig. TSMC und GloFo können sich finanziell nicht wie Intel erlauben, irgendwas für Normalpreise in Risc-Produktion laufen zu lassen.
warum nicht?
ATIC als alleiniger eigentümer von GF könnte wenn sie wollen sogar mehr als Intel investieren!
GF ist zu 100% im besitz vom Emirat Abu Dhabi!
 
Zuletzt bearbeitet:
Soweit ich nachlesen kann, ändert sich die TDP kaum in diesem Bereich.
Beim Quadcore hat sie sich sogar erhöht. Ivy Bridge 3570K 77 Watt TDP in 22nm und Skylake 6700K in 14nm 91 Watt TDP.
Leistungsbezogen liegen sie dann wieder gleich auf bei kleiner Fertigung von Skylake.

Da muss ich dich Korrigieren alter Freund :wink:

Die Hohe TDP angabe liegt nur an der IGP.

In Realtests wo der Stromverbrauch getesttet wurde (ohne die IGP) zeigt sich, das der Skylake gut 40% weniger bei gleichem Takt verbraucht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh