Fertigungsprozess: TSMC läuft Intel nun auch offiziell den Rang ab

Toll. Und du weißt auch, dass man die ganzen Intel-CPUs auch einfach in ein Quad-Sockel-System packen kann, plötzlich alles, was AMD bietet und 320GB/s im Stream hat. Für diese Anwendungen bietet Intel dann übrigens auch noch die Xeon E7 an (momentan noch kein Skylake), die dann auch 1.5TB RAM pro CPU ansprechen.

Und ein TR (wie er vmtl. hauptsächlich zur Anwendung kommt) ist halt im HPC einfach meistens mal eine Ecke langsamer, als ein entsprechender Dual-Sockel-Xeon. Natürlich nicht, wenn man so wie Anandtech einen Compiler nimmt, mit dem man Code erzeugt, der auch auf einem Athlon 64 rennt und dann bei 64 gg. 56 Kerne feststellt, dass man ja immerhin 5-10% schneller ist... Und im Business-Betrieb kommt es halt drauf an.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@flxmmr
Natürlich ist Intels Ökosystem "harmonischer" - so lange man drinsteckt. Das ist wie bei Apple - so lange man nur deren Produkte nutzt, läuft alles wie geschmiert.
Ist das dein ernst? Schonmal ITunes benutzt? :hwluxx: Es gibt wirklich passendere Beispiele als diese Apfelrotze.

- - - Updated - - -

Toll. Und du weißt auch, dass man die ganzen Intel-CPUs auch einfach in ein Quad-Sockel-System packen kann, plötzlich alles, was AMD bietet und 320GB/s im Stream hat.
Dann geh los und bezahl das. Und fortunes bezahlt das gleiche in Epyc...
 
Und nebenan baue ich gleich noch einen Atommeiler, damit ich diese Fülle an Intel-CPUs auch betreiben kann, während bei AMD nur 1~2 davon ausreichen.

TSMC kommt mit ihren 7nm so gut voran, dass erstmal Apple mit seinen brandaktuellen iPhones großflächig bedient wird und AMD keine Angst hatte, die Vegas und Naples anzukündigen.

Eine Behauptung, TSMC's 7nm würden noch gar nicht lauffähig sein, könnte man auch als "grenzdebil" bezeichnen. Das wäre eine komplette Verleugnung der aktuellen Marktsituation. Und nebenbei noch hoffen, dass Intels 10nm auf den Markt kommt, obwohl im Q3.2018 nicht ein einziges, voll funktionsfähiges Intel-10nm-Produkt auf dem Markt ist oder gar vorgestellt wurde. Selbst die popeligen Modems für Apple müssen in 14nm gefertigt werden. :rolleyes:
 
Zuletzt bearbeitet:
Und nebenan baue ich gleich noch einen Atommeiler, damit ich diese Fülle an Intel-CPUs auch betreiben kann, während bei AMD nur 1~2 davon ausreichen.

Sagt dir anandtech oder eigene Tests, wie? Die Tests, die man findet, sind halt alles andere als eindeutig/kompetent durchgeführt und zeigen eigentlich nur, dass es sehr stark auf den Use-Case ankommt, was vorne liegt und wieviel Energie verbraucht wird.

TSMC kommt mit ihren 7nm so gut voran, dass erstmal Apple mit seinen brandaktuellen iPhones großflächig bedient wird und AMD keine Angst hatte, die Vegas und Naples anzukündigen.
Nochmal: was soll AMD sonst sagen? Zur Frage, inwiefern TSMC 7nm außerhalb des ULV-Regimes gegen Intels 14nm abschneidet konnte mir hier immer noch niemand sinnvolle Sachen erzählen, man weiß nur, dass es ganz viel besser ist?!

Eine Behauptung, TSMC's 7nm würden noch gar nicht lauffähig sein, könnte man auch als "grenzdebil" bezeichnen. Das wäre eine komplette Verleugnung der aktuellen Marktsituation. Und nebenbei noch hoffen, dass Intels 10nm auf den Markt kommt, obwohl im Q3.2018 nicht ein einziges, voll funktionsfähiges Intel-10nm-Produkt auf dem Markt ist oder gar vorgestellt wurde.
Der 10nm-i3 ist also nicht funktionsfähig, ok. Ich behaupte ja auch nicht, dass Intel da mehr bringt, oder dass TSMC das nicht schafft, sondern das man im Moment nix weiß und ich mit Prognosen sehr vorsichtig wäre, bevor nicht tatsächlich nennenswerte Sachen aus der Fabrik kommen (also deine GPUs. Oder deine Zens). Und ich weiß nicht, was das "hoffen" damit zu tun hat, das ist mir Alles ziemlich egal. Was ich nicht haben kann, ist das, was du machst (nämlich einfach Fakten durch dumpfes Gebrüll ersetzen).
 
Sagt dir anandtech oder eigene Tests, wie? Die Tests, die man findet, sind halt alles andere als eindeutig/kompetent durchgeführt und zeigen eigentlich nur, dass es sehr stark auf den Use-Case ankommt, was vorne liegt und wieviel Energie verbraucht wird.
Ich kann nur aus eigener Erfahrung berichten. Und daher weiß ich, dass meine Workstation mit 32C/64T von AMD deutlich schneller wäre als die Intel-Workstation. Der AMD 7551P würde vollkommen ausreichen. Der kostet nur 2.200€ und bietet 32C/64T mit 2,0GHz. Der jetzige Xeon 6130 kostet mit 2.100€ nur unwesentlich weniger als der Epyc - hat aber nur halb so viele Kerne. Die Projektfinalisierung skaliert sicher nicht zu 100% - aber ich würde dir nur all zu gern einen Testlauf mit einem meiner Projekte zeigen, wenn ich den Xeon 6130 gg. den Epyc 7551P antreten lassen könnte.

Nochmal: was soll AMD sonst sagen? Zur Frage, inwiefern TSMC 7nm außerhalb des ULV-Regimes gegen Intels 14nm abschneidet konnte mir hier immer noch niemand sinnvolle Sachen erzählen, man weiß nur, dass es ganz viel besser ist?!
Kauf dir ein neues iPhone. Wenn es läuft - dann hat TSMC scheinbar großen Erfolg in 7nm. Wenn keine Meldungen kommen - scheine ich Recht zu haben. Und ich glaube kaum, dass AMD sich den Schuh von Intel anzieht und die 7nm-Produkte ankündigt - um diese dann wie Intel um Jahre zu verschieben.

Der 10nm-i3 ist also nicht funktionsfähig, ok.
Ist er auch nicht. Der ist "Resterampe". Intel hat die DualCore-Wafer genutzt, bei denen zumindest der CPU-Teil noch intakt war und versucht so zu retten, was zu retten ist. Die GPU ist sicherheitshalber bei allen deaktiviert, weil das dann doch zu viel Waferfläche und damit Bruchgefahr bedeutet. Intel teilt ja nirgends mit, wie viel % Ausbeute sie überhaupt hatten. Es gibt ja nur diese i3, sonst nichts. Keine QuadCores, keine mit funktionsfähiger GPU- Die Yield-Rate muss grottenschlecht gewesen sein.

Ich behaupte ja auch nicht, dass Intel da mehr bringt, oder dass TSMC das nicht schafft, sondern das man im Moment nix weiß und ich mit Prognosen sehr vorsichtig wäre, bevor nicht tatsächlich nennenswerte Sachen aus der Fabrik kommen (also deine GPUs. Oder deine Zens). Und ich weiß nicht, was das "hoffen" damit zu tun hat, das ist mir Alles ziemlich egal. Was ich nicht haben kann, ist das, was du machst (nämlich einfach Fakten durch dumpfes Gebrüll ersetzen).
Also wenn TSMC für Apple _MASSEN_ in 7nm produziert - und genau das tut TSMC, wenn nur das Modem bei Intel in 14nm zu massiven Verfügbarkeitsproblemen führt - dann haben sie den 7nm-Prozess im Griff. Und das ist keine Prognose, sondern betriebswirtschaftliches Denken. TSMC hat mit den 7nm für Apples komplexen A12 "Bionic" keine Probleme - dann sind die ersten Samples für AMD, was Vega und Zen angeht, ebenso erfolgreich, nur eben nicht in Masse verfügbar oder noch im Feinschliff, damit erstmal Apple bedient werden kann. Es passt einfach alles zu gut, als dass man da noch Angst haben könnte. Wenn Zen2 Ende Q1.2019 angekündigt und in Q2.2019 verfügbar sein wird, sind das noch mind. 6 Monate, in denen TSMC die 7nm auf Zen hin optimieren kann. Wann Vega in 7nm kommt, weiß ich nicht, aber vermutlich kann man beides zeitgleich laufen lassen. Vega ist mir aber erstmal wurscht. AMD braucht diese 7nm.
 
Zu Vega 20 gibt es eine nette Neuigkeit die GPU-Z beiträgt mit einer patchnotes, das update wurde heute veröffentlicht.

Man beachte die Angaben zu AMD GPUs Vega 20.

833581ec8dfe899ed3efba52a64c4ca5.jpg


Gesendet von meinem RNE-L21 mit Tapatalk
 
Was ist den die Neuigkeit, dass Vega20 von GPUZ unterstützt wird?
 
GPU-Z aktualisiert diese immer sehr zeitnah, was bedeuten könnte Vega 20 wird wohl in den nächsten Wochen auf dem Plan stehen.

Gesendet von meinem RNE-L21 mit Tapatalk
 
Ich kann nur aus eigener Erfahrung berichten. Und daher weiß ich, dass meine Workstation mit 32C/64T von AMD deutlich schneller wäre als die Intel-Workstation. Der AMD 7551P würde vollkommen ausreichen. Der kostet nur 2.200€ und bietet 32C/64T mit 2,0GHz. Der jetzige Xeon 6130 kostet mit 2.100€ nur unwesentlich weniger als der Epyc - hat aber nur halb so viele Kerne. Die Projektfinalisierung skaliert sicher nicht zu 100% - aber ich würde dir nur all zu gern einen Testlauf mit einem meiner Projekte zeigen, wenn ich den Xeon 6130 gg. den Epyc 7551P antreten lassen könnte.
Wären sie schneller, oder sind sie das? Was für Software läuft da? Workstation klingt ja doch so, als ob das FP-Leistung gefragt ist und AVX ist schnell bei Intel ;).

Ist er auch nicht. Der ist "Resterampe". Intel hat die DualCore-Wafer genutzt, bei denen zumindest der CPU-Teil noch intakt war und versucht so zu retten, was zu retten ist. Die GPU ist sicherheitshalber bei allen deaktiviert, weil das dann doch zu viel Waferfläche und damit Bruchgefahr bedeutet.
Intel teilt ja nirgends mit, wie viel % Ausbeute sie überhaupt hatten. Es gibt ja nur diese i3, sonst nichts. Keine QuadCores, keine mit funktionsfähiger GPU- Die Yield-Rate muss grottenschlecht gewesen sein.
Bruchgefahr???????? Die Belichtung funktioniert nicht und die Teile sind ja ohnehin schon klein und noch kleiner, weil eben die kleinste Node, die bisher iwo gefahren wurde. Ich glaube schon, dass Intel es schafft, die Teile auszuschneiden und auf einen Träger zu kleben.

Also wenn TSMC für Apple _MASSEN_ in 7nm produziert - und genau das tut TSMC, wenn nur das Modem bei Intel in 14nm zu massiven Verfügbarkeitsproblemen führt - dann haben sie den 7nm-Prozess im Griff. Und das ist keine Prognose, sondern betriebswirtschaftliches Denken. TSMC hat mit den 7nm für Apples komplexen A12 "Bionic" keine Probleme - dann sind die ersten Samples für AMD, was Vega und Zen angeht, ebenso erfolgreich, nur eben nicht in Masse verfügbar oder noch im Feinschliff, damit erstmal Apple bedient werden kann.
Dir ist schon klar, dass Intel die Chipsatzproduktion auf 14nm umstellen wollte und jetzt CPUs und Chipsätze produzieren muss und daher Kapazitätsprobleme hat??? Was das Modem für das iPhone damit zu tun hat, weiß ich nun wirklich nicht. Und was ist an dem 'A12 "Bionic"' soviel komplexer, als bei anderen ARM-CPUs, der Name?! Wo gibt es Vega und Zen-Samples??!

Es passt einfach alles zu gut, als dass man da noch Angst haben könnte. Wenn Zen2 Ende Q1.2019 angekündigt und in Q2.2019 verfügbar sein wird, sind das noch mind. 6 Monate, in denen TSMC die 7nm auf Zen hin optimieren kann. Wann Vega in 7nm kommt, weiß ich nicht, aber vermutlich kann man beides zeitgleich laufen lassen. Vega ist mir aber erstmal wurscht. AMD braucht diese 7nm.
Kein Ahnung, wovor du Angst haben solltest, aber gut, deine Verbindung zu AMD scheint eine ganz besondere ("AMD braucht diese 7nm"). Ich dachte ja außerdem, dass die Massenproduktion für 7nm-Chips mit signifkanter Größe und Taktrate schon vor der Tür steht (und nicht erst in 6 Monaten beginnt?)
 
Wären sie schneller, oder sind sie das? Was für Software läuft da? Workstation klingt ja doch so, als ob das FP-Leistung gefragt ist und AVX ist schnell bei Intel ;).
Blender 2.79 Performance On Various Intel/AMD CPUs From Ryzen To EPYC - Phoronix
Unter anderem Blender. Und da kann man schön sehen, dass sich bereits ein TR lohnt. Leider können wir keine "Casual CPUs" in den Workstations ordern, da sind immer Server-CPUs drin, warum auch immer. Und so weit ich weiß, profitiert Blender von AVX. Das heißt der Epyc 7601 schlägt mit seinen 32 Kernen den 7980XE mit 18x AVX. Und wenn ich jetzt die Server-CPUs gegenüberstelle, dann stehen bei mir der Xeon 6140 und der Epyc 7551P gegenüber.

Und der Xeon kostet 2.500€ - der Epyc nur 2.200€. Das Ergebnis: ich bin mit AMD schneller und billiger, obwohl Intel mit AVX teurer und langsamer ist. Und sobald Programme zur Anwendung kommen, die kein AVX haben, gehen die 32 Kerne ab wie Lutze.

So, und um mal aufzuzeigen, dass AVX in Benchmarks geil ankommt, im RealLife aber deutlich geringere Auswirkungen haben kann, hat AnandTech mal ein paar Tests laufen lassen:
Enterprise s EPYC Benchmarks: Performance Through the Lens of Competitive Analysis

Bruchgefahr???????? Die Belichtung funktioniert nicht und die Teile sind ja ohnehin schon klein und noch kleiner, weil eben die kleinste Node, die bisher iwo gefahren wurde. Ich glaube schon, dass Intel es schafft, die Teile auszuschneiden und auf einen Träger zu kleben.
Bruchgefahr schon beim Belichten. Dass die Belichtung schief läuft und die Transistoren brechen, bevor sie überhaupt genutzt werden können. Das meinte ich mit Bruchgefahr.

Dir ist schon klar, dass Intel die Chipsatzproduktion auf 14nm umstellen wollte und jetzt CPUs und Chipsätze produzieren muss und daher Kapazitätsprobleme hat??? Was das Modem für das iPhone damit zu tun hat, weiß ich nun wirklich nicht. Und was ist an dem 'A12 "Bionic"' soviel komplexer, als bei anderen ARM-CPUs, der Name?! Wo gibt es Vega und Zen-Samples??!
Du liest nicht viele Nachrichten, oder?

Intel 14 nm: Apple-Modem sorgt fr CPU-Knappheit - Golem.de

Intel stellt gerade alles auf 14nm um und kommt bei 10nm nicht hinterher. Die Knappheit ist also selbst verursacht und wird durch Apple verschärft - denn Apple will gigantische Lieferzahlen auf einen Schlag, zahlt dafür aber auch richtig gut.

Und warum der Apple A12 "Bionic" so viel komplexer als andere ARM-CPUs ist? Meinst du die Frage ernst!? :eek:

Apple nimmt das ARM-Design und krempelt es nahezu komplett um. Oder warum, glaubst du, ist ein Apple A10, der 2016 im iPhone7 auf den Markt kam, schneller als alle anderen aktuellen Smartphone-CPUs, obwohl der A10 nur ein QuadCore ist? Oder warum der Apple A11, der ein 6Core ist, um alle anderen 8Core (und größer) große Kreise zieht? Vom Apple A12 darf noch mehr Leistung erwartet werden.

Die anderen ARM-CPUs auf dem Markt sind ein Witz gegen diese hochkomplexen Recheneinheiten.

Latest mobile CPU benchmarks show Apple two years ahead of the competiton | 9to5Mac

Kein Ahnung, wovor du Angst haben solltest, aber gut, deine Verbindung zu AMD scheint eine ganz besondere ("AMD braucht diese 7nm"). Ich dachte ja außerdem, dass die Massenproduktion für 7nm-Chips mit signifkanter Größe und Taktrate schon vor der Tür steht (und nicht erst in 6 Monaten beginnt?)
Nochmal, weil du es scheinbar mehrfach überlesen hast:
TSMC bedient erstmal Apple. Das bedeutet, dass die Fabriken, die die 7nm anbieten, für Apple arbeiten. Das einzige, was fertig ist, sind die Samples für AMD, damit AMD weiß, wo TSMC steht. Man braucht, Dank Apple, sicherlich nicht vor den Wintermonaten mit einem Anlauf der Produktion für AMD rechnen. Das kennen wir aus den letzten Jahren, dass Apples Nachfrage beinahe alles stillgelegt hat und wenn auch nur ein Zulieferer gebockt hat, es mächtig Stress gab.
 
Zuletzt bearbeitet:
Blender 2.79 Performance On Various Intel/AMD CPUs From Ryzen To EPYC - Phoronix
Unter anderem Blender. Und da kann man schön sehen, dass sich bereits ein TR lohnt. Leider können wir keine "Casual CPUs" in den Workstations ordern, da sind immer Server-CPUs drin, warum auch immer. Und so weit ich weiß, profitiert Blender von AVX. Das heißt der Epyc 7601 schlägt mit seinen 32 Kernen den 7980XE mit 18x AVX. Und wenn ich jetzt die Server-CPUs gegenüberstelle, dann stehen bei mir der Xeon 6140 und der Epyc 7551P gegenüber.

Und der Xeon kostet 2.500€ - der Epyc nur 2.200€. Das Ergebnis: ich bin mit AMD schneller und billiger, obwohl Intel mit AVX teurer und langsamer ist. Und sobald Programme zur Anwendung kommen, die kein AVX haben, gehen die 32 Kerne ab wie Lutze.
Blender-Binary runterladen und laufen lassen ist jetzt nicht der Königsweg zu maximaler Leistung ;). Was passiert, wenn man irgendwas macht, sieht man bei Anandtech...
Vorher waren es übrigens noch tausende €, die Epyc billiger sein soll, nun vergleichen wir plötzlich einen Unterschied von 13% bei 300€ Preisunterschied. Was passiert, wenn man nun 2000€ drauflegt und einfach zwei von den Intel-CPUs kauft, kannst du dir denken.

So, und um mal aufzuzeigen, dass AVX in Benchmarks geil ankommt, im RealLife aber deutlich geringere Auswirkungen haben kann, hat AnandTech mal ein paar Tests laufen lassen:
Enterprise s EPYC Benchmarks: Performance Through the Lens of Competitive Analysis
Anandtech macht allerdings auch iwas sehr seltsam. Schau dir Serve-The-Home und Phoronix an und ein Dual-6138-System ist plötzlich überall 10-50% schneller. Das ganze kostet bei Dell 2500€-Aufpreis (zu dem sicher nicht unterbotenen PVG-Epyc-Preis, falls sie den anbieten würden). Auf das Gesamtsystem runtergebrochen korrespondiert das locker mit dem Mehrpreise.



Bruchgefahr schon beim Belichten. Dass die Belichtung schief läuft und die Transistoren brechen, bevor sie überhaupt genutzt werden können. Das meinte ich mit Bruchgefahr.
Du kannst kein Englisch, oder? break – Wiktionary. Brechen im deutschen ist für mich doch irgendwie mit Krafteinwirkung verbunden: brechen – Wiktionary. Oder willst du behaupten, beim belichten entstehen Spannungen im Fotolack, die den Wafer zerbrechen :hmm:

Du liest nicht viele Nachrichten, oder?

Intel 14 nm: Apple-Modem sorgt fr CPU-Knappheit - Golem.de

Intel stellt gerade alles auf 14nm um und kommt bei 10nm nicht hinterher. Die Knappheit ist also selbst verursacht und wird durch Apple verschärft - denn Apple will gigantische Lieferzahlen auf einen Schlag, zahlt dafür aber auch richtig gut.
Doch. Und der Zusammenhang, der da aufgestellt wird, kommt allein, von dem Journalisten, der will, dass du diese News weiterverbreitest. Und Apples will vermutlich ~120 Mio Modems/Jahr (https://www.cnbc.com/2018/07/31/apple-q3-2018-earnings-iphones-sold.html), Intel verkauft etwa 80 Mio. Prozessoren (AMD Rising: CPU And GPU Market Share Growing Rapidly). Geht man nun davon aus, dass das Modem ~36mm² (einfach 8x5mm²) groß ist (Intel Corp. Is Now Sampling XMM 7560 LTE Modem -- The Motley Fool – hier sieht man es, leider habe ich auf die schnelle keine Größe gefunden), so passen damit ~1500 auf einen 300mm Wafer. Die CPUs sind wohl im Mittel ~120mm² (16x8mm²) groß (Coffee Lake - Microarchitectures - Intel - WikiChip), d.h. auf einen 300mm Wafer gehen 460 Stück. (Alles damit gemacht Die-Per-Wafer Estimator). Der Chipsatz ist sicher größer, gehen vllt. 800 Stück auf einen Wafer. Bisher hatte Intel also Kapazitäten für mindestens 180000 Wafer. Apple will davon jetzt 80000, die Chipsets 100.000. Nunja, die Knappheit ist einfach selbst verursacht, aber was Apple damit ursächlich zu tun hat, weiß ich nicht, die Probleme hätte Intel nicht, wenn 10nm klappt oder die Chipsets auf 22nm behalten hätte.


Und warum der Apple A12 "Bionic" viel komplexer als andere ARM-CPUs ist? Meinst du die Frage ernst!? :eek:

Apple nimmt das ARM-Design und krempelt es nahezu komplett um. Oder warum, glaubst du, ist ein Apple A10, der 2016 im iPhone7 auf den Markt kam, schneller als alle anderen aktuellen Smartphone-CPUs, obwohl der A10 nur ein QuadCore ist? Oder warum der Apple A11, der ein 6Core ist, um alle anderen 8Core (und größer) große Kreise zieht? Vom Apple A12 darf noch mehr Leistung erwartet werden.

Die anderen ARM-CPUs auf dem Markt sind ein Witz gegen diese hochkomplexen Recheneinheiten.

Latest mobile CPU benchmarks show Apple two years ahead of the competiton | 9to5Mac
Und was ist daran nun schwieriger zu produzieren? Das ist einfach die typische Methodik von Demagogen, die Leute ohne Ahnung mit irgendwelchen Fakten füttern, damit bei denen ein Bild entsteht. Das fängt bei dir beim Thementitel an und geht halt bis zu solchen Details.

Nochmal, weil du es scheinbar mehrfach überlesen hast:
TSMC bedient erstmal Apple. Das bedeutet, dass die Fabriken, die die 7nm anbieten, für Apple arbeiten. Das einzige, was fertig ist, sind die Samples für AMD, damit AMD weiß, wo TSMC steht. Man braucht, Dank Apple, sicherlich nicht vor den Wintermonaten mit einem Anlauf der Produktion für AMD rechnen. Das kennen wir aus den letzten Jahren, dass Apples Nachfrage beinahe alles stillgelegt hat und wenn auch nur ein Zulieferer gebockt hat, es mächtig Stress gab.

Ja und fertigt kleine ULV-Chips. Vllt. wartest du einfach mal bis nächstes Jahr und wenn Zen2 dann 4/5GHz packt, darfst du mit stolzgeschwellter Brust überall stehen und sagen "AMD hat es geschafft!"
 
Zuletzt bearbeitet:
Blender-Binary runterladen und laufen lassen ist jetzt nicht der Königsweg zu maximaler Leistung ;). Was passiert, wenn man irgendwas macht, sieht man bei Anandtech...
Vorher waren es übrigens noch tausende €, die Epyc billiger sein soll, nun vergleichen wir plötzlich einen Unterschied von 13% bei 300€ Preisunterschied. Was passiert, wenn man nun 2000€ drauflegt und einfach zwei von den Intel-CPUs kauft, kannst du dir denken.
Ja - aber nur, wenn man ausschließlich AVX-Software nutzt. Sobald man auf "handelsüblich" umschwenkt, versenkt der 32C-Epyc den 18C-Xeon. Und dieses Risiko mit 300€ Aufpreis in Kauf nehmen? Welchen Sinn macht das?

Anandtech macht allerdings auch iwas sehr seltsam. Schau dir Serve-The-Home und Phoronix an und ein Dual-6138-System ist plötzlich überall 10-50% schneller. Das ganze kostet bei Dell 2500€-Aufpreis (zu dem sicher nicht unterbotenen PVG-Epyc-Preis, falls sie den anbieten würden). Auf das Gesamtsystem runtergebrochen korrespondiert das locker mit dem Mehrpreise.
Tja, das Problem ist immer die Betrachtung. Und die Fragestellung, die man zu beantworten versucht. Letztlich ist EPYC noch zu wenig in der echten Praxis vertreten. Wir werfen hier mit theoretischen Tests und Herstelleraussagen um uns. Hier da, dort so. Das war doch schon immer so. Abwarten.

Du kannst kein Englisch, oder? break – Wiktionary. Brechen im deutschen ist für mich doch irgendwie mit Krafteinwirkung verbunden: brechen – Wiktionary. Oder willst du behaupten, beim belichten entstehen Spannungen im Fotolack, die den Wafer zerbrechen :hmm:
Ich weiß zwar nicht, wieso du plötzlich mit Englisch ankommst, aber ich rede von defekten Transistoren, die quasi schon defekt im Silizium entstehen. Die Transistoren sind dann "gebrochen", also durch, hinüber, verendet, unbrauchbar, defekt.

Doch. Und der Zusammenhang, der da aufgestellt wird, kommt allein, von dem Journalisten, der will, dass du diese News weiterverbreitest.
Sorry, aber an deiner Milchmädchenrechnung nehme ich nicht teil. Fakt ist - Intel hat massive 14nm-Probleme, hausgemacht. Und jetzt kommen die Modems oben drauf. Und genau das schreibt doch auch der Autor. Also ist doch alles wahr, was geschrieben wurde. Die angebliche Auslagerung der Chipsatzproduktion von Intel - das basiert auf Gerüchten. Der Umstand, dass Apples Modemproduktion die Verknappung der 14nm-Produktion noch weiter verschärft, ist ein vollkommen logisches Ergebnis von Intels Produktionspolitik.

Und was ist daran nun schwieriger zu produzieren? Das ist einfach die typische Methodik von Demagogen, die Leute ohne Ahnung mit irgendwelchen Fakten füttern, damit bei denen ein Bild entsteht. Das fängt bei dir beim Thementitel an und geht halt bis zu solchen Details.
Und das ist das typische Abwinken von Ahnungslosen. "Kann schon nicht so schlimm sein".

TSMC produziert schon sehr viele Smartphone-Chips auf ARM-Basis. Aber Apple bohrt das Design derart auf, dass es sich um eine Eigenentwicklung handelt. Und der Apple A11 hatte bereits 4,3Mrd. Transistoren - genau so viele wie ein 15-core Xeon Ivy Bridge-EX aus 2014 in 22nm. TSMC presst also, 4 Jahre später, mal eben nahezu die gleiche Transistorzahl in 7nm. Und jetzt kommst du und fragst mal eben, was an dem Nachfolger A12 so kompliziert sei. :rolleyes:

Ja und fertigt kleine ULV-Chips. Vllt. wartest du einfach mal bis nächstes Jahr und wenn Zen2 dann 4/5GHz packt, darfst du mit stolzgeschwellter Brust überall stehen und sagen "AMD hat es geschafft!"
Häh!? Hier geht es um den erfolgreichen Start von 7nm - oder takten Intels kaputte i3 etwa mit 4~5 GHz? ;)
 
Zuletzt bearbeitet:
Ja - aber nur, wenn man ausschließlich AVX-Software nutzt. Sobald man auf "handelsüblich" umschwenkt, versenkt der 32C-Epyc den 18C-Xeon. Und dieses Risiko mit 300€ Aufpreis in Kauf nehmen? Welchen Sinn macht das?
Den gleichen Sinn, in ebendiesen Anwendungen, die evtl. den Hauptworkload ausmachen zugunsten theoretischer Mehrleistung auf das erheblich + an Leistung zu verzichten?

Tja, das Problem ist immer die Betrachtung. Und die Fragestellung, die man zu beantworten versucht. Letztlich ist EPYC noch zu wenig in der echten Praxis vertreten. Wir werfen hier mit theoretischen Tests und Herstelleraussagen um uns. Hier da, dort so. Das war doch schon immer so. Abwarten.

Ich weiß zwar nicht, wieso du plötzlich mit Englisch ankommst, aber ich rede von defekten Transistoren, die quasi schon defekt im Silizium entstehen. Die Transistoren sind dann "gebrochen", also durch, hinüber, verendet, unbrauchbar, defekt.
Brechen für statistische Defekte verwende ich aber in meinem Sprachgebrauch nicht. Wenn man einfach wörtlich Englisch übersetzt, kommt aber exakt das heraus. Du sagst doch nicht wirklich (Autobeispiel): mein Auto ist gebrochen?!!


Fakt ist - Intel hat massive 14nm-Probleme, hausgemacht. Und jetzt kommen die Modems oben drauf.
Die Modems sind da schon seit einiger Zeit drin ;)... Oder willst du behaupten, dass Intel jetzt anfängt, Volumen zu produzieren?

Und das ist das typische Abwinken von Ahnungslosen. "Kann schon nicht so schlimm sein".
Ich weiß weder, was an der Thematik "schlimm" ist, noch wieso die Produktion der 8MB L2-Cache des A12 so sonderlich komplex sein soll? Von der neuen Node einmal abgesehen. Klar der Aufbau ist komplex (GPU, CPU, irgendwelche Beschleuniger), aber die Produktion?

TSMC produziert schon sehr viele Smartphone-Chips auf ARM-Basis. Aber Apple bohrt das Design derart auf, dass es sich um eine Eigenentwicklung handelt. Und der Apple A11 hatte bereits 4,3Mrd. Transistoren - genau so viele wie ein 15-core Xeon Ivy Bridge-EX aus 2014 in 22nm. TSMC presst also, 4 Jahre später, mal eben nahezu die gleiche Transistorzahl in 7nm. Und jetzt kommst du und fragst mal eben, was an dem Nachfolger A12 so kompliziert sei. :rolleyes:
Ich Frage, was an der Produktion so komplex ist (ggü. anderen 7nm-Chips?)? Dass ein Chip, der 6 Kerne, Grafikkerne, Videobeschleuniger, etc enthält vom Design komplex ist, glaube ich dir ja. Dass man den so fürs Handy nur in 7nm umsetzen kann auch. Nur der Zusammenhang fehlt halt (wie so oft bei dir).

Häh!? Hier geht es um den erfolgreichen Start von 7nm - oder takten Intels kaputte i3 etwa mit 4~5 GHz? ;)
Nö. Das Teil ist auch nicht kaputt und läuft – aber eben nicht so, wie das, was man von Intel als Performance-Produkt gewöhnt ist... Und während es TSMC ziemlich egal ist, wie der Yield für 4GHz aussieht, ist es das bei Intel nicht. Weil das für die Produktpalette nötig ist. Schon mal darüber nachgedacht?
 
Den gleichen Sinn, in ebendiesen Anwendungen, die evtl. den Hauptworkload ausmachen zugunsten theoretischer Mehrleistung auf das erheblich + an Leistung zu verzichten?
Von welchem "erhebliche + an Leistung" bei Intel redest du? Intel ist bei AVX-Anwendungen gleichauf, weil es Dank der AVX-Leistung die zahlreichen Kerne ausgleichen kann. Ansonsten kostet der Intel noch immer mehr.

Die Modems sind da schon seit einiger Zeit drin ;)... Oder willst du behaupten, dass Intel jetzt anfängt, Volumen zu produzieren?
Was meinst du mit "seit einiger Zeit"? Die Entscheidung ist erst Mitte/Ende Juli 2018 gefallen. Also vor nicht'mal zwei Monaten. Und jetzt kommt Intels 14nm-Knappheit zusammen mit Apples neuen iPhones, die ab 21.09.2018 verkauft werden. Also quasi zwei Monate, um die Massenbestellung von Apple zu bedienen, da die ungern zum Marktstart einen Paperlaunch bringen.

Qualcomm fliegt raus: Apple setzt auf Modems von Intel bei neuen iPhones

Ich weiß weder, was an der Thematik "schlimm" ist, noch wieso die Produktion der 8MB L2-Cache des A12 so sonderlich komplex sein soll? Von der neuen Node einmal abgesehen. Klar der Aufbau ist komplex (GPU, CPU, irgendwelche Beschleuniger), aber die Produktion?
Nochmal - eine komplett neue APU von der Größe eines Intel 15-core Xeon Ivy Bridge-EX aus 2014 wird von TSMC nun in 7nm gepresst. Das hat vorher noch keiner gemacht und in Massenproduktion geschafft. Aber für dich ist das ja alles easy. Wieso sitzt du eigentlich nicht in der Halbleiterfertigung, wenn das für dich alles "nicht so schlimm" ist? :d

Ich Frage, was an der Produktion so komplex ist (ggü. anderen 7nm-Chips?)? Dass ein Chip, der 6 Kerne, Grafikkerne, Videobeschleuniger, etc enthält vom Design komplex ist, glaube ich dir ja. Dass man den so fürs Handy nur in 7nm umsetzen kann auch. Nur der Zusammenhang fehlt halt (wie so oft bei dir).
Genau, das Design ist komplex - die Produktion eines komlpexen Systems wiederum ist es dann aber nicht? Auch wenn das die erste 7nm-CPU ihrer Art ist und das zuvor noch kein anderer geschafft hat? Interessante, vollkommen surreale Logik.

Deine persönlichen Angriffe lasse ich jetzt mal unbeachtet. Auf dem Niveau kannst du alleine weiterspielen. :rolleyes:

Nö. Das Teil ist auch nicht kaputt und läuft – aber eben nicht so, wie das, was man von Intel als Performance-Produkt gewöhnt ist... Und während es TSMC ziemlich egal ist, wie der Yield für 4GHz aussieht, ist es das bei Intel nicht. Weil das für die Produktpalette nötig ist. Schon mal darüber nachgedacht?
Das Teil ist kaputt, sonst wäre die GPU aktiv. Intel sagt doch selbst, dass die GPUs defekt sind. Aber du weißt es besser als der Hersteller? ;)

Scheinbar war der Yield für Intel doch egal, sonst würde man die defekten i3 gar nicht erst auf den Markt bringen. Intel geht es nur darum, die Verluste aus der ersten 10nm-Charge nicht komplett auf den Müll wandern zu lassen. Deine proklamierten "Qualitätsansprüche" von Intel sind damit obsolet.
 
Von welchem "erhebliche + an Leistung" bei Intel redest du? Intel ist bei AVX-Anwendungen gleichauf, weil es Dank der AVX-Leistung die zahlreichen Kerne ausgleichen kann. Ansonsten kostet der Intel noch immer mehr.
https://www.servethehome.com/wp-content/uploads/2018/07/AMD-EPYC-7551P-GROMACS-STH-Small-Benchmark.jpg
10-20% (vmtl. ohne Intel/PGI/NAG-Compiler). Und wenn euch die Rechenleistung so enorm wichtig ist, sind 10-20% viel, v.a. für 0 Aufpreis im Gesamtsystem (wo 300€ mehr nicht mehr ins Gewicht fallen werden...). Dafür dass das Teil weniger Kerne hat schon nicht schlecht. Was das bedeutet, wenn man ähnlich viele Kerne hat, kannst du dir dann denken ;) (und ja, das ist dann teuer). Braucht man nämlich plötzlich 1 Server weniger...
Gut, bei Workstations (ich weiß auch immer noch nicht, um was es geht, TR ist nämlich manchmal sicher eine gute Wahl – für Simulation und Wald&Wiesen-Server nicht) geht das nicht, aber wenn ihr alle 2a 30 Workstations @ 15000€ einkauft und die für Simulationen braucht, würde ich eurem Admin mal vorschlagen, einfach einen Computecluster einzurichten. Ist vmtl. extrem viel billiger. V.a. Wenn die Menschen eh da sind. Hast du den Admins/Nutzern eigentlich auch erzählt, dass die Nutzer so 20-30% länger auf ihre ganzen VBA-Skripte warten dürfen?


Was meinst du mit "seit einiger Zeit"? Die Entscheidung ist erst Mitte/Ende Juli 2018 gefallen. Also vor nicht'mal zwei Monaten. Und jetzt kommt Intels 14nm-Knappheit zusammen mit Apples neuen iPhones, die ab 21.09.2018 verkauft werden. Also quasi zwei Monate, um die Massenbestellung von Apple zu bedienen, da die ungern zum Marktstart einen Paperlaunch bringen.

Qualcomm fliegt raus: Apple setzt auf Modems von Intel bei neuen iPhones
Jo, die Entscheidung wurde da vom Qualcomm-Vorstand auf Aktionärsnachfrage "veröffentlicht". Du solltest Spin-Doktor werden, da kommt deine Methode gut!

Nochmal - eine komplett neue APU von der Größe eines Intel 15-core Xeon Ivy Bridge-EX aus 2014 wird von TSMC nun in 7nm gepresst. Das hat vorher noch keiner gemacht und in Massenproduktion geschafft. Aber für dich ist das ja alles easy. Wieso sitzt du eigentlich nicht in der Halbleiterfertigung, wenn das für dich alles "nicht so schlimm" ist? :d

Genau, das Design ist komplex - die Produktion eines komlpexen Systems wiederum ist es dann aber nicht? Auch wenn das die erste 7nm-CPU ihrer Art ist und das zuvor noch kein anderer geschafft hat? Interessante, vollkommen surreale Logik.
Ok nochmal von Anfang an: die neue Node ist natürlich komplexer. Der A11 ist auch komplexer (weil er sehr viele Teile auf einem Chip integriert) als andere ARMs. Aber das hat 0 mit der Fähigkeit von TSMC zu tun, auch größere Chips herzustellen und diese höher zu takten (wobei ich zugeben muss, dass der A11 schon recht groß ist – etwa so wie ein GT2 von Intel ;)). Wird der Chip jetzt doppelt so groß, wird der Yield sicher auch nicht besser.

Das Teil ist kaputt, sonst wäre die GPU aktiv. Intel sagt doch selbst, dass die GPUs defekt sind. Aber du weißt es besser als der Hersteller? ;)
Jo... Vmtl. ist der Yield sehr gering. Und wäre noch geringer, wenn man die GPU (die einen Großteil des Dies einnimmt) mitbetreiben will. Warum nur die GPU defekt sein und das am Prozess liegen soll, weiß ich nicht. Verwendet die andere Transistoren? Und wenn man das eh nur auf dem Papier launchen will: warum sollte man 2 SKUs rausbringen?


Scheinbar war der Yield für Intel doch egal, sonst würde man die defekten i3 gar nicht erst auf den Markt bringen. Intel geht es nur darum, die Verluste aus der ersten 10nm-Charge nicht komplett auf den Müll wandern zu lassen. Deine proklamierten "Qualitätsansprüche" von Intel sind damit obsolet.

Häh? Ich glaube Intel war da in erster Linie wichtig, als erster diese Packungsdichte am Markt zu haben. Wirtschaftlich ist das wohl egal. Und warum Intel jetzt genau den Prozess eingestellt hat, weiß niemand, vmtl. weil sie Ihre Ziele nicht erreicht haben – und ein Ziel ist sicher Takt, eine CPU mit Turbo < 3.5GHz juckt am Desktop niemanden mehr. TSMC darf allerdings erstmal zeigen, dass sie bei vergleichbaren Produkten besser sind, um Intel den Rang abzulaufen ;)
 
Zuletzt bearbeitet:
https://www.servethehome.com/wp-content/uploads/2018/07/AMD-EPYC-7551P-GROMACS-STH-Small-Benchmark.jpg
10-20% (vmtl. ohne Intel/PGI/NAG-Compiler). Und wenn euch die Rechenleistung so enorm wichtig ist, sind 10-20% viel, v.a. für 0 Aufpreis im Gesamtsystem (wo 300€ mehr nicht mehr ins Gewicht fallen werden...). Dafür dass das Teil weniger Kerne hat schon nicht schlecht. Was das bedeutet, wenn man ähnlich viele Kerne hat, kannst du dir dann denken ;) (und ja, das ist dann teuer). Braucht man nämlich plötzlich 1 Server weniger...
Ist dir in deinem Benchmark eigentlich schonmal aufgefallen, dass der Xeon 6136 mit seinen 12x3GHz schneller ist, als der Xeon 6138 mit seinen 20x2GHz.

Und jetzt mal zurück zur Realität: was bringen mit die Ergebnisse von GROMAC - einer molekulardynamischen Simulation - im Realbetrieb einer Workstation, in der Programme wie Blender, Premiere & Co. Anwendung finden?

Jo, die Entscheidung wurde da vom Qualcomm-Vorstand auf Aktionärsnachfrage "veröffentlicht". Du solltest Spin-Doktor werden, da kommt deine Methode gut!
Soll dass dein "Konter" darauf sein, dass ich Recht habe? Diskreditierung ist dein letztes, probates Mittel, hm? :rolleyes:

Ok nochmal von Anfang an: die neue Node ist natürlich komplexer. Der A11 ist auch komplexer (weil er sehr viele Teile auf einem Chip integriert) als andere ARMs. Aber das hat 0 mit der Fähigkeit von TSMC zu tun, auch größere Chips herzustellen und diese höher zu takten (wobei ich zugeben muss, dass der A11 schon recht groß ist – etwa so wie ein GT2 von Intel ;)). Wird der Chip jetzt doppelt so groß, wird der Yield sicher auch nicht besser.
Na, langsam hast du es. Wenn du es jetzt noch schaffst, die Größe der A12-CPU, die größer als der A11 ist (!), auf 7nm runterzubrechen, dann bist du endlich angekommen. TSMC schafft quasi jetzt schon in Massenproduktion, was Intel nicht'mal ansatzweise schafft.

Jo... Vmtl. ist der Yield sehr gering. Und wäre noch geringer, wenn man die GPU (die einen Großteil des Dies einnimmt) mitbetreiben will. Warum nur die GPU defekt sein und das am Prozess liegen soll, weiß ich nicht. Verwendet die andere Transistoren? Und wenn man das eh nur auf dem Papier launchen will: warum sollte man 2 SKUs rausbringen?
Das musst du alles Intel fragen. Ich weiß nur, dass Intels Probleme mit 10nm massiv sind. So massiv, dass die Yield-Rate für'n Popo ist und jenes Silizium, dass nicht defekt ist, keine besonderen Taktraten schafft. Im direkten Vergleich zwischen i3-8121U und i3-8130U sind die Basistaktraten identisch - beim Boost liegt der CannonLake aber 200MHz niedriger.

comments_outline_white

Übrigens ist die zweite 10nm-CPU von Intel, der m3-8114Y, nirgends anzutreffen oder zu kaufen.

Häh? Ich glaube Intel war da in erster Linie wichtig, als erster diese Packungsdichte am Markt zu haben. Wirtschaftlich ist das wohl egal. Und warum Intel jetzt genau den Prozess eingestellt hat, weiß niemand, vmtl. weil sie Ihre Ziele nicht erreicht haben – und ein Ziel ist sicher Takt, eine CPU mit Turbo < 3.5GHz juckt am Desktop niemanden mehr. TSMC darf allerdings erstmal zeigen, dass sie bei vergleichbaren Produkten besser sind, um Intel den Rang abzulaufen ;)
Natürlich weiß das niemand - weil Intel das eigene Versagen nicht an die große Glocke hängt. Aber die Gründe sind offensichtlich:
Kein i5, kein i7, kein i9. Nur ein i3 und bei dem ist die GPU futsch. Dann hat Intel ihm auch noch die SGX gestrichen. Und AVX-512 fehlt wohl auch.
Ergo hat Intel bis jetzt nur kastrierten, teildefekten Kram in 10nm auf den Markt losgelassen.

TSMC hingegen liefert den Apple A12 gerade in Massenserie in den Markt.

Insofern haben sie bereits Intel den Rang abgelaufen. Intel ist jetzt hinten dran, haben die doch quasi kein massentaugliches, 100% funktionsfähiges Silizium in 10nm auf dem Markt.
 
Ist dir in deinem Benchmark eigentlich schonmal aufgefallen, dass der Xeon 6136 mit seinen 12x3GHz schneller ist, als der Xeon 6138 mit seinen 20x2GHz.

Und jetzt mal zurück zur Realität: was bringen mit die Ergebnisse von GROMAC - einer molekulardynamischen Simulation - im Realbetrieb einer Workstation, in der Programme wie Blender, Premiere & Co. Anwendung finden?
Ja, das Problem mit den Benchmarks... Kommt halt in den meisten Fällen (außer Rendern !!! 11elf) noch auf tausend andere Dinge an, außer auf die Kerne. Unter anderem zum Beispiel auf die Größe des Problems. Und wenn man die nicht kennt, ist dein mehr Kerne=mehr Leistung eben vollkommen meschugge, weils eben einfach nicht skaliert (v.a. wenn dann noch der Takt sinkt, mehrere Simulationen sind je nach Lizenz auch nicht so einfach). Und bist jetzt ist das Gromacs bei STH neben 1000-Renderbenchmarks der einzige realismus-und-nicht-render-bezogene Benchmark, den ich neben den bei Phoronix finden konnte. Man sieht, dass der Threadripper tlw. gegen einen Xeon 6138 klar verliert, manchmal ist er marginal schneller (und dass trotz der doppelten Renderleistung) – eigentlich sieht man nur, dass man sehr genau wissen muss, was man tut, das weißt aber weder du, noch die Benchmarker. Und es ist ihnen auch egal, Klicks gibt's trotzdem.

Und in der Realität: ich weiß nicht, ob du Ahnung hast, was wirklich Rechenleistung fordert und womit Menschen arbeiten, aber ich glaube eher nicht. So eine Molekulardynamiksimulation dient nicht nur als Benchmark :lol:. Bisher hast du noch irgendwas von Personalbüro, unterschiedlichen Fachabteilungen, einer Technikabteilung und 15000€ Workstation gefaselt, und jetzt kommst du mit Blender und Premiere als einzige Anwendungen an, die für dich im Realbetrieb einer Workstation vorkommen :hmm:. Hat sich bisher iwie sehr nach Industrie angehört und nicht nach 100Mann-Medien-Betrieb mit extrem komischen Leuten. Denn wenn Ihr wirklich Blender und Premiere nutzt: 1eres kann man wunderbar auf einer Serverfarm betreiben (mit Batchsystem), 2teres profitiert vmtl. im Arbeitsbetrieb auch nicht wesentlich von 32-Kernen, geschweige denn einem Update auf 64. Praktisch glaube ich aber, dass du einfach rein gar nix mit solchen Rechnern zu tun hast (oder du arbeitest beim BND und das ist deine fürchterliche Tarnidentität)

Soll dass dein "Konter" darauf sein, dass ich Recht habe? Diskreditierung ist dein letztes, probates Mittel, hm? :rolleyes:
Nö, dass soll der Hinweise sein, dass niemand, außer clickbaitenden Journalisten die These aufstellt, dass die Produktionsengpässe für 14nm bei Intel ungeplant war. Wenn der Qualcomm-Vorstand 2 Monate vor Produktlaunch auf der PK (auf Nachfrage!) bekanntgibt, den Kunden verloren zu haben, war der vmtl. schon vorher weg. Und dass 10nm für Intel nicht klappt, war schon länger klar (also so seit einem halben Jahr ;)). Insofern haben die das wohl sehr bewusst in Kauf genommen.


Na, langsam hast du es. Wenn du es jetzt noch schaffst, die Größe der A12-CPU, die größer als der A11 ist (!), auf 7nm runterzubrechen, dann bist du endlich angekommen. TSMC schafft quasi jetzt schon in Massenproduktion, was Intel nicht'mal ansatzweise schafft.
Jo, die schaffen das, was Intel auch geschafft hat in Masse. Ob das dann bei den GPUs und bei Taktraten >3.5GHz auch noch Vorteile ggü. 14nm bringt, weiß noch niemand, genauso wie niemand weiß, wie hoch die Yields bei Intel waren und warum das dazu führte, das Projekt 10nm zu verschieben. Ich kann auch einfach behaupten, dass das bei Intel für deren Produktpalette (immobile Xeons, hoher Takt, große Abwärmeentwicklung, Notebook-SOCs (die immer noch erheblich höher takten und mehr Strom brauchen, als ein A12) nicht sinnvoll war, den 10nm-Prozess fortzuführen, weil es einfach keine Vorteile bringt, außer weniger Silizium zu erfordern (was durch schlechte Yields aufgefressen wird).

Das musst du alles Intel fragen. Ich weiß nur, dass Intels Probleme mit 10nm massiv sind. So massiv, dass die Yield-Rate für'n Popo ist und jenes Silizium, dass nicht defekt ist, keine besonderen Taktraten schafft. Im direkten Vergleich zwischen i3-8121U und i3-8130U sind die Basistaktraten identisch - beim Boost liegt der CannonLake aber 200MHz niedriger.

comments_outline_white

Übrigens ist die zweite 10nm-CPU von Intel, der m3-8114Y, nirgends anzutreffen oder zu kaufen.


Natürlich weiß das niemand - weil Intel das eigene Versagen nicht an die große Glocke hängt. Aber die Gründe sind offensichtlich:
Kein i5, kein i7, kein i9. Nur ein i3 und bei dem ist die GPU futsch. Dann hat Intel ihm auch noch die SGX gestrichen. Und AVX-512 fehlt wohl auch.
Ergo hat Intel bis jetzt nur kastrierten, teildefekten Kram in 10nm auf den Markt losgelassen.
Siehe oben ;). In dem Heise-Artikel steht auch deutlich, dass der i3 wohl nur eine PR-Aktion war. Ansonsten hab' ich einen Absatz vorher schon alles gesagt. Wie das dann für die Konkurrenzprodukte für Intel aussieht, weiß auch niemand (und TSMC hängt das sicher auch nicht an die große Glocke).


TSMC hingegen liefert den Apple A12 gerade in Massenserie in den Markt.

Insofern haben sie bereits Intel den Rang abgelaufen. Intel ist jetzt hinten dran, haben die doch quasi kein massentaugliches, 100% funktionsfähiges Silizium in 10nm auf dem Markt.
So richtig im Wettbewerb steht der A12 aber nun nicht mit Intels Produkten, oder hab' ich die großen Intel Ambitionen der letzten 1-2a auf Handys verpasst?
 
TSMC schafft quasi jetzt schon in Massenproduktion, was Intel nicht'mal ansatzweise schafft.

Du hast es offensichtlich immer noch nicht begriffen.

Intel könnte locker liefern wenn Sie sich mit der geringen Packdichte von TSMC zufrieden geben würden. Das möchte man aber nicht weil es nicht effektiv ist.
 
DAS wage ich jetzt wiederum auch zu bezweifeln. Nur ist daher die gegenteilige Annahme nicht automatisch richtig. Aber heutzutage differenzierte, nicht-extreme Positionen einzunehmen ist nach wie vor für viele Menschen schwer.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh