Ist dir in deinem Benchmark eigentlich schonmal aufgefallen, dass der Xeon 6136 mit seinen 12x3GHz schneller ist, als der Xeon 6138 mit seinen 20x2GHz.
Und jetzt mal zurück zur Realität: was bringen mit die Ergebnisse von GROMAC - einer molekulardynamischen Simulation - im Realbetrieb einer Workstation, in der Programme wie Blender, Premiere & Co. Anwendung finden?
Ja, das Problem mit den Benchmarks... Kommt halt in den meisten Fällen (außer Rendern !!! 11elf) noch auf tausend andere Dinge an, außer auf die Kerne. Unter anderem zum Beispiel auf die Größe des Problems. Und wenn man die nicht kennt, ist dein mehr Kerne=mehr Leistung eben vollkommen meschugge, weils eben einfach nicht skaliert (v.a. wenn dann noch der Takt sinkt, mehrere Simulationen sind je nach Lizenz auch nicht so einfach). Und bist jetzt ist das Gromacs bei STH neben 1000-Renderbenchmarks der einzige realismus-und-nicht-render-bezogene Benchmark, den ich neben den
bei Phoronix finden konnte. Man sieht, dass der Threadripper tlw. gegen einen Xeon 6138 klar verliert, manchmal ist er marginal schneller (und dass trotz der doppelten Renderleistung) – eigentlich sieht man nur, dass man sehr genau wissen muss, was man tut, das weißt aber weder du, noch die Benchmarker. Und es ist ihnen auch egal, Klicks gibt's trotzdem.
Und in der Realität: ich weiß nicht, ob du Ahnung hast, was wirklich Rechenleistung fordert und womit Menschen arbeiten, aber ich glaube eher nicht. So eine Molekulardynamiksimulation dient nicht nur als Benchmark
. Bisher hast du noch irgendwas von Personalbüro, unterschiedlichen Fachabteilungen, einer Technikabteilung und 15000€ Workstation gefaselt, und jetzt kommst du mit Blender und Premiere als einzige Anwendungen an, die für dich im Realbetrieb einer Workstation vorkommen
. Hat sich bisher iwie sehr nach Industrie angehört und nicht nach 100Mann-Medien-Betrieb mit extrem komischen Leuten. Denn wenn Ihr wirklich Blender und Premiere nutzt: 1eres kann man wunderbar auf einer Serverfarm betreiben (mit Batchsystem), 2teres profitiert vmtl. im Arbeitsbetrieb auch nicht wesentlich von 32-Kernen, geschweige denn einem Update auf 64. Praktisch glaube ich aber, dass du einfach rein gar nix mit solchen Rechnern zu tun hast (oder du arbeitest beim BND und das ist deine fürchterliche Tarnidentität)
Soll dass dein "Konter" darauf sein, dass ich Recht habe? Diskreditierung ist dein letztes, probates Mittel, hm?
Nö, dass soll der Hinweise sein, dass niemand, außer clickbaitenden Journalisten die These aufstellt, dass die Produktionsengpässe für 14nm bei Intel ungeplant war. Wenn der Qualcomm-Vorstand 2 Monate vor Produktlaunch auf der PK (auf Nachfrage!) bekanntgibt, den Kunden verloren zu haben, war der vmtl. schon vorher weg. Und dass 10nm für Intel nicht klappt, war schon länger klar (also so seit einem halben Jahr
). Insofern haben die das wohl sehr bewusst in Kauf genommen.
Na, langsam hast du es. Wenn du es jetzt noch schaffst, die Größe der A12-CPU, die größer als der A11 ist (!), auf 7nm runterzubrechen, dann bist du endlich angekommen. TSMC schafft quasi jetzt schon in Massenproduktion, was Intel nicht'mal ansatzweise schafft.
Jo, die schaffen das, was Intel auch geschafft hat in Masse. Ob das dann bei den GPUs und bei Taktraten >3.5GHz auch noch Vorteile ggü. 14nm bringt, weiß noch niemand, genauso wie niemand weiß, wie hoch die Yields bei Intel waren und warum das dazu führte, das Projekt 10nm zu verschieben. Ich kann auch einfach behaupten, dass das bei Intel für deren Produktpalette (immobile Xeons, hoher Takt, große Abwärmeentwicklung, Notebook-SOCs (die immer noch erheblich höher takten und mehr Strom brauchen, als ein A12) nicht sinnvoll war, den 10nm-Prozess fortzuführen, weil es einfach keine Vorteile bringt, außer weniger Silizium zu erfordern (was durch schlechte Yields aufgefressen wird).
Das musst du alles Intel fragen. Ich weiß nur, dass Intels Probleme mit 10nm massiv sind. So massiv, dass die Yield-Rate für'n Popo ist und jenes Silizium, dass nicht defekt ist, keine besonderen Taktraten schafft. Im direkten Vergleich zwischen i3-8121U und i3-8130U sind die Basistaktraten identisch - beim Boost liegt der CannonLake aber 200MHz niedriger.
comments_outline_white
Übrigens ist die zweite 10nm-CPU von Intel, der m3-8114Y,
nirgends anzutreffen oder zu kaufen.
Natürlich weiß das niemand - weil Intel das eigene Versagen nicht an die große Glocke hängt. Aber die Gründe sind offensichtlich:
Kein i5, kein i7, kein i9. Nur
ein i3 und bei dem ist die GPU futsch. Dann hat Intel ihm auch noch die SGX gestrichen.
Und AVX-512 fehlt wohl auch.
Ergo hat Intel bis jetzt nur kastrierten, teildefekten Kram in 10nm auf den Markt losgelassen.
Siehe oben
. In dem Heise-Artikel steht auch deutlich, dass der i3 wohl nur eine PR-Aktion war. Ansonsten hab' ich einen Absatz vorher schon alles gesagt. Wie das dann für die Konkurrenzprodukte für Intel aussieht, weiß auch niemand (und TSMC hängt das sicher auch nicht an die große Glocke).
TSMC hingegen liefert den Apple A12 gerade in Massenserie in den Markt.
Insofern haben sie bereits Intel den Rang abgelaufen. Intel ist jetzt hinten dran, haben die doch quasi kein massentaugliches, 100% funktionsfähiges Silizium in 10nm auf dem Markt.
So richtig im Wettbewerb steht der A12 aber nun nicht mit Intels Produkten, oder hab' ich die großen Intel Ambitionen der letzten 1-2a auf Handys verpasst?