Forschungszentrum CERN bestätigt Zen-Serverprozessoren mit 32 Kernen

Es wäre gut, wenn Zen in diese Bereiche hineinkommen würde, allerdings hängt das auch stark von der Fertigung ab. Ich weiß nicht, inwiefern Samsung solch hohen Frequenzbereiche bei der Entwicklung ihres Prozesses vorgesehen hat. (...) Natürlich kann AMD das ganze durch eine entsprechende Architektur beeinflussen, aber optimal dürfte das nicht sein. Taktfrequenzen über 4GHz sehe ich daher unabhängig von der Kernzahl eher kritisch. Wenn man AMDs A10-7850K mit dem A10-7870K vergleicht, kosten 5,5% mehr Grundtakt (2,5% mehr Turbo) satte 25% mehr Energie.

Ich sehe 4ghz+ bei Zen ebenfalls kritisch, aber eher grade wegen der Architektur. Man darf nicht vergessen, das Zen eben nicht (wie Bulldozer) mit einer riesigen Pipeline designed wurde sondern eher auf IPC als auf Takt abzielt. Daher halte ich 5ghz für unrealistisch, 4,5ghz für unwahrscheinlich (außer Turbo) und 4ghz für machbar.

Der 7870k scheint dann ganz klar oberhalb des Sweetspot der Architektur und Fertigung zu liegen.
Ist doch allgemein bekannt das Prozessoren nicht linear mit Spannung und Takt skalieren ;)
Wenn man von einem 7850 auf einen imaginären 7830 runter gehen würde, so wäre die TDP Senkung sicher geringer als die Erhöhung vom 7850 auf den 7870...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich sehe 4ghz+ bei Zen ebenfalls kritisch, aber eher grade wegen der Architektur. Man darf nicht vergessen, das Zen eben nicht (wie Bulldozer) mit einer riesigen Pipeline designed wurde sondern eher auf IPC als auf Takt abzielt. Daher halte ich 5ghz für unrealistisch, 4,5ghz für unwahrscheinlich (außer Turbo) und 4ghz für machbar.

So übermäßig lange ist die Pipeline von Bulldozer auch wieder nicht. Außerdem hat die Pipeline-länge hat nichts mit der IPC zu tun, sie wirkt sich nur auf die Branch Misprediction Penalty aus. IPC wird hauptsächlich durch die Breite der Pipeline bestimmt.
 
Ich denke, dass Intels 8-Kerner eine eher ungünstige Wahl für den Vergleich sind.
Schon richtig, aber Zen stehen ja für den AM4 auch 8 Kerner im Raum und daher bietet sich das an und mit dem Xeon-D 1540 und dem kommenden i7-6900K hat man da schon mal zwei Extreme von 8 Kernern in 14nm.

Sie haben zwar auch 8 Kerne und keine iGPU, dafür allerdings Quad-Channel RAM und ein sehr großen L3-Cache. Vor allem letzterer dürfte einiges an Energie kosten.
Ja und ein SoC ist schlecht mit einer reinen CPU zu vergleichen, aber so grob gibt es schon Anhaltspunkte was zu erwarten ist. Ein bisschen Hexen kann der eine oder andere Hersteller zwar schon mal, aber so richtig zaubern können sie alle nicht.

Afaik ist Zen das einzige Design mit diesem Fertigungsprozess, der deutlich über 2GHz benötigt.
Es wird ja nicht nur einen 14nm Prozess geben, aber ja, die Samsung ARM CPUs arbeiten natürlich an einem ganz anderen Betriebspunkt. Das ist ja auch das große Problem der APUs, die GPU und die CPU Kerne stellen eben so ganz andere Anforderungen und beides zu vereinen führt immer zu einem schlechten Kompromiss. Diesmal liegt die Priorität offenbar auch bei AMD klar auf der CPU Performance, mal sehen wie die APUs sich dann schlage und die dann überhaupt noch beides auf einem Die haben.
Taktfrequenzen über 4GHz sehe ich daher unabhängig von der Kernzahl eher kritisch.
Das würde sicher nicht leicht werden, aber wenn wir mal von 20% weniger IPC als Skylake ausgehen, dann sind gegenüber dem 6700l der mit 4GHz Grund und 4,2GHz Turbotakt daherkommt, schon wenigstens im Turbo 5GHz nötig um auf Augenhöhe agieren zu können, also auch vergleichbare Preis zu erzielen. Schafft man aber z.B. nur so 3.6GHz über alle Kerne und liegt noch 20% bei den IPC hinterher (wäre bei dem was ein Skylake mit 3GHz leistet), landet man wieder nur im 200€ bis 250€ Bereich, einen i5 6600K gibt es ab 236€ und der hat zwar kein HT, aber 3,5GHz Grundtakt.

Eine Verdopplung des Umsatzes innerhalb eines Jahres ist dann ohne weiteres drin. In diesem Szenario sähe die Schuldtragfähigkeit selbst ohne Gewinne wieder deutlich besser aus
Die Zahlen sehen dann zwar besser aus, aber wenn es AMD gelingt den Umsatz zu verdoppeln und es trotzdem nicht gelingt dann Gewinne einzufahren, wirft es auch die Frage auf was denn noch passieren muss damit das endlich mal passiert.

Twitter und Tesla sind zwei gute Beispiele für Firmen, die in ihrer Geschichte noch nie Gewinne erzielt haben und trotzdem sehr hoch bewertet werden.
Die stürzen auch gerade mächtig ab, weil die Investoren sich fragen ob das wirklich jemals anders werden wird, woran ich persönlich auch meine Zweifel habe. Solange das Geld ins Wachstum investiert wird um dann künftig noch größere Gewinne zu bringen, halten Investoren die Hoffnung hoch, aber wenn sich das Wachstum abschwächt aber immer noch keine Gewinne ich Sicht sind, dann wird schon mal sehr kritisch hinterfragt wo die Gewinne denn nun künftig herkommen werden.

Daher halte ich 5ghz für unrealistisch, 4,5ghz für unwahrscheinlich (außer Turbo) und 4ghz für machbar.
War auch keine realistische Erwartung von mir, sondern eben eine Abschätzung was nötig wäre damit ein 4 Kerner mit SMT einem 6700K das Wasser reichen und damit einen vergleichbaren Preis erzielen kann.
 
Zuletzt bearbeitet:
Schon richtig, aber Zen stehen ja für den AM4 auch 8 Kerner im Raum und daher bietet sich das an und mit dem Xeon-D 1540 und dem kommenden i7-6900K hat man da schon mal zwei Extreme von 8 Kernern in 14nm.

Ja und ein SoC ist schlecht mit einer reinen CPU zu vergleichen, aber so grob gibt es schon Anhaltspunkte was zu erwarten ist. Ein bisschen Hexen kann der eine oder andere Hersteller zwar schon mal, aber so richtig zaubern können sie alle nicht.

Ich denke, man sollte bei Überlegungen dazu verschiedene Ausgangspositionen berücksichtigen. Xeon-D lasse ich dabei mal außen vor, da er in einem ganz anderen Taktbereich arbeitet. Den i7-6900K kann man als Vergleichspunkt nehmen. Ich würde aber zumindest noch eine Desktop-CPU mit hereinnehmen, z.B. den i7-6700. Der Grund dafür ist, dass der i7-6900K dem Namen nach zwar eine Desktop-CPU ist, dem Aufbau her aber eher einer Server-CPU gleicht. Vergleicht man die beiden i7 fällt auf, dass zwei 6700er trotz zweier iGPUs und höherer Taktrate zusammen eine niedrigere TDP als eine 6900er CPU haben. Sofern die Fertigung keine Probleme macht, sollte der 6900er eigentlich andersherum sein. Das dem nicht so ist, schieb ich jetzt (ohne genaue Details nennen zu können) auf die Server-Herkunft und die damit verbundenen zusätzlichen Features und eine evtl. konservativer gewählte TDP. Zen8 ist hingegen in erster Linie eine Desktop-CPU und auch ansonsten im Vergleich zu beiden i7 schlanker (Cache, iGPU, Speicheranbindung).

Schafft man aber z.B. nur so 3.6GHz über alle Kerne und liegt noch 20% bei den IPC hinterher (wäre bei dem was ein Skylake mit 3GHz leistet), landet man wieder nur im 200€ bis 250€ Bereich, einen i5 6600K gibt es ab 236€ und der hat zwar kein HT, aber 3,5GHz Grundtakt.
Um ehrlich zu sein ist das der Bereich, in dem ich den Zen Quadcore erwarte. Die teureren Modelle werden dann bei ähnlichen Taktraten einfach mehr Kerne besitzen. Es könnte dann z.B. so aussehen: 180-250€ für 4C, 280-350€ für 6C und 380-500€ für 8C. Später dann vielleicht noch ein Ableger mit dem Zen16 Die für den Bereich darüber. Das würde erst einmal alles ab dem gehobenen Mainstream-Bereich abdecken. Als letztes kommt dann später noch ein nativer Zen4 und natürlich die APUs.
 
Das dem nicht so ist, schieb ich jetzt (ohne genaue Details nennen zu können) auf die Server-Herkunft und die damit verbundenen zusätzlichen Features und eine evtl. konservativer gewählte TDP. Zen8 ist hingegen in erster Linie eine Desktop-CPU und auch ansonsten im Vergleich zu beiden i7 schlanker (Cache, iGPU, Speicheranbindung).

Wenn du dich da mal nicht irrst ;)
Bei Intel und AMD ist es schon seit Jahren/Generationen so, dass nicht nur die größten Desktopmodelle 1:1 den Modellen im Servermarkt entsprechen. So waren die Thuban X6 auch nur Server Prozessoren mit anderem Namen, die Phenom II X4 ebenso usw.
Für den Hersteller ist es offenbar einfach billiger, da ein Modell für zwei Märkte zu entwicklen und zu fertigen und am Ende einfach featureseitig gewisse Sachen abzuschalten sowie den richtigen Namen drauf zu schrieben als dediziert für jeden Markt eigene Modelle zu produzieren.
Ich gehe also davon aus, dass auch die acht Kern Zen DIEs 1:1 den Opteron (oder wie ich auch immer die Dinger sich schimpfen werden) werden. Mit allem Drum und Dran im Silizium, was diese Prozessoren benötigen, damit sie ggü. den vergleichbaren Intel Modellen bestehen können.

Um ehrlich zu sein ist das der Bereich, in dem ich den Zen Quadcore erwarte. Die teureren Modelle werden dann bei ähnlichen Taktraten einfach mehr Kerne besitzen.

Es kommt ganz drauf an, ob man den Takt auch mit zunehmender CPU Breite halten kann... Beim aktuellen i7 TopDog ist dies offenbar nicht der Fall. Sprich 4GHz sind da einfach nicht... -> das Silizium gibt es aber definitiv her, denn so ziemlich jeder i7-5960X rennt 4GHz ohne viel Spannungserhöhung mal so eben aus dem Stand.
Warscheinlich trennt sich die Spreu vom Weizen genau bei den 4-6Core CPUs. Denn für den Mainstream zählt pro Thread Power immernoch ziemlich gewaltig. Das erreicht man aber nunmal nur durch Leistung pro Takt und hohen Takt zusammen. Um so breiter die CPUs und um so mehr Threads die Software ansprechen kann, desto weniger wichtig wird die pro Thread Performance. Ob du nun 16 Threads bedienst oder 32, ist eigentlich total egal. Wenn eine Software anständig auf 16 Threads skaliert, wird sie das idR auch mit 32 Threads und noch mehr tun können. Der Knackpunkt ist halt nur, dass unten bei den Basissachen die Threadskalierung effektiv gering bis nicht vorhanden ist...
Wir sehen nun schon seit geraumer Zeit den Spagat zwischen Mainstream mit sehr hohem Takt und vier Cores/Modulen bei acht Threads und den "HighEnd" Lösungen mit viel viel mehr Cores bei immer weniger Takt... Dem muss sich auch Zen fügen.

Ich könnte mir vorstellen, dass man die Mainstream Intel CPUs aka Skylake mit hoher IPC und hohem Takt nicht toppen kann/wird. Die HighEnd Modelle aka Haswell-E/Broadwell-E sind aber definitiv zu packen, da dort der Taktvorteil nicht gegeben bist.
 
Wenn du dich da mal nicht irrst ;)
Bei Intel und AMD ist es schon seit Jahren/Generationen so, dass nicht nur die größten Desktopmodelle 1:1 den Modellen im Servermarkt entsprechen. So waren die Thuban X6 auch nur Server Prozessoren mit anderem Namen, die Phenom II X4 ebenso usw.

Die beiden waren allerdings bei erscheinen die jeweils größten Desktopmodelle. Genauso wie es der Zen16 Die sein wird, nicht aber der Zen8. Ich denke, AMD wird versuchen aus Zen8 soviel Desktop-Performance herauszuquetschen wie möglich auch wenn das bedeutet auf ein paar Server-Features zu verzichten.

Ich gehe also davon aus, dass auch die acht Kern Zen DIEs 1:1 den Opteron (oder wie ich auch immer die Dinger sich schimpfen werden) werden.
Ich erwarte Zen8 Opterons nur für Low-Cost Server und Workstations auf AM4-Basis. Schon allein das Speicherinterface disqualifiziert Zen8 für höheres.

Mit allem Drum und Dran im Silizium, was diese Prozessoren benötigen, damit sie ggü. den vergleichbaren Intel Modellen bestehen können.
Als Konkurrenz für Intels So2011 CPUs passen Zen16-CPUs sowieso besser.

Es kommt ganz drauf an, ob man den Takt auch mit zunehmender CPU Breite halten kann... Beim aktuellen i7 TopDog ist dies offenbar nicht der Fall. Sprich 4GHz sind da einfach nicht... -> das Silizium gibt es aber definitiv her, denn so ziemlich jeder i7-5960X rennt 4GHz ohne viel Spannungserhöhung mal so eben aus dem Stand.

Wie schon gesagt denke ich, dass der Die für die So2011 CPUs einfach mehr Redundanzen und Reserven, sprich deutlich konservativer, designt wurde, einfach weil bei Server- und Workstation-CPUs höhere Zuverlässigkeit wichtiger als ein bisschen mehr Performance ist.

Warscheinlich trennt sich die Spreu vom Weizen genau bei den 4-6Core CPUs.
Selbst der Phenom II X6 hat es mit 45nm-Fertigung bei 95W auf knapp 3GHz geschafft. Da sollte bei 14nm Technik zwei zusätzliche Kerne und ein bisschen mehr Takt drin sein.

Denn für den Mainstream zählt pro Thread Power immernoch ziemlich gewaltig. Das erreicht man aber nunmal nur durch Leistung pro Takt und hohen Takt zusammen.
Das ist prinzipiell richtig. Allerdings gibt es mittlerweile nicht mehr so viele Anwendungsgebiete, die signifikant von der CPU-Leistung abhängen, aber nur wenige Threads vertragen. Früher waren vor allem Spiele heiße Kandidaten mit dieser Charakteristik, aber einerseits kommen diese immer besser mit mehr Kernen zurecht und andererseits hängen die meisten Spiele im GPU-Limit. Mit der nächsten GPU-Generation wird sich das GPU-Limit zwar nach oben verschieben, aber dafür steigt auch die typische Auflösung von 1080p auf 1440p oder 2160p, was dafür sorgen wird, dass auch in absehbarer Zukunft Spiele hauptsächlich GPU-limitiert bleiben werden.


Ich könnte mir vorstellen, dass man die Mainstream Intel CPUs aka Skylake mit hoher IPC und hohem Takt nicht toppen kann/wird. Die HighEnd Modelle aka Haswell-E/Broadwell-E sind aber definitiv zu packen, da dort der Taktvorteil nicht gegeben bist.
Ich denke, dass zumindest im MT-Bereich AMD in beiden Kategorien vorbeiziehen kann. Im Desktop-Bereich hat man zwar vielleicht 20% weniger IPC und 20-30% weniger Takt, dafür 100% mehr Kerne. Im Vergleich von Zen16 zu Intels So2011-Modelle wird der Taktunterschied vermutlich etwas geringer sein, dafür hat man aber wiederum auch nur 60% mehr Kerne.
 
Zuletzt bearbeitet:
Die beiden waren allerdings bei erscheinen die jeweils größten Desktopmodelle. Genauso wie es der Zen16 Die sein wird, nicht aber der Zen8. Ich denke, AMD wird versuchen aus Zen8 soviel Desktop-Performance herauszuquetschen wie möglich auch wenn das bedeutet auf ein paar Server-Features zu verzichten.
Neja, AMD hat sich damals halt für den Schritt entschieden, MCM zu fahren... Es waren also auch keine breiteren DIEs notwendig, da man einfach zwei davon zusammen untern einen Deckel gesteckt hat. Das wird offenbar mit Zen gleich laufen, nach den aktuellen Infos. Trotzdem kann sich AMD nicht an der Software vorbei mogeln. Es ist ziemlich bezeichnend, dass 100% mehr Cores des i7-5960X nur unwesentlich mehr Performance in den normalen Reviews bedeutet, teils sogar weniger. -> das Problem ist die Software, nicht die Hardware. Man bekommt einfach nicht jedes Problem so verteilt, dass es über die Breite skaliert, vor allem eben im Mainstream Desktop...

Wie gesagt, ich denke nicht, dass es ein natives Desktop Design geben wird. Das wäre verschwendete Mühe, man braucht den DIE analog im Serverbereich... HighCore Xeons sind dort zwar kaufbar, stino Server, wie sie jedes Unternehmen im Serverraum stehen hat, gehen idR aber aktuell nach wie vor auf 6-10 Core CPUs, ggf. im Doppelpack. Das wird sich mit Zen nicht ändern. Und die Vorzeichen sind dort quasi analog dem Desktopmarkt. Kurze Lastspitzen erfordern sehr hohe pro Thread Power... Einziger Unterschied, es sind sehr viel mehr kurze Lastspitzen zur gleichen Zeit, deswegen auch die breiteren Modelle. Solche 18, 20 oder 22 Core CPUs hat idR niemand, viel zu teuer und effektiv nicht nennenswerte Vorteile, wenn es nicht um spezielle Problemfälle/Anwendungsfälle geht!

Ich erwarte Zen8 Opterons nur für Low-Cost Server und Workstations auf AM4-Basis. Schon allein das Speicherinterface disqualifiziert Zen8 für höheres.
Wenn du es so aufteilen willst, ja... Nur genau da machen die doch ihr Geld (also Intel aktuell zumindest). ;)
Was die genauen Modelle angeht, bleibt abzuwarten, was bei rum kommt... Es gab ja seinerzeit schon den C32 und G34, sprich eine Doppelspitze... G34 mit MCM CPUs hat halt Nachteile. Das wird Zen nicht ändern können.

Wie schon gesagt denke ich, dass der Die für die So2011 CPUs einfach mehr Redundanzen und Reserven, sprich deutlich konservativer, designt wurde, einfach weil bei Server- und Workstation-CPUs höhere Zuverlässigkeit wichtiger als ein bisschen mehr Performance ist.

Was heist Reserven... Die Modelle sind so wie sie sind. Natürlich ist OC nicht direkt vergleichbar. Allerdings sieht man Tendenzen... Wo du mit Nehalem mit biegen und brechen die 4GHz erreicht hast, bei in etwa gleichen Vorzeichen im Basistakt, macht Haswell das heute spielend. Das Silizium gibt es einfach her... Das Problem ist nur, die Abwärme muss irgendwo hin und der Spaß muss halt irgendwo her seinen Saft bekommen... Wenn du FMA3 Last an einen Xeon anlegst, hast du teils drastisch geringere Taktraten. -> weil die Belastung extrem viel höher ist. Mach das mal bei nem 5960X bei 4,x GHz -> im Vergleich siehst du es deutlich an den Temperaturen der Cores ;) Der Stino Desktopuser wird das idR aber (noch) nicht ausfahren... Der Prozessor MUSS! es aber wegstecken können. -> und da geht man eben einen konservativen Weg. Warscheinlich liegt der Sweetspot bei um die 2,5-3GHz beim Haswell -> was drüber kommt, benötigt überdurchschnittlich viel Energie, was drunter kommt, spart nicht übermäßig viel.

Selbst der Phenom II X6 hat es mit 45nm-Fertigung bei 95W auf knapp 3GHz geschafft. Da sollte bei 14nm Technik zwei zusätzliche Kerne und ein bisschen mehr Takt drin sein.

Die TDP ist nichtssagend... Die "K" Modelle beim S2011(-3) haben die gleiche Einstufung, trotz verschiedener Core Anzahl. Dazu kommt, sie haben teils eine höhere Einstufung, als deutlich breitere Modelle in Form der Xeons... Ergo, die Einstufung ist eher wenig aussagend.

Das ist prinzipiell richtig. Allerdings gibt es mittlerweile nicht mehr so viele Anwendungsgebiete, die signifikant von der CPU-Leistung abhängen, aber nur wenige Threads vertragen. Früher waren vor allem Spiele heiße Kandidaten mit dieser Charakteristik, aber einerseits kommen diese immer besser mit mehr Kernen zurecht und andererseits hängen die meisten Spiele im GPU-Limit. Mit der nächsten GPU-Generation wird sich das GPU-Limit zwar nach oben verschieben, aber dafür steigt auch die typische Auflösung von 1080p auf 1440p oder 2160p, was dafür sorgen wird, dass auch in absehbarer Zukunft Spiele hauptsächlich GPU-limitiert bleiben werden.
Was? Nicht so viele Anwendungsgebiete? So ziemlich jede aktuelle Software am Desktopmarkt kann mit breiten CPUs nix anfangen... Auch Spiele gehörend da freilich nach wie vor dazu, auch wenn dort die Tendenz etwas anders zu werten ist. Mehr Berechnungen dran pappen bringt höhere CPU Last in der Breite, schneller wird der Spaß deswegen aber lange nicht. Sondern verschiebt einfach die notwendige Basispower nach oben. Das ist ein himmelweiter Unterschied zu irgendeiner generischen Berechnung, wo einfach mehr Threads = schneller bedeutet. Das hast du im stino Softwareumfeld idR nicht.
Bei den größeren Modellen seh ich mir da auch gar keine Probleme, da wie gesagt dort möglicher IPC Nachteil durch Takt ausgleichbar ist... Wenn der Takt aber am maximum ist, dann wird das nix... -> das könnte den 4C/8T Modellen aber drohen!
 
Neja, AMD hat sich damals halt für den Schritt entschieden, MCM zu fahren... Es waren also auch keine breiteren DIEs notwendig, da man einfach zwei davon zusammen untern einen Deckel gesteckt hat. Das wird offenbar mit Zen gleich laufen, nach den aktuellen Infos.
MCM ist mit Zen16 Dies geplant, diese müssen also auf jeden Fall alle Server-Features enthalten. Damit könnte man bei Zen8 Die all diese Features streichen sofern man dadurch Die-Fläche, Stromverbrauch und/oder Taktbarkeit verbessern kann. Für Server-CPUs mit 8 Kernen nimmt man dann eben teildefekte Zen16 Dies.

Wie gesagt, ich denke nicht, dass es ein natives Desktop Design geben wird. Das wäre verschwendete Mühe, man braucht den DIE analog im Serverbereich...
Dem möchte ich widersprechen. Für den Serverbereich kommt man problemlos mit dem Zen16 Die aus. Neben der 16C Version kann man daraus auch noch teildeaktivierte 12C und 8C Varianten basteln. Hinzu kommen noch die MCM Varianten. Damit kann man alles von 8C bis 128C (4 Sockel × Zen16 MCM) mit diesem einzigen Die anbieten.

HighCore Xeons sind dort zwar kaufbar, stino Server, wie sie jedes Unternehmen im Serverraum stehen hat, gehen idR aber aktuell nach wie vor auf 6-10 Core CPUs, ggf. im Doppelpack.
Berücksichtigt man den wahrscheinlichen IPC und Taktnachteil, könnte Zen8 höchstens mit den 6C Xeons konkurrieren und hätte zudem noch den Nachteil des schmaleren Speicherinterfaces und deutlich kleineren Caches. Zen16 mit 8-16C kann hingegen das komplette Spektrum und ein wenig darüberhinaus abdecken.

Solche 18, 20 oder 22 Core CPUs hat idR niemand, viel zu teuer und effektiv nicht nennenswerte Vorteile, wenn es nicht um spezielle Problemfälle/Anwendungsfälle geht!
Ist schon richtig, dass die ganz dicken CPUs hauptsächlich für sehr spezielle Anwendungsfälle (z.B. HPC) taugen. Allerdings wird für diese auch mit Abstand am meisten bezahlt.

Was heist Reserven... Die Modelle sind so wie sie sind.
Ich meinte, dass man bei den -E/-EP/-EX Versionen schon beim Entwurf tendenziell mehr auf höchste Zuverlässigkeit hin optimiert hat und weniger auf höchste Geschwindigkeit. Dadurch brauchen diese Modelle bei gleicher Geschwindigkeit immer ein wenig mehr Energie.

Was? Nicht so viele Anwendungsgebiete? So ziemlich jede aktuelle Software am Desktopmarkt kann mit breiten CPUs nix anfangen...
Brechen wir die Bereiche mal auf:
Office-/Internet-Anwendungen: Skalieren mäßig bis garnicht mit mehr Kernen. Da der Flaschenhals hier aber meist sowieso beim Nutzer, Netzwerk oder Festplatte/SSD liegt kommt man da sowieso meist mit uralt CPUs aus.
Audio-Transcoding: Skaliert meist nur mäßig mit mehr Kernen aber gut mit mehr Takt. Die Dauer für einzelne Files geht aber meist sowieso nur um wenige Sek auseinander und sobald man mehrere Dateien transkodiert skaliert es fast linear.
Video-Transcoding/-Bearbeitung: Skaliert in den aller meisten Fälle fast linear.
Rendering: Skaliert überwiegend gut mit mehr Kernen.
Fotobearbeitung: Skaliert je nach genutzter Software von sehr mäßig bis fast linear.
Ver-/Ent-Schlüsselung: Skaliert in der Regel sehr gut, wird aber mittlerweile oft auf dedizierten Einheiten ausgeführt. Dadurch wird meist die Festplatte/SSD zum Flaschenhals.
Compilieren: abhängig vom Compiler ist die Skalierung mittelmäßig bis fast linear.

Natürlich gibt es für praktisch alle diese Bereiche noch massenweise Software, die nicht gut skaliert. Ist man auf eine dieser angewiesen hat man Pech gehabt, ansonsten findet man meist Alternativen die deutlich besser skalieren.


Auch Spiele gehörend da freilich nach wie vor dazu, auch wenn dort die Tendenz etwas anders zu werten ist. Mehr Berechnungen dran pappen bringt höhere CPU Last in der Breite, schneller wird der Spaß deswegen aber lange nicht. Sondern verschiebt einfach die notwendige Basispower nach oben. Das ist ein himmelweiter Unterschied zu irgendeiner generischen Berechnung, wo einfach mehr Threads = schneller bedeutet.
Spiele sind zum größten Teil GPU-limitiert und werden es wohl auch bleiben, d.h. bei der Wahl einer neuen CPU spielt es kaum eine Rolle ob mehr Takt+IPC oder mehr Kerne, da beides nicht viel bringt, solange beides nicht gewisse Untergrenzen unterschreitet.

Bei den größeren Modellen seh ich mir da auch gar keine Probleme, da wie gesagt dort möglicher IPC Nachteil durch Takt ausgleichbar ist... Wenn der Takt aber am maximum ist, dann wird das nix... -> das könnte den 4C/8T Modellen aber drohen!
Das Problem sehe ich bei Spielen nicht. Ein i7-6700K (Skylake) mit 4GHz ist im Vergleich zu einem i5-2500K (Sandy Bridge) mit 3.3GHz gerade mal 20% schneller in Spielen (Computerbase Test). Und die Spiele, die mit dem Skylake i7 deutlich besser skalieren, sind auch die, die mit mehr Threads gut skalieren (ersichtlich an den Unterschieden i3 vs i5-2500K vs i7-2600K). Zen sollte bei IPC und Taktfrequenz vor Sandy Bridge liegen und hat auch immer mehr Threads.
 
MCM ist mit Zen16 Dies geplant, diese müssen also auf jeden Fall alle Server-Features enthalten. Damit könnte man bei Zen8 Die all diese Features streichen sofern man dadurch Die-Fläche, Stromverbrauch und/oder Taktbarkeit verbessern kann. Für Server-CPUs mit 8 Kernen nimmt man dann eben teildefekte Zen16 Dies.

Dem möchte ich widersprechen. Für den Serverbereich kommt man problemlos mit dem Zen16 Die aus. Neben der 16C Version kann man daraus auch noch teildeaktivierte 12C und 8C Varianten basteln. Hinzu kommen noch die MCM Varianten. Damit kann man alles von 8C bis 128C (4 Sockel × Zen16 MCM) mit diesem einzigen Die anbieten.

MCM wird sicher analog den G34 CPUs seinerzeit für die ganze Modellreihe kommen, die in dem Sockel sitzen werden... Ob man so strikt trennt, wie beim C32/G34, bleibt abzuwarten.
Das ganze bleibt ja modular aufgebaut. Ob die acht Core DIEs ausschließlich ein Dualchannel SI oder auch ein Quadchannel SI besitzen werden, steht in den Sternen, ob die acht Core DIEs native werden, ebenso -> es kommt auf die Absatzmärkte an und wo man die CPUs plazieren kann. Nicht umsonst baut Intel heute native acht Core DIEs und nutzt dafür nicht teildeaktiverte 15 oder 18 Core Versionen ;)
Das, was den meisten Absatz bringt, sollte kosteneffizient herstellbar sein. Das kann freilich einschließen, dass man dafür Reserve einbaut, sprich mit Absicht Teile deaktiviert... Da aber nicht nur Cores in der CPU sind, sondern noch andere Logik- und Cacheteile, ist der Optimalzustand ein vollfunktionstüchtiger DIE für den Markt, der den meisten Absatz bringt. Das wird aus meiner Sicht nicht zwingend der größte Desktop Zen sein und ebenso nicht der 16 Core Zen respektive das 2x16 Core MCM Paket.

Berücksichtigt man den wahrscheinlichen IPC und Taktnachteil, könnte Zen8 höchstens mit den 6C Xeons konkurrieren und hätte zudem noch den Nachteil des schmaleren Speicherinterfaces und deutlich kleineren Caches. Zen16 mit 8-16C kann hingegen das komplette Spektrum und ein wenig darüberhinaus abdecken.
Warum? Excavator + 40% müsste leicht über Haswall agieren. Sagen wir auf Haswell Niveau. Der Rest ist vom Takt, Cache und Anbindung abhängig.
Wenn acht Zen Cores nur für relativ schmal taktende sechs Haswell Cores langen, dann seh ich eine Analogie zur Vergangenheit und das ganze geht in die Hose...

Ich meinte, dass man bei den -E/-EP/-EX Versionen schon beim Entwurf tendenziell mehr auf höchste Zuverlässigkeit hin optimiert hat und weniger auf höchste Geschwindigkeit. Dadurch brauchen diese Modelle bei gleicher Geschwindigkeit immer ein wenig mehr Energie.
Das halte ich für ein Gerücht... Denn es widerspricht sich eben mit bspw. der TDP Einstufung zu den i7 S2011er Modellen. Die Dinger laufen weitestehend für das, was wie können am "Limit". Reserve ist immer da, das steht außer Frage. Zuverlässig sind die Teile so oder so... Das hat weniger was mit direktem Energieverbrauch oder ähnlichem zu tun.

Natürlich gibt es für praktisch alle diese Bereiche noch massenweise Software, die nicht gut skaliert. Ist man auf eine dieser angewiesen hat man Pech gehabt, ansonsten findet man meist Alternativen die deutlich besser skalieren.

Und was macht davon der Otto Normalo? ;)
Das ist Software, die idR nicht über die Breite skaliert. Und wenn dann doch mal Audio/Video/Bildbearbeitung ins Spiel kommt, dann zählt eher die Power während der Arbeit anstatt die Power, wie das Ding am Ende braucht um das Endergebnis zu berechnen.

Spiele sind zum größten Teil GPU-limitiert und werden es wohl auch bleiben, d.h. bei der Wahl einer neuen CPU spielt es kaum eine Rolle ob mehr Takt+IPC oder mehr Kerne, da beides nicht viel bringt, solange beides nicht gewisse Untergrenzen unterschreitet.

Also selbst an diesem Test ist doch klar eine starke Abhängigkeit der CPU zu sehen. 2500k zu 6600k sind knapp 20% Unterschied. Und das in FHD. Absolutes GPU Limit würde bedeuten, dass da bestenfalls ne Hand voll Prozent Mehrleistung bei rum kommt. Tut es aber nicht. Denn nicht nur die Spiele profitieren von der CPU Leistung, sondern auch die Treiber und das Restsystem in Form von API Calls oder ähnlichem... Es gibt ne Menge Stuff im Gamingbereich, was klar an der Abarbeitungsgeschwindigkeit der CPU hängt. Vieles davon geht freilich gemessen an avg. FPS irgendwann unter... Aber ganz pauschal ein permanentes GPU Limit zu unterstellen, halte ich für den falschen weg. -> dann hätte doch der FX8350 von AMD lange nicht so einen schweren Stand, vor allen in Games ;)

Schau dich dazu bspw. mal bei den Tests zu den einzelnen Spielen um, dort wird (bei CB zumindest) mittlerweile mit AMD und NV GPU gemessen, und es werden verschieden schnelle Prozessoren verglichen -> das Ergebnis ist eindeutig. Vor allem bei AMD GPUs... Klar ist das nicht primär das Thema des Spiels oder dessen CPU Leistungsskalierung, aber am Ende ist das dem Endkunden auch total wurscht, wenn es scheiße läuft und ne arsch teure Fury X aufgrund mauer DX11 Umsetzung bei ner lahmen CPU ohne pro Thread Performance bestenfalls auf das Niveau der nächt kleineren und deutlich günstigeren Klasse kommt...
Mit CPU Breite allein holt man da nix... Zumal noch nichtmal 100% klar ist, ob es wirklich die CPU Breite ist oder nicht vielleicht solche Thematiken wie viel größere Caches (gerade wenn man nen 5960X da mit vergleicht)
 
Ob die acht Core DIEs ausschließlich ein Dualchannel SI oder auch ein Quadchannel SI besitzen werden, steht in den Sternen
Für das Desktop-Segment wird es ja zumindest anfangs nur ein CPU-Die geben. Wenn du dieses also mit QC-SI, Server-typischen Cache-Größen und allen anderen Server-Features austattest, müssen das alle CPUs bis runter zu den Mainstream CPU mit 4C rumschleppen. Du machst also alle Desktop-CPUs deutlich teurer nur um bei der kleinsten Server-CPU ein bisschen günstiger zu produzieren. Ich halte es für sehr viel sinnvoller Zen8 ganz auf Desktop zu optimieren und dann für die 8C Server CPU das größe Die zu verwenden, denn die Stückzahlen und der Verschnitt dürften deutlich geringer sein. Auch kostenmäßig ist es günstiger, da die Preislage sowieso deutlich höher ist als bei Desktop CPUs.

ob die acht Core DIEs native werden, ebenso
Wie stellst du dir eine 8C CPU ohne nativen 8C Die vor? Zwei Dies mit MCM oder Interposer? Der 16C Server-Die benutzen bis runter zum Mainstream Quadcore? Hört sich für mich alles sehr unwahrscheinlich an.

Nicht umsonst baut Intel heute native acht Core DIEs und nutzt dafür nicht teildeaktiverte 15 oder 18 Core Versionen ;)
Der Vergleich hinkt ein wenig, denn Intel muss den 8C-Die nicht bis runter zur 4C Mainstream-Desktop-CPU herunterskalieren (Deaktivieren von 50% Kerne, 50% SI und 60% Cache). AMD müsste das hingegen tun.

Das, was den meisten Absatz bringt, sollte kosteneffizient herstellbar sein. Das kann freilich einschließen, dass man dafür Reserve einbaut, sprich mit Absicht Teile deaktiviert... Da aber nicht nur Cores in der CPU sind, sondern noch andere Logik- und Cacheteile, ist der Optimalzustand ein vollfunktionstüchtiger DIE für den Markt, der den meisten Absatz bringt. Das wird aus meiner Sicht nicht zwingend der größte Desktop Zen sein und ebenso nicht der 16 Core Zen respektive das 2x16 Core MCM Paket.
Da sind wir uns ja mal Ausnahmsweise einig :)
Den größten Absatz dürfte meiner Meinung nach die Desktop-CPU mit 6C oder 8C haben. Demzufolge wäre dann eine 8C Desktop-CPU optimal. Auf Server-Seite würde ich den größten Absatz bei den 12C oder 16C CPUs sehen. Ganz zufällig ergibt sich daraus, dass meine Aufteilung optimal ist :haha:


Warum? Excavator + 40% müsste leicht über Haswall agieren. Sagen wir auf Haswell Niveau. Der Rest ist vom Takt, Cache und Anbindung abhängig.
Wenn acht Zen Cores nur für relativ schmal taktende sechs Haswell Cores langen, dann seh ich eine Analogie zur Vergangenheit und das ganze geht in die Hose...
Das sehe ich nicht so dramatisch. AMD wird den Nachteil bei der Pro-Kern-Performance (geschätzt 20-30% wegen geringerer IPC und Takt) durch mehr Kerne mehr als kompensieren können. Bei den großen CPUs (Zen16 und Intels EP/EX) spielt IPC und Takt kaum noch eine Rolle, sondern in erster Linie die Energieeffizienz. Wie die bei Zen aussehen wird ist schwer einzuschätzen, aber schon Carrizo (Excavator) war in dem Punkt garnicht mal so schlecht.


Und was macht davon der Otto Normalo? ;)
Das ist Software, die idR nicht über die Breite skaliert.

Welche Anwendungen fallen dir ein, bei denen z.B. ein Core i5 nicht ausreicht und die Anwendung nicht zumindest einigermaßen mit der Zahl der Kerne skaliert?

Und wenn dann doch mal Audio/Video/Bildbearbeitung ins Spiel kommt, dann zählt eher die Power während der Arbeit anstatt die Power, wie das Ding am Ende braucht um das Endergebnis zu berechnen.
Bei der Bildbearbeitung würde ich dir ja noch zustimmen. Bei der Audio/Videobearbeitung eher nicht. Wenn ich Videos schneide und bearbeite dauert die Phase, an der ich aktiv was mache nur wenige Minuten, das Filtern und Encoden hingegen abhängig von Qualität und Auflösung viele Stunden. Für HD-Material verzichte ich auf allen rechenintensiven Filter, da der Vorgang sonst schnell mal >20h für 1h Video dauern kann (auf Ivy Bridge i5@4.5GHz) und selbst das sind noch bei weitem nicht die stärksten Filter.

Also selbst an diesem Test ist doch klar eine starke Abhängigkeit der CPU zu sehen. 2500k zu 6600k sind knapp 20% Unterschied. Und das in FHD.
Wen der Vorsprung von 70% bei Anwendungen auf nur noch 20% bei Spielen zusammenschrumpft würde ich das keine starke Abhängigkeit nennen. Wenn es nicht nur um theoretische Betrachtungen, sondern um reale Performance geht, ist FHD wohl die Auflösung der Wahl. In Zukunft wird sich das noch weiter nach oben verschieben.

Absolutes GPU Limit würde bedeuten, dass da bestenfalls ne Hand voll Prozent Mehrleistung bei rum kommt. Tut es aber nicht.
Ich habe nie etwas von "absolutem" GPU-Limit gesagt. Dass die GPU der Haupt-Bremsklotz ist, ist aber nicht zu übersehen. Worauf ich aber eigentlich hinaus wollte war der Punkt, dass wenn selbst ein CPU, die mittlerweile 4 Nachfolgegenerationen gesehen hat immer noch in Schlagdistanz ist, sollte es Zen mit im Vergleich mehr IPC, mehr Takt und mehr Threads eigentlich locker in den Bereich schaffen, in dem der Abstand zu Intels Spitzen-CPU keine praktische Relevanz mehr hat.

Denn nicht nur die Spiele profitieren von der CPU Leistung, sondern auch die Treiber und das Restsystem in Form von API Calls oder ähnlichem... Es gibt ne Menge Stuff im Gamingbereich, was klar an der Abarbeitungsgeschwindigkeit der CPU hängt.
Natürlich, aber diese Werte spiegeln sich ja alle bereits in den Framerates wieder.

dann hätte doch der FX8350 von AMD lange nicht so einen schweren Stand, vor allen in Games ;)
Im Vergleich zu Vishera dürfte Zen aber auch mal locker 60-70% IPC draufpacken. GPU-Limit heißt ja keinesfalls, dass es keine CPU gibt, die zu langsam ist. Es heißt nur, dass CPU-Mehrleistung ab eine gewissen Grenze nur noch wenig bis garnicht umgesetzt werden kann und diese Grenze würde ich momentan irgendwo bei Ivy Bridge oder Haswell Quadcores ziehen. Das ist ein Bereich, den Zen eigentlich schaffen sollte.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh