Die beiden waren allerdings bei erscheinen die jeweils größten Desktopmodelle. Genauso wie es der Zen16 Die sein wird, nicht aber der Zen8. Ich denke, AMD wird versuchen aus Zen8 soviel Desktop-Performance herauszuquetschen wie möglich auch wenn das bedeutet auf ein paar Server-Features zu verzichten.
Neja, AMD hat sich damals halt für den Schritt entschieden, MCM zu fahren... Es waren also auch keine breiteren DIEs notwendig, da man einfach zwei davon zusammen untern einen Deckel gesteckt hat. Das wird offenbar mit Zen gleich laufen, nach den aktuellen Infos. Trotzdem kann sich AMD nicht an der Software vorbei mogeln. Es ist ziemlich bezeichnend, dass 100% mehr Cores des i7-5960X nur unwesentlich mehr Performance in den normalen Reviews bedeutet, teils sogar weniger. -> das Problem ist die Software, nicht die Hardware. Man bekommt einfach nicht jedes Problem so verteilt, dass es über die Breite skaliert, vor allem eben im Mainstream Desktop...
Wie gesagt, ich denke nicht, dass es ein natives Desktop Design geben wird. Das wäre verschwendete Mühe, man braucht den DIE analog im Serverbereich... HighCore Xeons sind dort zwar kaufbar, stino Server, wie sie jedes Unternehmen im Serverraum stehen hat, gehen idR aber aktuell nach wie vor auf 6-10 Core CPUs, ggf. im Doppelpack. Das wird sich mit Zen nicht ändern. Und die Vorzeichen sind dort quasi analog dem Desktopmarkt. Kurze Lastspitzen erfordern sehr hohe pro Thread Power... Einziger Unterschied, es sind sehr viel mehr kurze Lastspitzen zur gleichen Zeit, deswegen auch die breiteren Modelle. Solche 18, 20 oder 22 Core CPUs hat idR niemand, viel zu teuer und effektiv nicht nennenswerte Vorteile, wenn es nicht um spezielle Problemfälle/Anwendungsfälle geht!
Ich erwarte Zen8 Opterons nur für Low-Cost Server und Workstations auf AM4-Basis. Schon allein das Speicherinterface disqualifiziert Zen8 für höheres.
Wenn du es so aufteilen willst, ja... Nur genau da machen die doch ihr Geld (also Intel aktuell zumindest).
Was die genauen Modelle angeht, bleibt abzuwarten, was bei rum kommt... Es gab ja seinerzeit schon den C32 und G34, sprich eine Doppelspitze... G34 mit MCM CPUs hat halt Nachteile. Das wird Zen nicht ändern können.
Wie schon gesagt denke ich, dass der Die für die So2011 CPUs einfach mehr Redundanzen und Reserven, sprich deutlich konservativer, designt wurde, einfach weil bei Server- und Workstation-CPUs höhere Zuverlässigkeit wichtiger als ein bisschen mehr Performance ist.
Was heist Reserven... Die Modelle sind so wie sie sind. Natürlich ist OC nicht direkt vergleichbar. Allerdings sieht man Tendenzen... Wo du mit Nehalem mit biegen und brechen die 4GHz erreicht hast, bei in etwa gleichen Vorzeichen im Basistakt, macht Haswell das heute spielend. Das Silizium gibt es einfach her... Das Problem ist nur, die Abwärme muss irgendwo hin und der Spaß muss halt irgendwo her seinen Saft bekommen... Wenn du FMA3 Last an einen Xeon anlegst, hast du teils drastisch geringere Taktraten. -> weil die Belastung extrem viel höher ist. Mach das mal bei nem 5960X bei 4,x GHz -> im Vergleich siehst du es deutlich an den Temperaturen der Cores
Der Stino Desktopuser wird das idR aber (noch) nicht ausfahren... Der Prozessor MUSS! es aber wegstecken können. -> und da geht man eben einen konservativen Weg. Warscheinlich liegt der Sweetspot bei um die 2,5-3GHz beim Haswell -> was drüber kommt, benötigt überdurchschnittlich viel Energie, was drunter kommt, spart nicht übermäßig viel.
Selbst der Phenom II X6 hat es mit 45nm-Fertigung bei 95W auf knapp 3GHz geschafft. Da sollte bei 14nm Technik zwei zusätzliche Kerne und ein bisschen mehr Takt drin sein.
Die TDP ist nichtssagend... Die "K" Modelle beim S2011(-3) haben die gleiche Einstufung, trotz verschiedener Core Anzahl. Dazu kommt, sie haben teils eine höhere Einstufung, als deutlich breitere Modelle in Form der Xeons... Ergo, die Einstufung ist eher wenig aussagend.
Das ist prinzipiell richtig. Allerdings gibt es mittlerweile nicht mehr so viele Anwendungsgebiete, die signifikant von der CPU-Leistung abhängen, aber nur wenige Threads vertragen. Früher waren vor allem Spiele heiße Kandidaten mit dieser Charakteristik, aber einerseits kommen diese immer besser mit mehr Kernen zurecht und andererseits hängen die meisten Spiele im GPU-Limit. Mit der nächsten GPU-Generation wird sich das GPU-Limit zwar nach oben verschieben, aber dafür steigt auch die typische Auflösung von 1080p auf 1440p oder 2160p, was dafür sorgen wird, dass auch in absehbarer Zukunft Spiele hauptsächlich GPU-limitiert bleiben werden.
Was? Nicht so viele Anwendungsgebiete? So ziemlich jede aktuelle Software am Desktopmarkt kann mit breiten CPUs nix anfangen... Auch Spiele gehörend da freilich nach wie vor dazu, auch wenn dort die Tendenz etwas anders zu werten ist. Mehr Berechnungen dran pappen bringt höhere CPU Last in der Breite, schneller wird der Spaß deswegen aber lange nicht. Sondern verschiebt einfach die notwendige Basispower nach oben. Das ist ein himmelweiter Unterschied zu irgendeiner generischen Berechnung, wo einfach mehr Threads = schneller bedeutet. Das hast du im stino Softwareumfeld idR nicht.
Bei den größeren Modellen seh ich mir da auch gar keine Probleme, da wie gesagt dort möglicher IPC Nachteil durch Takt ausgleichbar ist... Wenn der Takt aber am maximum ist, dann wird das nix... -> das könnte den 4C/8T Modellen aber drohen!