ich sage nur vega 7nm.... mit dem sprung auf 7nm stieg der takt von 1536 auf 1800... also 17%... und wenn ich jetzt 17% auf den schnellsten boosttakt eines Zen+ rechne(=TR 2950X) macht das bei 4.4GHz summa sumerum 5150MHz
Nur kann man eben die Taktsteigerungen bei geringen Taktraten von 1,5 auf 1,8GHz nicht einfach Taktraten von über 4GHz übertragen, sondern wären die Rechnung mit den 9GHz aus meinem letzten Post nämlich stimmen, tut sie aber nicht, da sich das Verhältnis von Leistungsaufnahme zum Takt eben nicht linear verhält.
Würde die Leistungsaufnahme einfach linear entwickeln, könnte man ja bei Nutzung der Hälfte der Kerne / Shader auf den doppelten Takt boosten und bei Nutzung von nur viertel diese auf den vierfachen Takt bringen, aber dies geht nicht, weil die Leistungsaufnahme eben überproportional höher wird. Wenn man von 2GHz auf 2,1GHz braucht man eben X Watt mehr für die 5% mehr Takt, geht man weiter auf 2,2GHz braucht man mehr als diese X Watt zusätzlich, hat aber nicht einmal mehr 5% sondern nur 4,76% mehr Takt und so geht es immer weiter, die nötige Mehrleistung um mehr Takt zu bekommen wird immer höher, prozentual wird die Taktsteigerung immer geringer und wie man bei den RYZEN ja sieht, kommt man durchaus an einen Punkt wo dies so extrem wird das sich weiteres Übertakten nicht mehr lohnt und der Chip am Ende sogar mehr Leistung aufnimmt als eines aus einem älteren und bei geringen Taktraten ineffizienterem Fertigungsverfahren, wie eben die alten FX CPUs aus der 32nm Fertigung.
Oder wie Tzk schon schreibt:
Nur kann man so nicht rechnen. Zum Einen steigend die Schaltverluste nicht zwingend proportional zum Takt und zum Anderen kommt man irgendwann an eine Grenze
Die Schaltverluste steigen nicht nur "nicht zwingend proportional zum Takt" sondern eben generell nicht proportional zum, außer vielleicht in einem ganz kleinen Bereich bei sehr geringen Frequenzen, steigen sie immer überproportional zum Takt. Lege 10% mehr Takt an und schau wie viel mehr Leistungsaufnahme der Chip hat, lege nochmal 10% mehr bei Takt drauf und du eine noch noch größere Steigerung der Leistungsaufnahme sehen als vorher.
Ich kann bzw. will nicht glauben das AMD diese Werte erreicht. Überleg mal was herauskommt, wenn man den IPC Gerüchten (+13%) und den Gerüchten um den Takt (+17%) glaubt, dann käme ne Steigerung von gut 30% dabei raus. Damit wäre sowohl IPC als auch Singlethread Leistung ein ganzes Stück vor Intel.
Aber, aber da die 17% Taktsteigerung aus dem GPU Bereich kommen, sind diese auf die CPUs überhaupt nicht übertragbar und wie weit die IPC Steigerung auf der besseren AVX und vorallem AVX2 Performance beruht, weiß man auch nicht.
Wenn wir mal von 5% extra IPC und 10% Extra Takt (macht 15,5% extra Leistung) ausgehen, dann wäre man zumindest im Cinebench mit Intel auf Augenhöhe. Ich denke das ist ein realistisches Ziel.
Ja, nur wäre man dann auch mit der Leistung bei gleicher Anzahl an Kerne gleichauf, allerdings frage ich mich wieso AMD dann die 8 Kerner für 180/230$ und auch die 12 Kerner für 300/330$ und damit sehr weit unten den
$374.00 - $385.00 für Intels 9700K und erst recht den
$488.00 - $499.00 des 9900K anbieten und dessen Preis sogar 16 Kerne liefern sollte, wenn die selbst bei Last auf einen, zwei oder 8 Kernen immer noch schneller oder wenigstens gleichschnell wären. Derzeit ist dies eben nicht der Fall, daher muss AMD seinen CPUs auch bei gleicher Kernzahl mit deutlichem Abschlag gegenüber Intel anbieten. So ein großer Abschlag wäre nicht nötig und wirtschaftlich auch nicht sinnvoll, schon gar nicht von Anfang an mit solchen Preisen auf den Markt zu gehen. Die Preise könnte man immer senken um den Absatz anzukurbeln, wie bei den RYZEN und TR ja auch zu sehen war. Wenn die Preise also von Anfang an so gering angesetzt werden wie es den Gerüchten nach sein sollen, dann kann das eigentlich nicht zusammenpassen.
Wenn eine IPC Steigerung durch mehr an Takt statt findet
IPC steht für Instructions Per Cycle, also die Intruktionen pro Takt und ist damit nicht über den Takt steigerbar. IPC * Takt = Singlethread Performance und auch die Per Core Performance, die von der Singlethread Performance bei modernen CPUs durch deren Turbotakte und SMT unterscheidet.
CB hat z.B. für de 9900K Cinebench 218 Punkte beim Singlethreadtest gemessen und 2077 bei Multithread, da die CPU 8 Kerne hat war die per core performance damit also 2077 / 8 = 259,63 Punkte, wegen des HT also mehr als die 218 Punkte bei Singlethread. Der 9700K hatte nur 212 ST und 1542 MT, also 192,63 pro Kern, man kann bei denen mit HT aber auch durch 16 Teilen und dann die Leistung pro virtuellem Kern betrachten, es ist eben die Frage was man da betrachten oder vergleichen will.
Leistungstechnisch erhoffe ich mir vor allem im single core einen großen Sprung. Es gibt viel zu viele Dinge die nicht parallelisiert werden können.
Eben, gerade bei Desktopanwendungen ist die Singlethreadperformance wichtig.
Und einen anderen Punkt darf man nicht vergessen: AMD muss hier einen großen Sprung erwirken. Wir reden über 7nm vs 14nm Intel.
Nur würde AMD sich mit derzeit geringen Preise zufrieden geben, wenn sie den große Sprung schaffen und Intel auch bei der Singlethreadperformance und damit in jeder Hinsicht schlagen? Zumal sie ja auch noch mehr Kerne draufpacken.
Wenn sie nur gleichziehen, dann wischt Intel den Boden mit Zen 2 auf sobald sie irgendwann mal 10 oder 7nm angehen.
Auch Intel wird bei 10nm oder 7nm erstmal wieder diese Taktraten erzielen, auch wenn sie ihre Prozesse generell auf hohe Taktraten auslegen und dann weiter optimieren. Intel fertigt ja eben traditionell mit seinen Prozessen seine CPUs und die müssen immer hoch takten, anderes als eben GPUs oder ARM CPUs/SoCs für mobile Anwendungen.
Außerdem hat AMD ja auch noch die Option dann auf den 5nm Prozess von TSMC zu wechseln, auch TSMC entwickelt die Fertigung ja auch weiter, aber die Frage ist halt wo deren Priorität liegt und da eben nur AMD und vielleicht noch IBM überhaupt ein Interesse an einem Prozess für hohe Taktraten haben, die anderen Kunden aber Chips fertigen die bei weit geringeren Taktraten arbeiten, die Priorität dürfte also eine Andere als bei Intel Entwicklung von Fertigungsprozessen sein. GF hätte für AMD die hochtaktenden Desktop CPU und auch für IBM die hochgetakteten Mainframe CPUs entwickeln sollen, die haben aber offenbar diese Prozess auch nicht hinbekommen und daher auf Eis gelegt, Intel hat Probleme mit dem 10nm Prozess und beim 14nm++ bestimmte Strukturen wieder größer gemacht um mehr Takt zu ermöglichen. Es könnte also auch sein, dass man bei den kleinen Strukturen nicht mehr schafft das die Transistoren die bei hohen Taktraten nötigen Ströme schalten können, Intel will ja nicht zum Spaß von Kupfer auf Kobalt umsteigen, denn auch wenn Kupfer eigentlich besser als Kobalt leitet, so dreht sich dies bei winzig kleinen Querschnitten wie sie in den Chips vorhanden ist, eben um und dann leitet Kobalt besser als Kupfer und die Transistoren brauchen nicht starke Ströme zu schalten.
Aber die gemunkelten 13% Steigerung wurden ja angeblich bei wissenschaftlichen Workloads gemessen und diese nutzen oft AVX. Bei Zen2 hat sich AMD der AVX-Schwäche angenommen. Mal sehen, wie die Steigerung der IPC bei non-AVX ausfällt.
Das ist richtig, aber das übliche Vorgehen. Auch Intel nimmt gemischte Anwendungen als Basis um die IPC zu ermitteln und dabei werden auch mehr oder weniger intensiv die Steigerungen durch neue Befehlssatzerweiterungen mit berücksichtigt. Es ist eben ohne neue Befehle schwer die IPC noch signifikant zu steigern, wenn man erstmal auf dem Niveau ist welches AMD und Intel inzwischen erreicht haben.
Solche Pauschalaussagen wie "nen 1500X ist nur 5% langsamer als nen 7700k bei gleichem takt.." sind einfach nichtssagend. Es muss auch der entsprechende Workload betrachtet werden, denn für Workload A mag dies zwar zutreffen, aber für Workload B kann dies komplett anders aussehen..
So ist es und dies gilt auch für die Effizienz, da muss man auch die Leistungsaufnahme bei jedem Workload für sich betrachten und Verhältnis zu der jeweils erzielten Leistung setzen. Leider machen die Reviewer dies in alle Regel nicht, sondern messen nur im Idle und bei Last, oft genug mit Prime 95 und damit einer unrealistisch hohen AVX2/AVX512 Last, bestenfalls auch mit einem Benchmark ohne AVX Last wie Cinebench. Nur wird kaum eine normale Anwendung die Kerne ständig so voll auslasen wie eben Cinebench und Spiele schon gleich gar nicht. Daher ist ja auch die Leistung des 9900K mit 95W Power Limit praktisch kaum schlechter (vielleicht 1%)
als wenn er vom UEFI schon gleich kräftig übertaktet wird.