Spekulationen über neue Kerne in alter Fertigung bei Intel

,das ipc unabhängig vom Takt ist,und man so xbelibig weiter steigern könnte.Ich hätte halt wohl das ganze sehen müssen und ne verkleinerung nicht automatisch mit ner Leistungssteigerung erbunden ist.Also so einfach scheint es ja doch nicht so zu sein.Man wahr ich naiv bei dem Gedanken.

IPC ist erstmal unabhängig vom Takt. Denn IPC bedeutet Instructions per Clock, also Befehle pro Takt. IPC mal Takt ist Rechenleistung, natürlich vereinfacht gesprochen.

Wie du aber schon selbst festgestellt hast:
Der Takt ist nicht beliebig steigerbar und nicht jede neue Fertigungstechnologie bedeutet auch direkt immer einen Taktgewinn. Eine neue, kleinere Fertigungsgröße erlaubt aber mehr Transistoren pro Fläche und oft auch weniger Wärmeverluste. Damit lassen sich ggf. mehr Kerne/Transistoren unterbringen, die IPC steigern oder eventuell auch der Takt erhöhen. Nur halt alles in sehr engen Grenzen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Beruhige dich,jeder kann sich ja mal irren.Kein grund hier gleich mich zu blockieren,ich habe dir ja nix getan oder?
Ich habe mich halt in der hinsicht ungünstig ausgedrückt,tut mir leid

Das ist normal bei ihm. So gut wie alle sind auf seine Ignoreliste.
 
Schade, dass Intel hier so Probleme hat und die neue Fertigung so große Hürden bereithält.
 
Abwarten, Sunnycove hat eine deutliche IPC Steigerung in den Mobile-Chips an den Tag gelegt, da sind die von Intel angegeben +18% Steigerung eher tief gestapelt. Zen2 kommt da nicht ran, Zen3 wird sich damit messen müssen.
Die Frage ist nur, bis wann es Intel schafft, die neuen Architekturen, die für 10nm gedacht waren, auf 14nm rüberzubringen.

Wenn sie gegen Zen3 antreten, können sie evtl. in der IPC einen Hauch vorne liegen - aber Intel bleibt bei 10C hängen - während AMD munter mit 16C im Desktop spielt.
 
Die Frage ist nur, bis wann es Intel schafft, die neuen Architekturen, die für 10nm gedacht waren, auf 14nm rüberzubringen.

Wenn sie gegen Zen3 antreten, können sie evtl. in der IPC einen Hauch vorne liegen - aber Intel bleibt bei 10C hängen - während AMD munter mit 16C im Desktop spielt.

Amd soll bei zen3 eben am takt schrauben.

Angeblich sollen dort 4.5ghz problemlos möglich sein, mit 8% mehr ipc und oc auf 4.8 ghz sicher fein.

Ich würde nur zu gerne wissen wieviel schneller in 3600x auf 4.3ghz schneller ist als mein 1600x bei 3.95ghz.
 
Ich zitiere mal einen älteren Post aus 2017. MIPS sind ja relativ theoretisch, interessanter ist was tatsächlich dabei herum kommt. In meinem Post fehlt natürlich Ryzen noch, da der 2017 noch nicht erschienen war.

OK, aber die Dhrystones sagen auch etwas völlig anderes (ebenso die Whetstones). Ich vermute eher, dass wPrime einen extrem ineffizienten Code verwendet, der moderne CPUs nicht vernünftig nutzen kann. Aber gerade das muss eben auch berücksichtigt werden. Niemand lässt z.B. ein Video ohne Nutzung von MMX, SSE und vielleicht sogar AVX recoden, weil es einfach keinen Sinn macht. Aber genau das scheint wPrime zu machen (keinerle moderne Features nutzen).
Ganz abgesehen davon finde ich den Ansatz von wPrime für Benchmarks alternativ, denn eine rekursive Funktion ist zunächst mal single Threaded, da man auf das Ergebnis der vorherigen Rekursion warten muss. es werden also auf den Kernen verschiedene Wurzelberechnungen durchgeführt, die natürlich auch entsprechend unterschiedlich lange laufen. Ich bin mir nicht sicher, ob das zusammen mit dem Scheduler ein sinnvolles Ergebnis ergibt.
Mir sind auch deine MHz Angaben nicht ganz klar. Was genau sind das für MHz? Der P2 266 hat laut deiner Liste 333MHz, der FX sogar 7310MHz. :confused:
 
@Oberst
Die Daten stammen aus der HWBot Datenbank, dort sind hauptsächlich übertaktete Systeme vertreten. Deshalb lief z.B. der P2 266 mit 333Mhz oder der FX mit über 7ghz. Ich hatte damals Ergebnisse herausgesucht welche halbwegs repräsentativ sind. Da das Ganze von mir eh normiert wurde ist der Cputakt (fast) nebensächlich. AVX ist so ne Sache. Im Prinzip beschleunigen neue Befehlssätze natürlich, aber es lässt sich sehr schlecht über viele Generationen hinweg vergleichen.

Wenn du eine bessere Idee zum Vergleichen hast, außer MIPS, dann immer her damit ;)

Amd soll bei zen3 eben am takt schrauben.

Angeblich sollen dort 4.5ghz problemlos möglich sein, mit 8% mehr ipc und oc auf 4.8 ghz sicher fein.

Ganz ehrlich: Das glaube ich erst wenn ichs sehe. Von Zen2 haben auch einige von 100W TDP, 5ghz und 16C/32T geträumt. Geworden ist daraus nix, weil Zen2 den Takt schlicht nicht schafft... Trotzdem sinds gute Cpus, nur die Erwartungshaltung einiger User hier im Forum war halt überzogen hoch. Wenn wir +200Mhz und vielleicht noch ein bissel IPC bekommen bin ich schon glücklich.
 
Zuletzt bearbeitet:
@Oberst
Die Daten stammen aus der HWBot Datenbank, dort sind hauptsächlich übertaktete Systeme vertreten. Deshalb lief z.B. der P2 266 mit 333Mhz oder der FX mit über 7ghz. Ich hatte damals Ergebnisse herausgesucht welche halbwegs repräsentativ sind. Da das Ganze von mir eh normiert wurde ist der Cputakt (fast) nebensächlich. AVX ist so ne Sache. Im Prinzip beschleunigen neue Befehlssätze natürlich, aber es lässt sich sehr schlecht über viele Generationen hinweg vergleichen.

Wenn du eine bessere Idee zum Vergleichen hast, außer MIPS, dann immer her damit ;)



Ganz ehrlich: Das glaube ich erst wenn ichs sehe. Von Zen2 haben auch einige von 100W TDP, 5ghz und 16C/32T geträumt. Geworden ist daraus nix, weil Zen2 den Takt schlicht nicht schafft... Trotzdem sinds gute Cpus, nur die Erwartungshaltung einiger User hier im Forum war halt überzogen hoch. Wenn wir +200Mhz und vielleicht noch ein bissel IPC bekommen bin ich schon glücklich.

Man muss die sprünge relativ betrachten. Und ja von 4.3ghz auf 4.6 sind es 300 mhz, dazu noch etwas ipc und gut ist.

Ich werde mir in 4 monaten einen 3600 holen da ich erwarte dass dann die fertigung so beherrscht ist dass auch dort etwas mehr takt geht. Nur halt nie wieder gigabyte mainboards, asrock ist halt der bringer.
 
Wo sollen die großen IPC Steigerungen kommen bei Intel oder AMD.
Intel hat seit 1997 die IPC gerade mal 77% steigern können bis heute.
Die Architekturen können maximal mehr FPU,Integra und Vector Einheiten bekommen, was wiederum die CPU aufbläht.
L1/2/3/4 Cache ist auch teuer und kostet CPU Fläche!
 
Bei den 77% waren aber auch die IPC fressenden Jahre des Pentium 4 dabei, so wie bei AMD Bulldozer. Bei beiden war das ein Rückschritt im Gegensatz zum Vorgänger bzw. zum Nachfolger war der IPC Schritt dann vergleichsweise groß.

Davon ab bringt Intel ja mit den 10nm Cpus 18% IPC, wobei es noch dauert bis das im Desktop kommt. AMD muss also wenigstens 10% mit Zen3 liefern um dran zu bleiben. Derzeit hat AMD ja minimal IPC Vorsprung bzw. je nach Anwendung auch nur Gleichstand. Es bleibt also sehr spannend...
 
Wo sollen die großen IPC Steigerungen kommen bei Intel oder AMD.
Intel hat seit 1997 die IPC gerade mal 77% steigern können bis heute.
Die Architekturen können maximal mehr FPU,Integra und Vector Einheiten bekommen, was wiederum die CPU aufbläht.
L1/2/3/4 Cache ist auch teuer und kostet CPU Fläche!

Ok,ja da hast du recht.Was ich mich Frage ob ich das alles richtig verstanden habe:
FPU= der Takt
Integra= Transistoren
Vektor einheiten = wie AVX,Cache usw
Bei FPU gibt es seid Jahren stagnation.Wenn man sich bei der verkleinerung fpr mehr Transistoren entscheidet,gibt es da viel oder wenig Mehrleistung.Denn wenn man das erhöt,kann man nicht mehr Cache hernehmen.Weil das kostet ja viel Splatz und bei sowas wie Einheiten wie eine noch eine größere Einheit als AVX 512.
Reine Gamer CPU sehe ich kein AVX 512 was sinnvoll unterstützt werden kann.Wenn dann auf nur AVX1 herunter brechen.Dann könnte man mehr Cache oder mehr Transistoren draus machen.Dann würde ja auch wieder mehr leistung dabei rauskommen.Warum hat man denn AVX 512 eingeführt?
 
FPU = Float point unit -> Gleitkommaeinheit
Integer = Ganzzahlen
Vektoreinheit = Teil der Cpu der Vektoren und Matrizen verrechnet bzw verrechnen kann

AVX ist ein Befehlssatz mit speziellen Befehlen, die bestimmte Berechnungen effizienter ausführen als auf dem "normalen" Weg. Gleichzeitig gibts in der Cpu dann aber auch spezielle AVX Einheiten, die die AVX Befehle ausführen.

Du schmeisst gerade so ziemlich alles durcheinander, also Cpu Bestandteile, Befehlssätze und so weiter. Ich kann nur empfehlen, das du dich mit dem grundsätzlichen Aufbau einer Cpu auseinandersetzt, quasi Grundwissen aufbaust ;)
 
Zuletzt bearbeitet:
FPU = Float point unit -> Gleitkommaeinheit
Integer = Ganzzahlen
Vektoreinheit = Teil der Cpu der Vektoren und Matrizen verrechnet bzw verrechnen kann

AVX ist ein Befehlssatz mit speziellen Befehlen, die bestimmte Berechnungen effizienter ausführen als auf dem "normalen" Weg. Gleichzeitig gibts in der Cpu dann aber auch spezielle AVX Einheiten, die die AVX Befehle ausführen.

Du schmeisst gerade so ziemlich alles durcheinander, also Cpu Bestandteile, Befehlssätze und so weiter. Ich kann nur empfehlen, das du dich mit dem grundsätzlichen Aufbau einer Cpu auseinandersetzt, quasi Grundwissen aufbaust ;)

Ja ist wirklich ganz schön komplex.Da hast du recht,ich scheine da wirklich was durcheinander geworfen zu haben.Das heißt ,eigentlich braucht man ja die zusatz einheit garnicht ,wenn man es genau nimmt um mehr Leistung zu haben.Denn wenn man den Platz den man verloren hat lieber in mehr GLeitkommaeinheiten,Ganzzahlen sowie Vektoreinheiten gesteckt hätte,würde wir ja bei sachen Leistung noch um einiges weiter vorne gewesen und dann gäbe es keine schlechte Optimierung bei der SOftware.
 
FPU = Float point unit -> Gleitkommaeinheit
Integer = Ganzzahlen
Vektoreinheit = Teil der Cpu der Vektoren und Matrizen verrechnet bzw verrechnen kann

AVX ist ein Befehlssatz mit speziellen Befehlen, die bestimmte Berechnungen effizienter ausführen als auf dem "normalen" Weg. Gleichzeitig gibts in der Cpu dann aber auch spezielle AVX Einheiten, die die AVX Befehle ausführen.
Richtig. Die bestimmten Berechnungen von AVX sind in diesem Fall Vektoren-Berechnungen. AVX steht für Advanced Vector Extensions.
Befehlssatzerweiterungen sind also Hardwarebeschleunigungen. Die CPU wird physikalisch so angepasst, dass diese Berechnungen mit weniger Aufwand berechnet werden können.
 
Richtig. Die bestimmten Berechnungen von AVX sind in diesem Fall Vektoren-Berechnungen. AVX steht für Advanced Vector Extensions.
Befehlssatzerweiterungen sind also Hardwarebeschleunigungen. Die CPU wird physikalisch so angepasst, dass diese Berechnungen mit weniger Aufwand berechnet werden können.

Ah ok,auf gut deutsch es soll die CPU also entlassen.ALso Ohne AVX kann man am ende also nur noch weniger Mehrleistung erreichen.Bis ich also 50 und mehr % ohne AVX erreichen kann,dauert es also noch länger.Wird also wohl noch länger dauern bis Intel weiter zulegen kann. Zum glück ist das Haupteinsatz zweck bei Vektor Videopspiele,also als Hauptziel.Da ich da nur ältere games zocke,kann ich mich auf andere Einheiten mein AUgenmerk richten.

Was ich also brauche ist wohl eher mehr Gleitkomma einheiten.Warum na wegen Videoumwandeln.Das verwendet ja schließlich Zahlen.Somit ist diese Einheit bei der CPu bei meinem einsatzfeld wohl am wichtigsten.
Klar brauche ich auch etwas Vektorberechung weil ich ja auch Zocke.Aber halt nicht in dem ausmaß.Jedoch wenn ich mich da genau auf den einen einsatzzweck mich richten würde,wären es wohl ein Xeon der 2066 reihe ,was allerdings so Teuer ist,das ich mir da gleich 3 von den 18 Kerner mit davon kaufen könnte.Man muss also wenn man sowas haben will,sehr Reich sein um es sich leisten zu können.
 
@Latiose
Bitte nicht böse sein, aber versuche deine Sätze etwas besser auszuformulieren. Deine Beiträge sind manchmal sehr schwer zu dechiffrieren :p
Wie kommst du denn darauf, dass AVX für Spiele gut sind und reine Gleitkommaberechnungen für Videobearbeitung besser ist? Das ist nicht richtig, die Mathematik dahinter ist doch etwas komplizierter.

Falls du wirklich etwas mehr darüber lernen möchtest hilft dir evtl dieser Link hier weiter.
Intel Advanced Vector Extensions (AVX, AVX2, AVX-512) | Servermeile Technet
Und bezüglich deiner Videobearbeitung hier ein kleines Zitat aus dieser Seite:
Zu den großen Gewinnern zählen einerseits mathematische Anwendungen, die komplexe Simulationen wie zum Beispiel Berechnungen von Strömungen, elektrichen Feldern oder aber der Thermodynamik durchführen. Auch die Kalkulation diverser Algorythmen wie sie beispielsweise zur Berechnung von Hash, CRC , Parity und SHA eingesetzt wird profitiert stark.

Andererseits profitieren Anwendungen, die audiovisuelle Inhalte verarbeiten stark. Also Videoschnitt sowie Bild- und Audio-bearbeitung.
 
Zuletzt bearbeitet:
Und bei Ice Lake sollte man nicht vergessen, dass die Kerne deutlich niedriger Takten müssen als bisher und damit viel IPC Fortschritt wieder aufgefrissen wird.
Die Taktraten lassen sich bei den U Modelle kaum vergleichen, allenfalls den maximalen Turbotakt der bis 4,1GHz liegt, kann man mit den 5GHz der 14nm Modelle vergleichen. 4,1*1,18 = 4,72, da fehlen also weniger als 6% an Leistung. Die Basistaktraten sind bei den Ice Lake-U viel kleiner, aber die haben auch AVX512, eine andere, viel stärkere iGPU und dazu noch bis zu 3 TB3 Schnittstellen. Alleine durch die AVX512 Befehle wird die Leistungsaufnahme viel höher und dies wird bei den Basistakten auch berücksichtigt.

Gerade den Test des Dell bei Anandtech sollte man vorsichtig betrachten: Der Dell ist nämlich nicht gerade Konstant, was die Leistung angeht. Bei Notebookcheck ist der nach 2-3 Cinebench Läufen massiv eingebrochen
Das ist gerade bei diesen Modellen mit geringer TDP aber doch normal, verstehe dies bitte endlich mal, die sind nicht für eine hohe Dauerlast ausgelegt!

Dell scheint daher kurzfristig mit viel TDP Budget zu boosten
Genau dies ist doch der Sinn des Boostens. Diese Modelle sind dafür gedacht mit Lasten wie Office und Surfen betrieben zu werden, also Workloads wo nur kurz hohen Lasten auftreten diese Lastspitzen sollen dann durch die hohen Taktraten schnell abgearbeitet werden.
OK, aber die Dhrystones sagen auch etwas völlig anderes (ebenso die Whetstones). Ich vermute eher, dass wPrime einen extrem ineffizienten Code verwendet, der moderne CPUs nicht vernünftig nutzen kann. Aber gerade das muss eben auch berücksichtigt werden. Niemand lässt z.B. ein Video ohne Nutzung von MMX, SSE und vielleicht sogar AVX recoden, weil es einfach keinen Sinn macht.
Genau diese Befehlserweiterungen sind ein Problem, wenn man die IPC betrachten will, denn die verarbeiten viele Daten pro Befehl. Bei AVX512 werden 8 64 Breite Daten abgearbeitet und damit entspricht ein abgearbeiteter Befehl dann 8 normalen Befehlen, die IPC wird nicht besser, obwohl man eben 8 mal so viel dabei berechnet. Man bekommt also bei Nutzung solcher Vektorbefehle dann mehr Leistung, also auch mehr Punkte in den Benchmarks die diese nutzen, ohne mehr Instruktionen abgearbeitet zu haben. Dies macht es schwer die IPC anhand von Benchmarkergebnissen zu vergleichen, wenn man nicht sicher sein kann, dass beide CPUs die gleichen Befehle genutzt haben.
 
@Tzk
Der Pentium 4 ist nicht dabei.
Es geht speziell um P6 von dem der Pentium 3 abgeleitet ist.
P6>Pentium 3>Pentium M>Core
Der Pentium 4 war eigentlich ein Rückschritt gegenüber Pentium 3!

Edit: die Arbeiten am P6 fingen bereits 1991.
 
Zuletzt bearbeitet:
@Latiose
Bitte nicht böse sein, aber versuche deine Sätze etwas besser auszuformulieren. Deine Beiträge sind manchmal sehr schwer zu dechiffrieren :p
Wie kommst du denn darauf, dass AVX für Spiele gut sind und reine Gleitkommaberechnungen für Videobearbeitung besser ist? Das ist nicht richtig, die Mathematik dahinter ist doch etwas komplizierter.

Falls du wirklich etwas mehr darüber lernen möchtest hilft dir evtl dieser Link hier weiter.
Intel Advanced Vector Extensions (AVX, AVX2, AVX-512) | Servermeile Technet
Und bezüglich deiner Videobearbeitung hier ein kleines Zitat aus dieser Seite:

Ja dank den ganzen Artikel kann man sagen SSE einheiten sind die vorteiter von AVX.DIe nutzt denke ich mal meine Software,sobald es allerdings dann bei AVX dann richtig eigentlich los geht,dann war es das.
Mir ist bisher weder bei spielen noch bei Anwendung irgendein Unterschied aufgefallen.Wo kann man denn im Bios,avx ganz deaktivieren.Also ich brauche das nicht.
Also man merkt das ich somit bei den Instuktionen ziemlich eingeschränkt bin.ALso gehört meine Software eines der wenigen die nicht von AVX Profitiert.
Ich habe mit Instutkionen gernell gemeint,nicht expliziet AVX.Also auf gut deutsch der rest außerhalb von AVX war damit bezogen.
Bleiben also nur noch Gleitkommaeinheiten und Ganzzahlen übrig.


Warum ich sage das ich von gleitkomma Profitiere,hier ein ausschnitt aus Wickipedia:


•Mathematische Funktionen wurden zunehmend in „normalen“ Applikationen verwendet, z. B. im Rendern von Zeichensätzen.
•Gatterfunktionen wurden zunehmend preiswerter, Sockel und Steckverbinder eher teurer.

Und Rendern ist für mich auch fast sowas wie umwandeln.

Ich habe mich bei den SPielen auch ebenfalls verhauen.

Auch das diese eine EInheit bis auf Cache wo es ja limiteren kann,ja sonst ebenfalls keine so große rolle spielt.Bei FPU = Float point unit -> Gleitkommaeinheit.

Hier mal ein Beispiel bei einem Nutzer im Forum:

https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=2ahUKEwjl_-DR1JrmAhVQZ8AKHSf6CF4QFjAAegQIBRAB&url=https%3A%2F%2Fextreme.pcgameshardware.de%2Fprozessoren%2F339226-cpu-floating-point-unit-reaktionszeit-beschleunigen.html&usg=AOvVaw0CWoFt5T43alknSa2n4pER

Mag schon etwas älter sein,sehe aber das dies für die SPiele keine so rießige leistungsunterschiede ausmacht.Früher scheint dies ja mehr ne ROlle zu Spielen.
Hätte nicht gedacht das es langfristig so wenig möglichkeiten gibt,da noch ne richtige Leistungssteigerung rauszuholen.Kann also nur hoffen das die IPC da von beiden Hersteller noch Optmiert wird.Ist halt die Frage ob man außerhalb von AVX genauso viel IPC leistungsteigerung dann hat oder nur in kombination mit AVX.

Denn dann würde bedeuten,wenn es 18 % wären,bei mir dann am ende ja nur 9 % ankommen würden,weil ich AVX garnicht verwende.
Habe es auch germerkt das AVX ab einen bestimmten Punkt was bringt.WIe zum beispiel bei Full HD Aufnahmen.DIese haben von 5 Minuten auf 4 Minuten beschleunigt.Ab 720p und niedriger,wurde das Umwandeln jedoch wieder langsamer.Das dies der standard ist zustand beim Umwandeln bei mir der Worst case ist.Gehe ich somit leer aus.
Schade das sich die IPC also sich nur in dem Zusammenhang von AVX miteinbezieht.Wenn also mal eine 10 nm nicht echte nm kommt,dann heißt das für mich ,das diese CPU 10 % langsamer als meine ist,aufgrund des niedrigen Taktes.ALso wenn meine 4 ghz hat,die andere nur 3 ghz+ 18 % IPC als beispiel.Dann hätte ich durch den Takt nachteil 20 % weniger Leistung - die 9 % mehrleistung am ende also noch immer 11 % weniger Leistung als nun.

Dann würde sich ein upgraden überhaupt nicht lohnen.Dann überspringt man in der hinsicht lieber die CPU gernation.
 
Dass Rocket Lake auf 14nm basiert ist doch ein alter Hut. Die eigentliche news dabei ist, dass nicht etwa Skylake Kerne Verwendung finden, sondern offenbar Kerne der Willow Cove Generation. Das ist die big news hierbei.
 
Ich mag 14nm. Wenn das OC Potential wie gehabt ist, da nimmt man doch das bissi Mehrverbrauch gegenüber einer in 10nm gefertigten CPU willig in Kauf. :xmas:
 
Vorallem man darf nicht vergessen,das shrinken also verkleinen ,sagt noch lange nichts darüber aus ,was an leistung dabei rüber kommt.Klar ist,das das verkleinern für den Hersteller kostenersparnis auf dauer bedeutet.Schneller wird die CPU nicht.Es sei denn man klatscht mehr Transistoren drauf.DIe dürfen nur halt nicht zu viele Transsitoren drauf klatschen.Denn je enger die aneinander sind,desto höhere Wärme abgabe gibt es dann.Dann also auch heißer und somit ist ne stärkere CPU Kühler erfoderlich.Dann braucht ne heißere CPU auch automatisch mehr strom.Somit muss man ja auch immer abwägen ob man mehr Takt oder mehr Transistoren haben will.Nehmen die mehr Transistoren,dann heißt es ,muss der Takt runter gehen.Was denn leistungsgewinn schmälter.
Man könnte halt auch immer komprimisse eingehen,nur ob das auf dauer zu einer starken mehrleistung führt,wird sicher die Zeit zeigen.Im bin ebenfalls gespannt drauf,wie sich alle Hersteller dafpr entscheiden werden.
 
@Latiose
Auch das ist so nicht richtig. Das Shrinken auf ein kleineres Verfahren kostet Unternehmen extrem viel an Forschungsgelder. Man kann also nicht nur von Kostenersparnis sprechen. Wie du schon erwähnt hast, kann man danach mehr Transistoren auf gleicher Fläche packen und bekommt damit eine schnellere CPU.

Dass durch das shrinken die CPUs immer heißer werden ist aber falsch. Kleinere Transistoren brauchen idr weniger Spannung und Strom, dadurch relativiert sich das Ganze etwas. Wenn das nicht so wäre, würden die CPUs von heute ja das Vielfache einer CPU von vor 10Jahren brauchen. Eine Verdoppelung der Transistoren wäre nach deinem Beispiel eine Verdoppelung des verbrauchten Stromes und damit auch eine Verdoppelung der Abwärme.
Genau wie heute hatten aber normale CPUs vor 10 Jahren schon 95Watt TDP
 
Zuletzt bearbeitet:
Weniger Verbrauch, aber Wärmeübergang schlechter, da kleinere Oberfläche und höhere Packdichte, sieht man ja bei AMD aktuell auch.

Wenn sich die kleineren Strukturen/Prozesse nicht rechnen würden, würde kein Hersteller diese Prozesse entwickeln.

Das ist auch Teil des unternehmerischen Risikos.

Bei für die Herstellungen von Millionen von Prozessoren genutzten Prozessen rechnet sich die Entwicklung eben.

Es gibt nur zwei Möglichkeiten mehr Dice auf einem Waver unterzubringen: Waver vergrößern und/oder die Fläche, die ein Die benötigt verringern. ;)
 
Die Oberfläche ist nicht kleiner!
Hier mal zum Vergleich :

PentiumD (Presler 2006 90nm) Transistoren 376Mio, Größe 162qmm
Core i7 4790k (Haswell 2014 22nm) Transistoren 1,4Mrd, Größe 177qmm
Core I7 8700k (Cfl 2017 14nm) Transistoren 2,57Mrd, Größe 150qmm
Core I9 9900k (Cfl 2018 14nm) Transistoren 1,73Mrd, Größe 178qmm

Wie du siehst hält sich die Die-Größe in der Waage. Die Packdichte ist natürlich gestiegen, der Verbrauch pro einzelnen Transistor aber deutlich gefallen. Jede dieser CPUs hat eine TDP von 95W. Je kleiner die Transistoren desto effizienter werden sie in der Regel.

Edit: Die Angaben der Transistoren beziehen sich auf jeden einzelnen Kern
 
Zuletzt bearbeitet:
Wie du schon erwähnt hast, kann man danach mehr Transistoren auf gleicher Fläche packen und bekommt damit eine schnellere CPU.
Schneller wird die CPU durch mehr Transistoren auch nicht automatisch, wenn man diese zusätzlichen Transistoren für mehr Keren nutzt, gibt es mehr Multicoreperformance, aber die Singlecoreperformance kann man durch mehr Transistoren viel schlechter steigern, durch mehr Cache und größtere Buffer kann man fehlenden Takt nur sehr begrenzt kompensieren, wie man ja gerade bei Intels 10nm CPUs sieht.
Dass durch das shrinken die CPUs immer heißer werden ist aber falsch. Kleinere Transistoren brauchen idr weniger Spannung und Strom, dadurch relativiert sich das Ganze etwas.
Aber nur etwas und nur bis zu einem bestimmten Punkt, denn die Widerstände der stromführenden Leiter erhöhen sich ja auch, je geringer deren Querschnitt wird. Deshalb ist Intel bei 10nm ja auch von Kupfer auf Kobalt gewechselt, weil die bei ganz kleinen Querschnitten besser leitet als Kupfer. Es spielen eine Menge Aspekte da rein.
 
Weniger Verbrauch, aber Wärmeübergang schlechter, da kleinere Oberfläche und höhere Packdichte, sieht man ja bei AMD aktuell auch.

Wenn sich die kleineren Strukturen/Prozesse nicht rechnen würden, würde kein Hersteller diese Prozesse entwickeln.

Das ist auch Teil des unternehmerischen Risikos.

Bei für die Herstellungen von Millionen von Prozessoren genutzten Prozessen rechnet sich die Entwicklung eben.

Es gibt nur zwei Möglichkeiten mehr Dice auf einem Waver unterzubringen: Waver vergrößern und/oder die Fläche, die ein Die benötigt verringern. ;)

Genau das wollte ich damit sagen.Nicht der Stromverbrauch wird mehr,habe ich somit nie behauptet.War auf die wärme bezogen.Würde man nun einfach shinken,da mehr Tranistoren drauf,dann ginge das nicht so einfach ,den Takt so zu behalten wie er ist.Je kleiner die Fläche und je enger die dichte umso heißer wird ja die CPU.Das heißt langfristig das man die Transistoren nicht mehr so weit mit dem Takt hochfahren kann.Darum wird es in Zukunft dank des geringeren Taktes auch weniger Leistung haben.Das kann man nicht alles mit IPC und mehr Transistoren ausgleichen.Denn ab einen gewissen Punkt es dann nur noch zu noch mehr Temperaturen führen könnte.Darum werden wir so irgendwann zu einer sackgasse kommen.
 
Aber nur etwas und nur bis zu einem bestimmten Punkt, denn die Widerstände der stromführenden Leiter erhöhen sich ja auch, je geringer deren Querschnitt wird. Deshalb ist Intel bei 10nm ja auch von Kupfer auf Kobalt gewechselt, weil die bei ganz kleinen Querschnitten besser leitet als Kupfer. Es spielen eine Menge Aspekte da rein.

Nur etwas? Wie kann es dann sein, dass heute ein Kern 7-8Mal so viel Transistoren hat als 2006, ohne dass dabei der Verbrauch(wärmeverlust) nur ansatzweise so stark gestiegen ist? Dass noch viel mehr Aspekte eine Rolle spielen ist klar.
 
Zuletzt bearbeitet:
Die Oberfläche ist nicht kleiner!
Hier mal zum Vergleich :

PentiumD (Presler 2006 90nm) Transistoren 376Mio, Größe 162qmm
Core i7 4790k (Haswell 2014 22nm) Transistoren 1,4Mrd, Größe 177qmm
Core I7 8700k (Cfl 2017 14nm) Transistoren 2,57Mrd, Größe 150qmm
Core I9 9900k (Cfl 2018 14nm) Transistoren 1,73Mrd, Größe 178qmm

Wie du siehst hält sich die Die-Größe in der Waage. Die Packdichte ist natürlich gestiegen, der Verbrauch pro einzelnen Transistor aber deutlich gefallen. Jede dieser CPUs hat eine TDP von 95W. Je kleiner die Transistoren desto effizienter werden sie in der Regel.

Edit: Die Angaben der Transistoren beziehen sich auf jeden einzelnen Kern

Das ist doch Pro Kern so nicht wahr?
Wenn es dem so ist,dann ist die Packdichte ja zwischen 8700k und 9900k.
Wenn man also so rechnet dann sind es 2,75 Mrd * 6 und beim anderen 1,73 Mrd * 8= 16,5 Mrd und 13,84 Mrd.WIe du siehst ist also die Packdichte also gesunken.Liegt wohl daran das es irgendwann Intel selbst gemerkt hatte,das je mehr Transistoren man ja dann den Takt nicht mehr so hochschrauben kann.

Ist ja bei den Grafikkarten ja auch so.Je mehr Transistoren,desto schwieriger ist die Hardware Kühlbar.Somit sehe ich hier also ein sweetpot erreicht.
 
Klar, jeder einzelne Transistor erhöht natürlich die Abwärme. Alles andere ergäbe keinen Sinn. Warum der 9900k weniger Transistoren pro Kern hat kann ich natürlich nicht mit Sicherheit sagen.
Es könnte einmal die Abwärme sein, so wie du sagst. 8x2,57Mrd Transistoren wären vielleicht einfach zu heftig gewesen zum Kühlen.
Es können aber auch andere Gründe sein. Jeder Kern braucht einen eigenen Cache auf dem Die. Dieser verbraucht auch wieder Platz. Der Interconnect zwischen den Kernen wird vielleicht komplexer und braucht mehr Platz. Ergo nimmt der Platz für Transistoren ab.
Eine dritte Möglichkeit ist evtl einfach das Geld! Ein 9900k mit 2,57mrd Transistoren pro Kern wäre größer geworden. Die Waferfläche selber kostet natürlich Geld und der Ausschuss bei Fehlern in der Produktion wäre auf die Waferfläche umgerechnet auch viel größer.
Das würde die Produktion unwirtschaftlich machen, oder man müsste die Preise anheben.
Preise anheben bei dem Druck von AMD? Keine gute Idee
AMD kann mit seinen ZeppelinDies wesentlich günstiger produzieren. Alles mögliche Gründe
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh