HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.949
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Das liegt daran, wenn man sich jahrelang auf seinen Lorbeeren ausruht und für sich keine neuen Gebiete im Absatz erschließt, weil man satt ist und seine Konkurrenz für unfähig hält, man sieht ja was dabei herauskommt.Der Vergleich zu den Angaben von Intel zur 10-nm-Fertigung zeigt: Der einstige Technologieführer in diesem Bereich musste die Konkurrenz teilweise an sich vorbeiziehen lassen.
Das Gesetz trägt weiter Gültigkeit (wobei es sowieso nur als empirische Faustregel gilt), viel schwieriger wird es die zugewonnene Transistorfläche bei hoher Intergeritätsdichte auch auszunutzen, dort stößt man bei Auslastung und Kühlungseffekt zwangsläufig an seine Grenzen, wenn sich die Leistung dabei stetig verdoppeln soll.Ob Moores Law nun am Ende ist oder nicht, darüber streiten sich die Geister.
Aha, schon komisch was man daraus herauslesen "will":Das liegt daran, wenn man sich jahrelang auf seinen Lorbeeren ausruht und für sich keine neuen Gebiete im Absatz erschließt, weil man satt ist und seine Konkurrenz für unfähig hält, man sieht ja was dabei herauskommt.
Artikel schrieb:Die Multi-Milliarden-Investitionen in neue Fertigungsstraßen und R&D zeigen, dass der Aufwand immer größer wird.
Nein natürlich nicht, ging darum das man sich selbst als vermeintlicher Marktführer sieht und trotzdem von Samsung eingeholt wurde. Die müssen ja genauso viel investieren. Womöglich war es der Aufwand für 10nm dann doch nicht wert. Nach dem moorischen Gesetz kann man bei auslassen eines Shrinks ja auch gut und gerne 4-6 Jahre brauchen. Man muss es nur wollen.Aha, schon komisch was man daraus herauslesen "will":
Wenn ich mir das so anschaue, und dieses Jahr die ersten 7nm-Chips vom Band laufen sieht das für Intel gar nicht mal so gut aus.
Mit zu vielen Neuheiten übernommen ist wohl genau der springende Punkt.
Glaub ich nicht, Cobalt nutzen sie für die beiden unteren Layer.Das Intel so zurückliegt dürfte vor allem hieran liegen: Mit zu vielen Neuheiten übernommen ist wohl genau der springende Punkt.
Genauso.Wenn ich mir das so anschaue, und dieses Jahr die ersten 7nm-Chips vom Band laufen sieht das für Intel gar nicht mal so gut aus.
amd nutzt doch einen samsung prozess oder etwa nicht. ist es nicht so dass amd sich von samsung das rezept holt und von glofo dann backen lässt? ich verstehe wenig von der materie
Ist es nicht. Denn die nächsten großen Spünge kommen ja gerade rein. Erst kommt EUV und dann GAAFETs. Das wird natürlich nochmals für mehr Performance und eine Taktsteigerung sorgen, das versteht sich einfach von selbst. Tigerlake kommt in 10++, da wird man die 5GHz mMn mit überschreiten. Und was die post-Core-Architektur von Intel und Zen3 von AMD für uns bereit hält ist ja jetzt noch gar nicht absehbar.Ich weiß nicht warum du das aus meinem Post rauslesen willst um es dann als bs bzw. Blödsinn zu bezeichnen. Das ganze ist nunmal Prozentrechnung. Einen 8700k zu OC lohnt fast nichtmehr, da man mit mehr vcore vlt. 500mhz rausholt und das sind dann bestenfalls 10%, ich kenne eben noch die q6600 Zeiten und davor da hat man über 10% gelacht.
wenn man also nur per takt mehr Leistung haben will sind wir beim nächsten Prozessor bei 5.5 beim nächsten dann bei 6, das ist BS.
Und die raffinierteren Turbomodi aber ebenfalls.vor allem jetzt wo post ryzen die Kerne sprießen wie Pilze.
und ich schreibe auch schon lange dass es intel nicht um die max. Leistung im Mainstream geht also zuletzt 77k und 87k, die cpus kaufen wenige, intel entwickelt schon seit jahren auf den laptop markt und hp markt hin.
als hier alles am heulen waren, dass pro cpu Generation kaum mehr Leistung dazukam hat intel z.b. den idle verbrauch extrem verringert und das ist in nem Laptop halt gold Wert. Das das am desktop keinen jucks ist mir klar und dass da schonmal keiner sieht dass zw 40 und 20W idle Verbrauch universen liegen ist auch klar. im Laptop zählt aber jedes watt. und nun schau mal wieviel ryzen idle verbraucht und wieviel intel. und rate mal was ein laptop zu 98% der zeit ist.
Es gibt also sehr wohl eine permanente Taktsteigerung.
HP ist Trumpf, nicht LP.
Das geht nicht ohne Takt. Das geht nicht mit nur Takt, siehe P4, es geht aber auch nicht mit wenig Takt.
Wenn AMD jetzt bei 7nm 40% drauf legt, gibt es für Intel einfach keinerlei Vorteile mehr. Da helfen die 2 mehr Kerne auch nicht weiter. Denn dieser Prozess spart ja auch 60%+ Power ggü. 14LPP, das bedeutet, bei der Zen-Architektur, die ja von sich aus schon sparsamer ist als Intels Core-Architektur, ist man auch dort massiv vorne.
Solange die Architekturen "gleich" bleiben, sprich nur verbessert und geshrinked werden (z.B. Skylake -> Kabylake -> Coffelake) bzw. Zen -> Zen+ und vermutlich dann auch ->Zen2 ist mit Taktsteigerungen zu rechnen, ja. Aber wie ich schon schrieb wohl in sehr kleinen Schritten und mit 6 GHz @ Default/Serienmodell (auch Turbo) braucht man nicht allzuschnell rechnen.... Takt steigt also noch weiter trotz mehr kerne nur halt in kleinen Schritten.
Ja - nur wie langsam?...
Die Taktschraube drehte sich auch in der Vergangenheit immer weiter. ...
Naja der Athlon 64 und Pentium M haben es jedoch ganz gut vorgemacht. Da haben viele Modelle < 2GHz einen 3GHz P4 öfters in Verlegenheit gebracht....
Das geht nicht mit nur Takt, siehe P4, es geht aber auch nicht mit wenig Takt.
Klar limitieren jetzt nicht direkt die Architekturen, hab ich auch nicht gesagt, deswegen auch mein Vermerk bzgl. Verbrauch und Effizienz. Man sieht jedoch daß man bei den Taktraten der Serienmodelle in den letzten vielen Jahren nur sehr langsam voran kommt. Daß die Fertigungen und Effizienz steigt ist ja bewiesen da man nun viel mehr Kerne und Cache mit viel mehr IPC (je Kern) bei sogar teils höheren Taktraten als früher in änhliche TDP Klassen bekommt. Trotzdem schafft man mit alltagstauglichem OC mit egal welcher CPU in den letzten Jahren nur Bereiche zwischen 4-5 GHz. Es ist wohl ähnlich schwierig die Taktraten zu steigern, ohne die Effizienz zu verlieren, wie es ist die Fertigungen immer weiter zu verkleinern/verfeinern. Man schafft es zwar irgendwie in der Fertigung zu verkleinern und zu optimieren aber man sieht ja schon klar bei dem Artikel hier daß 14nm nicht gleich 14nm ist und die Verkleinerungen nur teilweise greifen....
Weder Zen noch Core limitieren durch den Takt. Das beweisen Hardcoreübertaktet andauernd aufs neue. Die Prozesse limitieren den Takt. Das ist ist einfach ein Fakt.
Bucho
Du beweist grade, dass sämtliche Architekturen den Takt nicht limitiert haben. Wenn man jetzt mal echte Taktraten zurate zieht und nicht das OC-Gerate, sieht das ganz anders aus.
P4 -> 3,8GHz (ein Kern)
Core2 6xxx -> 3,3GHz (Sprung auf 2 Kerne)
Core2 8xxx -> 3,5GHz
Bloomfield/Lynnfield -> 3,33 (Sprung auf 4 Kerne)
Sandy Bridge -> 3,5/3,9
Ivy -> 3,5/3,9
Haswell -> 4,0/4,4
Kabylake/Skylake -> 4,2/4,5
Coffelake -> 4,3/4,7 (Sprung auf 6 Kerne)
Icelake -> ~4,2/4,6 (Sprung auf 8 Kerne)
Es gibt also sehr wohl eine permanente Taktsteigerung.
Was meinst Du mit "40% dauf legen"? 40% Mehr Takt kann ich mir nicht vorstellen - da wären wir bei angenommenen 3,6GHz Base eines 1800X bei 5,0GHz - no way....
Wenn AMD jetzt bei 7nm 40% drauf legt, gibt es für Intel einfach keinerlei Vorteile mehr. Da helfen die 2 mehr Kerne auch nicht weiter. Denn dieser Prozess spart ja auch 60%+ Power ggü. 14LPP, das bedeutet, bei der Zen-Architektur, die ja von sich aus schon sparsamer ist als Intels Core-Architektur, ist man auch dort massiv vorne.
Tja aber es gibt nur 3 realistische Möglichkeiten die Leistung zukünftiger x86 CPUs zu steigern, entweder sie schaffen es irgendwie durch bessere/neuartige Fertigungen deutlich höhere Taktraten zu fahren, oder sie gehen extrem in die Breite (Mehr Kerne, Cache, Speicher und Busanbindung ...), oder mit komplett neuen Architekturen. Ersteres ist wie von uns und auch Dir gesagt wie es scheint seit Jahren nur minimal möglich ohne gleich die Leistungsaufnahme drastisch zu erhöhen, zweiteres passiert sowieso - bringt allerdings für normale User wenig und wirkt sich eigentlich nur im Server-, HPC oder sonstigen Spezialanwendungsgebieten aus, und letzteres ist nicht leicht zu realisieren und dauert halt sehr lange.Derzeit ist es schwer die 5GHz wirklich zu überwinden ohne die Leistungsaufnahme explodieren zu lassen, aber dies muss ja nicht so bleiben und gerade Intel hat von allen Fabs sicher das größte Interesse dies zu schaffen, ...
Naja die Willis waren nicht so das Gelbe vom Ei, erst mit hohen Taktraten und/oder Rambus Speicher bzw. später DDR konnten sie etwas Land gewinnen. Die Northwood waren allerdings ziemlich gut, keine Frage. Endlich genug L2 Cache, hohe Taktraten und DDR Speicher war endlich auch im Kommen und bot eine gute Leistung für's Geld.Der P4 hatte überhaupt kein Problem, die Architektur der CPU funktionierte einwandfrei. Willamette (180nm) und Northwood (130nm) liefen gut. Was völlig in die Hose ging war der 90nm-Prozeß, der dem Begriff Leakage eine ganz neue Dimension verlieh. Der Takt blieb dadurch weit hinter den Erwartungen zurück und das ließ die neue Variante Prescott, die exta auf noch höhere Taktraten ausgelegt war, sehr schlecht aussehen. Daß die Prescott-Architektur nicht das eigentliche Problem war, konnte man dann beim Die-Shrink auf 65nm (Cedar Mill) sehen. Nur da hatte Intel bereits auf die Core-Architektur gesetzt.
...