IEDM 2020: Intel will durch gestapelte Transistoren deren Dichte verdoppeln

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.961
intel-2020.jpg
Auf dem diesjährigen IEEE International Electron Devices Meeting (IEDM) präsentierte Intel verschiedene Weiter- und Neuentwicklungen aus dem Bereich der Fertigungstechnologien. Eine der wichtigsten Forschungen betrifft die sogenannte Self-Aligned 3D Stacked Multi-Ribbon CMOS Transistoren – selbstausrichtende, gestapelte Transistoren, welche Intel theoretisch in die Lage versetzen sollen die Transistordichte zu verdoppeln.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Würde dies theoretisch eine verdoppelung der verlustleistung pro fläche bedeuten? Wenn ja, würde dies neuen herausforderungen an kühlung und haltbarkeit stellen.
 
Ich sehe die Werbebrochüre schon vor mir:

Wir haben die Krone auf dem CPU Markt zurückerobert*

*mit einer TDP von 500 Watt
 
Ich wäre da erst mal nicht so pessimistisch, wenn ich den Original Artikel richtig verstehe möchte man die (Fin)FETs anders anordnen und damit mehr Gates pro Fläche unterbringen. Zudem denkt man wohl laut Artikle erst mal an so etwas wie SRAM and Caches.

Eine Flächenverkleinerung bedeutet kleinere Chips = mehr Ausbeute je Wafer = mehr Chips pro FAB = besserer Verfügbarkeit.

Vergesst nicht die x86 Fertigung von Intel läuft immer noch am Anschlag bei so gut wie 100% Auslastung. Ich denke Intel muß mehr Angst vor ARM und den Investitionen hier haben als von AMD x86. Marktanteile von AMD x86 kann man zurückholen. Marktantiele die and ARM oder RISC-V verloren gehen sind strategisch langfristiger weg.

Zu einer hypotetischen CPU, wenn man dann bei gleicher Fläche mehr Gates hat und bei weniger Takt and damit weniger Spannung macht könnte das imho zu einer höheren IPC pro Fläche führen. Eventuell überwiegt der IPC gewinn ja den Verlust durch den geringeren Takt? Alleine schon wenn man damit die selbe Leistung bei weniger Stromverbrauch zu heutigen mobile x86 CPUs hinbekommen würde, wäre das eine tolle Sache.
Auch im Serverbreich wäre so ein Energieeffiziente CPU (z.B. gleiche Leistung 25% weniger Stromverbrauch) ein Kracher. Immerhin könnte man damit ARM kontern.
 
Ich wäre da erst mal nicht so pessimistisch, wenn ich den Original Artikel richtig verstehe möchte man die (Fin)FETs anders anordnen und damit mehr Gates pro Fläche unterbringen. Zudem denkt man wohl laut Artikle erst mal an so etwas wie SRAM and Caches.

Eine Flächenverkleinerung bedeutet kleinere Chips = mehr Ausbeute je Wafer = mehr Chips pro FAB = besserer Verfügbarkeit.

Vergesst nicht die x86 Fertigung von Intel läuft immer noch am Anschlag bei so gut wie 100% Auslastung. Ich denke Intel muß mehr Angst vor ARM und den Investitionen hier haben als von AMD x86. Marktanteile von AMD x86 kann man zurückholen. Marktantiele die and ARM oder RISC-V verloren gehen sind strategisch langfristiger weg.

Zu einer hypotetischen CPU, wenn man dann bei gleicher Fläche mehr Gates hat und bei weniger Takt and damit weniger Spannung macht könnte das imho zu einer höheren IPC pro Fläche führen. Eventuell überwiegt der IPC gewinn ja den Verlust durch den geringeren Takt? Alleine schon wenn man damit die selbe Leistung bei weniger Stromverbrauch zu heutigen mobile x86 CPUs hinbekommen würde, wäre das eine tolle Sache.
Auch im Serverbreich wäre so ein Energieeffiziente CPU (z.B. gleiche Leistung 25% weniger Stromverbrauch) ein Kracher. Immerhin könnte man damit ARM kontern.
Man müsste doch die wärmeabgabe mindestens halbieren nur um die jetzigen temperaturen zu halten. Oder missverstehe ich etwas?
 
CPUs arbeiten ja eh effizienter in niedrigeren TDP Bereichen. Das wäre glaube ich gar nicht so wild.
 
Man müsste doch die wärmeabgabe mindestens halbieren nur um die jetzigen temperaturen zu halten. Oder missverstehe ich etwas?
Erst mal werden ja keine CPUs anvisiert sondern flüchtiger Speicher. In dem Bereich hat man nicht so Temperaturprobleme.

Bezüglich CPUs, habe ich nur spekuliert. Ich denke im Hardwareluxx hat man halt immer die Speerspitze der Desktop CPUs im Blick. Für kleinere mobile Chips die in den allermeisten Notebooks stecken wäre das sicher interessant. Zu echten Skalierungsfaktoren traue ich mir keine Aussage zu. Ich finde halt die Grundtendenz der ersten Kommentare etwas pessimistisch/negativ.
 
Icu sehe es neutral, aber intel hat in den letzten jahren viel angekündigt.
 
Frohes Neues Jahr und Prost
 
Man müsste doch die wärmeabgabe mindestens halbieren nur um die jetzigen temperaturen zu halten. Oder missverstehe ich etwas?
Es ist ja nicht so, dass eine CPU mit 95W TDP die doppelte Leistung erbringt, wie eine CPU mit 45W TDP. Wenn man die TDP als real Verbrauch nehmen würde, wärst du bei 100% mehr Energiezufuhr nicht bei einer doppelt so schnellen CPU.
Die Effizienz sinkt mit steigendem Takt stark.
Die wärmeabgabe kannst du also evtl schon halbieren mit 30% weniger Takt/Spannung, hast dafür aber dann die doppelte Anzahl an Transistoren und landest am Ende unterm Strich im +
So wie HerrLange schon erklärt hat.
 
Ich sehe es auch so. Die glorreichen Jahre wo 5 und mehr GHz ereicht wurden sind halt langsam vorbei. Ipc Steigerung ist wichtiger als höherrt takt. Sehe also langfristig so 4 GHz als das maximum an. Intel wird langfristig also auch den Weg wie AMD gehen und nicht mehr die Brechstange rausholen.
Sie hätten zwar das Ziel mal gehabt den hohen takt zu halten, jedoch verstehen sie auch immer mehr das alleine der hohe takt auch nix mehr bringt. Vielleicht sehen wir langsam die abbkehr von den 5 GHz takt. Jedoch 4 GHz sind auch in Zukunft immer gut möglich. Man sollte aber niemals zu dicht machen, denn dann passiert sowas wie dem ryzen 9 5950x wo dann bei 4,3 GHz oder höher schon die 100 grad Marke zu sehen ist. Auch wenn das so von den Entwicklern von amd so gewollt ist, gut heißen kann ich das dennoch nicht. Denn wer will schon das seine CPU die 100 grad marke ständig küsst. Ziel ist es ja so weit weg von den 100 grad wie möglich zu kommen. Bei den Intel CPUs mit den 5 oder gar 5,3 GHz sieht es da ja nicht wirklich besser aus. Diese bewegen sich nämlich auch immer schön in Richtung 100 Grad.
Und das selbst mit ner Wasserkühlung. Solche personen wie mich die nur auf luftkühlung setzen ist das wirklich ne Qual. Denn dann muss man aufpassen das man nicht die 110 Grad marke überschreitet. Da verzichtet man dann lieber auf ein paar hunderte mhz an takt und fährt dann sicherer. Ich hoffe Intel und Co machen da das beste draus. Bin echt gespannt wie man hier die Temperatur probleme in den Griff kriegen will. Wenn die Leistung durch alleine mehr ipc die übliche leistungs Steigerung alleine nur durch das erreicht ohne groß nen höheren takt gefahren ist, dann bin ich dabei. Oder noch besser wenn der takt um einiges geringer ist, aber nur dank der ipc Steigerung dennoch mehr Leistung gegenüber dem Vorgänger cpu ereicht wird, na dann wäre ich voll überzeugt davon. Nun heist es abwarten wie es am Ende weiter geht. Erhoffe mir zudem durch diese Maßnahme auch nen stromsparen weil weniger tskt für die leistung benötigt wird. Diese Entwicklung kann ich somit nur gut heißen.
Mehr Infos werden wir mit der Zeit,gewiss schon erfahren werden.
 
Glaub ich nicht, dass der Takt wieder sinkt. Zumindest nicht so drastisch. Und 100°C ist nur ne Zahl. Sofern du Gategroße weiter verkleinerst und die Dichte... Große Chips takten halt auch immer langsamer und sind ineffizienter. Was mich eher interessieren würde ist wie lange Silizium noch verwendet wird. Stoffe wie Gallium- und Bornitrit (?) zeigen weitaus bessere Eigenschaften was Wärmeleitfähigkeit oder Strombedarf angeht.
 
Silizium hat den Vorteil dass es nicht selten ist un im rohen Zustand quasi nichts kostet. Daher denke ich nicht, dass in nächster Zeit für klassische Halbleiter etwas anderes verwendet wird.
 
Erstmal muss Intel auch liefern. Apple wurde belächelt für das Vorhaben mit den eigenen CPUs und hat mehr als geliefert...
 
Silizium hat den Vorteil dass es nicht selten ist un im rohen Zustand quasi nichts kostet

Weißt du was ein Siliziumkristall oder auch nur ne Wafer kostet? Materialkosten sind nichts, das mag sein, aber der Preis für die Reinheit und Produktionszeit ist enorm. https://www.elektroniknet.de/halbleiter/wafer-preise-unter-druck.158732.html wenn wir nur mal annehmen das ne 14 oder 7nm Wafer ähnlich skaliert wie die Vorgänger bis ~20nm mit 6000$ für 300mm Durchmesser und heute 450mm genommen wird... Der Preis von der FAB an sich ist so massiv mit der ganzen Luftreinheit, Vibrationsdämpfung, die Maschinen millionen wert und nach wenigen Jahren unbrauchbar... Es ist egal. Weißt du wie ein UV-Laser funktioniert? die schießen nen Tropfen hochreines Zink? in ne Vakuumkammer, beschießen es mit starken Lasern, dass es ein Plasma wird und beim "Abkühlen" wenn bestimmte Elektronen wieder in die Schale um den Atomkern fallen senden sie ein Photon aus, dass die Wellenlänge hat, die du für den Laser brauchst der dann tatsächlich genutzt wird um den Chip zu machen. Mal ganz abgesehen von dem Aufwand den scheiß zu filtern und bündeln.

Ob deine Wafer nun 10000 oder 20000 kostet ist irrelevant. Und selbst wenn haben Verbraucher gezeigt, was sie bereit sind zu Zahlen. Der 9980XE hat mal 2000€ gekostet nicht weil er so teuer ist in der Produktion, sondern weil die Leute es gezahlt haben. Ob der einzelne Chip am Ende 50 oder 100€ mehr kostet interessiert dich auch nicht, wenn du 10000 für nen Xeon Platinum hinlegst. Wenn du einen Chip baust der 20% schneller ist und 20% weniger Strom zieht aber 50% mehr Kostet als alles andere am Mark ist das für Datacenter und Supercomputer billiger auf lange Sicht weil du Fläche und Energie sparst. Und wir werden die Grenze von Silizium irgendwann erreichen. Kannst ja mal die Atome von nem Intel 14nm in einem Der 8auer Video zählen zwischen den Gates. Selbst wenn du für ne Gallium CPU ne höhere Strukturbreite brauchst, was im übrigen ja billiger wäre, so kannst du viel höhere Schaltzeiten hinbekommen, weil die Spannung viel kleiner sein muss. Ich kenn mich da nicht aus, mein Kumpel hat E-Technik Studiert und darüber seine Arbeit geschrieben. Aber früher oder später wird sich ein anderes Material herauskristallisieren. Von mir aus auch Graphen.

@tobsel
Intel hat nicht vor 1 oder 2 Jahren nen Fehler gemacht sonder vor fast 10. Und Apple stellt auch keine CPUs her sondern Entwirft sie nur. Das soll in keinster Weise das Produkt schlecht machen, aber Intel hat nun mal FABs und dass muss man immer im Hinterkopf behalten. Die sind nicht hinten weil die geplanten CPUs schlecht waren sonder weil sie sie nicht bauen konnten. Dafür haben sie mehr Freiheit und Gewinn pro Chip. Intel hat ein Ausbeute und Managementproblem. Man muss sich nur mal AMD vor Ryzen anschauen.

Es ist doch eh immer ein Wechsel. Eine Firma ist innovativ, macht massiv Cash, wird faul und gierig und zum Schluss abgelöst von der anderen mit Innovation.
 
Ich zitiere einfach mal von Wikipedia:

Dennoch hat Galliumarsenid das Silicium als Massen-Halbleiter für eher alltägliche Anwendungen nicht verdrängen können. Die hauptsächlichen Gründe dafür sind die im Vergleich zum extrem häufigen Element Silicium wesentlich höheren Preise der deutlich selteneren Ausgangsstoffe Gallium und Arsen, sowie die aufwendigere Technologie zur Herstellung von Einkristallen. Dieser hohe technologische Aufwand begrenzt zugleich die Masse und den Durchmesser der Galliumarsenid-Einkristalle. Außerdem lassen sich in Silicium leichter isolierende Bereiche erzeugen – meist in Form von Siliciumdioxid –, als es im Galliumarsenid möglich ist. Da im GaAs wegen der im Vergleich zum Silicium deutlich geringeren Mobilität seiner leitenden Defektelektronen (den sogenannten „Löchern“) auch keine guten p-Kanal-Feldeffekttransistoren realisiert werden können, ist die CMOS-Schaltungstechnik in GaAs nicht möglich; dadurch kehrt sich der energetische Vorteil von GaAs für viele Anwendungszwecke ins Gegenteil um.

Siehe https://de.wikipedia.org/wiki/Galliumarsenid

Wir reden hoer nicht von ein paar Euro mehr, sondern von einem vielfachen. Das Ausgangsmaterial ist wesentlich teuerer. Der Prozess zum herstellen der Waver ist wesentlich aufwändiger. Der resultierende Waver und die Prozessor würde ein Vielfaches von einer heutigen Silicium CPU kosten. Die eventuellen Vorteile stünden in keiner Relation zum Preis.

Die von dir genannten Halbleitermaterialien haben allesamt ihre Nische und dieser ihre Daseinsberechtigung - Multi Purpose CPUs gehören aber nicht dazu. Halbleiter haben abseits von CPUs und GPUs noch viele weitere Einsatzzwecke wie Stromerzeugung, Spannungsregulierung, Leuchtdioden, HF Technik etc.. Nicht jeder Fachartikel über Halbleiter der Vorteile herausstellt bezieht sich auutomatisch auf CPUs/GPUs.

Grafen wäre ein interessantes Material, lässt sich aber immer noch nicht ausreichend Herstellen. Seit etwa 30 Jahren heisst es hier in etwa 10 Jahren könnte man das vielleicht industriell einsetzen.

Ich bleibe dabei, im multi purpose CPU und GPU Bereich reden wir in absehbarer Zeit weiter über Silicium Halbleiter. Zudem, um in 5 Jahren solche Chips in Massen kaufen zu können müsste jetzt ein Hersteller massiv investieren. Welcher wäre das?
 
@HerrLange

Schade dann wird es also keine so dermaßen starke steigerungen mehr geben.Denn ohne gute Alternative erreicht man bei einem Prozess her keine 100 % und mehr an Leistungssteigerung.Wobei das ja völlig unrealistisch wäre.Denn keine Fertiger Progiziert eine Leistungsteigerung von 7 auf 5 nm auf 100 % mehr Leistung.Und selbst von 7 auf 3 nm wird keine 100 % und mehr an Leistungssteigerung alleine nur durch die Fertigung erwartet.Sonst könnte man ja sagen,sobald AMD auf 5 nm gewechselt ist,das ein Ryzen 9 6950x gegenüber Ryzen 9 5950x einfach mal die Leistung wird.Diese CPU würde ich zugerne kaufen wollen,die einfach mal ihre Leistung verdoppelt.
Und nein doppelte Transistoren bedeutet ja nicht das diese auch die Leistung einfach mal so verdoppelt.Das wäre ja die Perfekteste Skalierung.Sowas gab es seid Jahren nicht mehr.Das bleibt also wunschdenken.Zumal auch noch die Software hier ,solch eine extreme Leistungssteigerung auch noch zu nichte machen würde.
Und selbst bei einem mit weniger Kerner wo sicher jede Software die CPU zu 100 % auslasten auch bei neueren CPUs,wie dann ein Ryzen 7 6800x,wenn er denn mal kommen wird,wird ebenso keine 100 % mehrleistung gegenüber nen 5800x erhalten können.Da kann die software noch so gut die CPU auslasten,das wird nicht besser.
Und ja Grafen ist ebenso mit akteller Software nicht möglich,weil die SOftware müsste schon drauf angepasst werden.Denn wenn das nicht müsste,dann könnten auch 10 Jahre alte Software auch gleich mit 200 % und mehr an Leistung daher kommen,was ebenso unrealistisch ist.
Egal was man macht,solche Extremen Leistungssteigerungen wird es auch in Zukunft nicht mehr geben.Aber schön fände ich es schon mit den 100 % mehrleistung gegenüber aktuellster Hardware noch oben drauf zu bekommen.
 
Von wechen Leistungsteigerungen redest du?

Leistunsgssteigerungen kommen in der Regel über die Architektur, in dem man einzelne Funktionen möglichst als atomaren Operationen in Hardware gießt in Verbindung mit spekulativen Voraussagen bzw. vorausberechnungen.

Die Strukturbreite zu veringern steigert die Effizienz und ermöglicht eine höhere Dichte aber nicht wirklich die Leistung per se. Siehe auch https://www.hardwareluxx.de/community/threads/ipc-getestet-ryzen-haswell-e-und-co.1196016/page-3
Ich denke solche Fortschritte sind auch in den nächsten 5-10 Jahren auch noch mit Silicium möglich. Was danach kommt? Keine Ahnung.

In den allermeisten Szenarien ist die CPU zudem nicht wirklich der Flaschenhals, sondern die CPUs warten die meisten Zyklen auf input oder darauf ihre Daten abgeben zu können.
D.H. ich würde mir die grössten Leistungsteigerungen eher von Grundlegenden Architekturveränderungen bei denen CPU, GPU, Cache, Ram und Festspeicher näher aneinander rücken und direkt miteinander kommunizieren versprechen. Siehe SOCs a la Apples M1.
Auch mit effizienteren Programmiermodellen ist bestimmt noch einiges zu holen, obwohl die meisten Proframmierer ja schon jetzt überfordert sind mit Nebenläufigkeit etc.. D.h. hier bin ich eher pessimistisch.

Bezüglich Architektur, Siehe auch Sprung von Excavator/Bulldozer zu Zen oder Pentium/Netburst zu Core und Core ohne AvX zu Core mit AVX. Das bringt viel mehr als irgendwelche Strukturbreiten oder Halbleitermaterialien.

Dieses gehype auf irgendwelchen fiktionalen FAB gate Strukturbreiten die man zwischen den Herstellern (Intel, TMSC, Samsung, GF, ...) nicht mal vernünftig vergleichen kann, da unterschiedliche Dinge gemessen werden ist imho völliger Blödsinn. Das ist ein reiner Marketingbegriff geworden und führt soweit, dass sogar die Bemessungsgrundlage bei einem Hersteller von einer generation zur nächsten angepasst werden um noch eine kleiner Zahl angeben zu können.

Um mal zum Thema zurückzukommen, wenn Intel mit der Technik im Artikel es schafft, die Caches der CPUs massiv zu vergössern, hätte das einen spürbar positiven Einfluss auf die Leistung. Und solche Architekturverbesserungen sind es, auf die es letztendlich ankommt.
 
@HerrLange

Danke für die einschätzung.habe wohl falsche vorstellung gehabt.Sollte eigentlich heißen ohne AVX und Taktgleiheit von einem noch nicht vorhanden Ryzen 9 6950x zum Ryzen 9 5950x erwarte ich 100 % mehrleistung.Aber das ist wunschdenken,weil soviel gibt die Strukturverkleingerung auch nicht her um so dermaßen hohe Mehrleistung zu erreichen.Ich erwarte also unter den miesesten bedingung so viel mherleistung.ALso sprich veraltete software usw.Da sind dann selbst 50 % mehrleistung wohl nur noch pures wunschdenken.Aber genau das erhoffe ich mir eine regelrechte Geschwindigkeits Explosion.DIe ganzen Hardware Entwickler sollen sich mehr anstrengen.Denn mehr geht ja bekanntlich immer.Ich finde es nur schade das die meiste Leistungsteigerung nur im bereich AVX ist und für die ohne AVX bleiben etwas auf der strecke.Ich habe zwar den Ryzen 9 5950x aber noch nicht drinnen.Habe erhofft das es dann ohne AVX mehr als 10 % geht gegenüber dem 3950x,scheint wohl doch nicht so zu ein.Mir liegen halt dank eines Nutzers ja eh die ergebnisse vor zum 5950x.Bin gespannt was AMD und co da noch herausqutschen können.Wenn du sagst da hat man die volle Potenzial noch garnicht ausgeschöpft,dann erwarte ich in Zukunft deutlich mehr sprünge als nur 10-20 % mehr CPU Leistung.20 % sind einfach zu wenig.Es sollten also mindestens 50 % pro Generation sein.Dann ist es ne richtige Leistungssteigerung.Wenn ich schon kein AVX benötige,dann wenigstens durch andere Maßnahmen mehr Leistung zu bekommen.Alles andere sind schwache Leistungssteigerung.Ich hoffe das dalebe ich noch,ne richtige Mehrleistungs explosion bei gleichbleibenden Stromverbrauch. Wenn schon die Software entwickler überfordert sind,dann muss man halt bei ner Hardware mehr Optimieren um das defizit ausgeichen zu können.Klein sind die CPUs ja schon von AMD.ALso ich sehe da große Chancen.Können also meinetwegen die Chips wieder größer werden lassen,hauptsache das mehr an Leistung kommt am ende auch wirklich an.Auch wenn ich die Banbreite einer HBM nie brauche,so ist es dennoch schön sowas zu haben.Besser zu haben auch wenn man es nicht brauch als wenn man es nicht hat aber dann doch brauchen wird.So sage ich das immer so schön.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh