Backporting und Plus-Plus-Fertigungsschritte: Intel zeigt Pläne zur Fertigung bis 2029

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
intel.jpg
Auf dem IEEE International Electron Devices Meeting (IEDM) hat ein enger Partner von Intel – allerdings nicht Intel selbst – über seine Pläne hinsichtlich der Fertigung gesprochen – siehe die Berichterstattung bei Anandtech. Die dort gezeigten Informationen passen zum einen zu den Plänen, die man höchstpersönlich vor nun bereits einem Jahr bekannt gab, zum anderen aber passen sie zum aktuellen Bild, welches man nach Außen hin abgibt.Zunächst einmal wird Intel über die kommenden Jahre Hinweg für einen Fertigungsschritt immer auch entsprechende...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1.9nm bereits 2029, meine güte jungs, ihr kriegt nichtmal die fertigung von 2017 gebacken.
 
Dies kann durchaus als ein ambitionierter Plan bezeichnet werden – vor allem wenn man die aktuellen Probleme in 10 nm im Hinterkopf hat.
TSMC (und GF) hatten mit ihren 20nm Prozessen auch massive Probleme, weshalb AMD und NVidia auch so lange bei 28nm festhingen, aber trotzdem geht es bei TSMC nun problemlos weiter. Die Probleme mit der 10nm Fertigung bedeuten also noch lange nicht, dass es mit allen kommenden Prozessen ähnliche Probleme geben wird.

TSMC und Samsung wollen im kommenden Jahr bereits erste Chips in 5 nm fertigen.
Die Namen sind Schall und Rauch, die Packungsdichte der Transistoren ist die Größe die man vergleichen muss und die kann man aus den nm Werten die für die Namensgebung verwendet werden, nun einmal nicht ablesen.
 
Kann mir mal jemand dieses Backport genauer erklären?

Wird da die Anordnung anders oder wie ist das genau zu erklären?
 
Die Namen sind Schall und Rauch, die Packungsdichte der Transistoren ist die Größe die man vergleichen muss und die kann man aus den nm Werten die für die Namensgebung verwendet werden, nun einmal nicht ablesen.
Schall und Rauch trifft auch auf die gesamte Präsentation zu.

Kann mir mal jemand dieses Backport genauer erklären?

Wird da die Anordnung anders oder wie ist das genau zu erklären?
Für mein Verständnis behält Intel sich die Möglichkeit vor, bei Problemen auf der vorherigen (ausgereiften?) Fertigungsprozess zu setzen.
 
Ich finde das Vorgehen von Intel is ein Indiz der tiefen Überlegenheit.
 
Für mein Verständnis behält Intel sich die Möglichkeit vor, bei Problemen auf der vorherigen (ausgereiften?) Fertigungsprozess zu setzen.

Nicht bei Problemen - man möchte offenbar generell Fertigung und Architektur entkoppelt, sodass man unabhängig Architekturen einführen kann, die dann auf den verfügbaren Fertigungen hin ausgeliefert werden.
Eben das Gegenteil wie aktuell, wo Sunny Cove in 10nm ausgeliefert wird, der IPC Vorteil auch klar punkte bringt aber eben aufgrund der geringen Kapazität und dem Marktbereich weder die Desktop User noch die Server Modelle davon profitieren. Selbst Willow Cove als Sunny Cove Nachfolge Architektur scheint fertig oder wenigstens in den letzten Zügen... Bis dato ist das was für die Schublade. Entkoppelt man das, gibts nen Backport der Architektur in einer Fertigung, die verfügbar ist. Würde bedeuten, heute hätte man Sunny Cove mit 14nm+. Also irgendwo im Schnitt 10-20% IPC Vorteil ggü. Skylake bei einem Taktpotential von um die 5GHz, wenn nötig. Verbrauch? Schwierig zu beziffern - wenig wird es nicht. Der Backport wird auch klar Tribut fordern. Aber allein die 10-20% IPC würden reichen um die Taktraten deutlich senken zu können ohne Leistung zu verlieren. Die Effizienz steigt dadurch deutlich - denn die Effizienz ist bei 5GHz einfach unterirdisch. Bei 4GHz sieht das komplett anders aus, wie aktuelle Notebook Modelle belegen. (selbst mit 8C)

MMn ist das klar zu begrüßen. Vor allem wunderte es mich eh, dass eine Intel das nicht schon viel eher versucht hat anzustreben. All die Jahre seit man auf 10nm wartet... Aber das war wohl so ein Gesichts-Verlieren Thema. Lieber x-fach 10nm verschoben als durch so einen move eingestanden, dass das drastisch später wird.
 
Ich finde das Vorgehen von Intel is ein Indiz der tiefen Überlegenheit.

Also entweder meinst du mit der "tiefen Überlegenheit" eine Geringe, bzw. nicht vorhandene Überlegenheit oder mein Sarkasmusdetektor ist noch nicht wach.

In letzter Zeit kann Intel nicht viel mehr als schöne Bildchen und dann doch wieder alles verschieben.

In Verbindung mit dem hingepinselten Wunschdenken klingt Überlegenheit irgendwie grenzwertig...
 
Was ist Backporting und was kann ich damit kochen?
 
1.9nm bereits 2029, meine güte jungs, ihr kriegt nichtmal die fertigung von 2017 gebacken.
Bei 10nm wollte Intel zuviel Dichte (Faktor 2.7 gegenüber der alten Fertigung) hineinpacken und geht bei 7nm (Faktor 2) wieder etwas zurück. Ich halte es durchaus für realistisch wenn Intel nicht zuviel will, auch wieder auf Kurs sein wird.
 
Was ist Backporting und was kann ich damit kochen?

Die wollen neue Architekturfeatures von einer neuen Fertigungstechnologie (z.B. 10nm+) auf eine ältere Fertigungs (z.B. 14nm+++) zurückholen, um quasi die Vorteile der Fertigung (hoher Takt) mit den Vorteilen der neueren Architektur (höhere IPC) zu vereinen. Ob das nun bereits mit 14nm und 10nm passiert wäre die große Frage. Ich meine mich zu erinnern das man das erst für 10nm und folgende Fertigungsschritte machen wollte.

Bei 10nm wollte Intel zuviel Dichte (Faktor 2.7 gegenüber der alten Fertigung) hineinpacken und geht bei 7nm (Faktor 2) wieder etwas zurück.

Afaik hat Intel bei 10nm+ schon zurückgerudert. Laufen tuts trotzdem nich so gut das man 10nm+ flächendeckend für den Desktop ausrollt.
 
Das Problem mit Intels 10nm ist äquivalent mit AMDs/TSMCs 7nm - zu viel Wärme auf einer zu kleinen Fläche. Um die Taktraten zu halten, muss Intel den Prozess so effizient wie möglich gestalten, was normalerweise nur möglich ist, wenn man Architektur und Fertigungsprozess kombiniert (Wurde ja jahrzehnte lang gemacht)

Das ummodeln ist nicht sehr vorteilhaft, wie man zum Bleistift an AMDs Polaris gesehen hat - das Ding war für eine Node kleiner entwickelt und musste zurück-geportet werden. Entsprechend wurde der Punkt maximaler Effizienz verfehlt und die Teile haben gesoffen ohne Ende bei konkurrenzfähigen Frequenzen. Gleiches passiert auch bei den CPUs, weil Physik.

Von daher ist die Folie da oben ne riesengroße Nebelbombe.
 
Vielen Dank @Shevchen, genau das hab ich gemeint, hätte es aber nie so gut in Worte fassen können.

Um es in einen allseits beliebten Autovergleich zu fassen:
Intel will die Entwicklung von Motor und Getriebe entkoppeln.
Kann klappen, kann aber auch gewaltig schief gehen.
Freuen wir uns schon Mal auf lkw-motoren mit Rennwagengetriebe...
 
Also alles wie gehabt, man will nur nicht an der Benennung festhalten... :fresse:

Was man aber trotzdem sehen kann: Intel will 2020 auf 10nm++. Mal sehen ob das mehr taugt als 10nm und 10nm+... Auf dem Desktop sehe ich 10nm aber noch lange nicht, da glaube ich mittlerweile eher an den direkten Schritt zu 7nm (was dann irgendwo bei TSMCs 6nm oder 5nm liegen dürfte).
 
Also irgendwo im Schnitt 10-20% IPC Vorteil ggü. Skylake bei einem Taktpotential von um die 5GHz, wenn nötig. Verbrauch?

Das ist etwas sehr pauschal. Wer sagt denn, dass die neuen Kerne 5GHz fahren können? Vielleicht schaffen die Kerne ja gar keine 5GHz Takt.
Wenn ich mir bei Notebookcheck die Tests der IceLake Modelle anschaue, dann sticht da lediglich der Dell XPS mit seinem Peak heraus. Allerdings bricht der Rechner nach einigen Durchläufen CB so massiv ein, dass er langsamer als gute Comet Lake Lappys ist. Alle anderen IceLake i7 liegen grob in der Leistungsklasse des E595 mit 3700U oder von guten i7 8550U Modellen (T480s oder ähnliches). Insofern sollte man sich von den Werten des Dell nicht zu sehr täuschen lassen. Der Dell ist übrigens über 50 Durchläufe (also Dauerlast) auch nicht schneller als z.B. das Yoga, welches nur ein Maximum von 720 Punkten in CB erreicht (also fast 120 Punkte weniger Peak als das Dell). Da sieht man schön wie massiv das Dell bei längerer Last zurück fällt (auf bis zu 630 Punkte). Das Razer Blade Stealth mit auf 15W TDP begrenztem Prozessor (wegen dGPU) erreicht im Schnitt bei CB übrigens eher schwache 483 Punkte. im selben Gerät ohne dGPU darf es 25W verbrauchen und erreicht damit die üblichen ca. 670 Punkte. Offensichtlich läuft also auch das Yoga auf 25W konfiguriert, das Dell dürfte dann wohl das maximal erlaubte Limit ausnutzen (sind glaube ich um die 45W für IceLake). Entsprechend sind die Zahlen des Dell nicht repräsentativ.
So viel schneller ist Ice Lake also auch nicht, als die 18% IPC Steigerung suggerieren. Entweder, weil der Verbrauch der Kerne deutlich höher ist und man daher den Takt so stark senken muss, oder, weil 10nm+ ein Rückschritt zu 14nm++ ist und damit die 18% Steigerung verpuffen. Was letztendlich das Problem ist, wird man erst sehen, wenn es IceLake auch im Server gibt (Desktop wird ja scheinbar nie kommen).
 
Darum sagte ja Intel selbst. Das es zwar durch IPC mehr leulistung bei 10 nm gibt aber durch das man den takt so stark senken muss die mehrleistung wieder verpufft und man somit am Ende gleichschnell wäre. Darum erscheinen ja auch keine 10 nm beim Desktop. Die Menschen wollen mehr Leistung sehen und nicht gleich schnell. Somit wird man beim Desktop die 10 nm überspringen und lieber auf 7 nm wechseln. Quellen habe ich zwar keine dazu aber ich bin mir sicher das es so kommen wird.
 
TSMC (und GF) hatten mit ihren 20nm Prozessen auch massive Probleme, [...] trotzdem geht es bei TSMC nun problemlos weiter. Die Probleme mit der 10nm Fertigung bedeuten also noch lange nicht, dass es mit allen kommenden Prozessen ähnliche Probleme geben wird.

Korrekt. Genausowenig kann man allerdings auf Basis des Beispiels von TSMC schlussfolgern, dass alles Weitere deshalb gleichermaßen wenig problematisch glatt laufen wird.

Das ist die Implikation Deines Beispiels. Ob die sich bewahrheitet, werden wir sehen.
 
Ich finde das Vorgehen von Intel is ein Indiz der tiefen Überlegenheit.
Das sehe ich auch so. Deswegen muss ein jeder mit einem IQ leicht oberhalb eines Ziegelstein feststellen, dass der seit 5 Jahren laufende 10nm Prozess, maximal als dürftig zu bezeichnen ist.
Die Überlegenheit zeigt sich auch in dem finanziell um das hundertfache schwächeren X86 Mitbewerber AMD. Während Intel die Preise für 2066 halbiert hat, eine weitere Neuauflage der alten Architektur für 2066 im Angebot hat, kann man zwar dieses Angebot immer noch nicht nutzen, trotzdem sicherlich im nächsten Jahr für mehr Geld die schwächere Intel CPU kaufen, um völlig überlegen sich von AMD zeigen lassen muss, was eine wirkliche HEDT Plattform ist.
Wie deutlich diese Überlegenheit von Intel demonstriert wird, sehen wir beim 18 Kerne 36 Thread i9 10980XE. Ok, aktuell nirgends zu bekommen, immerhin für 1130€ gelistet. Mit Quadchannel ist man wenigstens 6% hinter dem Dualchannel 16 Kerner 32 Threads Ryzen 9 3950X und man bekommt diesen auch aktuell für 940€. In Games sind es wenigstens nur 15%, die man hinter dem 3950X liegt.
Die Überlegenheit ist wirklich erschreckend nüchtern.
 
Das ummodeln ist nicht sehr vorteilhaft, wie man zum Bleistift an AMDs Polaris gesehen hat - das Ding war für eine Node kleiner entwickelt und musste zurück-geportet werden. Entsprechend wurde der Punkt maximaler Effizienz verfehlt und die Teile haben gesoffen ohne Ende bei konkurrenzfähigen Frequenzen. Gleiches passiert auch bei den CPUs, weil Physik.

Was bringt es konkrete Umsetzungsprobleme einer GPU mit grauer Theorie im CPU Bereich zu vergleichen?
Gar nix... Polaris war ineffizient bei Perf/Watt in Games, weil man mit viel Hardware Architekturprobleme hat kaschiert - vor alles ist/war das auch kein Polaris Problem, sondert zieht sich komplett durch alle GCN GPUs, die ihre Performance in Games während der Lebzeit der GPU nicht auf die Straße bekamen! Deine Aussage ist dahingehend also einfach unwahr, dass das an irend einem Fertigungsthema gelegen hätte. AMD hat im GPU Bereich einfach so viel wie geht rausgekitzelt und über dem Effizienzpunkt gearbeitet. Intel macht das gleiche mit ihren 5GHz Dingern. Das gleiche Silizium mit gleichem Design verliert (wie CB vor einer Zeit benannte) nichtmal 50% der Leistung bei 37W ggü. dem 9900ks, bei nichtmal 1/5tel des Realverbrauchs.
Nur ist eben genau dass das Problem - Takt hoch = Spannung rauf = Temperatur rauf = Verbrauch geht durch die Decke. Takt geht ca. 1:1 in den Verbrauch, Spannung aber im Quadrat. Temperatur trägt auch noch zum Mehrverbrauch bei.

Das ist etwas sehr pauschal. Wer sagt denn, dass die neuen Kerne 5GHz fahren können? Vielleicht schaffen die Kerne ja gar keine 5GHz Takt.

Nö, ließ bitte nochmal was da steht. Es geht um fiktive 14nm(++) gefertigten Sunny Cove Kern(e). Eben in Anspielung auf die geplante Entkopplung. Warum sollte der Prozess der mit Skylake 5GHz läuft, nicht mit Sunny Cove auch 5GHz schaffen? An der bisher gelieferten 10nm Reihe kann man da außer eben dem potentiellen Architekturvorteil gar nix ableiten abseits der Erkenntnis, das 10nm mittlerweile irgendwie läuft, aber eben nicht auf Takt kommt.
Vergleicht man das mal mit den 14nm Problemen zum Skylake Release, so tat sich Intel seinerzeit schwer überhaupt 4-4,2GHz zu liefern. Und Paar Jahre später gibt's 5GHz Stock. Exakte das gleiche hier wieder - Erste Produkte kommen nicht auf den hohen Takt, die Alternative soll nun der ausgereifte Prozess werden bis der neue eben soweit funktioniert.

Ob das funktioniert werden wir sehen - sie laufen halt andersrum Gefahr weniger Fortschritt zu machen.
 
HMoCBSlCTBL4ctAs_thm.jpg



Und noch eine Lücke, ist das die letzte oder wie viel kommen noch?

Wie viel Leistung verlieren die CPUs mit den neuen Updates?

Sind die neuen CPUs sicher?


New "Plundervolt" Intel CPU Vulnerability Exploits vCore to Fault SGX and Steal Protected Data

Übersetzung:

„Eine Gruppe von Cybersicherheitsforschern hat eine neue Sicherheitsschwachstelle entdeckt, die Intel-Prozessoren betrifft, die sie listig "Plundervolt" genannt haben, ein Portmanteau der Wörter "Plünderung" und "Unterspannung". Chronisiert unter CVE-2019-11157, wurde es erstmals im Juni 2019 im Rahmen seines Security Bug-Bounty-Programms an Intel gemeldet, damit es heimlich eine Minderung entwickeln konnte. Nach Ablauf der 6-monatigen NDA gaben die Forscher ihre Ergebnisse der Öffentlichkeit bekannt. Plundervolt wird von Forschern als eine Möglichkeit beschrieben, den geschützten Speicher von SGX (Software Guard Extensions) zu kompromittieren, indem der Prozessor bei der Ausführung geschützter Berechnungen unter Spannung gesetzt wird, bis zu einem Niveau, bei dem die SGX-Speicher-Verschlüsselung die Daten nicht mehr schützt. Die Forscher haben auch den Proof-of-Concept-Code veröffentlicht.

Plundervolt unterscheidet sich von "Rowhammer" dadurch, dass es Bits innerhalb des Prozessors umdreht, bevor sie in den Speicher geschrieben werden, so dass SGX sie nicht schützt. Rowhammer funktioniert nicht mit SGX-geschütztem Speicher. Plundervolt benötigt Root-Rechte, da Software, mit der Sie vCore optimieren können, einen Ring-0-Zugang benötigt. Sie benötigen keinen direkten physischen Zugriff auf den Zielrechner, da die Optimierungssoftware auch aus der Ferne ausgeführt werden kann. Intel hat den Sicherheitshinweis SA-00298 herausgebracht und arbeitet mit Motherboard-Herstellern und OEMs zusammen, um BIOS-Updates zu veröffentlichen, die einen neuen Mikrocode mit einem Schutz vor dieser Schwachstelle verpacken. Die Forschungsarbeit kann hier nachgelesen werden.“

Übersetzt mit DeepL Translator (kostenlose Version)

Quelle:
New Intel CPU Vulnerability Exploits vCore to Fault SGX and Steal Protected Data | TechPowerUp
 
Warum sollte der Prozess der mit Skylake 5GHz läuft, nicht mit Sunny Cove auch 5GHz schaffen?

Weil es eben andere Kerne mit anderer Architektur sind. Die ist vielleicht nicht auf die 5GHz ausgelegt. Nur weil ein Chip Z mit Fertigung X 5GHz schafft, heißt das noch lange nicht, dass Chip W mit der selben Fertigung X auch 5GHz schafft. Der Takt hängt nicht alleine an der Fertigung. Vergleiche doch mal Intels Cedar Mill und Presler mit Conroe und Allendale. Alle hatten 65nm, die ersteren hatten bis zu 3,6GHz, Conroe bis 3GHz und Allendale bis 2,4GHz. Conroe und Allendale waren einfach nicht auf den Takt ausgelegt, den Presler und Cedar Mill geschafft haben, hatten aber auch deutlich höhere IPC als die Vorgänger. Daher kann es eben auch jetzt wieder durchaus so sein, dass die neuen Kerne einfach keine 5 GHz schaffen (oder nur mit extrem viel mehr Spannung und Abwärme, weit ab des Sweet Spots).
 
Weil es eben andere Kerne mit anderer Architektur sind. Die ist vielleicht nicht auf die 5GHz ausgelegt. Nur weil ein Chip Z mit Fertigung X 5GHz schafft, heißt das noch lange nicht, dass Chip W mit der selben Fertigung X auch 5GHz schafft. Der Takt hängt nicht alleine an der Fertigung.
Stimmt - was meinst du warum ich von Taktpotential sprach? Genau so wie man es für den nicht existierenden fiktiven 14nm Sunny Cove Kern orakeln kann, kann man das Gegenteil davon belastbar orakeln. Das Potential ist deswegen dennoch da.
Deine Beispiele sind übrigens dahingehend auch nicht wirklich hilfreich, Conroe und Allendale liefen seinerzeit spielend mit 3GHz und mehr. Was einfach mal daran lag, dass die CPUs Stock mit 3GHz bei den Top Modellen geliefert wurden. OC fing also bestenfalls bei 3GHz an. 3,4-3,6GHz war keine wirkliche kunst. Spannend wurde es ab 4GHz und mehr. Es ist immernoch ein Unterschied zwischen der ausgelieferten Version und dem was möglich ist. Weiterhin ist der Netburst Vergleich nicht zielführend - komplett anderer Ansatz. Netburst war auf Hochtakt ausgelegt, Core2 nicht. Sunny Cove ist ein Skylake Nachfolger, kein komplett anderer Ansatz! Machts nicht immer komplizierter als es ist. Seit 2011 sind die Intel Prozesse für 4,5-5GHz gut - Zumindest bei den Mainstream Modellen. Sandy, Ivy, Haswell und Skylake - einzig Broadwell tanzt aus der Reihe, bedingt durch die Verzögerung und Probleme mit dem frühen 14nm Prozess, was sich bis zum 6700k Release hinzog. Und auf einmal soll das nicht mehr gehen?? Komm schon... Habt ihr so viel schiss vor Intel? Intel hat nur bis dato das Taktpotential nicht immer voll ausgeschöpft. Deutlich über 10% mehr Takt als Stock ist heute nicht mehr. Früher ging das. Genau so ans Limit getrieben würde es spekuliert den Core2 Dualcore mit 3,6-4GHz geben, Sandy mit 4,5-4,8 oder sowas usw.
 
Man darf nicht vergessen das wenn kleiner die fertigung ist und man da auch noch mehr Transistoren unter bringt das dann die Taktrate niemals gehalten werden kann, aufgrund der thermischen Entwicklung. Darum kann man auch nicht erwarten den core i9 9980xe oder died neuesten core i9 10980xe auf 5 GHz zu takten. Da wird der Chip wohl verbrennen. 4,5 GHz gehen allerdings sehr gut. Vielleicht noch 4,6 GHz. Aber das war es auch schon wieder. Da schaut es also auch in Zukunft nicht mehr soviel mehr heraus. Vielleicht ja durch eine neue archetektiut. Ob man da allerdings von mehr als 20 % erwarten kann, ist halt auch fraglich. IPC kann halt eben nicht alles ausgleichen. Ich bin gespannt wie die beiden hersteller den Nachteil von immer kleineren Flächen ausgleichen wollen.
 
Ich denke, die Branche muss sich definitiv mit Backporting beschäftigen. Wenn sogar Intel als Speerspitze der Halbleiterfertigung bei Einführung einer neuen Prozessstufe dermaßen in Probleme geraten kann, dann ist niemand davor sicher. Bei fabless Herstellern ist das natürlich ein großes Problem, da der Auftragsfertiger dann einfach das Projekt abbläst und für den nächsten Interessenten fertigt.
Aus vergleichbaren Beweggründen hat Intel ja auch deren "Tick-Tock" eingeführt, um Architektur und Fertigung zu entzerren, obwohl dies dazu führt, dass man je Zeiteinheit doppelt so viele große Releases logistisch meistern muss. Zukünftig werden halt auch Architekturupdates getrennt von der Fertigung laufen.
 
Anhang anzeigen 482839



Und noch eine Lücke, ist das die letzte oder wie viel kommen noch?

Wie viel Leistung verlieren die CPUs mit den neuen Updates?

Sind die neuen CPUs sicher?


New "Plundervolt" Intel CPU Vulnerability Exploits vCore to Fault SGX and Steal Protected Data

Übersetzung:

„Eine Gruppe von Cybersicherheitsforschern hat eine neue Sicherheitsschwachstelle entdeckt, die Intel-Prozessoren betrifft, die sie listig "Plundervolt" genannt haben, ein Portmanteau der Wörter "Plünderung" und "Unterspannung". Chronisiert unter CVE-2019-11157, wurde es erstmals im Juni 2019 im Rahmen seines Security Bug-Bounty-Programms an Intel gemeldet, damit es heimlich eine Minderung entwickeln konnte. Nach Ablauf der 6-monatigen NDA gaben die Forscher ihre Ergebnisse der Öffentlichkeit bekannt. Plundervolt wird von Forschern als eine Möglichkeit beschrieben, den geschützten Speicher von SGX (Software Guard Extensions) zu kompromittieren, indem der Prozessor bei der Ausführung geschützter Berechnungen unter Spannung gesetzt wird, bis zu einem Niveau, bei dem die SGX-Speicher-Verschlüsselung die Daten nicht mehr schützt. Die Forscher haben auch den Proof-of-Concept-Code veröffentlicht.

Plundervolt unterscheidet sich von "Rowhammer" dadurch, dass es Bits innerhalb des Prozessors umdreht, bevor sie in den Speicher geschrieben werden, so dass SGX sie nicht schützt. Rowhammer funktioniert nicht mit SGX-geschütztem Speicher. Plundervolt benötigt Root-Rechte, da Software, mit der Sie vCore optimieren können, einen Ring-0-Zugang benötigt. Sie benötigen keinen direkten physischen Zugriff auf den Zielrechner, da die Optimierungssoftware auch aus der Ferne ausgeführt werden kann. Intel hat den Sicherheitshinweis SA-00298 herausgebracht und arbeitet mit Motherboard-Herstellern und OEMs zusammen, um BIOS-Updates zu veröffentlichen, die einen neuen Mikrocode mit einem Schutz vor dieser Schwachstelle verpacken. Die Forschungsarbeit kann hier nachgelesen werden.“

Übersetzt mit DeepL Translator (kostenlose Version)

Quelle:
New Intel CPU Vulnerability Exploits vCore to Fault SGX and Steal Protected Data | TechPowerUp

a.) Was hat das in diesem Thread verloren ?
b.) SGX nutzt keiner privat, dessen target audience du hier zur Empörung zu triggern versuchst.
c.) Braucht Root-Rechte.
d.) Patch existiert bereits, kostet auch keine Leistung, da du scheinbar das Paper nicht gelesen/verstanden hast.
 
Zuletzt bearbeitet:
@sch4kal

Zum den einzelnen Punkten:

a.) Es geht ja hier um die Pläne bis 2029, da sollte man auch die Sicherheit der zukünftigen Prozessoren zur Sprache bringen. Die Fertigungen werden immer kleiner, aber dadurch könnten sich aber auch, gerade was Sicherheit angeht, Probleme ergeben die man erst später erkennt.

b.) Ich versuche hier nichts zu triggern, hier geht es um SGX und wie auch bei alle anderen Lücken wird immer wieder gesagt das nutzt ja kein Privatmann, also interessiert es uns nicht.. So wie man das immer wieder liest könnte man wirklich denken das die ganzen privaten PCs sicher sind, aber was ist mit den ganzen Systemen die nicht in Privatbesitz sind? Diese Systeme haben ja auch Einfluss auf den Privatsektor, sei es nun eine Bank, eine Behörde oder in der Medizin. Benutzen diese Institutionen nicht diese Sicherheitsanwendungen? Vor allem aber wie gut werden diese Systeme gewartet und wie aktuell sind sie.

c.) Man braucht Root-Rechte, das ist korrekt aber wie schon bei allen anderen Lücken ist nicht abzusehen was noch alles mit dieser Lücke zusammenhängt. Da man diese Lücke auch per Fernzugriff ausnutzen kann stellt sich mir die Frage ob man diese Rechte nicht auch so erreichen kann.

d.) Gut der Patch kostet keine Leistung aber kann man sich darauf verlassen das die Behebung dieser Schwachstelle nicht noch andere Lücken schließt, wo es dann zu Leistungseinbussen kommt? Da die neuen CPUs, was die Architektur betrifft, ja schon so gut wie fertig sind, wie sieht es dort mit den bisherigen Lücken aus. Manche kann man ja mit Softwarepatch schließen, aber wie ist das mit den Schwachstellen aus die in der Hardware sind?
 
Was bringt es konkrete Umsetzungsprobleme einer GPU mit grauer Theorie im CPU Bereich zu vergleichen?
Gar nix... Polaris war ineffizient bei Perf/Watt in Games, weil man mit viel Hardware Architekturprobleme hat kaschiert - vor alles ist/war das auch kein Polaris Problem, sondert zieht sich komplett durch alle GCN GPUs, die ihre Performance in Games während der Lebzeit der GPU nicht auf die Straße bekamen! Deine Aussage ist dahingehend also einfach unwahr, dass das an irend einem Fertigungsthema gelegen hätte. AMD hat im GPU Bereich einfach so viel wie geht rausgekitzelt und über dem Effizienzpunkt gearbeitet. Intel macht das gleiche mit ihren 5GHz Dingern. Das gleiche Silizium mit gleichem Design verliert (wie CB vor einer Zeit benannte) nichtmal 50% der Leistung bei 37W ggü. dem 9900ks, bei nichtmal 1/5tel des Realverbrauchs.
Nur ist eben genau dass das Problem - Takt hoch = Spannung rauf = Temperatur rauf = Verbrauch geht durch die Decke. Takt geht ca. 1:1 in den Verbrauch, Spannung aber im Quadrat. Temperatur trägt auch noch zum Mehrverbrauch bei.

Polaris wurde auf höhere Taktraten ausgelegt und der Fertigungsprozess sollte diese bringen. Das hat aber nicht geklappt, also haben die Dinger gesoffen. Hätte man vorher gewusst, dass Polaris nicht auf der neuen Node kommt, hätte man das Design breiter gemacht, so dass es auch mit geringerer Taktfrequenz effizient läuft. So wurde aber der Effizienzpunkt verfehlt.

Gleiches gilt auch für CPUs - die kann man schmal und breit designen (siehe Bulldozer vs Zen, siehe Net Burst vs Core usw)
Möchte Intel auch weiterhin die 5GHz knacken, müssen sie das Design entsprechend auf den neuen Prozess auslegen - ansonsten wird das nix mit den 5GHz auf 10nm. Die ersten Anzeichen von Problemen gibts ja schon, weil die iGPU beschnitten werden muss.

Ansonsten kann ich zu deinem Absatz nur sagen, dass du dir die Physik grad so ausmalst, wie du es gerne hättest, denn Beweise für das Hand-in-Hand von Architektur und Fertigungsprozess gibts genug. Intel, AMD und Nvidia haben das mehrfach in der Vergangenheit gezeigt. Beispiel Nvidia wäre Fermi - um mal zu zeigen was passiert, wenn man größer bauen muss, als man eigentlich will. Der Schritt von 40nm auf 28 hat dann gezeigt, dass es doch funktionieren kann, wenn die µArch dann auf die passende Strukturbreite trifft.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh