HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 114.151
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
TSMC (und GF) hatten mit ihren 20nm Prozessen auch massive Probleme, weshalb AMD und NVidia auch so lange bei 28nm festhingen, aber trotzdem geht es bei TSMC nun problemlos weiter. Die Probleme mit der 10nm Fertigung bedeuten also noch lange nicht, dass es mit allen kommenden Prozessen ähnliche Probleme geben wird.Dies kann durchaus als ein ambitionierter Plan bezeichnet werden – vor allem wenn man die aktuellen Probleme in 10 nm im Hinterkopf hat.
Die Namen sind Schall und Rauch, die Packungsdichte der Transistoren ist die Größe die man vergleichen muss und die kann man aus den nm Werten die für die Namensgebung verwendet werden, nun einmal nicht ablesen.TSMC und Samsung wollen im kommenden Jahr bereits erste Chips in 5 nm fertigen.
Schall und Rauch trifft auch auf die gesamte Präsentation zu.Die Namen sind Schall und Rauch, die Packungsdichte der Transistoren ist die Größe die man vergleichen muss und die kann man aus den nm Werten die für die Namensgebung verwendet werden, nun einmal nicht ablesen.
Für mein Verständnis behält Intel sich die Möglichkeit vor, bei Problemen auf der vorherigen (ausgereiften?) Fertigungsprozess zu setzen.Kann mir mal jemand dieses Backport genauer erklären?
Wird da die Anordnung anders oder wie ist das genau zu erklären?
Für mein Verständnis behält Intel sich die Möglichkeit vor, bei Problemen auf der vorherigen (ausgereiften?) Fertigungsprozess zu setzen.
Ich finde das Vorgehen von Intel is ein Indiz der tiefen Überlegenheit.
Bei 10nm wollte Intel zuviel Dichte (Faktor 2.7 gegenüber der alten Fertigung) hineinpacken und geht bei 7nm (Faktor 2) wieder etwas zurück. Ich halte es durchaus für realistisch wenn Intel nicht zuviel will, auch wieder auf Kurs sein wird.1.9nm bereits 2029, meine güte jungs, ihr kriegt nichtmal die fertigung von 2017 gebacken.
Was ist Backporting und was kann ich damit kochen?
Bei 10nm wollte Intel zuviel Dichte (Faktor 2.7 gegenüber der alten Fertigung) hineinpacken und geht bei 7nm (Faktor 2) wieder etwas zurück.
Also irgendwo im Schnitt 10-20% IPC Vorteil ggü. Skylake bei einem Taktpotential von um die 5GHz, wenn nötig. Verbrauch?
TSMC (und GF) hatten mit ihren 20nm Prozessen auch massive Probleme, [...] trotzdem geht es bei TSMC nun problemlos weiter. Die Probleme mit der 10nm Fertigung bedeuten also noch lange nicht, dass es mit allen kommenden Prozessen ähnliche Probleme geben wird.
Das sehe ich auch so. Deswegen muss ein jeder mit einem IQ leicht oberhalb eines Ziegelstein feststellen, dass der seit 5 Jahren laufende 10nm Prozess, maximal als dürftig zu bezeichnen ist.Ich finde das Vorgehen von Intel is ein Indiz der tiefen Überlegenheit.
Das ummodeln ist nicht sehr vorteilhaft, wie man zum Bleistift an AMDs Polaris gesehen hat - das Ding war für eine Node kleiner entwickelt und musste zurück-geportet werden. Entsprechend wurde der Punkt maximaler Effizienz verfehlt und die Teile haben gesoffen ohne Ende bei konkurrenzfähigen Frequenzen. Gleiches passiert auch bei den CPUs, weil Physik.
Das ist etwas sehr pauschal. Wer sagt denn, dass die neuen Kerne 5GHz fahren können? Vielleicht schaffen die Kerne ja gar keine 5GHz Takt.
Warum sollte der Prozess der mit Skylake 5GHz läuft, nicht mit Sunny Cove auch 5GHz schaffen?
Stimmt - was meinst du warum ich von Taktpotential sprach? Genau so wie man es für den nicht existierenden fiktiven 14nm Sunny Cove Kern orakeln kann, kann man das Gegenteil davon belastbar orakeln. Das Potential ist deswegen dennoch da.Weil es eben andere Kerne mit anderer Architektur sind. Die ist vielleicht nicht auf die 5GHz ausgelegt. Nur weil ein Chip Z mit Fertigung X 5GHz schafft, heißt das noch lange nicht, dass Chip W mit der selben Fertigung X auch 5GHz schafft. Der Takt hängt nicht alleine an der Fertigung.
Anhang anzeigen 482839
Und noch eine Lücke, ist das die letzte oder wie viel kommen noch?
Wie viel Leistung verlieren die CPUs mit den neuen Updates?
Sind die neuen CPUs sicher?
New "Plundervolt" Intel CPU Vulnerability Exploits vCore to Fault SGX and Steal Protected Data
Übersetzung:
„Eine Gruppe von Cybersicherheitsforschern hat eine neue Sicherheitsschwachstelle entdeckt, die Intel-Prozessoren betrifft, die sie listig "Plundervolt" genannt haben, ein Portmanteau der Wörter "Plünderung" und "Unterspannung". Chronisiert unter CVE-2019-11157, wurde es erstmals im Juni 2019 im Rahmen seines Security Bug-Bounty-Programms an Intel gemeldet, damit es heimlich eine Minderung entwickeln konnte. Nach Ablauf der 6-monatigen NDA gaben die Forscher ihre Ergebnisse der Öffentlichkeit bekannt. Plundervolt wird von Forschern als eine Möglichkeit beschrieben, den geschützten Speicher von SGX (Software Guard Extensions) zu kompromittieren, indem der Prozessor bei der Ausführung geschützter Berechnungen unter Spannung gesetzt wird, bis zu einem Niveau, bei dem die SGX-Speicher-Verschlüsselung die Daten nicht mehr schützt. Die Forscher haben auch den Proof-of-Concept-Code veröffentlicht.
Plundervolt unterscheidet sich von "Rowhammer" dadurch, dass es Bits innerhalb des Prozessors umdreht, bevor sie in den Speicher geschrieben werden, so dass SGX sie nicht schützt. Rowhammer funktioniert nicht mit SGX-geschütztem Speicher. Plundervolt benötigt Root-Rechte, da Software, mit der Sie vCore optimieren können, einen Ring-0-Zugang benötigt. Sie benötigen keinen direkten physischen Zugriff auf den Zielrechner, da die Optimierungssoftware auch aus der Ferne ausgeführt werden kann. Intel hat den Sicherheitshinweis SA-00298 herausgebracht und arbeitet mit Motherboard-Herstellern und OEMs zusammen, um BIOS-Updates zu veröffentlichen, die einen neuen Mikrocode mit einem Schutz vor dieser Schwachstelle verpacken. Die Forschungsarbeit kann hier nachgelesen werden.“
Übersetzt mit DeepL Translator (kostenlose Version)
Quelle:
New Intel CPU Vulnerability Exploits vCore to Fault SGX and Steal Protected Data | TechPowerUp
Was bringt es konkrete Umsetzungsprobleme einer GPU mit grauer Theorie im CPU Bereich zu vergleichen?
Gar nix... Polaris war ineffizient bei Perf/Watt in Games, weil man mit viel Hardware Architekturprobleme hat kaschiert - vor alles ist/war das auch kein Polaris Problem, sondert zieht sich komplett durch alle GCN GPUs, die ihre Performance in Games während der Lebzeit der GPU nicht auf die Straße bekamen! Deine Aussage ist dahingehend also einfach unwahr, dass das an irend einem Fertigungsthema gelegen hätte. AMD hat im GPU Bereich einfach so viel wie geht rausgekitzelt und über dem Effizienzpunkt gearbeitet. Intel macht das gleiche mit ihren 5GHz Dingern. Das gleiche Silizium mit gleichem Design verliert (wie CB vor einer Zeit benannte) nichtmal 50% der Leistung bei 37W ggü. dem 9900ks, bei nichtmal 1/5tel des Realverbrauchs.
Nur ist eben genau dass das Problem - Takt hoch = Spannung rauf = Temperatur rauf = Verbrauch geht durch die Decke. Takt geht ca. 1:1 in den Verbrauch, Spannung aber im Quadrat. Temperatur trägt auch noch zum Mehrverbrauch bei.