iLLuminatusANG
Legende
Mein Insider hat gesagt dass der Adler genistet hat. Sorry :P
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Man kann also schwachstellen in design nicht umdesignen sodass die schwachstelle nicht gegeben ist? Du scherzkeksWas hast du bitte für eine Vorstellung von Mikroarchitekturen? Das ist kein Legobaukasten, man kann nicht einfach elementare Bestandteile „rausmachen“.
Intel könnte auch noch viel mehr tun, kostet dann halt massiv Leistung, die man sich in der Vergangenheit durch Trickserei erkauft hat die jetzt eben nicht mehr funktioniert da man aufgeflogen ist.
Man kann also schwachstellen in design nicht umdesignen sodass die schwachstelle nicht gegeben ist? Du scherzkeks
Seine aussage war dass es nicht möglich ist, während meine war dass es durchaus machbar ist. Lenk nicht ab mit neuen verweisen und "aber".Du stellst dir die Sache ziemlich einfach vor.
Solange man auf Out-of-order execution setzt, werden solche Angriffe möglich sein.
Seine aussage war dass es nicht möglich ist, während meine war dass es durchaus machbar ist. Lenk nicht ab mit neuen verweisen und "aber".
Was er schrieb war falsch.
Und meine aussage war sie können die bekannten lücken fixe wenn sie davmbei sind einenneue architektur zu machen. Jetzt bringst du sachen wie " neue lücken" ins gespräch.Nein Seitenkanal-Attacken werden IMMER möglich sein, auch wenn Intel jetzt jede Lücke schliesst, werden neue kommen.
Und meine aussage war sie können die bekannten lücken fixe wenn sie davmbei sind einenneue architektur zu machen. Jetzt bringst du sachen wie " neue lücken" ins gespräch.
Meine aussage steht, die sollen die lückken fixen wenn sie schon am reissbrett stehen. Seine aussage war das ist nicht möglich. Ich behaupte dass seine aussage falsch ist. Ende der diskussion
Falsch. Die Aussage war, du kannst das Problem nicht einfach aus der Architektur rausnehmen.Seine aussage war das ist nicht möglich.
Falsch, ich habe gesagt sie sollen die lücken raussmachen wärend sie schon an einer neuen architektur arbeitenFalsch. Die Aussage war, du kannst das Problem nicht einfach aus der Architektur rausnehmen.
Rein theoretisch kann man die Lücken vermeiden, aber man müsste dazu eine gänzlich neue Architektur entwickeln.
Ja Mensch sag das doch mal den Forschern und Ingenieuren direkt, dass die da bitte keine Fehler einbauen sollenFalsch, ich habe gesagt sie sollen die lücken raussmachen wärend sie schon an einer neuen architektur arbeiten
Du hast gesagt man kann nicht grundlegende teile rausmachen. Und das ist falsch, eine lücke ist kein grundlegendes teil sonder ein fehler im teil.
Genug ot von mir.
Tiger Lake ist 10nm und Alder Lake wird ja angeblich 14nm sein.AVX mit DL-Boost wurde ja aber schon für Tigerlake bestätigt.
Nein, das hat Intel nie gesagt, allenfalls dumme Kommentaren haben ihnen sowas untergeschoben als die eine Studie veröffentlicht haben in der die Frage war, wie unterschiedliche Spiele über mehr Kerne skalieren und da erwiesen sich 8 Kerne als der Sweet Spot. Nur wenige Spiele haben bei mehr Kernen noch mehr fps erreicht, bei vielen blieb es gleich und bei einige fielen die fps bei mehr Kernen sogar wieder ab.Hat Intel nicht noch vor kurzen gesagt das mehr niemand mehr als 8 Kerne im Desktop braucht?
Tiger Lake ist 10nm und Alder Lake wird ja angeblich 14nm sein.
Laut dieser Übersicht bei Heise von Juni 2019 ist Alder Lake der Nachfolger der Tiger Lake-U CPUs:
[...]
Im dem TDP Segment macht little.BIG dann auch Sinn, aber für Desktop ist Alder Lake gar nicht erwähnt:
Den ersten 10nm Desktop Versuch gab es Ende 2015.Sagt wer? Die von Dir verlinkten Grafiken jedenfalls nicht.
1.) Korrekt. Tiger Lake-U schwadroniert dort aber unter 10nm. Erneuter Backport? Dann gerne in Sandy-Bridge Zeiten.
2.) Immer diese asbach-uralten Ausführungen. Aktuelleres Statement (02/2020): CB nennt Alder Lake-S als möglichen ersten 10nm Desktop Versuch für 2021.
Substanziell ist eher das es schon einen geplante ersten Desktop "Versuch" in 10nm gab Ende 2015 bzw. 2016, ziemliches Basiswissen.
Seit März 2016 gibt es offizielle Statements seitens Intel das man die Sache mit 10nm weiter verzögern muss, es ist bis heute kein Shrink geschehen in Sachen Desktop, deshalb macht es in keinem Kontext Sinn das du von ersten Versuchen sprichst , da hilft auch keine Polemik oder Computerbase.
Was die Multicore Performance anging, konnte AMD mit dem Bulldozer damals einige Akzente setzen, so hatte man in einigen Anwendungen durchaus mal die Nase vorn.