Ceiber3
Urgestein
- Mitglied seit
- 21.11.2011
- Beiträge
- 4.907
- Desktop System
- Master System
- Laptop
- P775TM1G i9-9900k, 16 GB Ram, 1 TB NVMe, GTX 1070
- Prozessor
- Ryzen 9 7950X3D
- Mainboard
- ASUS ROG Strix X670E-I Gaming WIFI
- Kühler
- Externer 1280mm Supernova mit D5 Pumpe und OCTO Steuerung
- Speicher
- 48 GB DDR5-6000 CL30 von Corsair
- Grafikprozessor
- Manli RTX 4090 Gallardo 24 GB DDR6X
- Display
- 3440x1440, 200Hz, HDR1000, Lichtsensor, G-Sync Ultimate
- SSD
- Samsung 970 M.2
- HDD
- Nop
- Opt. Laufwerk
- (p≧w≦q)
- Soundkarte
- Asus HIVE mit Optischen Kabel zur 7.1 Anlage
- Gehäuse
- MasterBox NR200P Mini ITX Gehäuse
- Netzteil
- Corsair SF1000 Platinum
- Betriebssystem
- Winerror und Linux Mint, Dualboot
- Webbrowser
- Nur der eine "Firefox"
- Internet
- ▼250 ▲40
Das wird die erste Generation aus der neuen Intel 20A Fertigung, da wären 5,5GHz schon sehr, sehr gut. Vergiss nicht, dass die Prozesse Zeit zum reifen brauchen, bevor man damit wirklich hohe Taktraten erzielen kann. Die Alder Lake erstmal nur bis 5,2GHz spezifiziert war und dann erst mit dem 12900KS bis 5,5GHz und dabei war Intel 7 nur eine weitere Evolutionsstufe der ganzen 10nm Prozesse die vorher schon für Ice Lake und dann optimiert Tiger Lake verwendet wurden. Die ersten 14nm CPUs waren die Core-M in Q3 2014 und da war bei 2,6GHz Schluss, nicht einmal halb so viel wie bei den letzten, Rocket Lake in 2021.
Was den Wegfall von SMT aka HT angeht, so sollte man nicht vergessen, dass Intel zu Rentable Units übergehen wird und vereinfacht gesagt, können dabei dann benachbarte Kerne jeweils ungenutzte Verarbeitungseinheiten des anderen Kernes nutzen. HT dient ja dazu das Verarbeitungseinheiten durch einen anderen Thread auf dem gleichen Kern genutzt werden, wenn der eine Thread gerade z.B. wegen I/O warten muss, wobei man aber eben durch Optimierungen der Archtektur (vor allem der Vorhersagen und Caches) genau diese Wartezeiten minimieren will und bei einer optimalen Architektur würde SMT damit keinen Performancevorteil mehr bringen. Erlaubt man dem benachbarten Kern diese Einheiten auszulasten, dann würde SMT auch weniger bringen und wird damit wohl sinnlos, bleibt aber wohl immer ein gewisses Sicherheitsrisiko.
Dagegen dürften die Rentable Units die Singlethreadperformance und auch die Performance-per-core bei Last auf wenigen Kernen, wie bei Spielen, dann aber deutlich erhöhen, eben weil bei einer Singlethreadlast der eine Kern dann immer kräftig auf die Verarbeitungseinheiten seines Nachbarns zugreifen kann, also praktisch die doppelte Anzahl an Verarbeitungsheiten nutzen kann als er selbst besitzt. Dies Konzept soll auf Jim Keller zurückgehen, aber ab wann dies implementiert werden wird, ist noch nicht bekannt, vielleicht ja schon bei Arrow Lake? Immerhin soll Arrow Lake bei der Gamingperformance ja deutlich zulegen:
Genau dies würde man von Rentable Units erwarten, während man bei Benchmarks die alle Kerne voll auslasten, eben nicht so gewaltige Performancesprünge sehen wird, eben weil dann die Kerne ihre Verarbeitungseinheiten selbst gut auslasten und daher weniger an ihren Nachbarn ausleihen können. Zumal wenn alle Kerne den gleichen Code abarbeiten und damit die gleichen Einheiten brauchen, z.B. bei Cinebench vor allem die FP Einheiten. Dann bringt es dem Nachbarkern eben auch nichts, dass er auf die Integereinheiten zurückgreifen könnte. Aber wenn da gemischte Lasten laufen, dann würde es wieder anders aussehen und damit wird es noch schwerer eine Prognose für die Performance bei bestimmten Lasten abzugeben, wenn man eben nicht mit genau diesen Lasten bencht.
Wie schon oft gesagt: Es wird spannender Herbst.
Freue mich schon auf die neue Intel Gen, hoffe es wird sich einiges ändern. Leistung/Stromverbrauch. Hoffe die Rentable Units bringen einiges.