Intel Arrow Lake-S ohne Hyper-Threading: Leak bestätigt erste Gerüchte zu Core Ultra 200

Wenn es dies gäbe, würde doch Intel Werbung machen und nicht ständig Lunar, Panther Geschichten erzählen. Arrow wird totgeschwiegen, weil Panther die Erlösung werden soll. AMD bringt Zen 5 etwas früher, weil +16% auch nicht das vermittelt, was AMD mit viel Arbeit an der Architektur vermitteln wollte.
Natürlich wünschen sich einige eine Dominanz ihrer Liebeings-Hardware, auch wenn es bedeutet, dass dann der Liebling höhere Anforderungen an den Geldbeutel stellt.
Also der nüchterne Kunde wünscht sich einfach einen guten technologischen Sprung der entweder in Leistung oder Geld zu bemessen ist.

Heißt entweder ne gute Leistungssteigerung fürs gleiche Geld ggf. einen geringfügigen Aufpreis oder aber die gleiche Leistung für weniger Geld.
Aktuell ist es leider häufiger so besonders bei Nvidia das es zwar mehr Leistung gibt aber zu einem Konstanten Aufpreis.

Ich meine Corona und Mining boom ist doch langsam zu ende.
Die Hardwarehersteller machen das gleiche wie die Lebensmittel Branche "Neu mit verbesserter Rezeptur" und erhöhen den Preis, aber am ende bekommst du doch nur eher eine Softwareverbesserung. Gerade die 4060 ist ne absolute Frechheit an Preis/Leistung.

Intels Gen 14 mit der APO Software = hier war es offensichtlich hauptsächlich ein Software update. Gegenüber Gen13.

Ja und AMD bringt auch erstmalig nichts wirklich neues raus, mal schauen wie teuer alles wird.

EDIT: https://www.hardwareluxx.de/index.p...rt-sich-vor-allem-auf-softwarefunktionen.html

Um es mal ganz deutlich hervor zu heben.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Genau. Bitte den Hypetrain im Bahnhof lassen. Ich vermute eher dass die Leistungssteigerungen in der Realiät sehr überschaubar bleiben werden. Was ich allerdings fürchte ist dass die Mainboardpreise abermals anziehen werden. Sowohl bei AMD als auch bei Intel wirbt man mit massiven VRM Blöcken und mit der neuen CAMM2 Speicherlösung. Das werden ihnen early Adopter vergolden müssen.

Einfach erstmal abwarten wie sich das Zeug in der Realität verhält und dann entscheiden ob sich sowas überhaupt lohnt.
 
Also so wie ich das aus deiner Aussage her interpretieren kann, sorgt die interne Verarbeitung dafür das die Arbeitslast auf nachbarkerne verteilt werden kann.
Nachbarkerne nicht, so wie es aussieht, kann ein Kern eben die Einheiten seines Nachbarn nutzen, die dieser gerade nicht braucht und daher werden die Kerne paarweise angeordnet werden. Plural ist also schon mal falsch, jeder Kern kann durch "Rentable Units" die doppelte Anzahl an Verarbeitungseinheiten nutzen, die er selbst hat.

Also würden theoretisch Games oder Anwendungen die wenige Kerne auslasten davon profitieren. (zumindest erstmal theoretisch)
Klar, wenn alle Kerne die gleichen Einheiten voll auslasten, etwa bei Cinbench Multithread alle ihre FP Einheiten ausgelastet haben, dann können "Rentable Units" natürlich nichts bringen.

Wann gibt es mal endlich einen Hersteller der einfach beides zukauft und selbst zusammen schustert
Das eine schließt das andere ja nicht aus. Ich frage mich, ob Intel nicht noch Platz auf dem Base Tile hat um da einen L4 Cache unterzubringen. Der erzeugt aber eben halt auch eine zusätzliche Leistungsaufnahme, bringt aber eben nur bei bestimmten Anwendungen, vor allem Spielen etwas und daher muss man eben abwägen ob sich sowas überhaupt lohnen wird. Vielleicht kommt es ja dann nur bei den Desktop CPUs mit hohen TDPs.

Dazu gibt es nur Gerüchte und Intel will momentan gar nicht über Arrow Lake sprechen also müssen wir abwarten. Wahrscheinlich kommen die "Rentable Units" aber erst später genauso wie AVX10 für Client Cpu's.
Ja das es um AVX10 ruhig geworden ist, wundert mich auch ein wenig, aber es war ja auch erst für Granite Rapids angekündigt:
Allerdings ist in der News dazu hier bei HL nur von AVX-512 und AMX die Rede und das eben die Redwood Cove Kerne wie bei Meteor Lake zum Einsatz kommen. Aber ist AVX-512 nicht vor allem für die AI Beschleunigung entwickelt worden?


Diese Aufgabe übernehmen ja nun die NPUs und bei den Servern dann die Gaudi Karten, von daher ist die Frage wie viel Sinn solche Befehlserweiterungen noch machen, wenn man die Aufgabe auf spezielle Einheiten auslagert.

Heißt entweder ne gute Leistungssteigerung fürs gleiche Geld ggf. einen geringfügigen Aufpreis oder aber die gleiche Leistung für weniger Geld.
Fürs gleiche Geld wird es die neue Generation schon deswegen zumindest am Anfang nicht geben, weil der Handel (und der Hersteller) die alte Generation aus den Lagern räumen will und daher die Preise entsprechend senkt, während für die Neuerscheinung meist kräftig was draufgeschlagen werden kann, weil die Nachfrage das anfangs meist noch knappe Angebot übersteigt. Selbst wenn die Listenpreise also gleich bleiben, sind die Vorgänger immer billiger zu haben als ihre Nachfolger und allenfalls wenn der Nachfolger i7 den Vorgänger i9 schlagen kann, darf man auf eine Leistungssteigerung fürs gleiche Geld hoffen, ob die dann aber noch reicht um als gute Leistungssteigerung angesehen zu werden, ist eine andere Frage. Dies ist ja sehr subjektiv, genau wie die Frage ob ein Aufpreis geringfügig ist.

Was ich allerdings fürchte ist dass die Mainboardpreise abermals anziehen werden. Sowohl bei AMD als auch bei Intel wirbt man mit massiven VRM Blöcken und mit der neuen CAMM2 Speicherlösung. Das werden ihnen early Adopter vergolden müssen.
Da die CPUs auch wieder mehr PCIe Lanes und auch mehr schnelle PCIe 5.0 Lanes bekommen, Arrow Lake soll gegenüber den Vorgänger 4 zusätzliche PCIe 5.0 Lanes für einen M.2 Slot bekommen und es ist unklar ob die andere 4 Lanes von der CPU auch auf PCIe 5.0 beschleunigt wurden. Ich habe auf den Bildern hier nur bei ASRock Taichi Aqua zwei M.2 Slots mit PCIe 5.0 (ASRock nennt sie Blazing M.2) gesehen. Die Lanes für den zweiten könnten natürlich auch von den 16 für die Graka stammen, wie es ja schon bei S1700 Boards öfter gemacht wird.

PCIe 5.0 erhöht den Preis und ebenso fette Spawas und neue Technologien wie eben CAMM2 RAM, aber auf letzteres kann man eben auch verzichten, die allermeisten Boards werden ja wieder normale DDR5 RAM Slots haben und wenn man nicht massiv übertakten will, braucht man auch nicht das teuerste Board mit den fettesten Spawas. Die neuen AM5 Boards dürften aber schon aus zwei Gründen deutlich teurer werden, einmal weil AMD da den ASM4242 drauf sehen will, als Zusatzkarte kostet der über 90€ und dann weil sie den Support bis 2027 statt vorher 2025 verlängert haben, die Hersteller also mehr BIOS Updates für immer neue CPU Versionen liefern müssen. Auch wenn es am Ende vielleicht nur solche minimal unterschiedlichen Varianten bestehender CPUs sein werden wie die 5800XT und 5900XT sein werden, statt wirklich neue Modelle mit der dann aktuellen Architektur. Da kein Kunden bereit sein dürften diesen Aufwand direkt zu bezahlen, schlagen sie dann die erwarteten Kosten von Anfang an drauf. Die Langlebigkeit der Plattform hat eben auch Nachteile.
Einfach erstmal abwarten wie sich das Zeug in der Realität verhält und dann entscheiden ob sich sowas überhaupt lohnt.
Das sowieso. Wer rationell kaufen will, muss sowieso erst die neutralen Reviews lesen und dann abwarten bis die teils absurden Aufpreise des ersten Ansturms verschwunden sind.
 
Intel hätte zwar die 14Gen nicht unbedingt bringen müssen aber es war ein klassischer Refresh mit Änderungen an der Hardware bei einigen Cpus + Takt Upgrade Apo wurde eingeführt exklusiv für diese Gen., läuft aber wohl mit paar Kniffs auch auf 13.
Haupt Benefits sind aber die geringeren Spannungen gewesen, die Cpus laufen daher auch etwas kühler, dies haben Tests auch bestätigt.
Und mal ehrlich, die erste CPU mit 6.2 GHz zu bringen ist doch nicht peinlich, sondern eher Fortschritt der sich in der SC Performance zeigt, die immerhin noch etwas über Zen5 liegt oder zu liegen scheint.
 
Zuletzt bearbeitet:
Apo ist bestimmt nicht tot. Ich glaube eher dass das auf der 14er Generation ein Probeschuss war und für Arrow Lake und fortfolgende vermutlich noch wichtiger wird. Wobei ein eigener Scheduler wohl sehr viel notwendiger wäre, wenn man schon unterschiedliche Kerne hat, auf die die Workload entsprechend verteilt werden muss. Ich denke da läge viel Potential. Wir werden es sehen was kommt oder was nicht kommt.
 
Aber ist AVX-512 nicht vor allem für die AI Beschleunigung entwickelt worden?
Nein, neben dem Offensichtlichem, der Verbreiterung der Vektoreinheiten, sind sehr viele Befehle auch für 256Bit Vektoren eingeführt worden, die es bereits für MMX (64Bit SIMD) bzw. SSE (128Bit SIMD) gab, und in AVX/AVX-2 fehlten. Die typischen kurzen Floatingpoint Datentypen, die man für AI nutzt, unterstützt AVX-512 gar nicht. Man muss dazu schon die kurzen Integerdatentypen nutzen.
 
Der Refresh ist ein Notnagel weil halt aus Meteor Lake-S nichts wurde, immerhin hat es den Usern den 14700K beschert.

Selbst mit dessen Leistung kommen die meisten gut hin, nur wir Bekloppten wollen ständig neues Spielzeug, #kaufsucht #bastelsucht
Deshalb hab ich den 14700K. Einzig echte Veränderung in der 14er Linie und damit interessant. Mir reicht das aktuell dicke. Klar interessiert mich die neue Technik. Aber ich bin ziemlich sicher dass ich weder bei CPU noch bei GPU aufrüste, wenn mir nicht ein Defekt in die Suppe spuckt.
 
Ich bin extrem auf die neue Intel Desktop Gen gespannt. Ich werde wahrscheinlich aufrüsten und vielleicht auch meine CPU und Board behalten.
Neue AMD Gen juckt mich irgendwie überhaupt nicht, liegt warscheinlich daran das ich von Zen1 bis Zen3 nur AMD gekauft habe und Zen4 für andere verbaut habe.
 
Zuletzt bearbeitet:
Die typischen kurzen Floatingpoint Datentypen, die man für AI nutzt, unterstützt AVX-512 gar nicht.
Das stimmt so pauschal nicht. AVX.-512 hat ja viele Gruppen von Befehlen und nicht jede Implementierung unterstützt alle, ganz im Gegenteil, die meisten unterstützen offenbar nur Teile des gesamten Befehlssatzes der unter AVX-512 fällt. Die AVX512_BF16 (bfloat16) wurden bei Intel mit Cooper Lake eingeführt, die Ice Lake (Xeons) scheinen sie aber nicht zu haben:
Sapphire Rapids scheint es aber zu haben, wenn ich diese Aussagen eines Moderators des Intel forums richtig interpretieren:
Da bleibt eben die Frage wie relevant es heutzutage noch ist sowas direkt mit der CPU zu machen und dies erst recht auf den CPUs in Consumer PCs und Notebooks. Wie viel bringt AVX-512 dort? Wäre es so relevant, müsste Alder Lake ja Mist sein, dort wird es im Gegensatz zum Vorgänger Rocket Lake ja nicht mehr unterstützt.

Int8 wird bei Intel CPUs mit AVX512_VNNI (Vector Neural Network Instruction) unterstützt und dies waren vor 4 Jahren:
Das lief damals alles unter Intel Deep Learning Boost (Intel DL Boost), aber da die Client CPUs ja nun NPUs bekommen, dürfte sich dies wohl mehr oder weniger überholt haben.

Ansonsten gibt es aber wohl nur wenige Anwendungen die AVX-512 nutzen, wie JAVA bei Base64 Decoding, aber dies macht sich im Alltag nun auch nicht so wirklich dramatisch bemerkbar. Andererseits brauchen AVX-512 Einheiten, vor allem wenn sie auch wirklich 512 Bit breite Verarbeitungseinheiten haben, dann einiges an Platz (und Strom, wenn sie arbeiten) und da ist halt die Frage, ob man diese Resourcen nicht sinnvoller anderweitig einsetzen könnte. Also warten wir mal ab, was da bzgl. AVX10 kommen wird, aber ich vermute die Bedeutung dieser Befehlserweiterung wird durch die NPUs in Client CPUs und Karten wie Intels Gaudi im Servern, wohl deutlich nachlassen.
 
Das stimmt so pauschal nicht. AVX.-512 hat ja viele Gruppen von Befehlen und nicht jede Implementierung unterstützt alle, ganz im Gegenteil, die meisten unterstützen offenbar nur Teile des gesamten Befehlssatzes der unter AVX-512 fällt. Die AVX512_BF16 (bfloat16) wurden bei Intel mit Cooper Lake eingeführt, die Ice Lake (Xeons) scheinen sie aber nicht zu haben:
Das Problem an AVX-512 ist, dass nicht wirklich festgelegt ist, was denn nun AVX-512 ist, da es mehrere Ansätze gab AVX-512 im Markt einzuführen. Daher hat Intel nun auch AVX10 angekündigt, um das nun zu vereinheitlichen. Es gibt bei den Compiler so etwas wie den AVX-512 Core Befehlssatz, und dazu gehören die Halfprecision Datentypen nicht dazu. Man muss diese über eine Erweiterung explizit aktivieren. Gehört BF16 zu AVX-512? Eher nein, da es eine AVX-512 Erweiterung ist, und explizit getestet werden muss, ob die betreffende AVX-512 CPU das überhaupt unterstützt.

Dann musst Du unbedingt zwischen BF16 (für AI genutzt) und FP16 (für andere Zwecke genutzt) unterscheiden. Bei Intel unterstützen nur Cooper Lake (nur für 4S und 8S Xeons genutzt) und die Sapphire Rapids (Xeon SP Gen 4, Xeon W 2400, Xeon W 3400) und Nachfolger BF16. Dazu kommen AMD Zen4 und Zen5. FP16 wird bisher nur von Sapphire Rapids unterstützt. Die neuen Xeon 6 sind bisher nur mit E Cores erschienen, und diese unterstützen nur AVX2 und erst die P Cores Xeon 6 werden wieder AVX-512 unterstützen, dann aber auch AVX10.1.
 
Die E-Kerne sind doch bei Arrow auch eine neue Architektur. Und wenn diese eben in der Leistungsentfaltung zugelegt haben, ist kein HT notwendig um mit den 32 Threads bei AMD mitzuhalten.
Die E-Kerne sind weitaus schwächer als die P-Kerne, und auch weitaus schwächer als die AMD Zen Kerne.
Um mit einem AMD 32 Kerner mitzuhalten, bräuchte Intel mit Sicherheit mehr als 32 Kerne wenn 1/4 davon E-Kerne sind.

Viele Nutzer von Gaming-Rechnern haben auch standardmäßig die SMT-Technik (Simultaneous Multithreading) ausgeschaltet,
Das kann auch umgekehrt sein. SMT verschnellert spiele auch sehr oft, je nach Game und der Anzahl eigener Kerne im Rechner.
Und gut dass du mich dran errinerst. Wenn man die E-Kerne ausschaltet, gibt das auch bei vielen Games Massives Leistungsplus.
Alleine in Star Citizen bremsen die E-Kerne extrem.
Ich weiß nicht ob Intel mit Verzicht @ HT aufs richtige Pferd gesetzt hat. :unsure:
Ja geht mir auch so. Hoffe Intel hat sich dabei was gedacht und es entsteht kein Nachteil.
PS: Ich weiß noch wie du damals vom ersten Netburst Dualcore geschwärmt hast und den verbaut hattest, durch HT 4 Threads.

Ja, big.Little ist eine tolle Entscheidung gewesen. Dass HT wegfällt, wird sich Intel mit Sicherheit gut überlegt haben. Den Ersatz haben sie damit, aber ein Leistungsverlust bedeutet es so oder so. Ich schätze, dass dank der hohen Threadanzahl die Vorteile nicht mehr so groß sind wie früher einmal.
Ja dass hoffe ich auch, obwohl ich AMD Only User seit 2001 bin, wünsche ich mir das Intel nicht so ein Bulldozer Desaster erlebt.
Big Little ist bei Games bis heute oft Problematisch. Gibt allein auf Reddit Zehntausende Threads darüber dass man die E-Core Dinger ausschalten sollte.
Hyper-Threading wird doch nur aufgegeben wegen den ganzen Sicherheitsdreck.

Wenn ich das deaktiviere verliere ich fast überall Gaming Leistung.
Richtig.
Games sind aber für die Industrie von unter geordneter Bedeutung. Wichtig sind die CPUs für Server und für mobile Devices
Daher hoffe ich dass Intel die E-Core Abschaltung bei Games besser in den Griff bekommt mit der neuen Gen. Sonnst gibts Probleme in vielen Spielen wenn HT auch noch wegfällt.
Was den Wegfall von SMT aka HT angeht, so sollte man nicht vergessen, dass Intel zu Rentable Units übergehen wird und vereinfacht gesagt, können dabei dann benachbarte Kerne jeweils ungenutzte Verarbeitungseinheiten des anderen Kernes nutzen. HT dient ja dazu das Verarbeitungseinheiten durch einen anderen Thread auf dem gleichen Kern genutzt werden, wenn der eine Thread gerade z.B. wegen I/O warten muss, wobei man aber eben durch Optimierungen der Archtektur (vor allem der Vorhersagen und Caches) genau diese Wartezeiten minimieren will und bei einer optimalen Architektur würde SMT damit keinen Performancevorteil mehr bringen. Erlaubt man dem benachbarten Kern diese Einheiten auszulasten, dann würde SMT auch weniger bringen und wird damit wohl sinnlos, bleibt aber wohl immer ein gewisses Sicherheitsrisiko.

Dagegen dürften die Rentable Units die Singlethreadperformance und auch die Performance-per-core bei Last auf wenigen Kernen, wie bei Spielen, dann aber deutlich erhöhen, eben weil bei einer Singlethreadlast der eine Kern dann immer kräftig auf die Verarbeitungseinheiten seines Nachbarns zugreifen kann, also praktisch die doppelte Anzahl an Verarbeitungsheiten nutzen kann als er selbst besitzt. Dies Konzept soll auf Jim Keller zurückgehen, aber ab wann dies implementiert werden wird, ist noch nicht bekannt, vielleicht ja schon bei Arrow Lake? Immerhin soll Arrow Lake bei der Gamingperformance ja deutlich zulegen:
Erinnert an Bulldozer ein bisschen.
 
@Nighteye
1.) Zur Info: die Spieluhr lässt man hier nicht mehr mitspielen.
2.) Egal ob Intel oder AMD: vieles würde besser laufen, wenn sie eigene Scheduler hätten. Es ist im Grunde ein Unding wenn man Kerne abschalten muss. Ich hatte das zum Glück seit Windows 11 nicht mehr. Unter Windows 10 musste ich zum Schluss Process Lasso verwenden.
 
2.) Egal ob Intel oder AMD: vieles würde besser laufen, wenn sie eigene Scheduler hätten. Es ist im Grunde ein Unding wenn man Kerne abschalten muss. Ich hatte das zum Glück seit Windows 11 nicht mehr. Unter Windows 10 musste ich zum Schluss Process Lasso verwenden.
Oder man steckt als CPU Hersteller Ressourcen bereit, um den Scheduler des OS Herstellers auf die eigenen Produkte und Gegebenheiten anzupassen. Was ja genau auch geschehen ist (seitens Intel bzgl der E-Kerne). Was für Probleme siehst du da genau ? Ich hab Linux und Windows 10 parallel installiert und einen 13900K. Ich erkenne aber keine Probleme ?!
 
Ich hatte unter Windows 10 Probleme in DCS (Digital Combat Simulator). Dort gibt es seit einer Zeit eine Multithread Version. Diese wurde unter Windows 10 bei mir immer dummerweise auf den E-Cores ausgeführt. Die P-Cores wurden auch genutzt aber quasi nachgelagert. Das musste ich mit Process Lasso bereinigen.

Unter Windows 11 habe ich das Problem zum Glück nicht mehr. Ich kann nicht genau sagen warum. Denn nach dem was ich weiß sollte der Scheduler in Windows 10 eigentlich auch problemlos mit den unterschiedlichen Kernen umgehen können.

Dass man mit Microsoft zusammenarbeitet, um den vorhandenen Scheduler anzupassen meinte ich im Grunde. Wenn das aber optimal wäre, wären so Sonderlocken wie APO nicht nötig. Ähnliches gibt es ja auch bei den großen AMD X3D Prozessoren bei denen es passieren kann, dass Spiele genau auf dem CCD (ich hoffe ich habe hier die richtige Abkürzung verwendet, ich bin mit AMD nicht so firm) ohne Cache ausgeführt wird. Sowas darf eigentlich auch nicht passieren. Deshalb meine ich dass da noch Potential stecken müsste.
 
Und wenn du DCS mit der Priorität „hoch“ startest ? Bei mir wird die Anwendung dann nur auf den P-Threads ausgeführt.
 
Deine DCS Erfahrungen in allen Ehren aber das wird nichts mit dem Threadscheduler in Windows 10 zu tun haben.
 
Deine DCS Erfahrungen in allen Ehren aber das wird nichts mit dem Threadscheduler in Windows 10 zu tun haben.
Nunja, nachdem das ohne Update des Programms unter Windows 11 besser lief als unter 10 dachte ich das. Aber kann natürlich was anderes sein - zum Beispiel dass vorher Windows 10 irgendwie zerschossen war. Wäre mir zwar nicht aufgefallen, aber es ist defintiv möglich.
 
Denke auch, und man sollte auch nicht direkt E-Kerne oder HT deaktivieren weil "Experten" wie Nighteye und DTX das meinen 🤡.

Du hast es ja aber auf Anhieb direkt richtig gemacht und mit den Prioritäten gearbeitet, wenn der Scheduler einmal läuft hat man vorallem beim Gaming nahezu immer dieselben Ergebnisse, wobei ich auch mit verschiedenen Partitionen und dem Intel Application Optimizer herumexperimentiert habe(vorher mim Intel Thread Director), da konnte ich kaum Unterrschiede feststellen.
Was natürlich nicht heißen muss das man nie troubleshooten muss bei mancher Software.

Ohne HT kann das eigentlich nur besser werden um beim Thema zu bleiben, da es eh wenig effektiv bis teilsweise contraproduktiv war und ich denke auch speziell für Latenz sensible Software wie Videospiele mit so vielen Threads nie vorgesehen war.

Ich hab da eher den Windows 12 Release allgemein im Auge da wird man unabhängig vom Hersteller seitens Microsoft sicher für Furore sorgen, unabhänging vom Hersteller :fresse:.

 
1.) Zur Info: die Spieluhr lässt man hier nicht mehr mitspielen.
Ui was hat er angestellt ? Er ist einer der letzten alten User, sehr seltsam wieso er nach 19 Jahren gebannt wird.
Denke auch, und man sollte auch nicht direkt E-Kerne oder HT deaktivieren weil "Experten" wie Nighteye und DTX das meinen 🤡.
Ich bin kein Intel Experte, ich nutze nur AMD.
Aber ich hab mit meinem Mainboard von 2018 mit billigstem langsamen DDR2133mhz DDR4 knapp 500fps in Star Citizen und die ganzen 14900K nutzer mit Geforce 4090 kommen nicht mal auf 250fps in Star Citizen.
Und bei mir limitiert meine 4 Jahre alte Graka !
Und Reddit ist voll davon. Daher erwähnte ich dies.









Also absolut kein Intel Nutzer kommt da auf so viel fps wie ich mit meinem uralten Zen 3 habe.
Muss an den E-Cores liegen.
 
wieso er nach 19 Jahren gebannt wird.
Naja, aktiv war erst die letzten 2-3 Jahre. Bis das Mindfactory Team dass Forum dicht gemacht hat. Vorher nie hier was von einer Spieluhr gelesen. Was vor 2011 war kann ich natürlich nicht sagen. Ich weiß nur das er kein AMD mag :ROFLMAO:

Und wieso er gebannt wurde? Weil er sich mit dem Team angelegt hatte :fresse2:
 
Zuletzt bearbeitet:
Ui was hat er angestellt ? Er ist einer der letzten alten User, sehr seltsam wieso er nach 19 Jahren gebannt wird.


Also absolut kein Intel Nutzer kommt da auf so viel fps wie ich mit meinem uralten Zen 3 habe.
Muss an den E-Cores liegen.
1.) Aufbegehren gegenüber Mods. Sollte noch irgendwo nachlesbar sein. Bewertung muss jeder für sich selbst vornehmen.
2.) Danke für die Info, halt ich für nützlich. Bin zwar selbst kein Star Citizen Spieler, bin aber dankbar für solche Hinweise, weil ich persönlich keinen Bock habe das bei jedem Spiel selbst auszuprobieren.
 
Ich bin kein Intel Experte, ich nutze nur AMD.
Aber ich hab mit meinem Mainboard von 2018 mit billigstem langsamen DDR2133mhz DDR4 knapp 500fps in Star Citizen und die ganzen 14900K nutzer mit Geforce 4090 kommen nicht mal auf 250fps in Star Citizen.
Und Reddit ist voll davon. Daher erwähnte ich dies.
Also absolut kein Intel Nutzer kommt da auf so viel fps wie ich mit meinem uralten Zen 3 habe.
Muss an den E-Cores liegen.
Im Paulanergarten spielen sie mit 1000 FPS und noch Reserve.
 
Im Paulanergarten spielen sie mit 1000 FPS und noch Reserve.
Du glaubst mir nicht ? Schau selbst ins reddit.
Der durchschnittliche Intel user in Reddit mit 13900k oder 14900k und RTX4080 oder RTX4090 hat evtl 120-180fps in Star Citizen. Das ist so wenig, dass muss an den E-Cores liegen.
 
Daher hoffe ich dass Intel die E-Core Abschaltung bei Games besser in den Griff bekommt mit der neuen Gen. Sonnst gibts Probleme in vielen Spielen wenn HT auch noch wegfällt.
Es ist kein Problem Programme nur auf einen bestimmte Auswahl an Cores zu beschränken, d.h. entweder P Cores, E Cores oder eine Mischung aus beiden. Allerdings ist man nicht in der Lage von außen Threads auf bestimmte Prozessorkerne zu binden außer das Programm hat nur einen. Das Thread Pinning ist extrem wichtig, um die maximale Performance aus dem Prozessor herauszuholen, weil man so die Anzahl an Kontextwechsel der Threads minimieren kann. Jedesmal wenn ein Thread von einem Core auf einen anderen verlagert wird, werden die Cacheinhalte ungültig und müssen neu geladen werden, und das kostet nicht unerheblich Zeit. Durch HT hat man auf jedem Core bereits einen wartenden Thread, so dass man dadurch die negativen Effekte durch einen schlechten Kontextwechsel abmildern kann. In einem typischen HPC Umfeld lässt man üblicherweise den Kern 0 frei, da dieser vom OS bevorzugt von Kernelthreads belegt wird.

Als Anwender (Gamer) hast Du keinerlei Einfluss auf das Threadpinning. Legst Du fest, dass nur die P Cores in einer Intel CPU genutzt werden sollen, flippern die Threads munter weiter von Core zu Core. HT ist hier der Notnagel um die negativen Effekte zu minimieren. Das Problem lösen können nur die Games Publisher.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh