Alder Lake goes Mainstream: Neue CPUs, Chipsätze und Boxed-Kühler

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also wäre dein Fazit unterm strich wäre es besser gewesen nicht so Beta zeug auf den Kunden los zu lassen sondern das mit z. B MS besser abzusprechen, das der USER die Option bekommt für eine Anwendung manuell zu definieren welche Kerne genutzt werden sollen?
Das gibts schon, nur nicht von Intel. Bei Linux ist dann eig. schon immer mit FOSS-Tools möglich gewesen.

Könnte die Funktion die E-Cores dynamisch abschalten?
Das geht.
 
Unser Sample des Core i5-12400 ist ein H0-Stepping, also der native 6P-Core-Die:

Intel-Core-i5-12400-CPUZ-1.png
 
Das gibts schon, nur nicht von Intel. Bei Linux ist dann eig. schon immer mit FOSS-Tools möglich gewesen.


Das geht.
Linux ist halt leider nicht die breite Masse, bei Servern durchaus aber AL in Form von Core i ist halt für Home User ;-)
 
Auf was für ein Board gesockelt?

Braucht ihr den nach den Tests noch? :d

edit: Ich kenn mich mit Linux leider null aus aber gab es dafür nicht mal so eine Art Windows Emulator?
 
Zuletzt bearbeitet:
Und da ist selbst bei einer only P-Core CPU das AVX-512 Setting auf "disabled"?
Ungewöhnlich, dass steht normalerweise immer auf "Auto". Kenntnisstand B560/Z590.
Oder habt ihr versehentlich schon ein AVX-512 Locked Update aufgespielt?

Kein B660 zur Hand? Wäre doch "praxisnäher". Ihr habt doch Connection und so ein Brett bestimmt schon da. ;)
 
Wir müssen ja auch ein BIOS-Verwenden, welches die Prozessoren bestmöglich unterstützt. AVX-512 habe ich noch nicht ausprobiert.

Ein B660 ist beim Kollegen. Corona-bedingt (und bei uns so oder so) sind wir verteilt und arbeiten nicht aus einem Büro heraus.
 
Rein schauen reicht doch schon. ;)
Mich wundert halt nur, dass, wenn der AVX Schalter noch im UEFI vorhanden ist, dieser nicht auf "Auto" steht.
Das wäre die normale Grundeinstellung der Z-Boards und müsste ja erst "Disabled" gesetzt sein, wenn das Board eine hybrid CPU erkennt.

Also heißt das, die 12400 geht danach zum Kollegen und wird doch noch einmal auf B660 getestet. Richtig?
 
AVX-512 steht Default auf aktiviert mit dem Core i5-12400.

Oder das Board kommt zu mir.
 
Und warum wird das auf deinen CPU-Z Screen nicht angezeigt?

So sollte das "normalerweise" bei AVX-512 aktiviert (also "Auto") ausschauen (11400/Z590):

avx.png


..sehr merkwürdig. :unsure:
 
Weil der Screen auf einem Mainboard entstanden ist, auf dem schon ein neues BIOS war. Demzufolge war AVX-512 nicht aktiv, auch wenn im BIOS die Option gesetzt ist.
 
Linux ist halt leider nicht die breite Masse, bei Servern durchaus aber AL in Form von Core i ist halt für Home User ;-)
Ach komm schon, muss man immer für jeden googeln ?
und...oh Wunder..es gibt sogar von Microsoft selbst ein Tool für sowas:
 
Quelle Igor

Außerdem entfällt auch AVX512 von Haus aus, egal welcher Microcode gerade im BIOS implementiert wurde. Hier hat Intel von Beginn an die Reißleine gezogen.

Stimmt aber leider nicht. Beim Kollegen läuft AVX-512 mit einem Core i5-12400F.
 
Was ein durcheinander mit diesen Alder Lake Release.

..naja, wenigstens ist bei Raptor Lake dann schon einmal das ganze "Zubehör" am Markt.

Multicore Performance in CPU-Z kann sich aber sehen lassen:


Bei validierten 4GHz ganze 6pts. hinter einen 5800X und 177pts vor einen 5600X. :fresse:
 
Zuletzt bearbeitet:
Ja naja man sagt nicht umsonst, man sollte bei einem Wechsel zu was komplett neuartigem, erstmal die erste Generation abwarten und bei der zweiten Generation zuschlagen :d
Ich bin auch auf das 3D-Stacking von AMD gespannt, ob das nicht wieder Probleme mit sich bringt, genauso der erste AM5 Sockel... das wird bestimmt wie damals die 300er Chipsätze, die waren "okay" mehr aber nicht :d
 
Also bis das bei den Ryzens mit den ganzen Energiesparplänen usw. funktioniert hat (und Agesa etc).....Dann haben sich noch alle über das tolle Boostverhalten beschwert usw. usf.
Jetzt läuft ja aber alles ganz zufriedenstellend, einige Zeit später.
 
AMD hat aber mit Zen4 einen Vorteil: Dimm DDR5 schon lang am Markt und preislich kaufbar. PCIe5.0 SSD eventuell auch. ;)

Dafür hatte Intel sich z.T. noch das Weihnachtsgeschäft mit den dicken K-Prozis vereinnahmt. Aber optimales Release Setup stelle ich mir anders vor.
 
AMD hat aber mit Zen4 einen Vorteil: Dimm DDR5 schon lang am Markt und preislich kaufbar. PCIe5.0 SSD eventuell auch. ;)

Dafür hatte Intel sich z.T. noch das Weihnachtsgeschäft mit den dicken K-Prozis vereinnahmt. Aber optimales Release Setup stelle ich mir anders vor.
Irgend einer muss ja mal anfangen, dieser Marktstart bis sich alles einspielt ist echt immer etwas steinig, vor allem da die Produkt Zyklen immer kleiner werden und die Test Phasen kleiner ausfallen, klar KI hilft da mittlerweile. Aber KI kann Menschliches Versagen nicht berücksichtigen. :ROFLMAO:
 
Je nachdem wie man das nun interpretiert ist das ja irgendwo Dual Kanal.

Zum besseren Verständnis:

H510/610: Dimm A1/B1 (1 Kanal = 2 Dimms)
H570/670: Dimm A1/B1 + A2/B2 (2 Kanäle = 4 Dimms)
B560/660: Dimm A1/B1 + A2/B2 (2 Kanäle = 4 Dimms)
;)
Hä? Hat sich da bei Intel was geändert?
Man braucht doch keine 4 Module für DualChannel, auch wenn manche Boards 4 Steckplätze haben.
Eigentlich ist A ein Channel und B ein Channel, deswegen steckt man ja zwei Module in A1 und B1 um auch mit 2 Modulen DualChannel zu haben. Also eben nicht in A1 und A2.

Weiß nicht, wie die Boards beschriftet sind, aber demnach müsste H610 nicht A1 und B1 haben, sondern mit nur einem Kanal eher A1 und A2.
 
Logisch wäre A1/B1 da "A/B" für den Slot steht und "1" halt für den Speicherkanal. Ist ja bei 4 Slot 2 Kanal auch so spezifiziert für DC Modus.
Aber egal wie man nun die Dimm Slots bezeichnet, H610 hat DC über halt 1 Speicherkanal bei Vollbestückung.

B660/H670 hat: A1/B1 -> Speicherkanal 1 | A2/B2 -> Speicherkanal 2
X299 hat: A1/B1/C1/D1 -> Speicherkanal 1 | A2/B2/C2/D2 -> Speicherkanal 2
..warum sollte H610 dann A1/A2 -> Speicherkanal 1 sein?
 
Zuletzt bearbeitet:
Also wäre dein Fazit unterm strich wäre es besser gewesen nicht so Beta zeug auf den Kunden los zu lassen sondern das mit z. B MS besser abzusprechen, das der USER die Option bekommt für eine Anwendung manuell zu definieren welche Kerne genutzt werden sollen? Ähnlich wie bei Switchable Graphics? Zumindest bis der Threaddirektor reif genug ist automatisiert zu laufen?
Naja, bei Multicore wars zunächst wurscht, auf welchem Kern was läuft, weil ja eh alle gleich waren.
Multicore mit SMT war dann schon anpruchsvoller. Bei 2 Kernen willst du ein Programm mit 2 Threads halt möglichst auf den beiden physischen Kernen laufen haben, statt auf Kern 1 + dessen virtuellen Klon, während Kern 2 gar nix tut. Das muss der Scheduler halt wissen und entsprechend reagieren. Das hab ich aber damals nicht so aktiv verfolgt, wie sich das entwickelt hat.
Als AMD mit den 2 CCX ankam, willst du halt z.B. 2 zuammengehörende Threads auf Kernen des selben CCX laufen lassen, also nicht Kern1 von CCX1 und Kern1 von CCX2. Das muss ein Scheduler natürlich wissen. Da hatte Windows anfangs iirc auch Probleme, weil der Scheduler sowas einfach nicht kannte.
Mit asymmetrischen Designs gibts jetzt prinzipiell das gleiche wieder: Der Scheduler muss das halt erkennen und berücksichtigen. Würde mich wundern, wenn der Windows-Scheduler direkt schon könnte. Ist aber kein Windows-Problem. Ich würde jetzt auch nicht unbedingt davon ausgehen, das selbst ein aktueller Kernel das direkt schon komplett beherrscht.

Aber man kann doch Prozesse oder sogar Threads auch manuell an bestimmte Kerne zuweisen. Also iirc Prozesse unabhängig vom Programm durchs Betriebssystem. Bei Threads wirds über OS evtl schwierig, aber ein Programm selbst kann das durchaus berücksichtigen. Muss das Konstrukt dann aber auch entsprechend erkennen.
Also für den Fall einfach alle Prozesse fix auf die P-Kerne zuweisen, dann sollte das doch auch tun?

Den Scheduler kann man beliebig komplex machen. Der kann theoretisch auch analysieren wo/wie Threads interagieren und dann theoretisch sogar ausrechnen (oder ausprobieren) ob es unterm Strich nicht sogar doch schneller wäre, auch wenn die P-Kerne mal auf E-Kerne warten müssen, als die E-Kerne gar nicht zu nutzen, aber dafür den doppelten Workload auf die P-Kerne zu packen.
Beitrag automatisch zusammengeführt:

Logisch wäre A1/B1 da "A/B" für den Slot steht und "1" halt für den Speicherkanal. Ist ja bei 4 Slot 2 Kanal auch so spezifiziert für DC Modus.
Das widerspricht aber dem wie man aktuelle Boards so bestückt. Man steckt ja eben in A1 und B1 und hat damit ja DualChannel. Wenn die "1" den Kanal bezeichnen würde, wären aber ja beide Module auf einem Kanal?
 
Weiß nicht, wie die Boards beschriftet sind, aber demnach müsste H610 nicht A1 und B1 haben, sondern mit nur einem Kanal eher A1 und A2.
Nein, auch der H610 hat Dual Channel, aber eben nur ein DIMM pro Channel. Spieluhr sollte man ignorieren, denn er stiftet nur Verwirrung, entweder mit Absicht oder weil er einfach keine Ahnung hat und deshalb alles durcheinander bringt.
 
Was soll da der aktuellen Boardbestückung widersprechen?

A-D gibt immer den jeweiligen Dimm slot an, 1-2 den jeweiligen Speicherkanal.
Stände bei einen H610 Board nun A1/A2, dann wären das 2x Singelchannel über 2 Speicherkanäle ungebündelt zum Chipset.
Das wäre a.) Materialverschwendung und b.) ineffizient.

Und zu 2 Dimms auf einen Kanal: Ja, sind die immer! Denn der hat einen Datenbitbreite von 256bit, die Module aber 128bit. Daher werden die Datenströme ja "gebündelt. Nichts anderes ist DC Mode.

dc.png


81SxOK3tPYL._AC_SL1500_.png


Ja Holt, dass du Gegebenheiten nicht beachtest und in deiner eigenen Welt lebst, dass ist ja nichts neues.
Für dich kann a auch eine i5 11400 mit Multi x8 nicht auf 800MHz laufen und unterstellst mir "Fakes", nur weil DU keine Windows Energiesparpläne kennst. ;)
 
Zuletzt bearbeitet:
Wer lebt in seiner eigenen Welt?
A-D gibt immer den jeweiligen Dimm slot an, 1-2 den jeweiligen Speicherkanal.
Umgekehrt ist es richtig, lies mal hier auf S. 21, da steht der Hinweis bei Skylake-X CPUs erst A1/B1/C1/D1 zu bestücken und auf der nächsten Seite steht, dass man bei Kaby Lake-X nur die Slots C1/C2/D1/D2 nutzen kann, der hat ja nur 2 RAM Channels.
Und zu 2 Dimms auf einen Kanal: Ja, sind die immer!
Nein, mit den H610 und seinen Vorgängern geht das nicht, die unterstützen nur ein DIMM pro Channel.
Denn der hat einen Datenbitbreite von 256bit, die Module aber 128bit.
Nein, die RAM Riegel selbst haben nur 64 Bit Datenbreit, die 128 Bit werden da angezeigt, weil es eben der Dual Channell Modus ist.
 
Derzeit ist undervolting mit nem B Chipsatz nicht möglich, oder gibts da Neuigkeiten?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh