Ryzen-spezifische Optimierungen: Update für Windows 11 23H2

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.987
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"Für uns steht demnach in den kommenden Tagen die Aufgabe an alle Prozessoren erneut zu testen."

Leute... Ok. Macht das. Macht das aber bitte erst, wenn ihr rausgefunden habt was in dem 24H2 dermassen schiefgelaufen ist.
 
Wir haben ja jetzt den 23H2 mit dem optionalen Update im Vergleich zur Preview von 24H2.

Die Ergebnisse waren/sind, wie sie sind. Im Thread wurde über F1 24 gemeckert, unterschiedliche Settings wurden verglichen und es wurde weiter gemeckert. Glaubt ihr wirklich wir schauen nicht dreimal nach und machen den Durchlauf mehrfach, wenn es uns etwas spanisch vorkommt?
 
Zuletzt bearbeitet:
Ich bin gestern abend noch kurz... durchs Netz gestreift :fresse: Irgendwie kommen wir bei dem 24H2 Test bei weitem nicht so gut weg wie sonst. Weder aber war man der Meinung ihr macht da etwas extra noch redet man darüber, daß schlampig gearbeitet wurde. Wenn denn, hinterfragt man eher die Methodik an sich. Wahrscheinlich liegt das eben daran, daß es bisher keinem gelungen ist derartige Ergebnisse hinzubekommen.

Ich würde den O-Ton mit - Da stimmt doch irgendetwas grundsätzlich nicht - wiedergeben. Ich hab überlegt in 2 der Diskussionen einzustiegen, aber mit etlichen anderen Links hätte ich denen was vermitteln sollen? "Ihr und die aus den Links die ihr postet, habt alle einfach keine Ahnung"?

Was die Links angeht fand ich da aber keinen der sich an 720p-DLSS (?) gewagt hat. Ich kann nicht - und möchte nicht - so wirklich Rummeckern, vor allem wenn mir selbst nichts einfällt was nicht stimmen sollte, aber daß alles in allerbesten Ordnung ist, das Gefühl habt ihr selbst weiterhin dabei?
 
Nein, Tests auf Basis einer Preview sind immer zu hinterfragen. Selbst mit dem Update jetzt stell ich mir die Frage, was ich davon halten soll: "We expect the performance uplift to be very similar between 24H2 and 23H2 with KB5041587 installed."

Very similar ungleich identisch – oder sehe ich das falsch?
 
Ja. Ungleich identisch :fresse: Verwirrend find ich das nicht. Denn... KB5041587 verwandelt 23H2 ja nicht in 24H2. Einfach immer im Hinterkopf behalten, daß es kein Linux oder FreeBSD ist, sondern Windows :hust:

Das erklärt aber nicht warum unserer Preview-Test sich relativ stark von den anderen Preview-Tests unterscheidet...
 
Das optionale Update ist auf der primären SSD des CPU-Testsystems nun installiert. Interessanterweise liegt Spiderman nun wieder auf Niveau des Tests ohne die Optimierungen von 24H2, F1 24 macht mit dem Ryzen 7 9700X hingegen einen Sprung.
 
Waaaaasss ein Leistungsschub basierend auf einer Sprungvorhersage ist unbeständig und schwierig exakt zu reproduziere? Wie kann das denn sein?
 
Das optionale Update ist auf der primären SSD des CPU-Testsystems nun installiert. Interessanterweise liegt Spiderman nun wieder auf Niveau des Tests ohne die Optimierungen von 24H2, F1 24 macht mit dem Ryzen 7 9700X hingegen einen Sprung.
Interessante Geschichte. Ich denke, dass Testsetup, Treiber und Anwendungen eine wesentliche Rolle spielen, was vielleicht zu unterschiedlichen Ergebnissen bei den Testern führen kann (?). Dann noch die Güte von Prozessoren, die unterschiedlich sein können. Die Suche der Nadel im Heuhaufen ... es sind so viele Faktoren, die ein System und Tests beeinflussen können. Es wäre doch interessant, wenn von einem Prozessor, z.B. Ryzen 9950X, mehrere CPUs von unterschiedlichen Produktionschargen bei gleichem Unterbau und Software, getestet werden könnten ...
Habt ihr zufällig die Stabilität und Varianzen der CPU-Taktfrequenzen angeschaut?
 
Es wäre doch interessant, wenn von einem Prozessor, z.B. Ryzen 9950X, mehrere CPUs von unterschiedlichen Produktionschargen bei gleichem Unterbau und Software, getestet werden könnten ...
Das hat LTT gemacht, beim 7800X3D da sieht man zum Teil auch eine gewisse Streuung.
 
Das optionale Update ist auf der primären SSD des CPU-Testsystems nun installiert. Interessanterweise liegt Spiderman nun wieder auf Niveau des Tests ohne die Optimierungen von 24H2, F1 24 macht mit dem Ryzen 7 9700X hingegen einen Sprung.
Irgendein Gast auf 3DC stellte die Theorie auf, daß ihr Nachladeruckler in die Messung reinbekommt
 
Irgendein Gast auf 3DC stellte die Theorie auf, daß ihr Nachladeruckler in die Messung reinbekommt
Wer von den Otto-Normal-Usern hat einen derart cleanen PC für Laborbedingungen? Realistischer finde ich Zahlen und Balken, wo die breite Masse im Normalbetrieb damit was anfangen kann und was zu erwarten wäre. Und dann nur, wenn jeder User das identische Testsetup in Hard- und Software hat, wie bei den Testern. Ich kann mir nicht vorstellen, dass das Team ein Test nur ein oder zweimal durchlaufen lässt, um einen Mittelwert zu ermitteln. :unsure:
 
Und dann nur, wenn jeder User das identische Testsetup in Hard- und Software hat, wie bei den Testern.
Grade das ist eben nicht der Fall. Selbst wenn die gleichen Bauteile verbaut sind bei den Testern, unterscheiden sie sich immer noch so sehr, dass die Varianz innerhalb der Produktriehe größer sein kann als der Performanceunterschied zwischen den Modellen.
 
Grade das ist eben nicht der Fall. Selbst wenn die gleichen Bauteile verbaut sind bei den Testern, unterscheiden sie sich immer noch so sehr, dass die Varianz innerhalb der Produktriehe größer sein kann als der Performanceunterschied zwischen den Modellen.
Da hast du recht. Es ist gut, dass darüber diskutiert wird, weil für Hardware in den letzten 10 Jahren in der Summe immer mehr bezahlt werden muss. Als Konsument kann ich bei den Herstellern von Hardware doch erwarten, dass bei den Preisen die Güte hoch ist. Alleine auf komplexere Verfahren und Herstellung die hohen Preise zu begründen, ist für mich ein Alibiargument, besonders wenn Gütevarianzen herrschen. Das gilt auch für Software.
 
Wer von den Otto-Normal-Usern hat einen derart cleanen PC für Laborbedingungen? Realistischer finde ich Zahlen und Balken, wo die breite Masse im Normalbetrieb damit was anfangen kann
Du meisnt also nichts mit 720p DLSS? ODer hast du den Gedanken da noch nicht zu Ende gedacht?

Grade das ist eben nicht der Fall. Selbst wenn die gleichen Bauteile verbaut sind bei den Testern, unterscheiden sie sich immer noch so sehr, dass die Varianz innerhalb der Produktriehe größer sein kann als der Performanceunterschied zwischen den Modellen.
Aha. Na wenn das so wäre, würde ich die Testerei gleich komplett aufgeben. Denn dann hat sie nicht mal eine theoretischen Sinn.
 
Du meisnt also nichts mit 720p DLSS? ODer hast du den Gedanken da noch nicht zu Ende gedacht?


Aha. Na wenn das so wäre, würde ich die Testerei gleich komplett aufgeben. Denn dann hat sie nicht mal eine theoretischen Sinn.
Hat sie auch nur sehr begrenzt.

So wie es am Ende hier verlinkten Videos im Fazit gesagt wurde: in anderen Branchen sind die Hersteller verpflichtet unter genormten Bedingungen, reproduzierbare Test durchzuführen um für spezifische Produkte spezifische Aussagen zu treffen und wenn dabei geschummelt wird oder dein Produkt diese Kriterien nachweislich nicht erfüllen, hast du eine Handhabe.

Hier hast du garnichts. Der eine Tester bekommt ein golden Sample und der andere eine Lemon. Wenn ich daran denke wie groß das durchschnittliche Performance Delta zwischen 13700 und 14700 war, stehen die Chancen gut, dass ich mit einem gutem Griff mit einem 13er in der Praxis besser performe als mit einem 14er aus dem unteren Mittelfeld.

Da kann ich noch so viel testen. Die Varianz ist einfach zu groß. Schon alleine nur bei der CPU. Hinzukommen die anderen Komponenten neben der CPU und dann addierst du noch die Messtoleranz hinzu und dann hast du eine so große Varianz, das der Aufwand sie statistisch auszugleichen so groß ist, dass ein "normaler" Tester, der kein Testlabor wie Intel hat, sowieso nichts daran ändern kann. Also lebt man als Tester damit und als Anwender bringt dir Statistik auch nichts, denn wenn du ins Klo greifst und halt einen schlechten Chip erwischt, dann ist das halt so.

Allerdings ist das sowieso ein Enthusiasten-Problem, denn dem normalen Anwender ist das sowieso egal ob es nun 3 % mehr oder weniger sind und er rüstet auch nicht jede Generation nach. Sonndern einmal alle x Jahre und dazwischen beschäftigt er sich mit dem Thema garnicht oder peripher.
 
@cresent15
Die Unterschiede kannst du selbst herausarbeiten. Mit Rumgeklicke im Bios. Ein ernsthafter Reviewer macht das entweder garnicht oder es ist ein weiterer Teil des Test was extra markiert ist. Man testet mit Defaults. die es ja jetzt sogar bei Intel gibt...
 
@cresent15
Die Unterschiede kannst du selbst herausarbeiten. Mit Rumgeklicke im Bios. Ein ernsthafter Reviewer macht das entweder garnicht oder es ist ein weiterer Teil des Test was extra markiert ist. Man testet mit Defaults. die es ja jetzt sogar bei Intel gibt...

Mit rumgeklicke im Bios? Ich glaube du hast das zugrunde liegende systemische Problem nicht ganz verstanden.
 
Könnte sein. Da mir das aber in den letzten zig Jahren, im IT-RL auch nicht auffiel... ;)

Wenn du aber exakt auf diese +-3% bezogen hast: Die sind natürlich witzlos.Da bin ich bei dir.
 
Könnte sein. Da mir das aber in den letzten zig Jahren, im IT-RL auch nicht auffiel... ;)

Ok, aber wie bringt dich das weiter? Also ich verstehe dein Ziel nicht ganz. Du scheinst doch ein gewisses Vertrauen in die Aussagekraft bestimmter Test zu haben und das Ergebnis scheint dich zu interessieren.
An Informationen, die diese Test einordnen oder deren Gültigkeit und Übertragbarkeit definieren bzw. eingrenzen, scheinst du allerdings gar kein Interesse zu haben.

Denk doch einfach mal über Folgendes nach. Moderne CPU Fertigungsverfahren verwenden Hochtechnologie um filigrane Produkte zu erstellen unter hohem Aufwand und der ganze Prozess ist komplex.
Wir wissen, dass es nicht x Produktionsschienen für jedes einzelne Produkt gibt, sondern, dass "Fehlschläge", also Produkte die dem Erwartungen nicht entsprechen, als die schwächeren Produktderivate verkauft werden.

Das heißt 1. der Prozess ist nicht fehlerfrei.
2. Die Produkte sind keine Klone voneinander sondern unterscheiden sich durch den nicht perfekten Prozess.
3. Durch "Fehlerhafte" Derivate unterscheiden sie sich sowieso.
(4.) Fehlerhaft schließt hier ein, dass das Silikon auch nicht Einheitlich ist und in seiner Qualität variieren kann. Also auch durch eine Varianz in den Ausgangsmaterialien ergibt sich zwangsweise eine Varianz im Endprodukt.

Je kleiner der "designte" Performanceschub ist, desto unwahrscheinlicher kann ich den außerhalb der Fertigungshallen ertesten, da die Relation zur Varianz innerhalb der Modellreihe stark zulegt.

Hier mal eine technische Erklärung:

The concept refers to the inherent variability in the manufacturing process of silicon-based semiconductors, particularly CPUs (Central Processing Units) and GPUs (Graphics Processing Units). This variability can result in chips that, while technically identical in design, perform differently due to subtle differences in the quality of the silicon and the manufacturing process. Here's a detailed and technical breakdown of the concept:

  • Semiconductor devices like CPUs and GPUs are made using a process called photolithography, where patterns are etched onto a silicon wafer to create the intricate circuits that make up the chip.
  • These wafers are then cut into individual chips, each one intended to function identically according to the design.
  • The manufacturing process, though highly precise, is not perfect. Variations can occur due to several factors, such as:
    • Silicon Purity: The purity of the silicon crystal can vary slightly across different regions of a wafer.
    • Photolithography Precision: The precision of the photolithography process can differ slightly due to equipment calibration, light exposure, and chemical properties.
    • Thermal Treatment: The heat applied during the manufacturing process can vary, leading to differences in how the silicon crystallizes or how the transistors are formed.

Impact on Chip Performance

  • Voltage and Frequency Scaling: Due to these variations, some chips can operate at lower voltages or higher frequencies more stably than others. This means that even though all chips of a certain model are designed to run at a specific clock speed, some may be capable of running faster or more efficiently with the same cooling and power conditions.
  • Power Efficiency: Chips that perform better at lower voltages tend to consume less power, generating less heat, which is particularly important for overclocking enthusiasts.
  • The performance variation due to the Silicon Lottery follows a statistical distribution. Most chips will perform close to the average, but a small number of chips will perform significantly better or worse.
  • Manufacturers sometimes bin these chips, meaning they categorize them based on performance and sell the better-performing ones at a premium. This is common in the high-end enthusiast market.

Real-World Implications

  • Consumer Impact: For consumers, the Silicon Lottery means that two identical-looking CPUs or GPUs bought from the same store might have different performance potential.
  • Market Segmentation: Companies sometimes take advantage of the Silicon Lottery by offering "pre-binned" chips guaranteed to perform at certain levels, often at higher prices.
  • Overclocking Communities: The concept of the Silicon Lottery is well-known in the overclocking community, where users often share their results and experiences, contributing to a broader understanding of how much performance can be squeezed out of different batches of chips.
 
Ok, aber wie bringt dich das weiter? Also ich verstehe dein Ziel nicht ganz. Du scheinst doch ein gewisses Vertrauen in die Aussagekraft bestimmter Test zu haben und das Ergebnis scheint dich zu interessieren.
An Informationen, die diese Test einordnen oder deren Gültigkeit und Übertragbarkeit definieren bzw. eingrenzen, scheinst du allerdings gar kein Interesse zu haben.
Ja... Warte. Hast du nicht gesagt, es gibt kaum welche? Ich dachte damit war das für dich erledigt (?)
 
Gültigkeit. Da panta rhei und so.
 
Gültigkeit. Da panta rhei und so.

Nein, wie geschrieben definiert es den Gültigkeitsbereich. Das heißt nicht, dass kaum einer da ist.
Es geht um Erwartungen und um Anwendung.

Wenn ich weiß unter welchen Bedingungen getestet wird und die Ergebnisse verstehe, kann ich trotzdem einen Nutzen haben.
Wenn ich die falschen Erwartungen an einen Test habe, mag ich vielleicht zufrieden sein, aber das Ziel trotzdem verfehlen.

Silikon haste höchstens im Badezimmer
Im Kühlschrank für die Eiswürfel.
CPU, Eiswürfel... fast das Gleiche.
 
(4.) Fehlerhaft schließt hier ein, dass das Silikon auch nicht Einheitlich ist und in seiner Qualität variieren kann. Also auch durch eine Varianz in den Ausgangsmaterialien ergibt sich zwangsweise eine Varianz im Endprodukt.
Du meinst sicher Silizium, oder?
 
Glückwunsch an die Redaktion zur Erwähnung im neusten Video vom LinusMediaGroup Sprössling "Techlinked"
(wenn man das so sagen kann? :d )
 
Zuletzt bearbeitet:
Ein falsch übersetztes Wort hat nichts mit Grammatik zu tun, oder ist der Begriff neu definiert worden?

Freue mich aber, dass weiter optimiert wird. Man liest häufig eher von OS-Patches, welche mit Leistungseinbußen einhergehen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh