Für mich bleibt die Frage offen, ob die Inter-CCX-Kommunikation alleine über den Sheduler optimiert werden kann. Laut Aussage von AMD soll der aber wohl schon jetzt sehr gut fuktionieren...
Das lässt sich nicht via Scheduler steuern... Wie soll das auch gehen!?
Woher soll der Scheduler denn wissen, ob ein Thread nun auf dem selben CCX laufen muss, damit die Performance da ist, oder ob es egal ist und der Thread auch auf einem anderen CCX laufen kann?
DAS lässt sich via Threadscheduler schlicht nicht beeinflussen...
Was technisch gehen _würde_ -> ausnahmslos alle Threads werden wenn möglich auf dem selben CCX ausgeführt und erst ab dem Überschreiten der Gesamtauslastung von 25% (bei aktivem SMT) oder 50% (ohne SMT) wird auf den zweiten CCX geschwenkt. Das (oder das exakte Gegenteil davon) ist so ziemlich das Einzige, was man pauschal machen kann. Nur erzeugt man damit auch einen Nachteil -> nämlich das der zweite Komplex vom L3 Cache überhaupt erst genutzt wird, wenn der zweite CCX angesprochen wird und nicht (manchmal) schon wenn je ein Thread pro CCX tuckert. -> denn das wäre dann nicht mehr der Fall.
Extrem Cachelastige Software, wo zwei Threads NICHT gegenseitig irgendwie Daten austauschen hätte einen massiven Vorteil von quasi dedicated L3 Cache.
Es ist eigentlich egal wie man es dreht -> irgend eine Version hat immer einen Nachteil.
AMD hat sich nun entschieden, es so zu machen, wie man es gemacht hat... Mit dem problematischen Effekt, dass MT-Software mit scheinbar hohem Datenaustausch klar Nachteile hat, wenn über 2x CCX verteilt.
Auch die unterschiedlichen Test Philosophien sind für mich teilweise nicht nachvollziehbar. Mal wird der X1800 gegen den i7 6950X gestellt, mal gegen den i7 6850K oder den i7 7700K usw. Auch wurde bei den meisten Tests der 6800K nicht berücksichtigt.
Sollte nicht in erster Linie eine 500€ CPU gegen eine CPU in einer ähnlichen Preisregion antreten? Das wäre aus meiner Sicht logisch.
Ich möchte nicht falsch verstanden werden, ich zweifel nicht an dass Ryzen eine sehr gute CPU ist. Ich finde es nur merkwürdig das die Testergebnisse von den bekannten Seiten so stark von einander abweichen.
Ist doch aber völlig logisch, unterschiedliche Ausgangsbasis = unterschiedliche Ergebnisse...
Man muss wohl einfach sich davon lösen, dass ausnahmslos _alle_ CPUs gleich skalieren. Denn das ist nicht der Fall. So wie es im Moment ist, skaliert Ryzen in so mancher Anwendung extrem gut, in anderer eher schlecht. Das, was daran neu ist, dass ein Vergleich zum Broadwell-E/Haswell-E oder den S115xer Ablegern schlicht und ergreifend schwächen/stärken aufzeigt -> die man vorher gar nicht kannte.
Theoretisch könnte man sogar sagen, Broadwell-E hat eine Cinebench R15 Schwäche, da dort mehr Unterschied zu Ryzen liegt als in anderer MT Software (auch in anderer 3D-Rendersoftware) -> bis vor ein paar Tagen wäre nichtmal im Ansatz jemand auf die Idee gekommen darüber nachzudenken, ob das, was Broadwell-E da abliefert überhaupt gut/schlecht sein kann oder nicht. -> es fehlte einfach der Vergleichspartner.
Mit Ryzen ist das nun möglich -> und zwangsweise gibt es damit Fälle, die schmeckem dem Ryzen mehr oder weniger genau so wie das auf Intel CPUs zutrifft... Blöd für Ryzen ist natürlich, dass die Games nun oftmals langsamer sind -> und auch blöd ist, dass AMD das scheinbar auf mangelnde Optimierungen in Sachen MT und Architektur schiebt. (was ich für Quark halte und was nach "Kopf-in-den-Sand" Taktik wirkt)
Übrigens, solche Analysen findet man beim 3dc recht oft -> vor allem auch bei GPUs. Leider sind dort auch mal gröbere Schnitzer drin. Artikel -> welche sich auf Tests/Reviews Dritter Seiten beziehen und wo 3dc einfach schlicht nur Annahmen/Hochrechnungen trifft, weil die Seiten, die die Tests durchgeführt haben, die jeweiligen Modelle gar nicht im Test enthalten waren... Blöd wenn dann genau aus solchen Annahmen ein schlechtes oder viel zu gutes Bild rauskommt... Alles schon gesehen, bspw. die diversen Analysen, die G3cko beim Thema NV Kepler GPUs hier hat fallen lassen, wo dann nur noch mit unsinnigen Prozentwerten und dem wenig taugenden 3dc Bild als "Nachweis" um sich geworfen wird...
Leider ist genau das auch im von dir verlinkten 3dc Artikel anzutreffen.
Was bspw. sofort ins Auge fällt, die Performancetable auf Seite 2 -> der 1700er soll im "Index" auf 105% kommen -> die Einzelwerte sind alle samt unter 100%... WTF???
Genau solcher Kokolores kommt, wenn man anfängt hochzurechnen und dann verschiedenste Basis-Angaben verschiedenster Tests in einen Hut wirft.
Was auch völlig zu kritisieren ist -> man pickt sich nur einen Wert raus oder man gewichtet nach persönlichen Vorlieben. Da machen sich bspw. (einige) Redaktionen die Arbeit, verschiedenste Ratings für verschiedenste Fälle aufzuzeigen und 3dc pickt sich genau einen Wert raus. Wieder Beispiel 1700 non X -> CB gibt ein Anwendungsrating für Windows + Linux und 4x Spieleratings (wobei bei 2x nur der 1800X drin ist) und dort wird dann nur ein Wert genommen -> nichtmal ein Durchschnitt gebildet oder sowas... Genau das, was man im Fließtext kritisiert. So kommt bei CB der Windows Wert beim Anwendungsrating zum tragen. Der Linux Wert ist aber höher im Vergleich zum 7700k -> wie passt das zusammen!?
Auch kann ich es bspw. absolut gar nicht gut heißen aus welchen Gründen auch immer die dort einfach alle Tests in Games ohne 720p ausklammern!? Warum?
Oder bspw. dass pauschal alle Gametests ohne 6800k/6850k ausgeklammert werden?
Genau so wie mach anfängt zu "wichten" nach Gutdünken fürs Anwendungsrating, wo eine hohe Anwendungsanzahl verglichen wurde!? WTF? Auch so ein Mist -> 100x "Mist" gebencht ist immernoch nur Mist -> wichtet aber dort höher als 10x anständig gebencht...
Ist das wirklich seriös?? Aus meiner Sicht ist es das absolut gar nicht. Die Reviews werden zum Teil massiv auf dem Kontext gerissen. Wer eben keine Broadwell-E 6800/6850k CPUs hat, warum nicht gegen nen 5820k oder 5930k testen!? Wenn auch wenigstens eine CPU als Basis drin ist, die man für den Quervergleich zwischen den Reviews nutzen kann...
Oder auch der Part mit dem ausschließlichen Beziehen auf den Preis... Und dann noch gesamt Preis für das Gesamtsystem!? -> das war/ist doch überhaupt nicht der Anspruch der Reviews. Genauso wie der Corecount eine maßgebliche Rolle spielt bzw. der Fokus auf MT oder eher ST. Und das völlig unabhängig vom Preis... Nur weil bspw. jemand 370€ für die mit Abstand schnellste ST-CPU ausgeben würde heist das lange nicht, dass er auch 370€ für einen Ryzen ausgibt, wenn ST nicht im Fokus steht...
Das hatte ich auch in einem anderen Thread schon angesprochen. Verwunderlich ist sowas nicht, wenn zB unterschiedliche Versionen einer Anwendung zum Einsatz kamen. Wundern muss man sich aber schon, wenn alte Versionen genutzt werden, obwohl den Testern bewusst sein sollte, dass neuere Versionen deutlich andere Ergebnisse liefern.
Das macht aus meiner Sicht doch keinen Unterschied wenn man sich einfach im Hinterkopf behält, dass der Test so oder so nur für die getesteten Anwendungen unter den getesteten Szenen vollends aussagekräftig ist. Man wird auch mit 100x Anwendungen eine allgemeingültig pauschale Aussage treffen können. Dafür gibts viel zu viel verschiedene Software in viel zu viel verschiedenen Bereichen mit viel zu viel verschiedenen Abhängigkeiten. Wer definiert nun was da am Ende "wichtig" ist und was nicht? -> eigentlich unmöglich...
Siehe das Windows Gesamtrating bei Computerbase mit +10% für den i7 und teils äusserst fragwürdiger Benchmarkauswahl.
Bei CB hast du doch klar den Vorteil dir das Rating so zusammenzuklicken, wie du es für richtig hälst. Was du nicht willst, klickst du weg...
Die default Einstellung _alles_ in das Rating zu nehmen kann man unter Anbetracht der Möglichkeiten eigentlich nicht wirklich kritisieren...
Oder was wäre aus deiner Sicht angemessen? -> kann man doch so oder so keinem Recht machen. Von 99% der Software kann ICH persönlich gar nix anfangen. Dennoch kann man sich aus der Vielfalt der Software in etwa ein Bild machen.
- - - Updated - - -
Für mich bleibt die Frage offen, ob die Inter-CCX-Kommunikation alleine über den Sheduler optimiert werden kann. Laut Aussage von AMD soll der aber wohl schon jetzt sehr gut fuktionieren...
Das lässt sich nicht via Scheduler steuern... Wie soll das auch gehen!?
Woher soll der Scheduler denn wissen, ob ein Thread nun auf dem selben CCX laufen muss, damit die Performance da ist, oder ob es egal ist und der Thread auch auf einem anderen CCX laufen kann?
DAS lässt sich via Threadscheduler schlicht nicht beeinflussen...
Was technisch gehen _würde_ -> ausnahmslos alle Threads werden wenn möglich auf dem selben CCX ausgeführt und erst ab dem Überschreiten der Gesamtauslastung von 25% (bei aktivem SMT) oder 50% (ohne SMT) wird auf den zweiten CCX geschwenkt. Das (oder das exakte Gegenteil davon) ist so ziemlich das Einzige, was man pauschal machen kann. Nur erzeugt man damit auch einen Nachteil -> nämlich das der zweite Komplex vom L3 Cache überhaupt erst genutzt wird, wenn der zweite CCX angesprochen wird und nicht (manchmal) schon wenn je ein Thread pro CCX tuckert. -> denn das wäre dann nicht mehr der Fall.
Extrem Cachelastige Software, wo zwei Threads NICHT gegenseitig irgendwie Daten austauschen hätte einen massiven Vorteil von quasi dedicated L3 Cache.
Es ist eigentlich egal wie man es dreht -> irgend eine Version hat immer einen Nachteil.
AMD hat sich nun entschieden, es so zu machen, wie man es gemacht hat... Mit dem problematischen Effekt, dass MT-Software mit scheinbar hohem Datenaustausch klar Nachteile hat, wenn über 2x CCX verteilt.
Auch die unterschiedlichen Test Philosophien sind für mich teilweise nicht nachvollziehbar. Mal wird der X1800 gegen den i7 6950X gestellt, mal gegen den i7 6850K oder den i7 7700K usw. Auch wurde bei den meisten Tests der 6800K nicht berücksichtigt.
Sollte nicht in erster Linie eine 500€ CPU gegen eine CPU in einer ähnlichen Preisregion antreten? Das wäre aus meiner Sicht logisch.
Ich möchte nicht falsch verstanden werden, ich zweifel nicht an dass Ryzen eine sehr gute CPU ist. Ich finde es nur merkwürdig das die Testergebnisse von den bekannten Seiten so stark von einander abweichen.
Ist doch aber völlig logisch, unterschiedliche Ausgangsbasis = unterschiedliche Ergebnisse...
Man muss wohl einfach sich davon lösen, dass ausnahmslos _alle_ CPUs gleich skalieren. Denn das ist nicht der Fall. So wie es im Moment ist, skaliert Ryzen in so mancher Anwendung extrem gut, in anderer eher schlecht. Das, was daran neu ist, dass ein Vergleich zum Broadwell-E/Haswell-E oder den S115xer Ablegern schlicht und ergreifend schwächen/stärken aufzeigt -> die man vorher gar nicht kannte.
Theoretisch könnte man sogar sagen, Broadwell-E hat eine Cinebench R15 Schwäche, da dort mehr Unterschied zu Ryzen liegt als in anderer MT Software (auch in anderer 3D-Rendersoftware) -> bis vor ein paar Tagen wäre nichtmal im Ansatz jemand auf die Idee gekommen darüber nachzudenken, ob das, was Broadwell-E da abliefert überhaupt gut/schlecht sein kann oder nicht. -> es fehlte einfach der Vergleichspartner.
Mit Ryzen ist das nun möglich -> und zwangsweise gibt es damit Fälle, die schmeckem dem Ryzen mehr oder weniger genau so wie das auf Intel CPUs zutrifft... Blöd für Ryzen ist natürlich, dass die Games nun oftmals langsamer sind -> und auch blöd ist, dass AMD das scheinbar auf mangelnde Optimierungen in Sachen MT und Architektur schiebt. (was ich für Quark halte und was nach "Kopf-in-den-Sand" Taktik wirkt)
Übrigens, solche Analysen findet man beim 3dc recht oft -> vor allem auch bei GPUs. Leider sind dort auch mal gröbere Schnitzer drin. Artikel -> welche sich auf Tests/Reviews Dritter Seiten beziehen und wo 3dc einfach schlicht nur Annahmen/Hochrechnungen trifft, weil die Seiten, die die Tests durchgeführt haben, die jeweiligen Modelle gar nicht im Test enthalten waren... Blöd wenn dann genau aus solchen Annahmen ein schlechtes oder viel zu gutes Bild rauskommt... Alles schon gesehen, bspw. die diversen Analysen, die G3cko beim Thema NV Kepler GPUs hier hat fallen lassen, wo dann nur noch mit unsinnigen Prozentwerten und dem wenig taugenden 3dc Bild als "Nachweis" um sich geworfen wird...
Leider ist genau das auch im von dir verlinkten 3dc Artikel anzutreffen.
Was bspw. sofort ins Auge fällt, die Performancetable auf Seite 2 -> der 1700er soll im "Index" auf 105% kommen -> die Einzelwerte sind alle samt unter 100%... WTF???
Genau solcher Kokolores kommt, wenn man anfängt hochzurechnen und dann verschiedenste Basis-Angaben verschiedenster Tests in einen Hut wirft.
Was auch völlig zu kritisieren ist -> man pickt sich nur einen Wert raus oder man gewichtet nach persönlichen Vorlieben. Da machen sich bspw. (einige) Redaktionen die Arbeit, verschiedenste Ratings für verschiedenste Fälle aufzuzeigen und 3dc pickt sich genau einen Wert raus. Wieder Beispiel 1700 non X -> CB gibt ein Anwendungsrating für Windows + Linux und 4x Spieleratings (wobei bei 2x nur der 1800X drin ist) und dort wird dann nur ein Wert genommen -> nichtmal ein Durchschnitt gebildet oder sowas... Genau das, was man im Fließtext kritisiert. So kommt bei CB der Windows Wert beim Anwendungsrating zum tragen. Der Linux Wert ist aber höher im Vergleich zum 7700k -> wie passt das zusammen!?
Auch kann ich es bspw. absolut gar nicht gut heißen aus welchen Gründen auch immer die dort einfach alle Tests in Games ohne 720p ausklammern!? Warum?
Oder bspw. dass pauschal alle Gametests ohne 6800k/6850k ausgeklammert werden?
Genau so wie mach anfängt zu "wichten" nach Gutdünken fürs Anwendungsrating, wo eine hohe Anwendungsanzahl verglichen wurde!? WTF? Auch so ein Mist -> 100x "Mist" gebencht ist immernoch nur Mist -> wichtet aber dort höher als 10x anständig gebencht...
Ist das wirklich seriös?? Aus meiner Sicht ist es das absolut gar nicht. Die Reviews werden zum Teil massiv auf dem Kontext gerissen. Wer eben keine Broadwell-E 6800/6850k CPUs hat, warum nicht gegen nen 5820k oder 5930k testen!? Wenn auch wenigstens eine CPU als Basis drin ist, die man für den Quervergleich zwischen den Reviews nutzen kann...
Oder auch der Part mit dem ausschließlichen Beziehen auf den Preis... Und dann noch gesamt Preis für das Gesamtsystem!? -> das war/ist doch überhaupt nicht der Anspruch der Reviews. Genauso wie der Corecount eine maßgebliche Rolle spielt bzw. der Fokus auf MT oder eher ST. Und das völlig unabhängig vom Preis... Nur weil bspw. jemand 370€ für die mit Abstand schnellste ST-CPU ausgeben würde heist das lange nicht, dass er auch 370€ für einen Ryzen ausgibt, wenn ST nicht im Fokus steht...
Das hatte ich auch in einem anderen Thread schon angesprochen. Verwunderlich ist sowas nicht, wenn zB unterschiedliche Versionen einer Anwendung zum Einsatz kamen. Wundern muss man sich aber schon, wenn alte Versionen genutzt werden, obwohl den Testern bewusst sein sollte, dass neuere Versionen deutlich andere Ergebnisse liefern.
Das macht aus meiner Sicht doch keinen Unterschied wenn man sich einfach im Hinterkopf behält, dass der Test so oder so nur für die getesteten Anwendungen unter den getesteten Szenen vollends aussagekräftig ist. Man wird auch mit 100x Anwendungen (EDIT: k)eine allgemeingültig pauschale Aussage treffen können. Dafür gibts viel zu viel verschiedene Software in viel zu viel verschiedenen Bereichen mit viel zu viel verschiedenen Abhängigkeiten. Wer definiert nun was da am Ende "wichtig" ist und was nicht? -> eigentlich unmöglich...
Siehe das Windows Gesamtrating bei Computerbase mit +10% für den i7 und teils äusserst fragwürdiger Benchmarkauswahl.
Bei CB hast du doch klar den Vorteil dir das Rating so zusammenzuklicken, wie du es für richtig hälst. Was du nicht willst, klickst du weg...
Die default Einstellung _alles_ in das Rating zu nehmen kann man unter Anbetracht der Möglichkeiten eigentlich nicht wirklich kritisieren...
Oder was wäre aus deiner Sicht angemessen? -> kann man doch so oder so keinem Recht machen. Von 99% der Software kann ICH persönlich gar nix anfangen. Dennoch kann man sich aus der Vielfalt der Software in etwa ein Bild machen.