AMD Ryzen Threadripper 2990WX und 2950X im Test: Mit Vollgas an Intel vorbei

Anwendung => Schachengines wie z.B Stockfish, Komodo etc. (können sogar noch mehr Kerne nutzen)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die schlechte Performance in Games ist Resultat der kastrierten Anbindung... Warum muss man sich den Spaß schön reden? Wäre eher schön wenn IHR endlich mal mit diesem Fanboy scheiß aufhören würded und es nüchtern sehen würdet. Für ne CPU, die HEDT sein soll ist die Leistung in Games und in so manchem Anwendungsbereich einfach mau. Das liegt, siehe oben an der Anbindung, recht sicher zumindest, weil das Ding nicht viel anders macht als ein 16C TR - der es deutlich besser hinbekommt.
Was hat das mit Brille zu tun? Immer wenn euch was nicht in den Kram passt ist Kritik nur noch Fanboy scheiße - das geht mir sowas von auf die Eier...
Wo ist hier der Unterschied zu Intel CPUs mit Mesh? Die sind in Games doch genauso wenig brauchbar und werden von den normalen Desktops teilweise eklatant abgehengt.
 
Und wenn man dagegen so Sachen wie Rendern, CFD, FEM, Photogrammetrie und ähnliches macht, dann kann man mit dem 2990WX durchaus glücklich werden.
Aber auch nur in Einzelfällen. Oder hast du konkrete Benchmarks, wo man das wirklich erkennen kann.
 
@flxmmr
Und wenn Intel die längsten Balken liefert ist das o.k. und egal, keine Geldvernichtungsmaschinerie und nur Prestige? Die Balken der TRs sind im Übrigen nicht die längsten.

@ilovepancackes
Ich finde den F-Kompensator gut, denn TR sollte in erster Linie erworben werden, wenn man mehr als eine GPU und viele Laufwerke einbinden will. Genau das ist die Zwecksbestimmung bis 16C, damit man nicht mit PCIe Lanes umherfrickelt.

Das macht HWL auch, 2x1080ti...
 
Zuletzt bearbeitet:
Wollte auf den 2990X springen, aber da nun für den 1950X kaum was geboten wird da AMD den Preis ständig nach unten korrigiert und ohnehin der Startpreis ziemlich happig ist, lasse ich es erst mal.
Ohnehin könnte ich nur bis zu 32 threads nutzen, das geht wohl den meisten potentiellen usern so.
32 Kerne/core-Threads vom 2990X sind sicherlich besser als die 32 Threads vom 1950X.

Ich warte mal ab was sich am Preis noch tut.
Der 1950X ist ja auch bereits nach wenigen Wochen gefallen und gefallen.. das war ziemlich lästig zu beobachten, aber das ist halt AMD. ^^ Preise im freien Fall...

Der Preis vom i7 6900K hingegen ist 2016 innerhalb eines Jahres ein wenig gefallen und ging dann wieder fast zurück zum Startpreis. Diese Zeiten sind offenbar vorbei.
 
Aber auch nur in Einzelfällen.

Jop. Das wollte ich mit meinem Post (under anderem) aussagen. Es ist ne Entscheidung, die für den Einzelfall die sorgfältig abgewogen werden sollte. Sieht man ja auch in den diversen Launchtests/Benchmarks.
 
@Redfrog
WX = Workstation.:)
Nicht X...

Ich mag solchen Marketing-Quatsch nicht, aber AMD schreibt: "Rendern, entwickeln, mischen, bearbeiten, komponieren, modellieren und spielen".

Spielen absichtlich zum Schluss, dass hat seinen Grund.

760 Kostet er neu im besten Angebot, da kann man immer noch 550-600 verlangen. Ich vermute mal deine Platine wird auch an ihre Grenzen kommen, 105°C hatte jemand bei den Spannungswandlern gemessen, Asus ohne Nachrüstkit.

Wobei das Taichi und Asus am kühlsten bleiben @Stock.
 
Zuletzt bearbeitet:
@flxmmr
Und wenn Intel die längsten Balken liefert ist das o.k. und egal, keine Geldvernichtungsmaschinerie und nur Prestige? Die Balken der TRs sind im Übrigen nicht die längsten.
Intel verdient damit ganz gut. Und nachhaltig ist da eh nix ;). Außerdem korrespondiert das bei den Intel-HEDT-Pendants auch über verschieden Fälle.

Jop. Das wollte ich mit meinem Post (under anderem) aussagen. Es ist ne Entscheidung, die für den Einzelfall die sorgfältig abgewogen werden sollte. Sieht man ja auch in den diversen Launchtests/Benchmarks.

Naja, der generalisierte Einzelfall besteht in Anwendungen ohne nennenswerten (RAM)-IO. Bisher:
- manche Renderer (aber auch nicht alle, bspw. Blender)
- Schach
.... Ich denke also, es hat schon einen Grund, weshalb EPYC 4 Speicherinterfaces bringt ;).
 
Am besten mal das Fazit von CB begutachten.

ps. Seit wie vielen Jahren gibt es mehr als 20 Kerne für den Desktop (Server CPUs zählen da nunmal nicht)?

Widerspruch merkste selbst oder??
Einerseits stützt du dich auf die CB Aussage mit dem "Workstation" Prozessor - und andererseits sprichst du von 20+ Kernen im "Desktop"?
Ja was denn nun?
Baust du ne Workstation, Xeon/Opteron/Epyc ist nicht Server only. Das war schon immer "auch" Workstation... :wink:
Es gab sogar "W" Modelle mit höherer TDP und mehr Takt - für den Workstation Einsatz. (hielt ich persönlich immer für Unsinn, ne Sonderreihe zu bauen - aber es waren halt damals noch die Takthöchsten ohne groß Coreverlust) Früher war das nur alles bezahlbarer, auch bei Intel... Der E5-2687W auf Sandy-E Basis als 8C@3,1GHz Allcore Turbo (inkl. AVX) mit 165W TDP hat ~1600€ im Laden gekostet.

PS: und keine Angst, ich werde einen 28C Intel - und das versichere/verspreche ich dir hier und jetzt exakt im gleichen Maße kritisieren, wenn das Ding so ne vermurkste Anbindung an den RAM hat - und irgendwelcher Modeumschaltung benötigt, damit der Spaß nicht aus dem Ruder läuft mit der Leistung...

Echt so, weil man zwei 2950 auf ein Board klemmen kann. Du willst mir ernsthaft erzählen, du hast lieber nur halb so viel Rohleistung für deine professionellen Anwendungen, weil dir das Umschalten zwischen NUMA und Local Mode zu schwer ist. Zweimal klicken, unmachbar...

Nein, ich habe lieber Leistung, wo ich weis, dass diese IMMER da ist. Und nicht die Katze im Sack, die heute mal geht und morgen mal abkackt...
Ich versteh nicht, worauf du hinaus willst... Der Kritikpunkt ist, dass aufgrund der mauen Anbindung die Leistung nicht ankommt, wenn die Software nicht passt. Und ein zweiter Punkt (der oben so nicht steht, aber mMn dazu gehört), dass man wieder versucht die Software nun umzubiegen. Bei AMD muss ich gefühlt immer die Software nach der Hardware richten - das geht aber so nicht. Und man ist damit auch schon x-mal auf die Nase gefallen...
Aber ich verstehe mittlerweile, dass du da an diesem Punkt offenbar einfach nicht kritikfähig bist. Du fährst bestimmt auch vier Autos oder? Oder hast vier TVs? Vier Smartphones und vier Frauen? Nix für ungut ;)

Mal davon ab - es ist nicht 2x klicken. Es ist 2x klicken + Boot + alles zu und alles wieder auf. Lasst euch doch nicht immer von den Herstellern vorschreiben, wie ihr eure PCs zu benutzten habt... Und lauft diesen dann noch hinterher und prädigt dieses Zeugs weiter. Das ist Marketing! Die WOLLEN dass ihr das so seht - weil ihr damit das Zeug kauft. Aber mMn ist das einfach nur selbst verarsche... Es gibt technisch absolut keinen Grund, warum das Ding bei vollem Takt so lahm sein muss in Teilen der Software - außer, dass der Hersteller hier seine hochpreisigen Epycs in Gefahr sieht unattraktiv zu werden. Das ist der einzige Grund! War (mMn) auch der Grund, warum man nen Sondersockel mit künstlicher Inkompatibilität zum Epyc erschaffen hat -> und ist die selbe Leier wie bei Intel, die das ebenso dem Kunden aufdrücken.

PS: man muss nicht 2x auf ein Board klatschen. Nimm halt 2x Systeme. Forderst du doch hier auch -> die Leute sollen gefälligst den Modus nutzen, der seitens des Herstellers vorgesehen ist. Da kannst du doch auch einfach 2-4 Einzelsysteme nutzen und nen NetRenderer betreiben. Oder sonstwedes Clusterzeugs aufbauen. Nutz halt die Software die das dann auslasten kann - und ja, diese Software gibt es! Aber warte ich weis, das ist dann zu viel Aufwand usw. :hust:


Powl schrieb:
ich glaube du verstehst nicht so ganz, was du bisher von dir gibst. du willst lieber weniger flexibilität...

denk doch mal zu ende, bevor du postest.

Warum wirst du alle Nase lang abfällig? Du verstehst es nicht - ist doch nicht mein Problem? Ich versuche dir meinen Standpunkt zu erklären. Entweder du hast da Interesse dran, oder wir lassen das... Erst den Müll mit der Brille und dann alle Nase lang die Unterstellung, ich würde nicht verstehe, was ich von mir gebe. Ich verstehe sehr genau, was ich hier von mir gebe. Im Gegensatz zu dir arbeite ich tag täglich mit solchen Systemen! Ich verdiene mein verdammtes Geld mit dieser Art von Hardware! Aber immer wisst ihr das alles ja viel besser... Vor allem über Sachen, die ihr selbst nicht habt, selbst nicht kennt... Schon klar. Ich finds nur noch lächerlich. Sorry - nur weil man da wieder so ein AMD/Intel Ding draus erschaffen muss und alles maßlos über Extreme übertreiben muss (dein Versuch mit Nachdruck da CFL Gamingleistung und SKL-X im Vergleich reinzudrücken) Sieh es doch mal nüchern... Es geht nicht um AMD oder Intel - es geht nur um die Umsetzung.

Diese ist hier zu kritisieren, das habe ich getan. Und das exakt selbe wirst du von mir bei Intel zu lesen bekommen -> die haben aber dummerweise noch nicht sowas zusammen gezimmert. Und hoffentlich bleibt das auch so.


Du siehst das offenbar anders - dein gutes Recht. Aber wie du deine Meinung hast, werde ich die meinige haben. Wenn wir da nicht unter einen Hut kommen, soll es halt so sein. Was mich dabei stört, wie oben schon erwähnt, dass man zwischen Kritik am Produkt und diesem Hater/Fanboyunsinn einfach nicht (mehr) differenziert. Nicht alles, wahrscheinlich sogar der geringste Teil ist dieser Schubladenkacke zuzuordnen. Meist versteht man sich einfach gegenseitig nicht (oder will es absichtlich nicht). Auch du zählst hier dazu (mMn) - denn du willst einfach nicht verstehen worum es mir hier geht. Aber ICH verstehe mMn ganz genau was dein Standpunkt ist (außer das ich ihn nicht teile), dir ists hupe, dass du dich nach dem Willen des Hersteller richten sollst und der dir vorschreibt, was du tun und lassen darfst, damit der Spaß sauber funktioniert -> und damit ist das für dich alles auch kein Problem -> das ist aber nicht mein Maßstab!
MMn ist es völlig OK, wenn du es für richtig hältst, da nen 1830€ Prozessor zu teildeaktiveren, damit dein Spiel sauber läuft. Aber das ist nunmal nicht meine Maßgabe. Und es wäre schön, wenn es nur um Games geht - Für 1830€ bekomme ich ne wunderhübsche 2-4x Ryzen oder 2x TR 16C Kombo, die in Summe nicht wirklich langsamer sein dürfte (mehr Takt, besser zu OCen) und es in fast allen Lebenslagen dann ebenbürtig, wenn nicht sogar besser macht. Einziger Punkt wäre ein Task, der auf biegen und brechen nicht Clusterbar/Verteilbar ist, aber ohne Probleme auf nem 2970/2990WX skaliert. -> ob es sowas gibt? Kein Plan. Mir auch völlig egal, weil ich nach Software kaufe, die ICH benutze und nicht nach Tools, die jemand meint, man müsse diese beachten... Was dann wahrscheinlich auch wieder so ne Sache ist, die uns unterschiedet, weil mir ist das völlig hupe, was IHR da mit euren PCs anstellt - mein Geld bekommt der Hersteller, der es schafft, meinen Bedarf entsprechend zu decken. Auch und bitte versteh mich nicht falsch - im Moment hat für diese Art von Workstationeinsatz bei mir weder AMD noch Intel mein Geld bekommen ;)
Also bitte spar dir den Brillenspruch - vor allem dann, wenn du selbst offenbar meine Anforderungen und Software nicht kennst...

Oh man Leute was ist bloß los hier, egal ob Intel oder AMD, kann man nicht die Leistung eines Produktes, für das es hergestellt wurde, mal entsprechend fair behandeln?

Das ist doch auch ein Hardware-Forum, oder nicht? ;)

Das Ding ist doch ein Prozessor der HEDT Riege von AMD. Das teuerste AMD Desktop Modell was es jemals gab, zumindest kenne ich nix teureres. Und es macht in so manchem Bereich eine extrem gute Figur. Aber eben auch in anderen absolut keine gute Figur. Ich sehe da wenig unfaires. Unfair ist eher, dass man in der Community in 2018 einfach nicht mehr über Vor- und Nachteile debattieren kann, weil alle Nase lang wer meint, seinen Tellerrand über die Meinung der Anderen drüber zu drücken... Soll doch jeder kaufen was er für richtig hält. ICH halte die Umsetzung des 24-32C für Kacke. Und hadere nun ziemlich mit mir, ob ich damit meine Rendersau ersetzen möchte... Warum? Weil ich über die Aussagen seitens CB über Blender extrem verwundert bin. Die Performance schwankt - von Szene zu Szene, von Anforderung zu Anforderung. Das sind 1830 verdammte Euros für ne Katze im Satz... Keiner weis wie das performt, keiner weis ob es performt, keiner gibt dir ne Garantie, dass es performt... SOWAS gab es mMn noch nie... Und jeder, der dann einfach Pauschalen raushaut, unterschätzt mMn ganz klar die Individualität jeglicher Software am Markt. Das ist wie Kaffeesatzlesen - hat das Teil nen scheiß Tag, schubst dir der Threadscheduler die Threads falsch - ist die Leistung weg. Will man sowas in 2018 wirklich haben???? Oder fragen wir mal anders, ist es das, was man in 2018 wirklich von einem Prozessor in HEDT, dem größten Modell am Markt erwarten kann??

Computerbase schreibt dazu bspw.:
"Neben dem Standard-Benchmark in Blender, der den 2990WX vor dem 2950X sieht, kehrt sich das Bild in einer anderen Projektdatei sogar um: Während sie der 16-Kerner in einer Stunde fertigstellt, benötigt der 32-Kerner eine Stunde und 20 Minuten. Dabei spielt es keine Rolle, ob Blender in finaler Version 2.79 oder experimenteller Version 2.80 genutzt wird: Das spezifische Projekt kann auf AMDs Threadripper in beiden Fällen nicht alle Threads auslasten."
-> das ist klar die Kategorie "Rendering" - und damit exakt die Paradedisziplin, die AMD diesem Prozessormodell zugesteht!

Ich find das schon krass wie man sich das hier schön redet? Nix gegen AMD und dem Versuch hier mit 32C zu Punkten. Aber man muss doch nicht alles nur weil AMD drauf steht gut finden??? Im Gegensatz zu nem wirklich guten 2950X ist der 2990WX mit dieser Unbeständigkeit kein gutes Produkt (mMn)

Wo ist hier der Unterschied zu Intel CPUs mit Mesh? Die sind in Games doch genauso wenig brauchbar und werden von den normalen Desktops teilweise eklatant abgehengt.

MMn ist das ehrlich nicht die richtige Basis... Ich sehe keine CPUs mit Mesh, die "wenig brauchbar" sind. Ich sehe effektiv außer dem aktuellen 2990WX überhaupt keine CPUs am Markt, die ein gleiches Verhalten zeigen.
Natürlich ist CFL schneller als SKL-X - das ist auch völlig logisch wenn der Fokus mehr auf Taktrate und pro Thread Performance liegt als auf absolute Coreanzahl. Aber im Unterschied zum 2970WX/2990WX macht jeder! andere Prozessor am Markt, AMD wie Intel im Moment, einfach die Leistung aus dem Produkt von Coreskalierung, Taktskalierung und Leistung pro Takt. Der 2990WX und kommender 24C 2970WX macht das nicht... Sondern der machts mal gut (CB-R15 bspw.) oder er machts auch manchmal absolut mistig.


@flxmmr
das sollte nicht nur RAM IO sein - die PCIe Anordnung ist ja ebenso geteilt. 2x DIEs, die RAM Kanäle bieten, liefern auch die PCIe Lanes.
Ein MGPU System mit der GPU am falschen DIE (weil zweiter Slot) geht über die Fabric... -> kommt dann noch Memory Access drauf, sinkt die Zugriffsgeschwindigkeit weiter.
Auch sind Themen vorstellbar, wo du die Lanes für Storageanbindung nutzt... Wenn du Diskcachemechanismen einsetzt (was jedes moderne OS wohl so macht), wandert der Spaß durch den RAM - und damit durch die Fabric. Die Daten kommen von den PCIe Devices - und damit wieder durch die Fabric. -> da kommt am Ende eins zum Anderen.
Wobei das mit den PCIe Lanes schon bei Epyc im Vollausbau ein Problem sein "kann" - also nicht durch die krumme Anbindung kommt. Die machts ggf. nur schlimmer - wenn der Task der Daten braucht auf dem Compute DIEs läuft - geht auch das nochmal durch die Fabric...
Mich wundert bspw. auch das TrueCrypt/VeraCrypt Ergebnis der Reviews - scheinbar ist auch dort ein Zusammenhang obwohl ich diesen im Moment noch nicht sehe, da jeder DIE eigentlich seine Hardwarebeschleunigung haben sollte...
 
Viel Geblubber.

Fazit: erst kritisieren, dass nicht viel Software gut genug mit NUMA skaliert, dann aber als valide Alternative hinstellen, man solle Cluster mit mehreren Systemen bauen und die per Netzwerk zusammen arbeiten lassen.

An Ironie nicht zu übertreffen...

Ich versteh schon was du meinst, ist mMn halt nur Quatsch.
Und oh ja das gute alte "ich verdien damit mein Geld!". Mag sein, das zeugt aber noch nicht von Qualifikation. Bei mir auf der Arbeit richten wir auch regelmäßig den Verhau, den andere "Profis" produziert haben, der dann aber doch nicht so recht funktioniert hat.

Sent from OP6
 
Zuletzt bearbeitet:
Computerbase schreibt dazu bspw.:
"Neben dem Standard-Benchmark in Blender, der den 2990WX vor dem 2950X sieht, kehrt sich das Bild in einer anderen Projektdatei sogar um: Während sie der 16-Kerner in einer Stunde fertigstellt, benötigt der 32-Kerner eine Stunde und 20 Minuten. Dabei spielt es keine Rolle, ob Blender in finaler Version 2.79 oder experimenteller Version 2.80 genutzt wird: Das spezifische Projekt kann auf AMDs Threadripper in beiden Fällen nicht alle Threads auslasten."
-> das ist klar die Kategorie "Rendering" - und damit exakt die Paradedisziplin, die AMD diesem Prozessormodell zugesteht!
Ja, nur schreiben sie das Microsoft das Sheduling anpassen muss, was AMD bereits mitteilte und Microsoft schon weiß. Wenn du kopierst und es argumentativ nutzt, dann alles! Einfach mal nach Maranello fahren oder von denen vorweg zu einer Presseveranstaltung eingeladen werden.

Computerbase schrieb:
AMDs Entscheidung, Ryzen Threadripper 2990WX (32K/64T) und 2970WX (24K/48T) offensiv als Workstation-Prozessoren zu vermarkten, war damit definitiv richtig. Denn nur, wer seinen Arbeitsalltag fest definieren kann und die Leistung der beiden großen Threadripper in seinen Anwendungen kennt...
Ryzen Threadripper 2000 im Test: 32 Kerne sind verrückt, 16 sehr gut nutzbar (Seite 4) - ComputerBase

Dann mal darüber nachdenken wie die Threadqueue ohne Support und Dynamic Memory agiert, ohne zugewiesene Ressourcen.

Am aller ersten Tag schon so zu argumentieren, ist schon irgendwie witzig. Als wenn bei Intel alles maßlos rund läuft, soviel Hektik und unüberlegten Trash den die die letzten Monate fabriziert haben, was erwartest du? Deren Aktienmarktabstufung hat ein Erdbeben ausgelöst.
 
Mal davon ab - es ist nicht 2x klicken. Es ist 2x klicken + Boot + alles zu und alles wieder auf.
Ich verstehe glaube ich was Du meinst. Es ist ja irgendwie Banane sich 32 Kerne zu kaufen, um dann 24 davon zum Zocken deaktivieren zu müssen. Wäre es nicht irgendwie möglich, einen Prozess an einen DIE/Node zu binden, damit alle seine Threads auf diesem DIE/Node bleiben?

- - - Updated - - -

SetThreadAffinityMask function | Microsoft Docs
lol?

Programm schreiben, dass alle Threads eines Prozesses analysiert, z.B. deren User/Kernel-Time checkt und dementsprechend verteilt. Gibt es dafür noch kein Tool?!
Wenn ich mich nicht verlesen, bzw. etwas überlesen habe, könnte man damit sehr einfach alle Threads an die ersten 8 Kerne binden, oder an die Kerne 9 bis 16 usw., wie man halt möchte. Wäre damit das Problem nicht gelöst?
 
Kann man die CPU gebrauchen? Ja oder Nein?
 
Programm schreiben, dass alle Threads eines Prozesses analysiert...

Ich weiß jetzt nicht ab wann (welches Framework), aber das gibt es schon (sperren aufgrund threadsicherer Prozeduren). Das Problem ist das zur Threadsicherheit eine gesamte bereits gewrappte Enumeration gesperrt werden kann und die Queue dann folgerichtig wieder neu synchronisiert werden muss.

Das kann zu einem Memory "Ballooning" Effekt führen, wie man diesen aus VMs kennt. Für die Konfigurationen (OS) müssen dann ein Interagtionsservice geladen werden (weil damit nicht alle umgehen können), wobei dann für bestimmte Operationssysteme Werte manuell (Startup) gesetzt werden müssen. Ansonsten wird bei Ressourcenknappheit wohl ein Swapping stattfinden. Was sich aber nachweisen lassen würde. Dabei bricht natürlich auch die Bandbreite ein.
 
@flxmmr
das sollte nicht nur RAM IO sein - die PCIe Anordnung ist ja ebenso geteilt. 2x DIEs, die RAM Kanäle bieten, liefern auch die PCIe Lanes.
Ein MGPU System mit der GPU am falschen DIE (weil zweiter Slot) geht über die Fabric... -> kommt dann noch Memory Access drauf, sinkt die Zugriffsgeschwindigkeit weiter.
Auch sind Themen vorstellbar, wo du die Lanes für Storageanbindung nutzt...

Ja, aber nachdem das ja nochmal ein ganz anderes Fass ist, wollte ich das erstmal nicht aufmachen. Wenn du das ganze mit einem Cluster vergleichst, geht das auch alles nicht.

Fazit: erst kritisieren, dass nicht viel Software gut genug mit NUMA skaliert, dann aber als valide Alternative hinstellen, man solle Cluster mit mehreren Systemen bauen und die per Netzwerk zusammen arbeiten lassen.
Nunja, jetzt braucht man Software, die nicht nur mit NUMA zurechtkommt, sondern bei der auch die Threads ein ganz spezielles Speicherzugriffsmuster haben :coffee:.

An Ironie nicht zu übertreffen...

Ja :shot:


Ich versteh schon was du meinst, ist mMn halt nur Quatsch.
Ne, du verstehst nicht. Überspitzt gesagt: AMD hat hier ungefähr das gleiche produziert, wie damals bei Bulldozer: manche Rechentasks brauchen keinen RAM vs. man braucht nur integer-ALUs. Glücklicherweise nur in einem Produkt für Hobbyisten. Lächerlich ist es trotzdem.

@pclovely: ???
 
Ich verstehe FDSonne nicht...

Entweder man hat den Sockel und jetzt die Wundervolle Upgrademöglichkeit (kein 2011 und 2011v3 Scheiß) oder man kann Epyc kaufen, da ist dann Speicheranbindung auch kein Thema mehr.

Dazu kann jeder die diese CPU kaufen möchte (und da reden wir zu 99% über den professionellen Bereich) sich hoffentlich informieren und dann die passende CPU kaufen... Wer mit der Wx Cpu gamen will ist halt falsch.
Mit dem 2950x gibt es sogar eine CPU die auch "gut" gamen kann und nebenher noch brachiale Leistung bieten, wo Intel echt schauen muss wie sie das kontern mit Preis und CPU.
 
Viel Geblubber.

Fazit: erst kritisieren, dass nicht viel Software gut genug mit NUMA skaliert, dann aber als valide Alternative hinstellen, man solle Cluster mit mehreren Systemen bauen und die per Netzwerk zusammen arbeiten lassen.

Was soll das bitte?
Wer behauptet so nen Unsinn? Die Software ist so wie sie ist... Ich sehe keinen Passus wo ich "erst kritisiere, dass nicht viel Software gut genug mit NUMA skaliert". Nicht im Geringsten!
Du solltest die Aussage nochmal lesen.

Aber ich merke schon - wie sind wieder an dem Punkt andem es nur noch um solchen Unsinn geht. Du diskutierst hier nur im recht zu behalten. Was ist so schwer daran einfach Kritik zu üben an einem Produkt, was ein Dritter erschaffen hat? Bist du AMDler? Oder was? Dann noch mit ausgedachtem Unsinn der so überhaupt nicht ausgesagt wurde. Sorry, lass einfach gut sein. Darauf hab ich keine Lust. Es fing ja noch ganz normal an... Aber läuft immer auf die gleiche Leier raus.

Ich versteh schon was du meinst, ist mMn halt nur Quatsch.
Und oh ja das gute alte "ich verdien damit mein Geld!". Mag sein, das zeugt aber noch nicht von Qualifikation. Bei mir auf der Arbeit richten wir auch regelmäßig den Verhau, den andere "Profis" produziert haben, der dann aber doch nicht so recht funktioniert hat.

Ach weist du, mir ist das doch völlig egal - ich habe mich erklärt. Es liegt nicht an MIR dich zu belehren. Dieses Bessergewisse und pauschal Widerspruch ist also deine Art der sachlichen Diskusion. Na dann ;)
Was kannst du denn an technischen Fakten vorweisen? (außer das du meine Meinung als Quatsch empfindest?) keine..."An Ironie nicht zu übertreffen..."

Wo ist denn nun schon wieder dein Problem einfach einzusehen, dass es nunmal auch Menschen auf Erden gibt, die möglicherweise vielleicht ein klitze klein wenig mehr in einer Materie drin stecken, als man es selbst tut??
Ich mein, wem möchtest du dir hier was beweisen? Ich weis, dass du davon keine Ahnung hast, du weist das wahrscheinlich auch - Du sagst doch gerade selbst, "Verhau, den andere produzieren" - klingt nicht nach IT, sondern irgendwas handwerkliches, in der Produktion oder wie auch immer. Wahrscheinlich hab ich davon genau gar keinen Plan... Sehe keinen Grund, das nicht zuzugeben ;) Aber bei IT weis man immer selbst wie das funktioniert - weil, ja warum eigentlich?


Mit exakt dieser Art und Weise, obwohl man ganz genau weis, dass man davon selbst absolut keinen Plan hat - nur um am Ende recht zu behalten oder zu widersprechen macht ihr die Foren hier kaputt. :kotz:
Ehrlich, solchen Leuten kann man nur wünschen, dass sie damit mal richtig richtig richtig auf die Schnauze fallen. Und da gibts die tollsten Dinger - Ärzte, die meinen zu wissen wie der Hase läuft und so. Hier gibts Leute, die wissen das wirklich nicht! Und ihr erzählt denen dann immer eure ausgedachte Leier. Sorry, das finde ich menschlich einfach nur scheiße diese Art und Weise. Und dann noch mit voller Überzeugung... Aber hauptsache noch schick nen Spruch hinterher gedrückt wo wegen, der kann viel labern. Mach du mal...

Ja, nur schreiben sie das Microsoft das Sheduling anpassen muss, was AMD bereits mitteilte und Microsoft schon weiß. Wenn du kopierst und es argumentativ nutzt, dann alles! Einfach mal nach Maranello fahren oder von denen vorweg zu einer Presseveranstaltung eingeladen werden.

Ähm erstens, ich kopiere nicht, ich habe zitiert! Zweitens, MS muss nicht das Scheduling anpassen. AMD möchte das gern geändert/angepasst haben. Wie auch dass sie möchten, dass die Entwickler gern die CCXen vom Ryzen berücksichtigt sehen, die Vega/Polaris Eigenarten bei Games/Engines, allgemein lieber Lower Level APIs im GPU Umfeld usw. Kurzum, AMD möchte recht viel für den, der die Hardware liefert??
Das Scheduling, was Computerbase dabei meint (oder was AMD da geändert sehen will) ist der Punkt, dass doch bitte das Betriebssystem die "Drecksarbeit" machen soll, weil der Prozessor einfach mal ein völlig untypisches Verhalten aufzeigt... Nämlich 4x NUMA Nodes zu melden, aber nur effektiv 2x echte (mit Speicher) NUMA Nodes zu haben.

Bitte ließ dich mal ein wenig in Softwareentwicklung auf NUMA Nodes ein. Sowas erfährst du nicht in Maranello - nur so als Info :wink:
Es hat schon einen Grund, warum der Prozessor dem Betriebssystem 4x NUMA Nodes meldet. Der Threadscheduler KANN! aber gar nicht wissen, dass dem Node 1 und 3 überhaupt kein Speicher dran klemmt - geht aber davon aus, dass dem so wäre. AMD möchte das offenbar gern geändert haben. Mal schauen, wie MS darauf reagiert - mit Win10 ist die Zyklen ja recht kruz, im 1803 Nachfolger könnte da also was kommen.
Im Vergleich - oben meinte ja wer, ich müsse auch Intel kritisieren. Das ist exakt das gleiche wie wenn du nen Dual Xeon Aufbau nimmst und den RAM nur an CPU 0 klemmst! Exakt das selbe! Allerdings beschwert sich da keiner, weil so ein Aufbau einfach selten Dämlich ist... Beim 2970/2990WX hast du leider keine andere Wahl.

Ich verstehe glaube ich was Du meinst. Es ist ja irgendwie Banane sich 32 Kerne zu kaufen, um dann 24 davon zum Zocken deaktivieren zu müssen. Wäre es nicht irgendwie möglich, einen Prozess an einen DIE/Node zu binden, damit alle seine Threads auf diesem DIE/Node bleiben?

...

Programm schreiben, dass alle Threads eines Prozesses analysiert, z.B. deren User/Kernel-Time checkt und dementsprechend verteilt. Gibt es dafür noch kein Tool?!
Wenn ich mich nicht verlesen, bzw. etwas überlesen habe, könnte man damit sehr einfach alle Threads an die ersten 8 Kerne binden, oder an die Kerne 9 bis 16 usw., wie man halt möchte. Wäre damit das Problem nicht gelöst?

Naja, müsste man mal testen. Das Problem ist, dass du eben zwar die Bindung herstellst, aber sobald du mehr wie 16 Threads belastest, skaliert das nicht mehr weiter... Weil du ja alles an DIE 0 pinnst. Das führt vielleicht (Test ausstehend) beim Game ans Ziel. Aber was wenn du da spielst und Hintergrundtasks zum Rendern/Encoding oder so auf hast?

Auch gibt das möglicherweise Skalierungsprobleme bei Software, die im Hintergrund läuft. Treiber und das ganze Systemzeugs sollte normal in Node 0/DIE 0 laufen. Schwieriger sind da die PCIe Devices - die Hälfte der Lanes kommt von DIE 2, die andere Hälfte von DIE 0. Ein Spiel könntest du jetzt ebenso auf DIE 0 pinnen - das müsste (wenn da nicht irgendwo was völlig quer läuft) 1A laufen. Wenn allerdings noch weitere Tasks hinzukommen - wo es dann Zugriffe nach Extern gibt, Zugriffe auf externe Tools, wo Threads gestartet werden wie der Arzt kommt oder eben dynamisch hantiert wird, ist das fix pinnen schwer(er), weil eben jeder neue Prozess normal eben neu gepinnt werden muss.

Hier ist eher die Arbeit dem Softwareentwickler aufzubürden, der das dann übernehmen kann/könnte - also entsprechend anders agiert mit seiner Software, wenn die Gegebenheiten anders ausfallen. Im Profiumfeld ist sowas häufig der Fall. Aber Privat? Da wird auch mal Software über irgendwelche Launcher gestartet wo dann der Launcher die eigentliche Anwendung lostritt, da ist Software bei, die zwar mit ihrem "GUI" Task beim Start festgepinnt wird, aber der Computetask einfach erst während der Fahrt gestartet wird usw. Das kann man sicher alles fixen... Die Frage ist mMn aber, ob man das wirklich will? 1830€ sind ne Stange Geld - und dem Risiko, dass man nie weis, ob die Performance nun 100% ist oder nur nur wieder die Hälfte.

Kann man die CPU gebrauchen? Ja oder Nein?

Kurze Antwort?
Hast du Software die mit der nur Memory Anbindung klar kommt und damit kein Problem macht -> ja. Hast du das nicht oder weist du es nicht -> sehr wahrscheinlich nein... Gilt für den 2990WX - der 2950X macht es schon einfacher. Auch wenn es dort bei zwei NUMA Nodes auch schon Eigenarten gibt.
 
...die nicht nur mit NUMA zurechtkommt, sondern bei der auch die Threads ein ganz spezielles Speicherzugriffsmuster haben...
Du schreibst aber auch einen Haufen des Schreibens wegen, oder? :d

Schon mal was von ccNUMA gehört oder clusterweite Adressräume? Dafür passt man auch das Paging an und alloziert es freundlich. Und ja ccNUMA war Opteron!

PS:
@fdsonne
Sie tun es, werde glücklich damit. Ich lese nichts nach, jetzt ist Feierabend.
 
Zuletzt bearbeitet:
Ehrlichgesagt beginnt mich dieser Mehrkernwahn auch leicht an zu nerven. Man könnte den Eindruck gewinnen, dass man unbedingt iwo besser sein will als die Konkurrenz und präsentiert dann so ein Monster wie den TR 2990WX, das offensichtlich schon auch noch einige Unzulänglichkeiten hat und nur für die User wirklich was bringt, die sich intensiv mit der cpu und ihrer Software auseinander setzten wollen. Oder Kurz: Da finde ich so ein 2950x auch iwi das rudere Paket. :)
 
Ehrlichgesagt beginnt mich dieser Mehrkernwahn auch leicht an zu nerven. Man könnte den Eindruck gewinnen, dass man unbedingt iwo besser sein will als die Konkurrenz und präsentiert dann so ein Monster wie den TR 2990WX, das offensichtlich schon auch noch einige Unzulänglichkeiten hat und nur für die User wirklich was bringt, die sich intensiv mit der cpu und ihrer Software auseinander setzten wollen. Oder Kurz: Da finde ich so ein 2950x auch iwi das rudere Paket. :)
Na Mensch, wer sich eine Workstation zusammenstellen will. AMD sollte verbieten das die Dinger in Spielen gebencht werden.

Mal zusammenfassend:
Grafikbearbeitung mit Filter und Einstellungsvarianten (auf multiplen Ebenen)
3D Moddeling und CAD
Videoschnitt, Videobearbeitung und Musikproduktion
Video- oder Ton-Sequenzen bearbeiten
inklusive finalem Rendern von Videos
Entwicklung

Das ist nichts für Gamer, kapiert das doch mal. Und da muss man ganz sicher ziemlich fexilbel und topic sein.

Noch 70min dann kommt Jensen, lehnt euch zurück bis man alles angepasst hat und gut. Wer nie einen reinen Arbeitscomputer in dieser Größenordnung will braucht keinen TR 2990/2970WX, erst Mal nicht. Enthusiasten werden auf TRs setzen um Multi GPU ohne Limitation zu betreiben, es ist nichts anders als es vorher war nur weils jetzt einen 32 Core Prozie für Consumer gibt.
 
Zuletzt bearbeitet:
Ich verstehe FDSonne nicht...

Entweder man hat den Sockel und jetzt die Wundervolle Upgrademöglichkeit (kein 2011 und 2011v3 Scheiß) oder man kann Epyc kaufen, da ist dann Speicheranbindung auch kein Thema mehr.

Ähm da machst du es dir aber schon recht einfach. Zwischen ne "wundervolle Upgrademöglichkeit" und "Eypc kaufen" liegt eben ein 2970WX und 2990WX.
Alles bis zum 2950X ist doch alt bekannte Leier - NEU machen es nur die beiden großen Modelle. Die sind im Moment einzigartig am Markt. Gibts nicht anders am Markt. Gabs auch nie bis dato am Markt?

Ich mein, allein das mach das Thema informieren ja schwer. Und mit "Wer mit der Wx Cpu gamen will ist halt falsch." machst du es dir mMn auch zu einfach... Das steht nicht drauf, für Gaming nicht geeignet. Oder nur im Gamemode mit 50-75% Teildeaktivierung geeinget für Gaming.
WENN es nur Gaming wäre, wäre das vllt sogar einfach überhaupt nicht der Rede wert - aber es ist ja nicht nur Gaming. Nach den Werten ists die Katze im Sack. Und da es sowas als kaufbares Produkt nie vorher am Markt gab - und die Alternativen (Xeon/Opteron/Eypc mit falsch gesteckten Dimms) so sogut wie niemand betreibt oder getestet hat, wird das mit dem Informieren auch schwer bis unmöglich...
Den Punkt, dass man neben seinen Tasks, wofür man überhaupt 24-32C kauft, vllt noch was anderes macht - das kann! Gaming sein, das kann aber wieder auch alles andere sein - erwähnst du da leider auch nicht. Ich finde, du machst es dir dabei sehr einfach das auf "Upgrademöglichkeit" und "Eypc" runterzubrechen ;)

Sie tun es, werde glücklich damit. Ich lese nichts nach, jetzt ist Feierabend.

Es wird nichts ändern... Das ist doch das Problem... Glücklich werde ich damit wahrscheinlich leider nicht, weil die Katze im Sack bleibt, auch wenn ich gern den 32C gekauft hätte. Na mal gucken ob ich das Ding irgendwo günstig herbekomme... Um so weniger Geld das Teil kost, desto eher bin ich geneigt, es einfach zu probieren. Vllt machts mich ja über kurz oder lang doch glücklich. Meine Messlatte liegt bei einem Dual Ivy 12C/24T Xeonsystem in Cycles Blender. Das System ist in so ziemlich JEDER Lebenslage um seinen Prozentsatz x schneller als ein Single Prozessor. (Skaliert also vergleichsweise wie ein 2950X)

Übrigens nur so ein Tipp, 99,9% der Leute werden mit deiner Ansammlung von Begrifflichkeiten, die sie wahrscheinlich NIE in ihrem Leben gehört haben, hier nichts anfangen können ;) Das macht dann meist den Eindruck als versucht man mit Wissen zu Punkten, weil kann ja eh niemand nachprüfen. Ich sehe da in deiner Ausführung schon bisschen arg wildes zusammen Kippen von sonstweden Themen, mal mit Bezug, mal ohne wirklichen. Auch solltest du vllt den Ton bisschen runterschrauben ;)


@Holzmann
Gegen die Kerne ist doch nix einzuwenden - eigentlich ists einzig die Anbindung die hier bisschen falsch läuft.
Als AMD hätte man doch mMn einfach den Epyc 1P unlocken können. Warum nen TR? Ist doch die selbe Büchse... Dann gibts halt für die Dicken Dinger Boards mit 8-Kanälen Speicher und mehr PCIe Lanes und unter 16C wird dann halt nur halbseitig der Speicher bestückt. PCIe Lanes könnten sie ja auf 64 lassen - oder drehen auch das hoch. Selbst bei Intel haben die Boardpartner das hinbekommen die Lanes nach verschiedenen CPU-Unterbau zu skalieren (16, 28, 40/44)
Das wäre natürlich nur gegangen, wenn man 1P Epyc von Anfang an in diese Position geschoben hätte anstatt da ne Sonderreihe TR zu bauen. Jetzt, wo die Infrastruktur TR ist und nicht Epyc ists halt zu spät. Wahrscheinlich hat sich AMD auch erst sehr spät, vllt gar nach TR1 Release dazu entscheiden, überhaupt >16C zu gehen. Ggf. auch, weil Intel da eben bis 18C ging und man nicht den größten hatte. Die Boardbelastung scheint mir auch recht hoch - diese Nachrüstkühler scheinen bei gewissen Boards durchaus "notwendig", mindestens aber mal sinnvoll zu sein. Kann mMn so nicht der Plan gewesen sein...

- - - Updated - - -

Wer nie einen reinen Arbeitscomputer in dieser Größenordnung will braucht keinen TR 2990/2970WX, erst Mal nicht. Enthusiasten werden auf TRs setzen um Multi GPU ohne Limitation zu betreiben, es ist nichts anders als es vorher war nur weils jetzt einen 32 Core Prozie für Consumer gibt.

Aha... Da machst du es dir leider sehr einfach.
Gaming war doch nur ein Beispiel ... Es gibt nach den Benches und Reviews zur Folge ne ganze Menge mehr, was einfach nicht gut skaliert oder gar deutlich langsamer läuft. Sogar in von dir benannten Bereichen.

Mal davon ab, wenn ein System, was Multithreaded Workload abfrüstückt, dann nicht auch in der Lage ist, nebenbei noch ein paar Tasks auszuführen, die eben zum Alltäglichen Doing gehören oder manchmal auch zur Bespaßung des Nutzers, muss dieser Prozessor oder das System darunter sich halt der Kritik stellen. Wo ist das Problem??


Auch und Thema Multi GPU - schau dir mal die Boardlayouts an. Die Hälfte der Lanes kommt vom dritten DIE. Der Spaß geht über die Fabric ;) nur so als Info... Nach den Reviews kann der Prozessor nur den NUMA Mode. Anders als der alte TR oder die kleineren 16C Modelle. MGPU Benches wären an der Stelle mal nicht verkehrt ;) Das ist nämlich dann ne andere Geschichte - möglicherweise wieder mit einem Skalierungsproblem. NUMA only ist eben doch was anderes als vorher :wink:
 
@fdsonne

Ja werde mich dran halten, aus dem RZP (vermutlich Rehazentrum). Das mit den Xenon meist du aber nicht im Ernst oder?, da wäre ich ja gerne mal Mäuschen beim Busspeed und frage mich worüber du dich gerade echauffierst.

Der Thread gehört gerne wieder dir, Server bekomme ich woanders erklärt.:d
 
Möchte nur noch kurz sagen, dass ich die Kritikpunkte, die fdsonne sehr ausführlich beschrieben hat nun durchaus nachvollziehen kann, einige technische Punkte waren mir auch so nicht geläufig, also auch wieder was dazu gelernt, danke! :)
 
Naja, müsste man mal testen. Das Problem ist, dass du eben zwar die Bindung herstellst, aber sobald du mehr wie 16 Threads belastest, skaliert das nicht mehr weiter... Weil du ja alles an DIE 0 pinnst. Das führt vielleicht (Test ausstehend) beim Game ans Ziel.
Es geht noch einfacher: SetProcessAffinityMask function | Microsoft Docs
Ausprobiert und funktioniert. Prime95 mit 8 Threads gestartet und dann per SetProcessAffinityMask den gesamten Prozess auf einen Kern festgelegt. Per Taskmanager und CoreTemp überprüft, wird tatsächlich nur ein logischer Kern belegt. Funktioniert auch, wenn ich Prime95 an den dritten und siebten logischen Kern binde.

Aber was wenn du da spielst und Hintergrundtasks zum Rendern/Encoding oder so auf hast?
Gute Frage. Per SetProcessAffinityMask kann ich anscheinend leicht ein Programm an die ersten 16 logischen Kerne binden, also auf DIE/NODE 0. Eigentlich müsste dann doch Windows alle anderen Sachen auf die restlichen Kerne verteilen. Sollte das Windows nicht geregelt kriegen, muss man hier halt auch wieder "Hand" anlegen und z.B. den Encoder an die restlichen 48 logischen Kerne binden.

Auch gibt das möglicherweise Skalierungsprobleme bei Software, die im Hintergrund läuft. Treiber und das ganze Systemzeugs sollte normal in Node 0/DIE 0 laufen. Schwieriger sind da die PCIe Devices - die Hälfte der Lanes kommt von DIE 2, die andere Hälfte von DIE 0. Ein Spiel könntest du jetzt ebenso auf DIE 0 pinnen - das müsste (wenn da nicht irgendwo was völlig quer läuft) 1A laufen. Wenn allerdings noch weitere Tasks hinzukommen - wo es dann Zugriffe nach Extern gibt, Zugriffe auf externe Tools, wo Threads gestartet werden wie der Arzt kommt oder eben dynamisch hantiert wird, ist das fix pinnen schwer(er), weil eben jeder neue Prozess normal eben neu gepinnt werden muss.
Ja, riecht schwer nach Softwarebastelei, um unter solchen Bedingungen Probleme bei der Performance zu vermeiden.

Hier ist eher die Arbeit dem Softwareentwickler aufzubürden, der das dann übernehmen kann/könnte - also entsprechend anders agiert mit seiner Software, wenn die Gegebenheiten anders ausfallen. Im Profiumfeld ist sowas häufig der Fall. Aber Privat? Da wird auch mal Software über irgendwelche Launcher gestartet wo dann der Launcher die eigentliche Anwendung lostritt, da ist Software bei, die zwar mit ihrem "GUI" Task beim Start festgepinnt wird, aber der Computetask einfach erst während der Fahrt gestartet wird usw. Das kann man sicher alles fixen... Die Frage ist mMn aber, ob man das wirklich will? 1830€ sind ne Stange Geld - und dem Risiko, dass man nie weis, ob die Performance nun 100% ist oder nur nur wieder die Hälfte.
Ist schon irgendwie komisch von AMD, dass die sich nicht vernünftig darum kümmern. Meiner Meinung nach müssten die irgendwie dafür sorgen, dass die Threads vernünftig verteilt werden und das nicht einfach auf Microsoft abwälzen.

Naja, mal gucken was da noch kommt.

Da das Testkit vor Ort bleibt, werden wir noch wenig damit rumspielen können.
Ihr könntet ja mal testen, was es bringt, die Spiele an einen DIE per SetProcessAffinityMask zu binden. Vielleicht kann man sich damit den GameMode/Neustart sparen.
 
fdsonne, du musst echt mal aus deinem Kellerloch raus. Geh mal abends raus, trink n Bier, knall ne Alte oder mach mal sonst irgendwas was mit der realen Welt zu tun hat.

Den Scheiss kann man sich ja hier echt nicht geben. Da laberst du hier was von Gaming Performance bei so ner Kiste und heulst rum das der nicht so schnell ist wie du kleine Sissy es gerne hättest. Das Teil kauft sich niemand zu zocken, vielleicht raffst du es irgendwann auch mal. Ach und natürlich weißt du es auch besser als AMD, sind ja alle anderen auf diesem Planeten halbdebile Primaten, nur eure Heiligkeit hat Eier aus Stahl und das gesamte Menschheitswissen gepachtet.
 
Zuletzt bearbeitet:
fdsonne, du musst echt mal aus deinem Kellerloch raus. Geh mal abends raus, trink n Bier, knall ne Alte oder mach mal sonst irgendwas was mit der realen Welt zu tun hat.

Den Scheiss kann man sich ja hier echt nicht geben. Da laberst du hier was von Gaming Performance bei so ner Kiste und heulst rum das der nicht so schnell ist wie du kleine Sissy es gerne hättest. Das Teil kauft sich niemand zu zocken, vielleicht raffst du es irgendwann auch mal. Ach und natürlich weißt du es auch besser als AMD, sind ja alle anderen auf diesem Planeten halbdebile Primaten, nur eure Heiligkeit hat Eier aus Stahl und das gesamte Menschheitswissen gepachtet.
Sachlich bleiben ... Mission FAILED! :fresse:

So habe ich das verstanden:
Ich glaube eher, es geht fdsonne um das grundsätzliche Problem vom neuen TR, dass es aufgrund der Speicheranbindung bei Anwendungen zu großen Performanceeinbußen kommen kann. Alle Anwendungen, bei denen sich unterschiedliche Threads die gleichen Daten/Speicherbereiche teilen, werden darunter leiden. Windows verschiebt die Threads auf der CPU ständig hin und her, vermutlich zur besseren Lastverteilung. Starte z.B. Prime95 mit nur einem Arbeiter. Im Taskmanager wirst du einfach erkennen können, dass die Auslastung ständig durch die Kerne wandert und nicht auf einem Kern bleibt. Wenn Du jetzt ein Programm mit zwei Threads hast, die beide intensiv auf die selben Daten zugreifen, kann es beim neuen TR leicht passieren, das Thread 1 auf DIE 0 sitzt und Thread 2 auf DIE 1, und schon bricht die Performance signifikant ein.

AMD erwartet jetzt von Microsoft, dass diese das System zum Verteilen der Threads an den neuen TR anpassen, anstatt selbst, z.B. durch Treiber, die Problematik zu lösen. Finde ich auch recht cheesy und da ist die Kritik von fdsonne vollkommen gerechtfertigt.

Und wieso ist es schon wieder so spät ... um 6:00 Uhr wieder aufstehen ... NARF!
Gute Nacht!
 
@Goderion


Hoffe ist noch mal erlaubt zu antworten (bin wegen Nvidias ganzen GTX Turing Karten durch den Wind, die sie bei Siggraph eigentlich vorstellen sollten. Sah da nur 2300, 6300 und 10000$ teure Quadro-Karten.:shake:)

Der Windows Scheduler ist sicher die erste Option die aktiven Threads auf alle vorhandenen Kerne zu verteilen (Thread Priorität vs Prozess Priorität).

Optimierungen setzt Hintergrundwissen über die Prozessorarch voraus. Da spielt auch NUMA eine Rolle. Änderungen der Threadaffinität könnten dabei die Gesamtleistung negativ beeinflussen. Eigentlich gibt es davon kaum Ausnahmen, bestimmte Servertypen vielleicht, die andere Shedulermodi bevorzugen. Das Windwos TR unterstützt und das Multithreading auch pusht, ist nun mal primäre Aufgabe des OS und letztlich nicht direkte des IHV. Windows its a Service und so. Mal sehen wie es auf Linux aussieht. Welcher Thread dabei Windows zugerechnet werden kann und welcher dem Spiel, oder jeder anderen Anwendung die im Hintergrund läuft ist schwer zu sagen, und wird uns MS wohl auch nicht so einfach verraten.
 
Zuletzt bearbeitet:
Der Windows Scheduler ist sicher die erste Option die aktiven Threads auf alle vorhandenen Kerne zu verteilen (Thread Priorität vs Prozess Priorität).

Optimierungen setzt Hintergrundwissen über die Prozessorarch voraus. Da spielt auch NUMA eine Rolle. Änderungen der Threadaffinität könnten dabei die Gesamtleistung negativ beeinflussen. Eigentlich gibt es davon kaum Ausnahmen, bestimmte Servertypen vielleicht, die andere Shedulermodi bevorzugen. Das Windwos TR unterstützt und das Multithreading auch pusht, ist nun mal primäre Aufgabe des OS und letztlich nicht direkte des IHV. Windows its a Service und so. Mal sehen wie es auf Linux aussieht. Welcher Thread dabei Windows zugerechnet werden kann und welcher dem Spiel, oder jeder anderen Anwendung die im Hintergrund läuft ist schwer zu sagen, und wird uns MS wohl auch nicht so einfach verraten.
Das Windows das per Scheduler regelt, wäre sicher die beste Lösung, aber irgendwie hat AMD es versäumt, Microsoft dazu zu bringen, dass früh genug zu implementieren. Den aktuellen Ansatz von AMD, die CPU zu 75% zu deaktivieren, um bei bestimmten Anwendungen keine Performance zu verlieren, finde ich seltsam. Ich bin jetzt kein Experte und kann hier nur spekulieren. Es wäre vermutlich sinnvoller gewesen, wenn das AMD irgendwie anders gelöst hätte, z.B. ein eigenes Tool/Service/Dienst, wo man Programme auswählen kann, die nur innerhalb eines DIE/NODE laufen sollen. Vorausgesetzt das würde funktionieren, könnte man sich den GameMode/Neustart sparen.

Aktuell spiele ich zwar nichts, aber es würde mich schon leicht nerven, wenn ich jedes mal, wenn ich vom Arbeiten zum Zocken wechseln möchte (oder umgekehrt), den Computer neustarten muss. Und wenn ich dann zocken würde, könnte ich nicht mal parallel dazu etwas Kompilieren, Encoden oder Rendern, ist schon irgendwie schade.

Ich glaube auch nicht, dass das lange so bleiben wird. Microsoft und/oder AMD werden sicher die Situation verbessern, aber der Ersteindruck hat meiner Meinung nach unnötig dadurch gelitten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh