3. Generation Ryzen Threadripper erscheint im November – zusammen mit dem Ryzen 9 3950X

Bei mir ist es so, dass der 3950X vermutlich der optimalste Prozessor ist. Deutlich höhere Singlethread Leistung als die Workstations, und eine Worksation-Multithread Leistung zum Preis, dass man sich das auch leisten kann, wenn man nicht so extrem super verdient.
Ich persönlich brauche Singlethread weil ich viel Zeug in Python schreibe und das läuft mit Zen 2 einfach wesentlich flotter als z.B mit einem TR 2950X. Und teilweise läuft die CPU Tagelang durch, mit 100% Last auf jedem Thread (Handelt sich nicht um Deep Learning aber um eine Vorstufe, läuft nicht auf GPUs). Ich arbeite mit dem Teil, verwende es Privat und führe privat einige Forschungsprojekte durch. Ich arbeite bei einem Startup Teilzeit als KI-Entwickler, und ein bisschen an der Uni, mehr Leistung übersetzt sich eben in besseren Ergebnissen, aber nicht unbedingt mehr Geld auf dem Konto. Für Oktober stehen nun einige größere Sachen an und ich habe auch mit einigen Experimenten gewartet, damit ich sie auf der neuen CPU durchführen kann - auch damit mein Arbeitsrechner eben weniger lange am Stück blockiert wird.


Und natürlich planen Firmen abhängig von den Verfügbarkeitsprognosen. Wäre ja auch dumm wenn nicht. Klar, man geht nicht dran zugrunde, aber man will ja effizient sein. Und wenn man in einer Firma, einer Uni oder in einem Nonprofit mit 10 Jahre alten Kisten rumgurkt, wartet man manchmal auch mal ein paar Monate, um dann vermutlich verfügbare Hardware kaufen zu können, die langfristig Einsparungen verspricht. Und ja, an Unis gibt es Rechnerräume mit 10 Jahre alten Kisten und da hat man ziemlich wenig Budged. Hier geht es natürlich nicht um so eine CPU wie den Ryzen 9 3950X.

Was ich damit sagen wollte: Prognosen zur Produktverfügbarkeit beeinflussen mitunter Managementeentscheidungen. Und wenn die Prognosen warum auch immer falsch sind, hat das halt negative Auswirkungen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Deutlich höhere Singlethread Leistung als die Workstations
Welche Workstations und außerdem sollte Dir klar sein, dass die vorherrschende Meinung der AMD Fanboys hier im Forum ist, dass kein Mensch sich für die Singlethreadperformance interessiert der sich eine 16 Kern CPU kauft. :d
Ich arbeite bei einem Startup Teilzeit
Das erklärt dann auch einiges, denn in größeren Unternehmen bezieht man die Hardware von OEMs und baut nichts selbst zusammen, aber bis man die Erfahrung gemacht hat warum dies so ist, vergeht eben einige Zeit und so alt sind die Startups meist noch nicht. Ebenso verwendet man dann auch keine Consumer Desktop Hardware als Workstation oder gar Server, egal ob die Leistung reicht oder nicht.
wenn man in einer Firma, einer Uni oder in einem Nonprofit mit 10 Jahre alten Kisten rumgurkt
...
Und ja, an Unis gibt es Rechnerräume mit 10 Jahre alten Kisten und da hat man ziemlich wenig Budged. Hier geht es natürlich nicht um so eine CPU wie den Ryzen 9 3950X.
Das es an Unis so alte Hardware gibt, kann ja durchaus sein, bei NGOs vielleicht auch, aber in Firmen wo die Rechner wirklich Geld verdienen müssen und Ausfälle richtig teuer werden, sollte es für alle Rechner Wartungsverträge geben und die bekommt man i.d.R. nur für bis zu 5 Jahre, dann fliegt die HW raus und wird durch neuen ersetzt. Die ist dann auch performanter und effizienter.
 
Klar ist die Singlethreadperformance wichtig. Threadripper in der neuen Generation ist da vielleicht besser.

@Holt Hätte ich präziser formulieren müssen, den Job mache ich hauptsächlich von Zuhause aus, im Unternehmen selbst gibt es schon eine ordentliche Serverinfrastruktur und Computer, keine Sorge. Da das Startup zu einem größeren Unternehmen gehört, das die IT übernimmt sind die nötigen Erfahrungen dafür auch schon gemacht. Die Infrastruktur da ist sehr professionell und ausgereift, daher geht es hier wirklich nur um einen Privatpc, der mit einem 3950X, 64 GB RAM, RTX 2070 und Samsung 970 NVMe ziemlich brauchbare Leistung haben wird und an dem ich eben auch arbeite und Forschung betreibe.


Ich habe mal in der IT Abteilung eines mittelgroßen Unternehmens (50 Millionen Umsatz) gearbeitet, die hatten da keine Wartungsverträge und haben auch erst ausgetauscht, wenn die Kisten kaputt waren. Alles die selben Rechner, damals noch mit Windows XP. Klar ist das blöd, aber es ist mitunter gängig.
 
Welche Workstations und außerdem sollte Dir klar sein, dass die vorherrschende Meinung der AMD Fanboys hier im Forum ist, dass kein Mensch sich für die Singlethreadperformance interessiert der sich eine 16 Kern CPU kauft. :d
... oder es daran liegt, dass die Intel Fanboys Pickel kriegen, wenn AMD die Single-Thread Leistung nahezu egalisiert, dafür aber doppelt so viele Kerne hat. Und bei diesem "nahezu" wird die Mücke zum Elefanten aufgeblasen, wo jeder normal denkende Mensch nur noch mit dem Kopf schütteln kann. Gleichzeitig werden die Mitigationen und deren Leistungsverlust (der besonders bei KI-Berechnungen mal mehr als 5% betragen kann) aber vom Elefanten zu einer Mücke gepresst. Halt immer so, wie es einem ins Weltbild paßt. Etwas mehr Neutralität und weniger Schnappatmung wäre... begrüßenswert. Aber das Thema hatten wir ja schon zig mal durchgekaut.

Aber abseits davon...

@Michael21 Da beschreibst du ziemlich genau den Systemfehler, den ich oben erwähnt habe. Projekte an der Grenze zum Verhungern des Wissenschaftlers geplant, aber damit ne Million rausziehen wollen. Exakt diese Gier ist der Systemfehler, an dem die Infrastruktur zu Grunde geht. Ist nicht nur im IT Bereich so, dort fällt es aber am schnellsten auf. Das ist jetzt nicht unbeding deine Schuld, dass es so läuft - da kann wohl jeder basistalentierte Student ein Lied von singen, wie sehr das Equipment sein Talent torpediert - aber die Unis werden halt als billiger Forschungsarm der Wirtschaft missbraucht und entsprechend kommt da halt nur schnell zusammengeschusterte "Massenware" bei raus. Eigentlich - und jetzt wird es wieder utopisch - sollten die großen Firmen ihre eigenen Forschungsabteilungen haben und das, was an den Unis gemacht wird sollte der Allgemeinheit zur Verfügung gestellt werden (Steuergelder und so).

Für mich ist der 3950X interessant, weil ich einer der Verrückten bin, die Star Citizen zocken und dieses Spiel kann halt 16C/32T effektiv nutzen. Für alles andere wäre das Teil absoluter overkill. Aber da sind wir auch wieder beim Thema "Hobby". In deinem "Spezialfall" hilft wohl nur abzuwarten, bis der 3950X verfügbar ist und dann direkt bei AMD zu bestellen. Dann bekommst du es zwar nicht sofort, aber sicher innerhalb von 4 Wochen.
 
Für mich ist der 3950X interessant, weil ich einer der Verrückten bin, die Star Citizen zocken und dieses Spiel kann halt 16C/32T effektiv nutzen

Ja aber hatte da mal was gesehen das grade bei Star Citizen die Intel extrem besser sein sollen und da auch die Latenz sehr wichtig ist und da hat AMD sehr deutlich das nachsehen.
Mein 3900X hatte stock knapp 75ns..
 
Klar, solche Sachen wie die Ryzens und die RTX Grafikkarten (siehe FP16 mit Tensorcores) sind in meinem Bereich absolute Glücksfälle für arme Wissenschaftler und Studenten, da man für einen Bruchteil des Preises richtiger Workstations recht ordentliche Leistung bekommt. Größere Deep Learning Sachen sind natürlich nicht möglich, schon das trainieren aktueller Modelle in der günstigen Cloud (Google TPUs) kann tausende bis hunderttausende kosten. Aber gut, mit niedrigen Ressourcen kommt man dennoch voran.

Das Problem will ich nicht bestreiten.

Und ich bin absolut ein Fan davon, dass in erster Linie die Allgemeinheit von Forschungen profitiert. Das heißt in erster Linie Open Access für gut dokumentierte Paper, gut verständliche Vorträge auch für ein allgemeineres Publikum und das Open Sourcen von relevanter Software. Sehr schade, dass Politik sich eher für die Drittmitteleinwerbung stark macht, statt solche Bestrebungen zu fördern.

Gut, das war jetzt ein etwas größerer OT, bleibt zu sagen, dass die ein bisschen besser finanzierten Leute in der Wissenschaft, die ich kenne sich auch schon sehr auf die Threadripper-Prozessoren freuen und sicherlich auch von der verbesserten Singlethread-Leistung profitieren.
Ich habe im August um die Migration zu testen einen Benchmark mit typischen Aufgaben in meinem Bereich geschrieben, vom R7 1700X auf den R5 3600 gab es 20 bis 40 Prozent Mehrleistung und bei vielen Aufgaben war der 3600 schneller als der 2990WX eines Freundes. Dafür war der TR bei höher parallelisierten Aufgaben aber eindeutig um ein vielfaches schneller als die beiden anderen.
Die neue TR Generation dürfte hier in jedem Fall positiv sein. Das Amdahlsche Gesetz illustriert hier auch, dass auch 32 Kerner stark von einer 30% höheren Singlethread-Leistung profitieren können (selbst wenn die Multithread Leistung nicht höher wäre).
 
Ja aber hatte da mal was gesehen das grade bei Star Citizen die Intel extrem besser sein sollen .

Echt? Selber ausprobiert oder gelesen irgendwo?

Spiele auch SC und habe mit meinem roten Rechner auch support für 16 Kerne dort, obwohl mehr wie 60 FPS sind wohl eh nicht drin, weil die Server dasl limitieren. /:
 
@Holzmann
ich hatte das glaube ich in nem Video bei PCGH gesehen wenn ich mich richtig erinnere. Aber wenn du sagst das es bei dir gut läuft dann lag das vielleicht an der frühen Phase vom Spiel.


EDIT: Hier bei 8:55 sagt er was zur Leistung von 2700X vs 9900K und da ist der 9900K mehr als doppelt so schnell

Hier auch mal nen Video mit nem 3600X da sieht man auch oft ein CPU limit mit nur 40FPS



Ich habe ja kein Star Citizen und daher nicht vergleichen aber ich glaube schon das die Intel hier auf grund ihrer Zugriffszeiten sehr viel schneller sind
 
Zuletzt bearbeitet:
@Holzmann
ich hatte das glaube ich in nem Video bei PCGH gesehen wenn ich mich richtig erinnere. Aber wenn du sagst das es bei dir gut läuft dann lag das vielleicht an der frühen Phase vom Spiel.
EDIT: Hier bei 8:55 sagt er was zur Leistung von 2700X vs 9900K und da ist der 9900K mehr als doppelt so schnell
Hier auch mal nen Video mit nem 3600X da sieht man auch oft ein CPU limit mit nur 40FPS
Ich habe ja kein Star Citizen und daher nicht vergleichen aber ich glaube schon das die Intel hier auf grund ihrer Zugriffszeiten sehr viel schneller sind

Star Citizn skaliert frei mit den Kernen (da gibts ein schönes Video mit nem 3900X) - allerdings wird das ganze noch durch den Netzwerkcode zurückgehalten. Ein besserer Test (was die Engine so kann und wie weit die skaliert) ist im Offline-Modus möglich, wo man lokal einen "Level" durchspielt. Die FPS hängen im Online-Modus *extrem* stark von der auslastung des Servers ab. Nach einem frischen Neustart kannst du dort bei 90 FPS sein, während nach 2h Spielzeit das Teil auf 40FPS eingebrochen ist - egal ob 3900X oder 9900k.

Da der Netzwerkcode komplett überarbeitet wird, können wir uns erst dann ein komplettes Bild der Situation machen, wenn das durch ist. Bis dahin sind nur Benches im Offline-Modus zu empfehlen. Ansonsten kann ich dir auch zeigen, wie ne RX480 schneller ist als ne 2080Ti, je nachdem wie früh/spät ich in die Server-Instanz springe.

Da hat CIG noch einen Haufen Arbeit vor sich. Nur: Warum mich künstlich limitieren, wenn ich beurteilen kann, wie es im "perfekten" Zustand laufen würde?

Ja aber hatte da mal was gesehen das grade bei Star Citizen die Intel extrem besser sein sollen und da auch die Latenz sehr wichtig ist und da hat AMD sehr deutlich das nachsehen.
Mein 3900X hatte stock knapp 75ns..

Ich habe meinen 2700X jetzt auf 61ns getrimmt, mit custom Latenz im DRAM Rechner sogar runter auf 58. Mal gucken, wie das mit nem 3950X laufen wird, aber Buildzoid hat die auch alle (Ryen 3000) Richtung 64ns getreten bekommen.
 
Zuletzt bearbeitet:
@Power
Danke für das Video!
@Shevchen
Interessant, wo stelle ich den einen offline Modus in SC ein?
Dann könnte man mal besser testen, so habe ich auch dort nie mehr als 60 FPS gesehen.
 
@Shevchen
Ich habe meinen 3900x ja auch auf 61,9ns gedrückt aber das ist schon das absolute limit für Zen2 würde ich sagen.
 
Wenn du Mitglied im Debattierclub bist, kannst du ja mal deine eigenen Posts durchlesen und findest dort evtl. ein paar... Haare zum spalten. Zum Beispiel, dass Prognosen in der Produktion wie beim Wetter nicht immer eintreten müssen. Auch basieren diese Prognosen nicht auf einem Mitarbeiterfundus von 10.000 Leuten, die sich alle die Wafer angucken, 3 Mal an ihrem Bart kratzen und per Glaskugel vorhersagen, wann die 4.7GHz Chips en masse machbar sind, sondern das sind eine handvoll von Spezialisten, die auch mal daneben liegen können.

Auch stellt die Verzögerung von AMD keine böse Absicht dar. Schlimmer wäre ein zweites Debakel, wo 4.7GHz versprochen, aber nicht gelifert werden. Am Ende leben wir alle im gleichen Universum wo die gleichen Naturgesetze gelten. Die kannst du zwar gerne mit Wünschen und Vertragsrecht befeuern, das juckt die aber nicht die Bohne. Wenn der Prozess mehr Zeit braucht um die 4.7GHz in Massenproduktion zu stemmen, dann ist das halt so. Da kann man sich auf den Boden des Supermarktes werfen und anfangen zu quängeln, bringt aber auch nix.

Ich empfehle in diesem Fall einen Tee, ein gutes Buch und das frönen von anderweitigen Hobbies, bis die Lieferschwierigkeit behoben worden ist.

PS: Ich warte auch auf den 3950X - nur isses mir Wumpe ob der mit ein paar Wochen Verspätung kommt oder nicht, da ich in der Zwischenzeit einen günstig geschossenen 2700X habe, den ich nach Lust und Laune tweaken kann, bis der 3950X da ist. Der reicht auch dicke für alle Spiele und in der Zwischenzeit - wenn mir langweilig werden sollte - modifiziere ich ein paar Komponenten auf dem Mainboard, wie beispielsweise einen neuen Passivkühler auf den X570 Chipsatz raufzukleben. Ich bin mir sicher als Mann von Welt, der so viel rumkommt, fällt dir auch da was ein.

Wenn nicht: Mein Beileid.

Edit und hoffentlich mal OT:
AMD verschiebt den Release nicht aus Langeweile. Wer das glaubt, dem kann ich auch nicht mehr helfen.

Bisher haben wir mit Ach und Krach 4.6GHz chiplets gesehen. Die Ausbeute bei 4.7GHz dürfte da nochmal ein Stück drunter liegen und evtl. bekommen wir dort auch einen 1-2 Chiplet design mit einem guten und einem "normalen". Die Annahme, dass der 7nm Prozess einen hohe Streuung hat, bestätigt sich schon auf Grund der schieren Masse an SKUs. Die Verfügbarkeit von weniger gut gebinnten Chips wie dem 3600(X) ändert nix an der Verfügbarkeit des 3900X, da dort das Binning ein anderes ist. Ich kann nicht einfach mehrere 3600X nehmen und die zu einem 3900X zusammenscheißen, weil der bis max 4.400 MHz boostet, nicht bis 4.600 MHz.

Es scheint ja gerade eher so, als ob das obere Ende der Fahnenstange recht selten vorkommt und die Masse der mittelprächtigen 8-Kerner dann in die EPYC-Reihe reinfließen, wo am unteren Ende der Frequenzkurve die Streuungsmarge kaum bis gar keine Rolle mehr spielt. Jeder hätte gerne das obere Ende der Gauss-Kurve, aber niemand das untere Ende. Tja, so entsteht halt ein Engpass.

So, jetzt muss ich meinen seit Ewigkeiten inaktiven Account auch mal aus der Versenkung holen.

Ich hätte es nicht besser ausdrücken können. Aktuell baue ich auch an einem neuen AMD-System und hatte den 3950X im Auge. Da die restlichen Komponenten schon da sind, die CPU sich aber verzögert, wird dort übergangsweise ein R5 2600 einziehen, um zumindest das System schon mal in Betrieb zu nehmen, Tests zu fahren, Daten umzuziehen etc. Das Upgrade der CPU erfolgt dann eben dann, wenn er erscheint.

Mein jetziger i7-4770, der jetzt seit 5 Jahren stabil seinen Dienst verrichtet, wird dann künftig als Hypervisor für VMs dienen, die 24/7 laufen sollen.
 
Bei mir ist es so, dass der 3950X vermutlich der optimalste Prozessor ist. Deutlich höhere Singlethread Leistung als die Workstations, und eine Worksation-Multithread Leistung zum Preis, dass man sich das auch leisten kann, wenn man nicht so extrem super verdient.
Ich persönlich brauche Singlethread weil ich viel Zeug in Python schreibe und das läuft mit Zen 2 einfach wesentlich flotter als z.B mit einem TR 2950X. Und teilweise läuft die CPU Tagelang durch, mit 100% Last auf jedem Thread (Handelt sich nicht um Deep Learning aber um eine Vorstufe, läuft nicht auf GPUs). Ich arbeite mit dem Teil, verwende es Privat und führe privat einige Forschungsprojekte durch. Ich arbeite bei einem Startup Teilzeit als KI-Entwickler, und ein bisschen an der Uni, mehr Leistung übersetzt sich eben in besseren Ergebnissen, aber nicht unbedingt mehr Geld auf dem Konto. Für Oktober stehen nun einige größere Sachen an und ich habe auch mit einigen Experimenten gewartet, damit ich sie auf der neuen CPU durchführen kann - auch damit mein Arbeitsrechner eben weniger lange am Stück blockiert wird.


Und natürlich planen Firmen abhängig von den Verfügbarkeitsprognosen. Wäre ja auch dumm wenn nicht. Klar, man geht nicht dran zugrunde, aber man will ja effizient sein. Und wenn man in einer Firma, einer Uni oder in einem Nonprofit mit 10 Jahre alten Kisten rumgurkt, wartet man manchmal auch mal ein paar Monate, um dann vermutlich verfügbare Hardware kaufen zu können, die langfristig Einsparungen verspricht. Und ja, an Unis gibt es Rechnerräume mit 10 Jahre alten Kisten und da hat man ziemlich wenig Budged. Hier geht es natürlich nicht um so eine CPU wie den Ryzen 9 3950X.

Was ich damit sagen wollte: Prognosen zur Produktverfügbarkeit beeinflussen mitunter Managementeentscheidungen. Und wenn die Prognosen warum auch immer falsch sind, hat das halt negative Auswirkungen.
Hallo Michael21,
wie meinst das mit dem schreiben geht schneller mit einem ZEN2, kannst du dadurch schneller tippen? Oder meinst du die Kompilierung ist schneller?
Wenn alle Threads genutzt werden sollte der TR 2950X schon deutlich schneller sein bei Speicherlastigen Anwendungen (Quad vs. Dual Channel beim 3950X)

@Speichertimings drücken
Womit (Software/Benchmark) sind die ns bei euch ermittelt ?
 
@Speichertimings drücken
Womit (Software/Benchmark) sind die ns bei euch ermittelt ?

AIDA 64. Der Ryzen DRAM Calculator hat auch einen Eintrag im Membench Menüpunkt, der sehr stark mit dem AIDA64 Ergebnis korelliert. (Random latency) Zur Not kann man also auch den nehmen, wenn man AIDA64 nicht hat.
 
AIDA 64. Der Ryzen DRAM Calculator hat auch einen Eintrag im Membench Menüpunkt, der sehr stark mit dem AIDA64 Ergebnis korelliert. (Random latency) Zur Not kann man also auch den nehmen, wenn man AIDA64 nicht hat.
Danke dir,
Ist in der neusten AIDA64 Version inzwischen der Athlon64 X2 BE 6400+ mit 55,2ns unterboten worden? Anyone?



Das steht im Handbuch von AIDA64 zur Memory Latency:
This benchmark measures the typical delay when the CPU reads data from system memory. Memory latency time means the penalty measured from the issuing of the read command until the data arrives to the integer registers of the CPU. The code behind this benchmark method is written in Assembly, and uses at least 16 MB memory size with 4 KB page size.

[*NEW*] Since AIDA64 v3.00, memory is accessed in a random pattern, with at least 128-byte stride to avoid the effect of the adjacent cacheline prefetcher; and smaller stride than the TLB-window to minimize the effect of TLB miss penalty.

Memory Latency benchmark test uses only the basic x86 instructions and utilizes only one processor core and one thread.
Gut zum Vergleichen, eher schlecht für real workflow. ;)
 
Zen2 könnte das schaffen, Zen+ noch nicht
Laut Kit Guru sind beim SANDRA Bench: AMD Ryzen 9 3900X CPU Review | KitGuru - Part 7
As a point of reference, AMD’s claimed cache latency improvements look to hold true. Our SiSoft Sandra Cache and Memory Bandwidth test delivers 58.9ns for the Zen Ryzen 7 1800X, 52.6ns for the Zen+ Ryzen 7 2700X, and 33.1ns for the Zen 2 Ryzen 7 3700X and Ryzen 9 3900X. Running 3600MHz C16 DDR4 with Ryzen 9 3900X reduces that latency figure by 6% down to 31.1ns.

Das läuft aber Multi Threaded und mit neuen Sätzen. ;)
 
@Phantomias88 Ich habe einen Python Benchmark geschrieben, der typischen Code in meinem Feld ausführt und damit rechnet. Und der R5 3600 liegt hier in den Singlethread Disziplinen durchgehend deutlich vor dem 2990WX eines Freundes und weit vor meinem alten R7 1700X.
Solche Sachen wie Dictionary Zugriffe, Numpy Berechnungen etc und anderes herumhantieren mit Daten ist nicht sinnvoll parallelisierbar.
Ich vermute, das hat etwas mit der besseren IPC von Zen 2 zu tun.

Ich schätze, der 3950X ist im Singlethread ein bisschen schneller als der R5 3600 und dadurch einfach besser als die gerade noch aktuellen Threadripper geeignet, die hier eben deutlich lahmer sind.
Von den vielen Threads des 3950X kann ich natürlich bei anderen Tasks sehr profitieren.
Ich bin ziemlich sicher, dass der r9 3950X wesentlich flotter als der TR 2950X ist...

Aber das lässt sich ausprobieren, sobald ich den 3950X habe werde ich ihn mal mit dem 2990WX vergleichen. Direkten Zugang zu einem 2950X habe ich leider nicht.
 
Zuletzt bearbeitet:
Laut Kit Guru ...

Ist dann wohl eher diese Folie zwecks Vergleichbarkeit geeignet:
https://www.kitguru.net/wp-content/uploads/2019/07/memory-aida-latency.png

Den Wert haben wir schon längst unterboten. Während kitguru noch mit >70ns Latenz rumgurkt, versuchen wir hier die 60ns zu unterbieten. Frage ist halt, auf welche Latenz das bezogen ist. Die Latenzbeschreibung von SiSoftSandra ist ne andere als die von AIDA64. Zwecks Vergleichbarkeit würde ich das eher nicht in einen topf werfen. Aber eventuell ist es ein weiterer guter Parameter zur Speicheroptimierung. Wenn du bei Aida keine Besserung mehr erkennen kannst, ist bei der Sandra vielleicht noch was zu holen. ;)

@Michael21 Der 3950X sollte *auch* im Single gute Performance abliefern können, ist aber primär als Mehrkern-Arbeitspferd ausgelegt. Ich will jetzt nicht in deine Arbeit pfuschen, aber ich würde dir doch nahelegen zu gucken, ob dein Code nicht vielleicht doch parallelisierbar ist. Da würdest du dann exponentiell von profitieren.
 
Zuletzt bearbeitet:
Ist dann wohl eher diese Folie zwecks Vergleichbarkeit geeignet:
https://www.kitguru.net/wp-content/uploads/2019/07/memory-aida-latency.png

Den Wert haben wir schon längst unterboten. Während kitguru noch mit >70ns Latenz rumgurkt, versuchen wir hier die 60ns zu unterbieten. Frage ist halt, auf welche Latenz das bezogen ist. Die Latenzbeschreibung von SiSoftSandra ist ne andere als die von AIDA64. Zwecks Vergleichbarkeit würde ich das eher nicht in einen topf werfen. Aber eventuell ist es ein weiterer guter Parameter zur Speicheroptimierung. Wenn du bei Aida keine Besserung mehr erkennen kannst, ist bei der Sandra vielleicht noch was zu holen. ;)

@Michael21 Der 3950X sollte *auch* im Single gute Performance abliefern können, ist aber primär als Mehrkern-Arbeitspferd ausgelegt. Ich will jetzt nicht in deine Arbeit pfuschen, aber ich würde dir doch nahelegen zu gucken, ob dein Code nicht vielleicht doch parallelisierbar ist. Da würdest du dann exponentiell von profitieren.
Ja, genau die meinte ich.
Wäre ja schlimm wenn ihr es nicht besser hinbekommt als noch zum Release, immerhin gibt es neue UEFI Versionen. ;)

Aber dennoch finde ich den Vergleich mit Single Thread x86 etwas mager.
Testet mal CB Single Core Test nur auf einem Kern gepinnt, das gibt weniger Punkte als wenn man den Thread nicht pinnt und fröhlich über alle Kerne hoppeln lässt.

Macht auch Sinn, 1 Kern bei 100% Last dabei entsteht auch immer ein Overhead. ;)
 
Zuletzt bearbeitet:
Möglicherweise doch nicht nur Lieferengpässe?:
AMD delays Ryzen 9 3950X launch due to unsatisfactory clock speeds, sources claim

Bleibt zu hoffen dass AMD das Problem bis November gelöst hat

Klingt zwar erstmal vernichtend, aber ich finde es gut, dass AMD direkt und schnell reagiert. Die Marketingabteilung hat 4.7 GHz draufgeschrieben und die Ingenieure sagen jetzt "Nope, seht zu wie ihr diese Zahlen realisiert bekommt, unsere Daten sagen was anderes."

Zeigt zwei Dinge:
a) Den Ingenieuren wird jetzt mehr Aufmerksamkeit (und Glaubwürdigkeit) gegeben, als ne Marketing-Glaskugel. (sehr gut)
b) AMD hat auf die vorherige Analyse von den Tech-Reviewern schnell reagiert und ist im Reaktionsverhalten wohl dynamisch genug, um da noch gegenzusteuern (freut mich ebenfalls)

Ändert natürlich nix an den Chips und das die Versprechen der Marketingabteilung jetzt mal so richtig schön an der Realität zerschellen. Da lernen die hoffentlich mal draus (also, die Marketing-Abteilung).

AMD hat jetzt 2 Möglichkeiten darauf zu reagieren:
a) Es durchzuziehen, was dann nur sehr geringe Verfügbarkeit mit immens hoher Nachfrage bedeuten würde
b) Die Ankündigung zu revidieren und ne neue Zahl auf die Box schreiben

Unter normalen Bedingungen, was die Stock-Kühler mit einschließt, sind die 4.7GHz schlichtweg nur mit goldenem Silizium machbar - und das auch nur mit Arsch auf Kante. WaKü/Monster-Lüftkühler sind wieder andere Sachen, aber wer sich diesen Quatsch mit den 4.7 GHz ausgedacht hat müsste mal ne Weiterbildung in Sachzen Realitätscheck machen.

Und das sage ich als AMD-Liebhaber, denn sowas zu behaupten kann nur in einem Desaster enden.
Nur: Wem es egal ist, der wird mit nem 3950X eine absolut krasse Monster-CPU bekommen - völlig egal was auf der Packung steht. Nur sollte man sich von dem 4.7 GHz Gedanken verabschieden. Die 4.6GHz sind mit 6-Kern Chiplets schon knapp, 4.7GHz mit 8Kern-Chiplets ist als Massenproduktions-Chip einfach nur unrealistisch.

Könnte man auch gleich 5.5GHz drauf schreiben - macht dann auch keinen Unterschied mehr. Trotzdem (oder gerade weil das Teil 16 Kerne hat) freue ich mich auf den 3950X. :)
 
Zuletzt bearbeitet:
Klingt zwar erstmal vernichtend, aber ich finde es gut, dass AMD direkt und schnell reagiert.

Sehr schnell reagiert, ein für September 2019 angekündigtes Produkt mitte September kurzfristig nach hinten verschoben.
AMD ist Reaktionsweltmeister.

Die Marketingabteilung hat 4.7 GHz draufgeschrieben und die Ingenieure sagen jetzt "Nope, seht zu wie ihr diese Zahlen realisiert bekommt, unsere Daten sagen was anderes."

Genauso wird es laufen. Das Marketing gibt die Takraten vor.:fresse2:
Zeigt zwei Dinge:
a) Den Ingenieuren wird jetzt mehr Aufmerksamkeit (und Glaubwürdigkeit) gegeben, als ne Marketing-Glaskugel. (sehr gut)
b) AMD hat auf die vorherige Analyse von den Tech-Reviewern schnell reagiert und ist im Reaktionsverhalten wohl dynamisch genug, um da noch gegenzusteuern (freut mich ebenfalls)


Ändert natürlich nix an den Chips und das die Versprechen der Marketingabteilung jetzt mal so richtig schön an der Realität zerschellen. Da lernen die hoffentlich mal draus (also, die Marketing-Abteilung).

Ja, die bösen Marketier-chen.

Unter normalen Bedingungen, was die Stock-Kühler mit einschließt, sind die 4.7GHz schlichtweg nur mit goldenem Silizium machbar - und das auch nur mit Arsch auf Kante. WaKü/Monster-Lüftkühler sind wieder andere Sachen, aber wer sich diesen Quatsch mit den 4.7 GHz ausgedacht hat müsste mal ne Weiterbildung in Sachzen Realitätscheck machen.

Woher willst du wissen, dass es am ST Boost hakt?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh