AMD Threadripper 1900X soll acht Kerne und X399-Einstieg bieten

Das sind doch jedes mal die selben Diskussionen.

Am Ende wird es wieder zwei Sieger geben, wie immer.

Intel wird Sieger sein in der Leistung und AMD ist wiederholt "Sieger der Herzen".

Grüße

So ist das mit Menschen. Du hast dein Geld ja auch in fashion apfel gesteckt statt in vernünftige Hardware. (Aber den Irrtum immerhin vier Jahre später bemerkt)
Und mal nebenbei, in dem ewig anhaltenden Kindergarten wird es schlicht und ergreifend keinen Gewinner geben, ich weiß also nicht was dein Kommentar soll.
Die Intel fanbois sind ja erst glücklich sobald sie eine Monopolstellung haben (und zwar gänzlich, nicht so knapp davor wie bisher) und 500 Euro für 4c4t@ 5,1GHz zahlen müssen. Das Gegenstück auf amd Seite kann ich mir nicht ausmalen, wer weiß was die wollen. Ich für meinen Teil bin für sehr rege Konkurrenz so dass sich jeder was zum Daddeln zusammenbauen kann. Oder zum Benchen. Und wenn sogar ein paar wenige Leute, die tatsächlich damit arbeiten und nich nur den virtuellen riesen Lachs auf den Tisch legen wollen, profitieren und günstig an kürzlich noch undenkbare Hardware kommen - ja bidde!

Zur aktuellen Diskussion kann man eigentlich nur sagen: Es suchen sich doch beide Lager immer irgendwelche random benches raus, die genau ihr Lager gut dastehen lassen. Nichts desto trotz kann man zwischendurch auch immer mal wieder interessante Ansätze rauslesen udn selber recherchieren. Also macht ruhig weiter so, ist mein voller Ernst.
Es ist doch alles gut wie es ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Einfach nur lustig hier. Ich sprechen nur den Leistungsvorsprung vom 7900X an, weise auf den missglückten Start und die schlechte P/L hin was und passiert?

"Nein alles lüge, Verrat, wie kannst du nur?, du pöser Intelfan! Mimimi."

Wie kann man den Fakt, dass der 7900X einfach schneller ist einfach wegignorieren, und btw. es gibt Threadripper noch nicht, wenn man über diesen diskutiert muss man auch über den Skylake-X 18-Kerner sprechen. Und Dude, nein, es gibt keine Szenarien in denen der Ryzen schneller als der 7900X ist.

Ach und ich selbst hab nen Ryzen und das wird sich auch die nächsten Jahre nicht ändern, nur ich bin halt kein Realitätsverweigerer.
 
Zuletzt bearbeitet:
So ist das mit Menschen. Du hast dein Geld ja auch in fashion apfel gesteckt statt in vernünftige Hardware. (Aber den Irrtum immerhin vier Jahre später bemerkt)
Und mal nebenbei, in dem ewig anhaltenden Kindergarten wird es schlicht und ergreifend keinen Gewinner geben, ich weiß also nicht was dein Kommentar soll.
Die Intel fanbois sind ja erst glücklich sobald sie eine Monopolstellung haben (und zwar gänzlich, nicht so knapp davor wie bisher) und 500 Euro für 4c4t@ 5,1GHz zahlen müssen. Das Gegenstück auf amd Seite kann ich mir nicht ausmalen, wer weiß was die wollen. Ich für meinen Teil bin für sehr rege Konkurrenz so dass sich jeder was zum Daddeln zusammenbauen kann. Oder zum Benchen. Und wenn sogar ein paar wenige Leute, die tatsächlich damit arbeiten und nich nur den virtuellen riesen Lachs auf den Tisch legen wollen, profitieren und günstig an kürzlich noch undenkbare Hardware kommen

Und weist du, was die Ironie des Schicksals ist?

Ich fummel hier mit einem Notebook mit Windows 10 herum.

Ich habe mittlerweile mit Windows 10 dermaßen den Papp auf, das ich mir wieder einen neuen iMac kaufen werde.

Die Hardware ist zwar schlapper als in einem High-End Gamer-PC, aber das Mac-OS wiegt diese Nachteile dreimal auf.

Aber genug off topic

Grüße
 
@Paddy92
ja natürlich wird ein 12 Kerner und 16 Kerner mit dem 10 Kerner von Intel verglichen, da:
1. der 12 Kerner ~200$ weniger Kostet
2. der 16 Kerner genausoviel wie der 10 Kerner von Intel kostet
3. Intel nix mit mehr als 10 Kernen für X299 bereit hat.
4. Intel doch so einen tollen Takt/OC Vorteil ;)

1. Who cares?
2. Who cares?
3. Der Bench an sich ist ja nicht verkehrt, nur die Erkenntnis von dude, die er aus diesem Bench zieht, ist total Banane.
Er behauptet, dass SKL-X nicht überlegen sei, in einem Test, der dafür bekannt ist sehr stark von Kernen und L2-Cache zu profitieren, und macht dies daran fest, dass ein 12 und ein 16 Kerner dem 10 Kerner von Intel überlegen sind. Ja ach was, hätte wohl niemand gedacht...
Die Sache ist nur, rechnet man die Werte auf 1 Kern runter, dann ist SKL-X doch nicht mehr so unterlegen (7900X 218,6 vs 1920X ~202,58 respektive 1950X ~190,38) und daraus lässt sich schließen, dass die 12 und 16 Kerner SKL-X dem Threadripper Pendanten überlegen sind.
4. Ja haben sie auch.

Versteh nicht was daran so verwerflich ist, Produkte von denen es Testwerte gibt (da ist halt nur Cinebench getestet worden...)

Nischt, nur man sollte sie nicht zu seinem Vorteil verdrehen.

Zum Thema Stromverbrauch:
[...] Stromverbrauch/Temperaturen als großer Negativpunkt aufgeführt wird.[...]
Inwieweit das durch Bios/Microcodeupdates verbessert werden könnte steht noch aus, aber Stand jetzt ist das nunmal so.
Bei Ryzen wurde die "Spieleschwäche" auch sofort als bahre Münze genommen ;)

Die meisten Mainboard-Hersteller halten sich nicht an die Vorschriften von Intel und lassen die CPUs bei AVX-Workload nicht runtertakten. Klar kann das nachgebessert werden. Oder man kauft sich einfach ordentliche Boards
Aber das Debakel mit dem nicht mehr verlöten der CPUs nicht :fresse:

Mal wieder ein völlig überflüssiger Beitrag von dir.

Danke, aber das Kompliment kann ich nur zurückgeben ;)

Der worst-case bei der Leistungsaufnahme trifft natürlich auch auf die anderen Prozessoren zu. Darum ging es gar nicht. Es ging um die Relation zueinander. Und da ist SKL-X einfach recht stromhungrig, gerade im Vergleich zur Konkurrenz. Punkt. Für "nur" 10 Kerne keine wirkliche Glanzleistung.

Nein, darum ging es nicht :rolleyes:
SKL-X ist hier stromhungriger, da die AVX-Leistung ordentlich aufgebohrt wurde und ist dafür auch deutlich schneller als die Konkurrenz, aber das wird natürlich verschwiegen :rolleyes:
Also ist SKL-X hier in "Relation" nicht schlechter. Die "Relation" wurde hier nur einfach falsch gesetzt. ;)
Diese "Relation" kannst du also nur bewerten, wenn du die Leistung und Leistungsaufnahme von dem gleichen Bench ins Verhältnis setzt. PUNKT !!!einseins!elf
Andere sehen das auch so wie ich, also nicht unser Problem, wenn du es nicht verstehst ;)

Und keine Sorge, Cinebench ist und bleibt alles andere als eine Paradedisziplin für AMD

Oh ja, seit Intel den L2-Cache aufgebohrt hat, fällt sogar diese Paradedisziplin für Amd weg :(
 
Die Hardware ist zwar schlapper als in einem High-End Gamer-PC, aber das Mac-OS wiegt diese Nachteile dreimal auf.
Grüße

Sorry aber das ist allein eure Meinung. Nicht das königliche Ihr, bevor hier Verwirrung losbricht. Es ist die Meinung aller iOS Jünger auf ihren unanfechtbaren, smoothen und vor jedem Hacker geschützten Marmorsockeln ;) (das ist jetzt nicht so pauschal auf dich gemünzt wie es klingt, ich hoffe ja immer das Beste und gehe davon aus, dass gerade in diesem Forum alle ein wenig besser informiert sind als "da draussen in der Welt")
Wenn man sich nicht die Zeit nehmen möchte Windows so zu gestalten, wie es sein soll, dann ist das ok (mich nervt es auch immer mehr. Win10 kommt apple schon sehr nahe..).
Du bekommst - und an der Stelle ist das plötzlich gar nicht mehr so OT - auch vermeintlich kräftige CPUs in die Knie gezwungen, wenn du die laufenden Prozesse nicht in den Griff bekommst.
Jeder hat diesen Menschen im Freundes/Bekanntenkreis. Du gibst ihm den mächtigsten Rechner in die Hand und nach nicht einmal zwei Monaten ist das Gerät so langsam wie ein Vostro 1500 mit defektem Ram.
Wär ich extrem wohlhabend und/oder würde easy von donations leben..ich würde einen beliebigen Threadripper (egal, auch Intel) kaufen, ein System herum gestalten und dieser Person (in meinem Kreise) hinstellen, kostenlos. Er müsste nur "Tagebuch" führen. Mit obs aufzeichnen oder weiß der Geier. Der bringt auch einen 16 Kerner zum Stottern - I guarantee it! Einen 6700K hat er langsamer bekommen als das besagte 1500er Vostro (allerdings mit funktionierenden 2GB Ram, ja sowas habe ich rumliegen^^).

Und zum Thema Rosinenpickerei fiel mir eben noch ein:
Wenn ich richtig dicke Leistung haben will, dann ist doch eine entsprechender Verbrauch legitim. Lass cpu und gpu halt saufen, wer unbedingt 4K will muss da halt durch. Daher sehe ich das nicht als Kriterium contra Intel. Achso, gaming! Rumrechnen kann amd ja oftmals besser. Darum wird eher der +x% fps gamer vorzugsweise zu dem höheren Takt bei Intel greifen. Und dem ist der Mehrverbrauch entsprechend egal.
Aber da sind Vergleiche im Moment völlig Banane weil alles Theorie. Abwarten wie hoch man den 1900x takten kann und ob es für 120/144 Hz reicht. Sonst gibt es ja gar keine Grundlage für Streit ;)
 
Man merkt, du hast dich nicht mit AMDs neue und hoch effiziente Modulbauweise beschäftigt, Stichwort Infinity Fabs.
Es gibt von AMD selbst faktisch keinerlei Fakten. Es gibt massenweise Marketing Geblubber aber eben keinerlei Dokus in denen man das Wissenswerte nachlesen könnte. Die Doku für die neuen Skylake SPs ist draußen und man kann sich auf mehreren tausend Seiten die notwendigen Infos heraussuchen, wo bleiben die vergleichbaren Infos von AMD?
 
für die plattform wäre iwie auch ein threadripper quad interessant wegen speicherdurchsatz und pci-e lanes. nicht zum zocken, aber für anwendungen, die speicherbandbreite und/oder viele lanes (zb. für gpgpu-computing) benötigen. und dann die cpu für nen schmalen taler, könnte mir vorstellen, dass es da zielgruppen für geben würde :)
 
Zuletzt bearbeitet:
Nur zur Info, Prime95 nutzt noch nicht mal AVX512. Aber man merkt die momentane Dünnhäutigkeit der Intel Fraktion wieder mal sehr gut, die nicht im geringsten verstanden hat, worum es in meinem Beitrag ging. :rolleyes:
Falsch, die Rechenwerke werden in der Beta zumindest angeworfen – man weiß allerdings auch nicht, welche Version THW verwendet... Prime95 version 29.1 - mersenneforum.org


Und Threadripper ist im Moment deutlich schneller als der 7900X.
Im Moment hat niemand einen Threadripper!? Du auf jeden Fall ziemlich sicher auch nicht...
Lediglich EPYC wird schon eine Zeit lang getestet. Und im SPEC sieht das halt dann so aus: Multi-core SPEC CPU2006 - Sizing Up Servers: Intels EPYC 7000 - The Server CPU Battle of the Decade? – wobei der EPYC +- 9% mehr "Takt" (als Kernzahl*Takt-Größe) bietet und auch in diesem Rahmen performt (nachdem die Benchmarkergebnisse ja doch sehr singulär sind).
 
Im Moment hat niemand einen Threadripper!?

Nja zumindest der Cinebench-Score wurde ja schon von AMD herausgegeben. Wo es leistungsmäßig hingeht ist schon relativ klar.

Das mit dem "inifnity fabric" sehe ich auch kritisch. Im Moment klingt es noch zu sehr nach inhaltsleerem Marketing.
AMD muss erst noch beweisen, dass da wirklich was geht leistungsmäßig.

faktisch keinerlei Fakten

Faktische Fakten, fack me:d
 
Zuletzt bearbeitet:
Cinebench ist die Paradediziplin von RYZEN, aber Performance kann man nicht mit dem Ergebnis eines Benchmarks alleine ausdrücken, CPU Reviews wären sonst ja auch viel einfacher und kürzer als sie tatsächlich sind. Bei der Singlethreadperformance wird ThreadRipper nicht vorne liegen, denn die IPC ist nicht besser als bei aktuellen Intel CPUs und die maximalen Taktraten sind schlechter, die 4,5GHz die einige Intel CPU @Stock auf einem oder zwei Kernen erreichen, sind bei RYZEN nicht zu erzielen und werden sehr wahrscheinlich auch bei ThreadRipper nicht machbar sein und @Stock schon gar nicht erreicht.

ThreadRipper wird noch extremer wie RYZEN immer dann gut abschneiden, wenn die einzelnen Kerne recht lange unabhängig voneinander auf je einem eigenen Teil der Daten rechnen müssen, aber wohl nicht so toll abschneiden, wenn viel Interaktion zwischen den Kernen nötig ist. Herzen haben bei der Entscheidung weniger zu sagen als das Geld und daher muss man eben sehen auf welche Aspekte man seine CPU optimieren möchte, die generell in jede Hinsicht bessere CPU wird man trotz der beiden auch weiterhin nicht finden.
 
Wie kann man den Fakt, dass der 7900X einfach schneller ist einfach wegignorieren
Du hast behauptest, er wäre schneller als Threadripper. Und das ist glatt gelogen. Punkt. Warum kannst du das nicht akzeptieren?

und btw. es gibt Threadripper noch nicht
Macht deine Behauptung ja trotzdem nicht richtiger. Threadripper soll ab Ende Juli erhältlich sein. Das ist nicht mal 2 Wochen entfernt. Im Gegensatz zum 18-Kern SKL-X. Auf den darfst du wahrscheinlich noch mindestens bis Oktober warten.

Und Dude, nein, es gibt keine Szenarien in denen der Ryzen schneller als der 7900X ist.
Siehe mein Beitrag weiter vorne. ZB knapp 40% mehr Performance in Cinebench. Das muss auch der 18-Kern SKL-X erstmal überbieten, ohne die TDP nicht völlig zu sprengen. Und wie gesagt, das ist noch nicht mal ein Best-Case Szenario für Ryzen. Szenarien lassen sich also genügend finden.


Nein, darum ging es nicht :rolleyes:
SKL-X ist hier stromhungriger, da die AVX-Leistung ordentlich aufgebohrt wurde und ist dafür auch deutlich schneller als die Konkurrenz, aber das wird natürlich verschwiegen
Doch, genau darum ging es, um die Relationen. Die sind halt nur im Vergleich zur Konkurrenz recht krass. Gegenüber älteren Intel Generationen aber genauso vorhanden, und zwar nicht nur zum Positiven. Und bitte hör mit deiner Märchenerzählerei auf. AVX wurde per se keineswegs "ordentlich aufgebohrt". Bezüglich 128-bit und 256-bit AVX bietet SKL-X die gleichen Ressourcen wie die Vorgänger. Was, mit Ausnahme von 256-bit FMA, gleich viel oder weniger ist als was Ryzen zu bieten hat. Neu ist in Skylake-X AVX512. Aber wie gesagt, das nutzt Prime95 noch nicht. Und dass solche Diagramme zur Leistungsaufnahme nicht die Energieeffizienz widerspiegeln, brauchst du mir nicht erklären. Das musste ich einigen Leuten lange genug erklären. Einige haben das bis heute nicht verstanden. Komischerweise hat das die AMD Basher nie interessiert, wenn's um Bulldozer ging. :rolleyes: Wie auch immer, selbst bezüglich Energieeffizienz ist Skylake-X teilweise sogar ein Rückschritt und kommt nicht an Ryzen ran. Beispiel Cinebench, ~55% höhere Last-Idle Differenz im Vergleich zum R7 1800X, aber nur ~35% mehr Performance. Dass das von einigen immer noch geleugnet wird, ist einfach nur lächerlich.

Oh ja, seit Intel den L2-Cache aufgebohrt hat, fällt sogar diese Paradedisziplin für Amd weg
Das hat weniger was mit dem L2 zu tun, sondern mit dem ICC. Und den verwendet Maxon schon länger.


Falsch, die Rechenwerke werden in der Beta zumindest angeworfen
Eine Beta wird von den gängigen Testseiten aber nicht verwendet. Eine offizielle Version unterstützt noch kein AVX512. Also nein, an meiner Aussage war nix falsch.


Cinebench ist die Paradediziplin von RYZEN
Nein. Cinebench hat nach wie vor softwareseitige Vorteile für Intel. Selbst POV-Ray läuft auf Ryzen besser im Verhältnis.
 
Cinebench ist die Paradediziplin von RYZEN, aber Performance kann man nicht mit dem Ergebnis eines Benchmarks alleine ausdrücken, CPU Reviews wären sonst ja auch viel einfacher und kürzer als sie tatsächlich sind. Bei der Singlethreadperformance wird ThreadRipper nicht vorne liegen, denn die IPC ist nicht besser als bei aktuellen Intel CPUs und die maximalen Taktraten sind schlechter, die 4,5GHz die einige Intel CPU @Stock auf einem oder zwei Kernen erreichen, sind bei RYZEN nicht zu erzielen und werden sehr wahrscheinlich auch bei ThreadRipper nicht machbar sein und @Stock schon gar nicht erreicht.

ThreadRipper wird noch extremer wie RYZEN immer dann gut abschneiden, wenn die einzelnen Kerne recht lange unabhängig voneinander auf je einem eigenen Teil der Daten rechnen müssen, aber wohl nicht so toll abschneiden, wenn viel Interaktion zwischen den Kernen nötig ist. Herzen haben bei der Entscheidung weniger zu sagen als das Geld und daher muss man eben sehen auf welche Aspekte man seine CPU optimieren möchte, die generell in jede Hinsicht bessere CPU wird man trotz der beiden auch weiterhin nicht finden.

Da die Bandbreite sich nicht sonderlich unterscheidet wird das wohl eher ähnlich aussehen, Nachteile sind da denke ich nicht zu erwarten. Er wird wohl bei wenig Threading im Bereich des 1700X agieren. Die 4,1GHz des 1800X wird der natürlich nicht erreichen. Aber bis auf wirklich super wenige Ausnahmen wird Threadripper durchgängig besser sein als ein einzelner Zepplin, zumal er dank B2 Silizium ja auch offiziell eine bessere RAM-Anbindung haben wird.

@dude:
Raytracing sieht auf Zepping so aus:
Floating Point performance - Sizing Up Servers: Intels EPYC 7000 - The Server CPU Battle of the Decade?
Da sieht Intel überhaupt kein Land, die FPU ist um Welten besser als die von Intel, wenn nicht AVX2 zum Einsatz kommt.
Leider ist die Review stark Intel-gefärbt, in dem man möglichst ungünstige Benchmarkkonditionen für Epyc gewählt hat, beispielsweise eine DB, die in den L3-Cache der Intels passt, was natürlich für Epycs 4 L3-Caches sehr nachteilhaft ist, aber bar jeder Praxis. Epyc schlägt sich extrem gut ggü. SkylakeX bei extrem besserer Energieeffizienz. Ähnliches ist für Threadripper zu erwarten. Für Spiele sind allerdings beide Plattformen nur in sofern geeignet, dass sie viele PCIe-Lanes zur Verfügung stellen. Ansonsten fährt man mit Sockel1151v2 und AM4 einfach besser. Kabylake ist sowieso uninteressant, wer sich jetzt für den Preisen noch nen 4-Kerner holt (erst recht ohne SMT) hat in meinen Augen eh nicht mehr alle Tassen im Schrank.
 
Zuletzt bearbeitet:
[HOT] schrieb:
Floating Point performance - Sizing Up Servers: Intels EPYC 7000 - The Server CPU Battle of the Decade?
Da sieht Intel überhaupt kein Land, die FPU ist um Welten besser als die von Intel, wenn nicht AVX2 zum Einsatz kommt.
Programme wie OpenFOAM, c-ray, POV-Ray, NAMD werden von den Nutzern üblicherweise selbst übersetzt, die Compiler optimieren dabei maximal auf die genutzte Plattform, und dabei werden auch alle möglichen hochoptimierten Libraries eingesetzt: z.B. GotoBLAS, MKL, …

Das was Anandtech da macht ist zwar nicht falsch, aber vollkommen unrealistisch, weil das im HPC-Markt niemand so macht. Ich habe volles Verständnis dafür, dass AMD nicht will, dass Intels Compiler für diesen Vergleich genommen wird. Aber dann soll AMD sagen welchen Compiler sie empfehlen: AMDs eigener Compiler, PGI, Clang, …
 
Bisher scheint das B2 Stepping eher ein Mythos zu sein.

Es gibt keine Bestätigung oder Dementi
Google
Und falls es ein B2 Stepping gäbe, würde das sowieso nur für EPYC kommen da Server einfach deutlich stabiler sein müssen als Desktop PCs.
 
Zuletzt bearbeitet:
Und bitte hör mit deiner Märchenerzählerei auf.

Du hast behauptest, er wäre schneller als Threadripper. Und das ist glatt gelogen.
Ist das einzige Märchen was ich hier lese :d

AVX wurde per se keineswegs "ordentlich aufgebohrt". Bezüglich 128-bit und 256-bit AVX bietet SKL-X die gleichen Ressourcen wie die Vorgänger. Was, mit Ausnahme von 256-bit FMA, gleich viel oder weniger ist als was Ryzen zu bieten hat.


aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9XL04vNjg1NDYzL29yaWdpbmFsLzU0LmpwZw==


tomshardware.com schrieb:

Jetzt wirst du bestimmt behaupten, dass diese Verbesserungen nicht durch AVX auftreten, sondern aufgrund von anderen Faktoren.
Aber es wurden scheinbar durchaus Verbesserungen an AVX vorgenommen abseits von AVX-512...
Diese Version von Y-Cruncher hat noch keinen AVX-512 Support.


aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9XL00vNjg1NDYyL29yaWdpbmFsLzU2LmpwZw==

aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9XL1AvNjg1NDY1L29yaWdpbmFsLzU4LmpwZw==


Ich meinte aber AVX-512 mit dem Aufbohren, denn hier wurde die Leistung verdoppelt!


Neu ist in Skylake-X AVX512. Aber wie gesagt, das nutzt Prime95 noch nicht.

Prime95 V29 nutzt AVX 512...
Hmm, in dem Review von THG steht nichts davon, welche Version von Prime95 die nutzen, also wie kannst du dir da so sicher sein?!

Wie auch immer, selbst bezüglich Energieeffizienz ist Skylake-X teilweise sogar ein Rückschritt und kommt nicht an Ryzen ran. Beispiel Cinebench, ~55% höhere Last-Idle Differenz im Vergleich zum R7 1800X, aber nur ~35% mehr Performance.

Wow ein SKL-X 10 Kerner auf der HEDT-Plattform ist ineffizienter als ein Ryzen 8 Kerner auf einer Mainstream-Plattform , wer hätte das nur gedacht :rolleyes:
Und das ein höher getakteter 10 Kerner weniger effizient ist als sein niedriger getakteter 10 Kern Vorgänger, welchen in ähnlichen Fertigungsverfahren gefertigt wurden und beide in 14nm, wer hätte das nur gedacht :rolleyes:
 
Zuletzt bearbeitet:
Bisher scheint das B2 Stepping eher ein Mythos zu sein.

Es gibt keine Bestätigung oder Dementierung
Google
Und falls es ein B2 Stepping gäbe, würde das sowieso nur für EPYC kommen da Server einfach deutlich stabiler sein müssen als Desktop PCs.
So sehe ich das auch ;)

Die Benchmarks, welche Paddy92 verlinkt hat sehen schon mal gut aus.
Wenn ThreadRipper schneller wird, lag es am AGESA Code und nicht am Stepping. ;)
 
Bisher scheint das B2 Stepping eher ein Mythos zu sein.
Möglich, aber vergiss nicht das von Verbesserungen im Uncore die Rede ist und EPYC (sowie Threadripper) hier vieles auf dem Die nutzen was bei RYZEN brach liegt. RYZEN hat nur 16 PCIe Lanes und es müssen keine Dies miteinander verbunden werden. Auch nutzt RYZEN nur UDIMM, während eine Server-CPU wie EPYC unbedingt auch RDIMM und LRDIMM unterstützen muss! Denk an die erste Naples Demo, wo damals immer nur von 16GB DIMMs die Rede war:



Das ist für solche Server schon sehr ungewöhnlich, 16GB ist halt das Limit für UDIMM Riegel, aber für derartige Server werden nun einmal kaum UDIMMs verwendet und schon gar nicht wenn man einen großen RAM Ausbau braucht, denn da kommt man mit RDIMM oder LRDIMM mit bis zu 128GB pro Riegel (64GB gibt es auch überall im Handel) eben viel weiter. Daher würde es mich nicht wundern, wenn das erste Stepping eben nicht mit anderen RAMs als UDIMM umgehen konnte und daher ein neue Stepping für EPYC nötig wurde.
Und falls es ein B2 Stepping gäbe, würde das sowieso nur für EPYC kommen da Server einfach deutlich stabiler sein müssen als Desktop PCs.
Wenn es das neue Stepping gibt, dürfte es das alte in der Fertigung ablösen und irgendwann auch in den RYZEN erscheinen. Wenn es aber keinerlei für RYZEN relevante Vorteile hat, könnte es auch sein das AMD es dort gar nicht als neues Stepping kenntlich macht.

Hier spielen bestimmt andere Faktoren eine Rolle. Liegt nicht an Verbesserungen bei AVX.
Die doppelte Leistung ist also schon vorhanden, nur muss die SW darauf optimiert werden und so einfach und vor allem schnell ist das bei einer neuen Plattform mit einem ganz neuen Feature nicht zu machen.
Auch muss man aufpassen auf welcher HW die jeweiligen Tests gemacht werden, denn:

Außerdem sollte man eben nicht vergessen, dass die Mainboards meisten ab Werk die Skylake-X übertakten, gerade wenn AVX intensiv genutzt wird, sogar ganz brutal übertakten und damit schnell Throtteling auftritt:
 
@Holt

Ich glaube du hast mich missverstanden. Liegt wahrscheinlich daran, dass du die Aussagen von Dude nicht siehst, da du ihn auf Igno hast.

Ich werde meinen Text anpassen.
 
@jdl
Bei einer ISO Struktur, fängt man besten mit den "Manuals & Guides" an: Developer Guides, Manuals ISA Documents - AMD
Ok, der war fies! :d
Ich hatte unter Tech Docs gesucht.

Hast Du Dir das auch mal angeschaut? Das Dokument beschreibt im wesentlichen nur die Programmierung dieser CPUs (nur am Rande wird die Hardware dokumentiert wo es für die Programmierung notwendig ist) und ist zudem auf Ryzen limitiert und enthält keinerlei Informationen zu Threadripper oder Epyc. Schon einmal im Vergleich die Intel Hardware Doku angeschaut? Diese enthält auch massenweise Verweise auf die Hardwareregister, aber auch Informationen über die physikalischen Belange der CPU. Sprich aus diesem Dokument kann man keinerlei Informationen zum Design von Threadripper und Epyc entnehmen. Das wird erst dann der Fall sein, wenn es eine überarbeitete Version geben wird und auch dann steht so einiges nicht in diesem Dokument. Die neusten CPU Dokus sind mehrere Jahre alt.
 
Bisher scheint das B2 Stepping eher ein Mythos zu sein.

Es gibt keine Bestätigung oder Dementi
Google
Und falls es ein B2 Stepping gäbe, würde das sowieso nur für EPYC kommen da Server einfach deutlich stabiler sein müssen als Desktop PCs.

AMD Epyc bereits mit B2-Stepping des Zeppelin-Dies? (Update) | Planet 3DNow!

Epyc ist erwiesenermaßen B2. Wird wohl jetzt erst mal bei Threadripper genutzt und dann nach und nach B1 im Desktop ersetzen. Man produziert kein B1 mehr wenn man B2 hat. Die Umstellung wird aber einige Monate dauern.
 
Zuletzt bearbeitet:
Ist das einzige Märchen was ich hier lese
Nee, stimmt nach wie vor. ;)

Und ja, der Y-Cruncher untermauert meine Aussage zu AVX. Knapp 12% zwischen SKL-X und BDW-E, was schlichtweg auf die Turbotaktunterschiede zurückzuführen sein dürfte. Aber sowas brauchst du nicht posten. Das ist Rosinenpickerei. Die AVX Fähigkeiten zwischen SKL-X und seiner Vorgänger schaust du dir am besten anhand des Architektur Backends an. Sofern du in der Lage dazu bist.

Ich meinte aber AVX-512 mit dem Aufbohren
Dann solltest du vielleicht auch AVX512 schreiben, und nicht pauschal AVX. :rolleyes:

Prime95 V29 nutzt AVX 512...
Hmm, in dem Review von THG steht nichts davon, welche Version von Prime95 die nutzen, also wie kannst du dir da so sicher sein?!
Wie oft eigentlich noch? Prime95 29.x ist bisher Beta. Darauf wird im Forum auch extra hingewiesen ("consider it a beta version"). Kein mir bekannter Testparcours nutzt eine Beta Version von Prime95. Und es würde mich wundern, wenn das bei Anandtech anders wäre. Offiziell ist aktuell 28.10. Diese unterstützt kein AVX512.

Wow ein SKL-X 10 Kerner auf der HEDT-Plattform ist ineffizienter als ein Ryzen 8 Kerner auf einer Mainstream-Plattform , wer hätte das nur gedacht
Was hat denn die Plattform damit zu tun, wenn ich Last-Idle-Differenzen betrachte? Oder glaubst du, Netzteil und Spawas auf der SKL-X Plattform sind so viel ineffizienter? Na wenn du meinst. Man kann es mit seiner verzweifelten Suche nach Ausreden auch übertreiben. Aber wir können ja bald mit Threadripper vergleichen, dann haben wir HEDT vs HEDT Plattform. Mal schauen ob SKL-X bezüglich Energieeffizienz dann besser ausschaut. Darauf wetten würde ich übrigens nicht.

Und das ein höher getakteter 10 Kerner weniger effizient ist als sein niedriger getakteter 10 Kern Vorgänger, welchen in ähnlichen Fertigungsverfahren gefertigt wurden und beide in 14nm, wer hätte das nur gedacht
Was heisst ähnlichen Fertigungsverfahren? BDW-E wurde in der ersten 14nm Generation von Intel gefertigt, SKL-X in der zweiten. Wenn man damit die Effizienz nicht durchgängig zumindest halten kann, selbst bei höherem Takt, dann hat man sich entweder verplant oder mit den Verbesserungen übertrieben. Da gibt's nichts zu beschönigen.
 
Nee, stimmt nach wie vor. ;)

Sehe ich nichts von :)

Und ja, der Y-Cruncher untermauert meine Aussage zu AVX. Knapp 12% zwischen SKL-X und BDW-E, was schlichtweg auf die Turbotaktunterschiede zurückzuführen sein dürfte.

Und wieso ist dann der schneller getaktete 7700k langsamer als der 6700k?
Der Bench scheint evtl. nicht so gut auf Takt zu reagieren.

Dann solltest du vielleicht auch AVX512 schreiben, und nicht pauschal AVX.

Nur weil du das willst? Nope :wink:

Wie oft eigentlich noch? Prime95 29.x ist bisher Beta. Darauf wird im Forum auch extra hingewiesen ("consider it a beta version"). Kein mir bekannter Testparcours nutzt eine Beta Version von Prime95. Und es würde mich wundern, wenn das bei Anandtech anders wäre. Offiziell ist aktuell 28.10. Diese unterstützt kein AVX512.

Ich weiß, dass Prime95 29 Beta ist. Und das ist doch kein Grund es nicht zu nutzen. Vielleicht wurde es ja genau wegen AVX512 genommen.

Interessant sind die drastischen Unterschiede zwischen Tomshardware und Anandtech.

Andandtech:
87080.png


Tomshardware:
aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9JL1EvNjg0OTYyL29yaWdpbmFsLzA0LVBvd2VyLUNvbnN1bXB0aW9uLVRvcnR1cmUucG5n


Während die anderen CPUs alle nur so 30-40 Watt Unterschied haben zwischen Andandtech und Tomshardware, sind es bei dem 7900x mal eben so das doppelte an Unterschied, also 80 Watt.
Ich denke nicht, dass dieser große Unterschied beim 7900x zwischen den beiden Reviews nur durch die unterschiedlichen Test Einstellungen zustande kommt.
Entweder es wurde vielleicht doch Prime95 V29 benutzt oder es hat andere Ursachen.

Na wenn du meinst. Man kann es mit seiner verzweifelten Suche nach Ausreden auch übertreiben.

Wat? :fresse:
1. Ja, auch die HEDT-Mainboards haben eine höhere Last-Idle-Differenz als Mainstreamboards.
2. Was labberst du von Ausreden?

SKL-X ist effizienter aber nicht so übertrieben wie du es darstellen willst :rolleyes:


Da gibt's nichts zu beschönigen.


Ich beschönige doch nichts?!
Ich hätte einfach so antworten sollen :rolleyes:

9522747653_311dc01a3c_m.jpg
 
Paddy92 gib es auf, mr.dude lebt in einer Welt fiktiver Wahrheiten, halt im postfaktischen Zeitalter in dem nicht mehr das Erreichte zählt, sondern das Erzählte reicht.
 
@Paddy92
Andand hat die Package (nur CPU ohne Spannungswandler und Netzteil) gemessen.
Tom´s HW hat an der Steckdose gemessen.

Das bedeutet für die 149,1W die ein I9-7900X unter Last alleine benötigt, sind weitere 80W nur Verlustleistung von den Spannungswandlern und dem Netzteil. :)
 
Nur weil du das willst? Nope :wink:

Damit schiesst du dir doch selber ins Bein. Wofür machst du dir die Mühe mit dem sezieren, streiten und ewig langen Getexte?
Es wird auf jedem Punkt und Komma rumgeritten und du lässt absichtlich Details weg um einen Diskussionspartner zu ärgern? Entwertet dich.
Oder du hast es verpeilt und machst auf kindisch. Entwertet dich ebenfalls.
Schade, bis eben fand ich euer Tächtelmächtel spannend. Es ist aber tatsächlich nur das wonach es aussieht. Habt ihr einen weiteren Leser verloren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh