AMD Threadripper 1900X soll acht Kerne und X399-Einstieg bieten

Doh, mein Fehler, ist ja EPYC Dual Socket :>
Da hab ich was auf die schnelle durcheinander gebracht.

ps. woher willst du eigentlich wissen was ich versteh und was nicht, hoffentlich fällst du nicht irgendwann von deinem hohen Ross, der Sturz könnte sehr weh tun.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@RAZ0RLIGHT
Ich muss da nix wissen, Eindrücke entstehen ganz ohne "Wissen" ;)
Vor allem, wenn es immer die gleichen Personen sind, die mit Links umsich schmeißen obwohl man in keiner! der bisherigen Aussagen dieser Person auch nur im Ansatz was zum diskutierten Thema gelesen hat.

Mein Eindruck ist, du hast selbst NIE! ein 2-8x NUMA Node System in den Händen gehalten, dich damit beschäftigt und kannst damit nicht auf eigene Erfahrungen zurück greifen.
Für dich mag das wie hohes Ross erscheinen, für mich ist es einfach nur Stammtischgequatsche ;) Es gab hier mal Zeiten, da konnte man mit Leuten über Themen diskutieren bzw. sich über Themen austauschen ohne dass gleich irgendwer sich schützend vor die geliebten Hersteller geworfen hat oder die Diskusionsteilnehmer irgendwie verbal angegangen ist. Vor allem wo doch alle Beteiltigten am Markt den gleichen Restriktionen unterliegen erscheint mir das völlig sinnfrei!?
Aber macht ihr mal. :wink:






Wir werden sehen, wie der hier im Thread genannte 2x2x2CCX Threadripper ggü. einem Ryzen 2x4CCX bzw. Intel 1x8C performt und OB! der Markt heute für diese Art der Architektur bereit ist. NUMA im Mainstream ist bis dato kein Thema. Und selbst 0815 SMP, was man seit grob 12 Jahren fährt, ist von brauchbaren Skalierungen vielerorts weit weit entfernt. Einfach mal selbst drüber nachdenken anstatt nur Links zu schuben, ob das aufgeht bzw. wie warscheinlich das aufgeht (abseits von Rosinenbenches wie Cinebench, die 1A NUMA Node Skalierung an den Tag legen - Workloadbedingt). Nur muss man sich dazu eben einfach mal selbst ein Bild machen, was NUMA bedeutet und was es für Vorraussetzungen mitbringt. Denn sonst erkennt man auch überhaupt nicht, ob es sich um Rosinen handelt oder nicht ;) Wie gesagt, ich kann es nur empfehlen...

Intel hat AMD zumindest eine Steilvorlage gegeben, hier auch im absoluten HighEnd Desktop zu punkten. Die 6-10C Skylake-X sind durch die ein oder andere äußerst komische Herstellerentscheidung nicht das, was man ggf. erwartet hat... Möglich ist dabei alles, aber die Software sollte man definitiv nicht unterschätzen! Siehe oben...
 
Kann mir mal iwer erklären wer APUs kaufen soll?

Welche Existenzberechtigung haben diese?

Bisher war es immer so:
"Dicke" APU = >100€ = lahme CPU + lahme GPU + teurer Speicher nötig + nicht mehr aufrüstfähig, sobald CPU ODER GPU nicht mehr reichen, muss man die APU + das Board wegwerfen, weil die normalen größeren FX CPUs nicht auf dem APU Board laufen.

Dazu war die Gamingleistung, gemessen am Preis, relativ schlecht.

Und wer nun mit 0815 office kisten ankommt => dafür gibts Pentium CPUs inkl. IGP, da hat man selbst für 60€ ne flotte HT CPU.
Und ein Pentium ist keine APU, also eine CPU mit iGPU, oder wie?

Wieso denken hier einige immer nur an Desktops und AAA Gaming? Ohne APUs könntest du fast den gesamten mobilen PC Markt einmotten. Und der macht mehr als 50% des gesamten PC Marktes aus. APUs sind essentiell, für den Markt und gerade für OEMs. Aber auch für Endkunden, da sich so kompakte, preiswerte und sparsame Systeme zusammenbauen lassen. Was mit einer CPU + dGPU nicht so gut möglich wäre. Ausserdem weiss ich nicht, was du mit deiner "bisher war es immer so" Aussage ausdrücken willst. Ist doch völlig belanglos, wie es bisher war. CPUs und APUs lassen sich mit Ryzen auf einem Sockel betreiben. Und der Sockel wird auch noch mindestens 1-2 weitere Generationen bleiben. Aufrüstoptionen sind also vorhanden. Ausserdem richten sich APUs an Casual Gamer. Davon gibt es mehr als genügend. Und dafür ist die Leistungsfähigkeit einer AMD APU alles andere als schlecht. Raven Ridge wird sicherlich auch runter bis $50 skalieren, um für einfach Office Kisten attraktiv zu sein.

Nen 60€ Pentium hat knapp die doppelte CPU Leistung wie son >100€ 7870K
Spielt zwar fürs Thema keine Rolle, da Zen eh eine ganz andere Hausnummer als ein 7870K ist. Aber solche pauschal total falschen Behauptungen kannst du dir trotzdem sparen. Nehmen wir mal Passmark als grobe (und sicherlich nicht uneingeschränkt aussagekräftige) Quelle, dann kommt zB ein G4560 im Schnitt auf 5100 CPU Mark, der 7880K auf 5496. Da sind wir WEEEIIIITT entfernt von "doppelter CPU Leistung". ;) Ausserdem braucht es keinen 7870K für ein Office System. Ein A8 7600 für 50 Euro reicht dicke und ist immer noch ein top Angebot. Wer auf die iGPU verzichten kann, der bekommt mit dem X4 845 für 40 Euro sogar eine noch bessere CPU, da der auf Excavator und nicht Steamroller basiert. Aber wie gesagt, Raven Ridge wird das gesamte Low End Portfolio von AMD eh nochmal gründlich durcheinander würfeln.

Was ich damit sagen wollte:
Die P/L war bisher sehr fragwürdig (neben der sowieso zweifelhaften Existenzberechtigung) und ich erwarte von einer HBM APU kein besseres Verhältnis.

Aus meiner Sicht gibt es immer ne sinnvollere Lösung als ne APU zu kaufen.
Wie bereits gezeigt, P/L war bei AMD schon immer auch im unteren Bereich sehr gut. Intel hatte da eher Nachholbedarf. Mittlerweile haben sie da aber durchaus auch attraktive Angebote. Und Raven Ridge kommt erst mal ohne HBM. Die Kosten werden also im Rahmen bleiben. Bisher hingen die iGPUs sehr am Tropf des Speichers. Das wird auch so bleiben ohne HBM. Allerdings kann Raven Ridge nun auf DDR4 für mehr Bandbreite zurückgreifen und dank verbesserter Vega Architektur wird die vorhandene Bandbreite besser ausgenutzt. Das wird P/L natürlich weiter verbessern. Irgendwann wird auch low cost HBM2 und HBM3 kommen. Dann werden APUs mit HBM auch aus Kostensicht attraktiv.
 
Zuletzt bearbeitet:
AMDs Threadripper ist aber ein Single-Sockel-System oder habe ich da was verpasst?
Es verhält sich wie ein Dualsocket System!!! Das ist der entscheidende Punkt, AMD hat um Kosten zu sparen zwei CPUs in ein Gehäuse gestopft, aber diese beiden CPUs verhalten sich auch weiterhin wie zwei CPUs.

- - - Updated - - -

Einfach mal selbst drüber nachdenken anstatt nur Links zu schuben, …
Vorallem liefert Intel 1A Entwicklertools mit, um auf NUMA Systemen zu programmieren. Die Intel HPC Libraries skalieren von Haus auf über die NUMA-Knoten, da hat man null Programmieraufwand und muss nur die Libraries gegen das Programm linken. Von AMD gibt es nichts vergleichbares, und die Intel Software läuft zwar auf AMD Prozessoren, aber dort nur auf einem NUMA-Knoten, so dass große Teile der CPU brach liegen. Aber das war früher immer noch schneller als AMDs Software zu nutzen. Ich bin gespannt, ob AMD es endlich mal schafft beim Thema Software besser zu werden. Denn in diesem Punkt gewinnen Intel und nVidia, und nicht so sehr weil die Hardware besser oder billiger wäre.
 
Ein bisschen mehr als 2 Dies "glued" ist es schon. Durch Infinity Fabric ist alles miteinander Verbunden, nicht nur die beiden Dies.
 
Es verhält sich wie ein Dualsocket System!!!
Nein!!!!

Vorallem liefert Intel 1A Entwicklertools mit, um auf NUMA Systemen zu programmieren. Die Intel HPC Libraries skalieren von Haus auf über die NUMA-Knoten, da hat man null Programmieraufwand und muss nur die Libraries gegen das Programm linken.
Sry, aber das ist Käse. Um mal die Hinweise zur MKL zu zitieren:
NUMA may not be on automatically. Also, depending on the application and usage model, NUMA may not give performance improvements. However, it may give performance improvements in the cases where the code is designed to exploit it.

NUMA must be activated by both the appropriate BIOS settings and OS settings. We mentioned earlier OS requirements. Since the BIOS settings vary from machine to machine, we can only suggest to look through the BIOS documentation. This means that there are some cases where NUMA must be set at boot time and not run time.
Man hat als Programmierer sehr wohl Aufwand. Und es kann damit sogar zu Performanceverlust kommen. Letztendlich müssen NUMA Systeme sowieso spezifisch angepasst werden. Da ist es nicht wirklich relevant, ob Intel "1A Entwicklertools" hat, "um auf NUMA Systemen zu programmieren". Die Werkzeuge für NUMA Programmierung stellt sowieso nicht Intel, sondern das OS und die entsprechenden APIs dafür. Intel kann letztendlich auch nur diese für die eigenen Bibliotheken nutzen.
 
Ein bisschen mehr als 2 Dies "glued" ist es schon. Durch Infinity Fabric ist alles miteinander Verbunden, nicht nur die beiden Dies.
Der Punkt ist folgender. Intel stünde der Weg offen vier Xeon Platinum 8158 12 Core Dies zu nehmen, diese in ein Gehäuse zu stopfen. Dann hätte man nach AMD Lesart 48 Cores, 24 RAM-Channels, 192 PCIe Lanes, 4x Omnipath und noch immer die Möglichkeit ein Dualsocketsystem zu betreiben.
 
Man merkt, du hast dich nicht mit AMDs neue und hoch effiziente Modulbauweise beschäftigt, Stichwort Infinity Fabs. Um mehrere CPUs unter einem Die zu bekommen, benötigt man eine schnelle und effektive Anbindung. Das hat Intel eben nicht und müssen den Umweg gehen mehrere Sockel mit gespiegelten Speicherbänken zu betreiben. Klar, können schlaue Programme dies optimieren, aber Threadripper ist in diesem Punkt ein Allrounder.

Hätte Intel mehr getan und hätte Intel auch so etwas entwickelt und hätte hätte Fahrradkette!!!
Fakt ist, dass man Skyfail-X nicht empfehlen kann.
Wenn schon mehr Cores dann nur mit Threadripper von AMD. :)
 
Zuletzt bearbeitet:
Hä? Skylake-X ist TR/Ryzen in allen Leistungsbelangen überlegen. Höherer Takt, höhere IPC, niedrigere Cache Latenz beim Single-Die, keine Notwendigkeit von "Dual-Die" bei 8C< und dadurch wiederum niedrigere Latenzen, mehr Befehlssatzerweiterungen.

Klar, der Leistungsvorsprung ist klein und rechtfertigt in keinster Weise den exorbitanten Intelaufpreis. Aber das geflame/gehate/getrolle gegen Skylake-X... Intel hat da nicht alles richtig gemacht, korrekt, bleibt trotzdem die leistungsstärkste CPU am Markt.
 
Nö, und zurück auf die IL.
 
Dazu ein MiniITX Board und ich wäre sooooo glücklich😁
 
Nö, und zurück auf die IL.

Nö ist eine super Antwort.
Er hat doch Recht. Die 299er Plattform ist derzeit nicht zu empfehlen und das wird garantiert nicht besser wenn da noch 12+ Kerne hinzu kommen. Dir schmoren ja jetzt schon die Spawas ordentlich. Wie soll das bei noch mehr Last durch mehr Cores z.B. beim Rendern dann werden? Viel Spaß die "Mehrleistung" zu nutzen. Mal sehen wie lange das möglich ist.
 
Und ich frage mich ja, woher ihr alle wisst, dass das bei Epyc/Threadripper soviel besser sein wird (bei vergleichbarem Takt/Anforderungsprofil (AVX512?!)) – während das Temperaturproblem durch Verlöten noch etwas zu entschärfen sein dürfte, ist das grundsätzliche 200W-Problem dort ja sehr ähnlich?
 
Wer entsprechend Leistung will, kauft sich eben keins der Montagboards, entsprechend wird es garantiert zum Launch des 18-Kerners noch besser ausgestattete Boards geben. Ändert aber nichts an der Tatsache, dass die Skylake-X im Consumer das nonPlusUltra sind. Ja, verbrauchen viel Strom, bringen aber eben auch entsprechend Leistung. Was spricht jetzt daran Skylake-X die Daseinsberechtigung ab?
 
Und ich frage mich ja, woher ihr alle wisst, dass das bei Epyc/Threadripper soviel besser sein wird (bei vergleichbarem Takt/Anforderungsprofil (AVX512?!)) – während das Temperaturproblem durch Verlöten noch etwas zu entschärfen sein dürfte, ist das grundsätzliche 200W-Problem dort ja sehr ähnlich?
Energy Consumption - Sizing Up Servers: Intels EPYC 7000 - The Server CPU Battle of the Decade?
Floating Point performance - Sizing Up Servers: Intels EPYC 7000 - The Server CPU Battle of the Decade?

The only conclusion that we can draw so far, is that the EPYC 7601 is likely to draw more power when running integer applications, while the rather wide FP units of the Intel CPUs are real power hogs even if they do not run heavy AVX applications. To be continued...
 
Ich könnte mir eher vorstellen dass innerhalb eines Dies gleiche Aufteilung sein muss, aber nicht zwischen den Dies
Das hätte ich auch erwartet, aber auch die EPYC gibt es mit 8/16/24 und 32 Kernen, die haben also offensichtlich auf allen CCX aller Dies die gleichen Anzahl aktivier Kerne.

Zu NUMA, weiß man da schon wie viele NUMA Nodes AMD für einen Threadripper / EPYC definiert oder bleibt dies dem Anwender über einen UEFI Einstellung dann selbst überlassen?

Was AVX-512 angeht, so ist dessen Potential derzeit gar nicht so richtig zu ermitteln, weil es praktisch kaum SW gibt die dies ausnutzt und selbst viele Compiler tun sich schwer darauf zu optimieren. Das ist noch zu neu und die implementierten Befehle weichen auch von denen bei Knights Landing ab, man kann also auch nicht einfach für Knights Landing optimierte SW nehmen.
 
Zu NUMA, weiß man da schon wie viele NUMA Nodes AMD für einen Threadripper / EPYC definiert oder bleibt dies dem Anwender über einen UEFI Einstellung dann selbst überlassen?
Laut diesem Artikel ist es wohl 1 NUMA Node pro Die, ob/was man da einstellen kann, keine Ahnung.
 
Der Punkt ist folgender. Intel stünde der Weg offen vier Xeon Platinum 8158 12 Core Dies zu nehmen, diese in ein Gehäuse zu stopfen. Dann hätte man nach AMD Lesart 48 Cores, 24 RAM-Channels, 192 PCIe Lanes, 4x Omnipath und noch immer die Möglichkeit ein Dualsocketsystem zu betreiben.
Hätte, hätte, Fahrradkette...

Fakt ist, AMD hat HEUTE IF marktreif und nutzt es in erhältlichen Produkten. Intel hat noch nichts vergleichbares marktreif. Punkt. Was sie deiner Meinung nach in ein Gehäuse stopfen könnten, ist irrelevant. Wenn es nicht gemacht wird, bleibt es leeres Gerede. Und AMD denkt schon einen Schritt weiter:

AMD vision in one patent: the Chiplet! - Bits and Chips

Chiplet could be a revolution because we can create a whole mainboard (Ethernet CTRL, USB CTRL, etc.) using a single CPU package!



Hä? Skylake-X ist TR/Ryzen in allen Leistungsbelangen überlegen.
Mit Leistungsbelangen meinst du Leistungsaufnahme? Sicher, da kann keiner SKL-X das Wasser reichen. :fresse:



Ansonsten:



Wo bitteschön soll da SKL-X überlegen sein?

Höherer Takt, höhere IPC, niedrigere Cache Latenz beim Single-Die, keine Notwendigkeit von "Dual-Die" bei 8C< und dadurch wiederum niedrigere Latenzen, mehr Befehlssatzerweiterungen.
Mit Rosinenpickerei beweist man gar nichts. Warum sprichst du zB von niedrigeren Latenzen? Die zu Die Latenzen sind gewiss nicht wichtiger als Kern zu Kern Latenzen. Ja, Ryzen hat eine höhere Latenz wenn's über IF geht. Dafür ist die Latenz innerhalb eines CCX wesentlich niedriger als bei SKL-X. Das ist weder ein Pro bei dem einen, noch ein Kontra bei dem anderen. Je nach Szenario kann sich beides positiv oder negativ auswirken. Oder warum unterschlägst du zB die bessere SMT Skalierung bei Ryzen? Ausserdem hätte ich gerne mal eine Quelle, die ausführlich belegt, dass SKL-X eine höhere IPC als Ryzen hat. Wenn man dem hier glauben darf, dann liegt die IPC von SKL-X ~5% unterhalb von BDW-E und ist damit auch nicht besser als die von Ryzen.


Und ich frage mich ja, woher ihr alle wisst, dass das bei Epyc/Threadripper soviel besser sein wird (bei vergleichbarem Takt/Anforderungsprofil (AVX512?!)) – während das Temperaturproblem durch Verlöten noch etwas zu entschärfen sein dürfte, ist das grundsätzliche 200W-Problem dort ja sehr ähnlich?
Ja, Threadripper wird sicherlich auch kein Kostverächter. Ich denke aber nicht, dass der ähnlich problematisch wie SKL-X wird. Durch die zwei Dies ist die Wärmeverteilung vermutlich besser (weniger problematische Hotspots). Ausserdem unterstützt der sowieso kein AVX512. Der enorme Energiehunger bei so breiten Vektoren bleibt damit aus. Ryzen unterstützt maximal 256-bit AVX und regelt intern alles über 128-bit Einheiten. Das sollte die FPU um einiges sparsamer machen. Und selbst wenn das Topmodell so viel Strom zieht wie der 7900X, dann sollte man bedenken, dass es auch 16 statt nur 10 Kerne sind und damit einiges an zusätzlicher Performance drin ist. Siehe die knapp 40% bei Cinebench R15.
 
Mit Leistungsbelangen meinst du Leistungsaufnahme? Sicher, da kann keiner SKL-X das Wasser reichen. :fresse:


Wo bitteschön soll da SKL-X überlegen sein?


Mit Rosinenpickerei beweist man gar nichts.


Ganz großes Kino mal wieder von dir :rolleyes:

Bei der Leistungsaufnahme nimmst du natürlich den totalen Worst Case für Skylake-X und bei dem Leistungsvergleich kommt natürlich die Paradedisziplin (Cinebench) von Ryzen oder auch Threadripper, wo 12C und 16C Threadripper mit einem 10C SKL-X verglichen werden.... Ist das etwa keine Rosinenpickerei?! :wall:

Schöne Doppelmoral mal wieder und auch so objektiv :wink:
 
Was hast Du von dem erwartet? Deswegen habe ich auf meiner Ignoreliste, denn wer nicht einmal verstanden hat das man die Leistungsaufnahme bei dem Benchmark nehmen muss bei dem man auch die Leistung vergleicht um etwas über die Effizienz aussagen zu können, der hat an Objektivität einfach kein Interesse.
 
Vielleicht postet man auch einfach mal einen Benchmark und die zugehörige Leistungsaufnahme... Den Verbrauch im Energieverbrauchsmaximierung-Programm (das AVX512 nutzt) den Ergebnissen eines realen Benchmarks gegenüberzustellen ist halt wieder der beliebte Äpfel mit Birnen-Vergleich.
 
Oh passt auf und als Antwort wird jetzt wieder so ein Geschwafel kommen wie: Nur weil ihr nicht in der Lage seid zu verstehen, dass ich dieses Cherry-picking absichtlich betrieben habe, nur um zu zeigen, dass man mit Cherry-picks gar nichts beweist.
Ändert nichts daran, dass er dieses Cherry-Picking schon in anderen Posts betrieben hat, nur um mal wieder gegen Intel zu bashen. ^^
 
So, nun haben sich Alle wieder beruhigt.

Bitte :btt2:

Ich persönlich denke dass X1900 mit seinen 8 Kernen, ein sehr interessanter Einstieg in die Threadripper-Welt ist.
 
Es verhält sich wie ein Dualsocket System!!! Das ist der entscheidende Punkt, AMD hat um Kosten zu sparen zwei CPUs in ein Gehäuse gestopft, aber diese beiden CPUs verhalten sich auch weiterhin wie zwei CPUs.

- - - Updated - - -


Vorallem liefert Intel 1A Entwicklertools mit, um auf NUMA Systemen zu programmieren. Die Intel HPC Libraries skalieren von Haus auf über die NUMA-Knoten, da hat man null Programmieraufwand und muss nur die Libraries gegen das Programm linken. Von AMD gibt es nichts vergleichbares, und die Intel Software läuft zwar auf AMD Prozessoren, aber dort nur auf einem NUMA-Knoten, so dass große Teile der CPU brach liegen. Aber das war früher immer noch schneller als AMDs Software zu nutzen. Ich bin gespannt, ob AMD es endlich mal schafft beim Thema Software besser zu werden. Denn in diesem Punkt gewinnen Intel und nVidia, und nicht so sehr weil die Hardware besser oder billiger wäre.

EPYCâ„¢ Tech Day: Gerry Talbot - YouTube

Hier wird auch was bezüglich NUMA und Single Socket Systemen besprochen
Du solltest dich echt mal informieren bevor du solche lächerlichen Behauptungen aufstellst.

@Paddy92
ja natürlich wird ein 12 Kerner und 16 Kerner mit dem 10 Kerner von Intel verglichen, da:
1. der 12 Kerner ~200$ weniger Kostet
2. der 16 Kerner genausoviel wie der 10 Kerner von Intel kostet
3. Intel nix mit mehr als 10 Kernen für X299 bereit hat.
4. Intel doch so einen tollen Takt/OC Vorteil ;)

Versteh nicht was daran so verwerflich ist, Produkte von denen es Testwerte gibt (da ist halt nur Cinebench getestet worden...)

Zum Thema Stromverbrauch:
Worst Case gehört genauso dazu wie Best Case, daraus gibts dann nen Durchschnitt, zumal in JEDEM Review der Stromverbrauch/Temperaturen als großer Negativpunkt aufgeführt wird.
Und speziell der Worst Case sollte beachtet werden, wenn man sich so teure Hardware kauft, besonders wenn der Worst Case durch ein hochgelobtes/beworbenes Feature wie AVX512 entsteht.
Denn wenn sich jemand wegen diesem bahnbrechenden Feature so einen Prozessor kauft muss er das Netzteil + Kühlung + Mainboard ganz anders zusammenstellen/kalkulieren, da die offiziellen Herstellerangaben nunmal gesprengt werden (laut zahlreichen Tests)
Inwieweit das durch Bios/Microcodeupdates verbessert werden könnte steht noch aus, aber Stand jetzt ist das nunmal so.
Bei Ryzen wurde die "Spieleschwäche" auch sofort als bahre Münze genommen ;)

Am Ende werden wir sehen was erfolgreicher ist, Skylake X oder Threadripper.

@1900x
Sicher interessant und deutlcih sinnvoller als 4/4 oder 4/8 Quadcores WENN der 1900x Vorteile wie mehr Lanes gegenüber dem AM4 Octa hat.
 
Zuletzt bearbeitet:
Schön wie von der reinen Leistung sofort auf die P/L umgeschwenkt wird. Der 7700k und der 7900X werden noch ne ganze Weile alle AMD CPUs in Spielen in ihre Schranken weisen, ebenso wird auch TR mit Skylake-X nur bei NUMA-affiner Software mithalten können. Dass die Intel P/L schlechter ist, wow nach Jahrzehnten mal ganz was Neues...

Hier wird immer nur das rausgepickt was einem gerade passt, yeah ihr ganzen Trumpstyler, ThumbsUp!
 
Das sind doch jedes mal die selben Diskussionen.

Am Ende wird es wieder zwei Sieger geben, wie immer.

Intel wird Sieger sein in der Leistung und AMD ist wiederholt "Sieger der Herzen".

Grüße
 
Bei der Leistungsaufnahme nimmst du natürlich den totalen Worst Case für Skylake-X und bei dem Leistungsvergleich kommt natürlich die Paradedisziplin (Cinebench) von Ryzen oder auch Threadripper, wo 12C und 16C Threadripper mit einem 10C SKL-X verglichen werden.... Ist das etwa keine Rosinenpickerei?!
Mal wieder ein völlig überflüssiger Beitrag von dir. Der worst-case bei der Leistungsaufnahme trifft natürlich auch auf die anderen Prozessoren zu. Falls dir das nicht klar sein sollte. :rolleyes: Darum ging es gar nicht. Es ging um die Relation zueinander. Und da ist SKL-X einfach recht stromhungrig, gerade im Vergleich zur Konkurrenz. Punkt. Für "nur" 10 Kerne keine wirkliche Glanzleistung. Und keine Sorge, Cinebench ist und bleibt alles andere als eine Paradedisziplin für AMD, auch wenn Ryzen selbst da punkten kann. ;)


Vielleicht postet man auch einfach mal einen Benchmark und die zugehörige Leistungsaufnahme... Den Verbrauch im Energieverbrauchsmaximierung-Programm (das AVX512 nutzt) den Ergebnissen eines realen Benchmarks gegenüberzustellen ist halt wieder der beliebte Äpfel mit Birnen-Vergleich.
Nur zur Info, Prime95 nutzt noch nicht mal AVX512. Aber man merkt die momentane Dünnhäutigkeit der Intel Fraktion wieder mal sehr gut, die nicht im geringsten verstanden hat, worum es in meinem Beitrag ging. :rolleyes:

- - - Updated - - -

Hier wird immer nur das rausgepickt was einem gerade passt
Genau das habe ich mir bei deinem Beitrag gedacht. :rolleyes: Fakt ist, ja, der i7-7700K ist dank des hohen Taktes im Schnitt sicherlich noch etwas schneller in Spielen. Die Unterschiede sind aber meist so gering, dass es eh keinen wesentlichen Unterschied fürs Spielgefühl macht. Von "in ihre Schranken weisen" zu sprechen, passt da nicht wirklich. Im Gegenteil, gibt genügend Feedback mittlerweile, die dem Ryzen ein smootheres Spielgefühl bescheinigen, trotz weniger avg FPS. Ausserdem gibt's Szenarien, da kommt ein i7-7700K mit seinen 4 Kernen einfach an die Grenzen. Da nützt dir dann auch der hohe Takt nix. Beim 7900X von Gaming Prozessor zu sprechen ... :rolleyes: Und Threadripper ist im Moment deutlich schneller als der 7900X. Wieso können oder wollen einige nicht akzeptieren, dass Ryzen selbst bezüglich Performance im Moment teilweise mehr zu bieten hat? Einfach nur kindisch.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh