Intel gibt Ausblick auf Cascade Lake als MCP mit 48 Kernen (Update)

Jetzt geht Schlag auf Schlag. Heute AMD und am 11.12. Intel, da wollen die wie es aussieht neue Architekturen oder zukünftige Technologien vorstellen.

Intel Architecture Event Announced: December 11th

Dann geht der Ball wieder an AMD im Januar. Sollen die mal so weitermachen, uns Verbraucher kann es nur recht sein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Äh ja, weil Lizenzgebühren nach Kernanzahl auch was mit Leistung zu tun haben. Wenn ich einen solchen Satz schreibe, dann bestimmt nicht, weil ich irgendwelche Lizenzgebühren vergleichen will.

Du betreibst ja auch Rosinenpickerei und scheiterst an deinem eigenen Tellerrand mit der Schwarz/Weis Denke, die du dir nun schon in 2x Punkten selbst widerlegt hast... Und wenn man dir das Gegenteil aufzeigt, suchst du dir ne neue Rosine (wie jetzt das Aufhängen an den Lizenzen)
Aber Hey, nicht dass ich das vorher gewusst hätte - was meinst du, warum ich von 10x Einsatzszenarien UND zusätzlich den Lizenzkosten sprach???
Ihr seid hier oftmals so extrem einfach zu durchschauen, was eure Antworten auf Aussagen sein werden... :lol:



Ist doch kein Problem - es soll auch Leute geben, für die ist Epyc aufgrund der Eigenschaften DAS Mittel der Wahl. Ehrlich, keine Ahnung was dir da so schwer dran fällt. Aber man merkt irgendwie recht klar, dass bei dir der Sieger schon feststeht noch bevor der Vergleich überhaupt ausgesprochen wurde. Die Diskussion darüber erübrigt sich somit eh. Und damit habe ich meinen Senf hier denke ich ausreichend kund getan, was meine Meinung über deine Aussagen zu diesen Server-CPU-Themen angeht.

Schon mal daran gedacht das die Präsenz gewisser User dafür sorgt, das andere User nicht mehr in den Threads posten?

Ja - aber ich kann an diesem Umstand leider nichts ändern, wenn man immer wieder auf die Troll-Posts eingeht und das dann in allen möglichen Threads immer wieder von vorn losgeht.
Also ist mittlerweile mein Tip an der Stelle - klar als Trolloposts zu erkennende Aussagen ignorieren oder 1x seine Meinung dazu kund tun und gut ist.
Wenn ich mir so ansehe wie viele von den Pappnasen hier vor ein paar Monaten oder Jahren schon aktiv waren - unabhängig von möglichen DAs - das gibt sich von allein. Dummerweise kommen irgendwann neue. Das stimmt wohl :fresse:
 
Zuletzt bearbeitet:
Erst macht sich Intel monatelang über AMD zwecks zusammengeklebter CPUs lustig, am Ende kopiert der Riese aber den Ansatz des Zwergs.
...
Wie die anderen schon sagten hat das Intel mit dem Pentium D schon im Mai 2005 gemacht um als "Dual Core CPU" dem Athlon X2 zuvor zu kommen, kurz darauf im Jan 2016 mit dem Pentium M als Core Duo (Yonah), dem Vorgänger des Core2 welcher dann tatsächlich einen 2 Kern DIE hatte um dann diesen wieder zusammen zu "kleben" als Core2 Quad.
AMD hat es später bei seinen Server Opterons ebenfalls praktiziert, bei der Opteron 6100er "Magny-Cours" Serie welche zwei 6 Kern DIEs (wie auch am Phenom II X6 verbaut waren) beinhalteten.

Lieb, Intel klebt eine CPU zusammen!

Nur blöd, daß sie es eh nicht so gut wie AMD zusammen bekommen werden, bin schon gespannt wie scheiße deren MCM skaliert:O
Woher willst Du denn wissen daß sie es nicht so gut wie AMD zusammen bekommen werden? Das ist genau so eine als "Blödsinn" betitelt und von Dir abgestrittene Aussage. Die Art wie Du hier kommunizierst ist das Problem, nicht immer der Inhalt. Es mag schon öfters zumindest halbwegs stimmen was Du sagst, aber bei weitem nicht "immer" womit Du zu gerne prahlst:
... weil was ich poste halt nachweislich immer so eintrifft...

Das wird ein Quad CPU System bei dem eben zwei CPUs in einem gemeinsamen Sockel sitzen, nur um eben eine CPU mit mehr Kernen als AMD zu haben. Ob die Plattform dann billiger als eine echte Quad-CPU Plattform (also CPU+Board) wird, bleibt abzuwarten, denn bei so vielen Pins braucht man ja auch ein Mainboards mit entsprechend vielen Layern und für die ganzen RAM Slots auch immer noch reichlich Platz.
Weiß man denn schon daß es dafür wirklich einen neuen Sockel geben wird? Ich mein wenn man der Folie da glauben Schenken darf dann hat jede CPU (48 Kern Cascade Lake) bzw. jeder Sockel 12 RAM Kanäle -> das erfordert auf jeden Fall mehr Pins und einen neuen Sockel. Der Sockel 3647 ist ja schon nicht klein mit seinem Six Channel RAM Interface.
Was mich stutzig macht ist die Aussage in den News:
Die entsprechenden Prozessoren sind Dual-Socket-fähig und bieten pro Sockel 12 Speicherkanäle. Der Prozessor selbst bietet ein Hexa-Channel-Speicherinterface.
Wie jetzt - der Sockel kann 12 Speicherkanäle, der Prozessor aber nur 6? Oder ist da jetzt nur ein Cascade Lake DIE gemeint?

Und wie ist das dann möglich:
Die neuen Cascade-Lake-Prozessoren verwenden weiterhin die Purley-Plattform - bestehende Skylake-SP-Systeme sollen also zu Cascade Lake kompatibel sein.
Bedeutet das daß man in ein aktuelles Skylake-SP System Cascade-Lake CPUs einsetzen kann (ggf. natürlich mit BIOS/UEFI Update und je nach TDP Grenze die CPUs eingeschränkt)? Die haben aber nur 6 Speicherkanäle pro Sockel, rennt dann da ein 48 Core Cascade Lake drin, aber nur mit 6 Channel RAM pro Sockel? Oder rennen dann nur Cascade Lake CPUs mit einem Single DIE da drauf?
@Don?

Ich kann mir auch nicht vorstellen daß der 48 Core im Rahmen der 205W TDP welches der aktuell größte Xeon (Platinum 8160) hat bleibt. Somit wäre sowieso fraglich ob diese CPU mit bestehenden Platinen kompatibel ist.

Je nachdem wer zuerst kommt. Aktuell gilt für Intel 48>32 wenn Sie mit Cascade Lake bald rauskommen.

...
Es geht hier nicht um "schwarz und weiß", sondern Intels Propaganda - denn anders kann man das nicht mehr bezeichnen. ... Aber Intel tut ja so, als wären sie "best of all".
Das ist Marketing und Werbung. JEDES Unternehmen stellt sich da möglichst gut auf und suggestiert daß seine Produkte/Dienstleistungen/Whatever die besten sind.

- - - Updated - - -

... Und da kann der Intel einzig und allein in SingleThread-lastigen Anwendungen punkten. Und wie oft solche Anwendungen auf einem 24C oder 32C oder 64C gefahren werden, kann sich jeder selbst ausmalen.
Bei Datenbankaufgaben kann es schon öfters mal vorkommen daß einzelne Abfragen nur einen Thread haben und von einer hohen Single Thread Leistung profitieren. Kommt halt enorm auf die Software an.

...
Dass man aufgrund anfallender Lizenzgebühren - trotz schlechterer Leistungswerte - dennoch günstiger mit Intel wegkommen kann, habe ich nirgends in meinem Text in Frage gestellt. Natürlich gibt es Szenarios, in denen Intel vorzuziehen wäre - die haben dann aber nichts mit "Leistung" im Sinne von Anwendungsgeschwindigkeit und Preis/Leistung zu tun.
Also die meisten Unternehmen die ich kenne die auch solche CPUs einsetzen würden sehen definitiv Lizenzgebühren im Faktor Preis/Leistung. Dort kalkuliert man meist auf eine Nutzungsdauer und der Anschaffungspreis ist zwar in dieser Rechnung inkludiert, macht jedoch im Endeffekt oft nicht viel im Ergebnis aus.
 
Woher willst Du denn wissen daß sie es nicht so gut wie AMD zusammen bekommen werden?
Ich hab mir die Intel-Folien zu Cascade Lake AP angesehen.
Obwohl sie 50% mehr Speicherchannels als Epyc haben, steigt der Durchsatz nur um 30%.
Mit der IF von AMD würde der Durchsatz um 50% steigen.
Der Interconnect von Intel ist zur IF einfach nicht konkurrenzfähig.
 
Ach und generell @Topic
Es wurde doch schon vor längerer Zeit darüber gesprochen daß Intel in Zukunft kaum noch die Möglichkeit hat viel mehr Kerne in einen DIE zu integrieren. Zumindest nicht wirtschaftlich. Die Fertigungen werden nur noch sehr schleppend kleiner und wie weit man mit einem Ringbus Kerntechnisch noch kommt ohne daß ein Mesh vielleicht nicht doch besser wäre ist auch fraglich.
Hauptsache jetzt tun wieder alle so als wäre das DIE big News und Intel macht es AMD nach.
 
*gähn*

The Ecosystem Expands For AMD Epyc Servers

Wenn du schon Benchmarks vorzeigen willst, solltest du auch die Wahrheit nennen.

Aylor offers this explanation between theory and practice when it comes to the floating point performance. “There is a misconception that every parallel application is efficiently vectorizable,” he says. “To leverage AVX-512, you have to vectorize the data to take advantage of this very wide pipeline. And beyond that point, at some point, you have to contend with balance, and you have to have memory bandwidth and the ability to feed such a massive vector pipeline. We have more memory bandwidth, and if you look at our floating point implementation, we run at double data rate and we have dedicated data pipes that run into it, whereas the Skylake architecture has less memory bandwidth and it shares datapaths into the floating point.”

Und im Server-Segment kommt eines hinzu, was du bei deinen Tests vergessen hast - Intel cheatet. Denn die AVX-Instruktionen hängen massiv von der TDP ab. Wenn die TDP auf die Einstufung von 95W limitiert wird, kackt die CPU mit AVX512-Instruktionen ab, weil der Takt in den Keller geht.

Aber dein Benchmark zeigt natürlich HEDT-CPUs, die die TDP-Limitierung umgehen dürfen.

Ergo:
Für Gamer/Workstations, denen die Kühlung sch***egal ist, trifft der Benchmark zu. Für Server ist AVX512 auf Intel-CPUs ein massives (Hitze)Problem.

Und dann kommt in der realen Welt noch Intels Bandbreiten-Problem. Das verrät dir dein Benchmark aber auch nicht. :d

Wait What? Epyc Is Actually Faster Than Xeon In Real World Use Cases That Leverage AVX-512? : AMD_Stock

Du hast also nur widerlegt, dass Intel gegen AMD Epyc gewinnen kann, wenn man Intel nicht an seine eigenen Vorgaben bindet. Und das kann man nur im HEDT-Bereich. Im Server klappt das nicht - und deswegen kann Intel da in AVX-optimierten Benches auch nur mithalten. :P
 
@Gamerkind
Okay Du liest also aus den Folien (die Pressefolien aus den News?) schon ab daß das in Deinen Worten "scheiße" skaliert?
Warte doch lieber mal handfeste Benchmarks bzw. Vergleiche ab bevor Du solche Aussagen triffst. Und genau das ist wieder Deine Art mit denen so viele hier nicht klar kommen, wenn Du schreibst daß Du der Meinung bist daß sie es nicht so gut hinbekommen sagt wohl keiner was dagegen. Nur stellst Du es so dar daß es allgemein gültig ist und "eh nicht" anders sein kann und es sogar "scheiße" sein wird dann ist das etwas provokant, findest Du nicht auch?
 
Wenn du schon Benchmarks vorzeigen willst, solltest du auch die Wahrheit nennen.

Wobei habe ich denn gelogen?
Und den guten Mann, Scott Aylor, corporate vice president and general manager of the Enterprise Business Unit at AMD, den du da zitiert hast. Was meinst du wohl, wird dieser eher AMD Produkte oder eher Intel Produkte in das gute Licht rücken?

Ich habe deine Verlinkung nur überflogen und es nicht direkt gefunden, aber wurde zu dem SPECfp-Bench geschrieben, mit welchem Compiler-Flags dieser kompiliert wurde? Wurden solche Optimization-Flags überhaupt gesetzt?

Aber nichtsdestotrotz ist es schon erstaunlich, dass die Intel CPU mal eben so bei dem FP-Bench die 4 fehlenden Kerne ausgleichen kann.


Und im Server-Segment kommt eines hinzu, was du bei deinen Tests vergessen hast - Intel cheatet. Denn die AVX-Instruktionen hängen massiv von der TDP ab. Wenn die TDP auf die Einstufung von 95W limitiert wird, kackt die CPU mit AVX512-Instruktionen ab, weil der Takt in den Keller geht.

Also wenn hier schon jemand cheatet, dann sind es die Mainboard-Hersteller und nicht Intel!
Intel hat nicht umsonst einen Offset für jeweils AVX2 und einen noch höheren für AVX512 eingeführt. Eben weil Intel bewusst ist, dass es bei der Nutzung von AVX zu erhöhten Temperaturen kommt. Daher geht man den Kompromiss ein, dass der Takt gesenkt wird, um der Hitzeentwicklung entgegen zu wirken. Diese Befehlserweiterungen sind aber so viel schneller, dass trotz verringerten Takt immer noch mehr Performanz bei herumkommt. Sonst könnte man sich den Quatsch ja schenken.

Die Vorgaben von Intel werden eingehalten, wenn diese OC-Features, bei Asus nennt sich dies z.B. "MultiCore Enhancement", nicht eingeschaltet werden oder am Offset selbst herum gespielt wurde. Also bring doch bitte den Nachweis für die Aussage "Aber dein Benchmark zeigt natürlich HEDT-CPUs, die die TDP-Limitierung umgehen dürfen.". Zeig wo geschrieben steht, dass Andantech dies bei dem von mir verlinkten Benchmark gemacht hat.


Und dann kommt in der realen Welt noch Intels Bandbreiten-Problem. Das verrät dir dein Benchmark aber auch nicht.

Ähm oder trotz diesem Bandbreiten-Problem ist man immer noch massiv schneller, dank der breiteren Einheiten, und hat hier Optimierungspotenzial, um noch mehr herauszuholen?



Was willst du jetzt mit diesem Link, obwohl du die Primärquelle schon oben verlinkt hast :confused:


Du hast also nur widerlegt, dass Intel gegen AMD Epyc gewinnen kann, wenn man Intel nicht an seine eigenen Vorgaben bindet. Und das kann man nur im HEDT-Bereich. Im Server klappt das nicht - und deswegen kann Intel da in AVX-optimierten Benches auch nur mithalten.

Nein, irgendwie ja nicht.

Des Weiteren habe ich mich nur etwas über dein Tellerrand-Denken amüsiert und gezeigt, wie leicht man deine pauschalen - schwachsinnigen - Aussagen widerlegen kann. Ich finde es lustig, wie leicht du dich doch triggern lässt. Was ist eigentlich deine Motivation?
 
Wobei habe ich denn gelogen?
Ich habe nicht gesagt, dass du gelogen hast. Ich sagte nur, du solltest auch die (ganze) Wahrheit nennen. ;)

Und den guten Mann, Scott Aylor, corporate vice president and general manager of the Enterprise Business Unit at AMD, den du da zitiert hast. Was meinst du wohl, wird dieser eher AMD Produkte oder eher Intel Produkte in das gute Licht rücken?
Ich merke, du hast tatsächlich nur überflogen. Denn Scott Aylor gibt nur einen möglichen Erklärungsansatz, warum der Xeon trotz AVX512-Instruktionen nicht so abgehen kann, wie bspw. bei den 2066ern zu sehen.

Ich habe deine Verlinkung nur überflogen und es nicht direkt gefunden, aber wurde zu dem SPECfp-Bench geschrieben, mit welchem Compiler-Flags dieser kompiliert wurde? Wurden solche Optimization-Flags überhaupt gesetzt?
Die haben die AVX512-Instructions genutzt - aber du sprichst genau das an, worauf ich hinaus will. Du präsentierst hier synthetischen Benchmarks - und ich zeige, dass es in Real World Szenarios zu deutlichen Leistungseinbrüchen kommen kann. Gerade das wird auf nicht ideale Compiler-Parameter und deutlich geringere Taktfrequenzen in der Server-Welt zurückgeführt. Deswegen das schlechte abschneiden, das man so in der Realität beobachten kann.

Aber nichtsdestotrotz ist es schon erstaunlich, dass die Intel CPU mal eben so bei dem FP-Bench die 4 fehlenden Kerne ausgleichen kann.
Ja - aber nur mit AVX. ;)

Also wenn hier schon jemand cheatet, dann sind es die Mainboard-Hersteller und nicht Intel!
Intel hat nicht umsonst einen Offset für jeweils AVX2 und einen noch höheren für AVX512 eingeführt. Eben weil Intel bewusst ist, dass es bei der Nutzung von AVX zu erhöhten Temperaturen kommt. Daher geht man den Kompromiss ein, dass der Takt gesenkt wird, um der Hitzeentwicklung entgegen zu wirken. Diese Befehlserweiterungen sind aber so viel schneller, dass trotz verringerten Takt immer noch mehr Performanz bei herumkommt. Sonst könnte man sich den Quatsch ja schenken.

Die Vorgaben von Intel werden eingehalten, wenn diese OC-Features, bei Asus nennt sich dies z.B. "MultiCore Enhancement", nicht eingeschaltet werden oder am Offset selbst herum gespielt wurde. Also bring doch bitte den Nachweis für die Aussage "Aber dein Benchmark zeigt natürlich HEDT-CPUs, die die TDP-Limitierung umgehen dürfen.". Zeig wo geschrieben steht, dass Andantech dies bei dem von mir verlinkten Benchmark gemacht hat.
Gerne!

Und es beweist auch, dass Intel die TDP von Haus aus schon nicht mehr einhält - zumindest bei den 2066er-CPUs.

Power Consumption and Power Efficiency - The Intel Core i9-7980XE and Core i9-7960X CPU Review Part 1: Workstation

Und was passiert, wenn man "kleinere" CPUs nimmt, die an ihre TDP gebunden werden?

CPU Performance: System Tests - Intel Xeon E Six-Core Review: E-2186G, E-2176G, E-2146G, and E-2136 Tested

Ähm oder trotz diesem Bandbreiten-Problem ist man immer noch massiv schneller, dank der breiteren Einheiten, und hat hier Optimierungspotenzial, um noch mehr herauszuholen?
Wie will Intel das lösen? Mit einem I/O-Chip auf dem Package? :d

Das Bandbreiten-Problem entsteht, weil in der "realen Welt" das AVX natürlich auch zum Tragen kommt - aber so eine Maschine niemals alle Ressourcen einzig und allein für die AVX-Anwendung freihält. Sobald auf dem Server mehr los ist als diese eine AVX-Anwendung, geht die Bandbreite in die Knie und AVX bringt dir nur noch einen Bruchteil der Leistung.

Was ist eigentlich deine Motivation?
Diesen ganzen Benchmark-Kiddies wie dir zu zeigen, dass die Benchmarks in der "realen Welt" für die Füße sind, weil diese Idealbedingungen niemals zutreffen. Die Benchmarks sind eine schöne, graue Theorie. Aber die Realität sieht eben anders aus.
 
@Gamerkind
Okay Du liest also aus den Folien (die Pressefolien aus den News?) schon ab daß das in Deinen Worten "scheiße" skaliert?
Was soll ich bitte abwarten?

Ich glaube kaum, daß Intel die Zahlen zum Nachteil des Xeons verschlechtert hat.

Und genau das ist wieder Deine Art mit denen so viele hier nicht klar kommen
Mir egal, ich passe mich doch nicht an euch an.Was ich schreibe trifft ein, ziemlich lächerlich wenn amn mich jetzt wegen Zahlen von Intel deppat anmacht.
Ich hab die Werte immerhin nicht erfunden oder von dubiosen Quellen bekommen, das sind offizielle Angaben von Intel...
 
Lass ihn doch, damit macht er sich doch eh nur vor den anderen Forenusern lächerlich;)
 
Die haben die AVX512-Instructions genutzt - aber du sprichst genau das an, worauf ich hinaus will. Du präsentierst hier synthetischen Benchmarks - und ich zeige, dass es in Real World Szenarios zu deutlichen Leistungseinbrüchen kommen kann. Gerade das wird auf nicht ideale Compiler-Parameter und deutlich geringere Taktfrequenzen in der Server-Welt zurückgeführt. Deswegen das schlechte abschneiden, das man so in der Realität beobachten kann.

Also du bezeichnest SPECfp als reales Szenario? :hmm:
In der realen Welt gibt es viele verschiedene Anwendungen. Ist es da nicht eher abwegig solche pauschalen Aussagen zu treffen wie "Da geht es rein um Leistungswerte. Und da kann der Intel einzig und allein in SingleThread-lastigen Anwendungen punkten.", wenn doch bekannt ist, dass Intel bei AVX besser dasteht?
Auch gibt es genügend Anwendungen, welche eher unter die Rubrik SingleThread-lastig fallen. Keine Ahnung, warum du ständig versuchst dies so krampfhaft als negativ darzustellen, dass Intel dabei besser ist..

Gerade die reale Welt besteht nicht nur aus voll parallelisierten Anwendungen, welche beliebig über x Threads skalieren, wo AMD dann mit dem höheren Core Count überall schneller ist..

Achja und wenn es bei einer Anwendung auf die bestmögliche Performanz ankommt, dann wird die - wenn möglich - auch auf der entsprechenden Maschine mit den entsprechenden Compiler-Flags kompiliert, eben um auch so noch paar Prozent herauskitzeln. Was meinst du wohl, warum die da aus deinem verlinkten Artikel SPECfp und SPECint selbst kompiliert haben und sich nicht einfach irgendwelche precompiled-binaries irgendwoher besorgt haben?


Ja - aber nur mit AVX.

Nein, u.a. durch AVX, nicht nur.
Eigentlich gilt doch eher die Regel, dass AMD nur schneller ist, wenn sie eine höhere Anzahl an Kerne liefern und die Anwendung über all diese skaliert. Sonst ist Intel so gut wie immer schneller.


Und es beweist auch, dass Intel die TDP von Haus aus schon nicht mehr einhält - zumindest bei den 2066er-CPUs.

Power Consumption and Power Efficiency - The Intel Core i9-7980XE and Core i9-7960X CPU Review Part 1: Workstation

Und was passiert, wenn man "kleinere" CPUs nimmt, die an ihre TDP gebunden werden?

CPU Performance: System Tests - Intel Xeon E Six-Core Review: E-2186G, E-2176G, E-2146G, and E-2136 Tested

Eigentlich passiert dies ja irgendwie nur bei dem 7980x. Dies ist der einzige starke Ausreißer, welcher die TDP stärker übersteigt. Die anderen CPUs liegen entweder unter der Grenze oder leicht darüber.

Die kleineren CPUs supporten ja auch nur AVX2 und nicht AVX512. Daher fallen die Ergebnisse nicht ganz so stark aus, wie bei CPUs, welche auch noch AVX512 supporten. Dies hat also nichts damit zu tun, dass die an ihre TDP gebunden werden.

Schwacher Versuch. Du bist immer noch den Beweis schuldig, dass Anandtech bei dem Bench, welchen ich verlinkt hatte, die Einstellungen so verändert hat, dass die Offsets ignoriert werden und die CPUs nicht den Takt abgesenkt haben. Danach hatte ich dich ja auch explizit gefragt.


Wie will Intel das lösen? Mit einem I/O-Chip auf dem Package?

Die werden sich das bei AMD jetzt erst einmal in Ruhe ab/nschauen und wenn das fruchtet, warum nicht?
Andere Möglichkeiten wäre noch am Mesh und den Caches zu schrauben.


Das Bandbreiten-Problem entsteht, weil in der "realen Welt" das AVX natürlich auch zum Tragen kommt - aber so eine Maschine niemals alle Ressourcen einzig und allein für die AVX-Anwendung freihält. Sobald auf dem Server mehr los ist als diese eine AVX-Anwendung, geht die Bandbreite in die Knie und AVX bringt dir nur noch einen Bruchteil der Leistung.

Soll ich dir ein kleines Geheimnis verraten?
Wenn nicht alle Kerne mit AVX belastet werden, dann taktet die CPU auch nicht so stark herunter. Also brauchst du dir nicht mehr so viel Sorgen um den Takt machen, welcher in den Keller geht. :banana:


Diesen ganzen Benchmark-Kiddies wie dir zu zeigen, dass die Benchmarks in der "realen Welt" für die Füße sind, weil diese Idealbedingungen niemals zutreffen. Die Benchmarks sind eine schöne, graue Theorie. Aber die Realität sieht eben anders aus.

Du bist doch derjenige, der hier ständig versucht Leute zu mit realitätsfernen Benchmarks und Rosinenpickerei zu bekehren, wenn du nicht gerade auf Sicherheitsexperte machst und ein Märchen nach dem anderen erfindest. :rolleyes:
 
Sind wir mal wieder beim Thema TDP und tatsächliche Leistungsaufnahme? Haben da einige immer noch nicht geschnallt das nicht die CPU ihre Spannung und ihren Takt selbst frei wählt, sondern das BIOS die Vorgaben macht und die meisten Retailboards, eben gerade die für Übertakter, diese schon im Default deutlich höher ansetzen als der CPU Hersteller es gewöhnlich vorsieht? Damit hat man dann mehr Leistung, der Boardhersteller bekommt im Review die längsten Balken bei der CPU Performance und die Herde der Dumpfbacken die den Trick nicht durchschaut, kauft diese Board weil die CPU darauf ja schneller ist. :fresse2:

Natürlich wird das mit einer höheren Leistungsaufnahme erkauft und so taktfreudig wie die Intel CPUs inzwischen sind, kann man so die Leistungsaufnahme weit über die TDP treiben, die CPUs machen dies ja auch locker mir und wenn dazu noch AVX Last kommt ohne einen passenden AVX Offset zu setzen, ist ja für die meisten Overclocker Teufelskram, die vollen die GHz immer haben, dann ist bei den starken AVX Einheiten der Intel CPUs, inbesondere bei Skylake-X mit ihren AVX512 Einheiten (bei den i9 sind sogar beide AVX512 Einheiten pro Kern aktiv), die Leistungsaufnahme jenseits von Gut und Böse, mit entsprechenden Folgen für die Temperaturen.

Wer das noch nicht weiß oder nicht glaubt, der soll mal auf die Taktraten bei den Benchmarks achten, insbesondere bei Prime. Computerbase hat übrigens den 9900K auch mit im BIOS auf 95W fixiertem Powertarget gebencht und siehe da:
Schon passt der Takt genau zum angegeben Basistakt, die Leistungsaufnahme zur TDP und die Temperaturen sind sehr moderat, alles durch eine Einstellung im BIOS. Denn normalerweise haben die Boards ab Werk da einen ganz anderen Wert stehen:
Leider schreibt auch CB dann nicht, weil welchem Takt diese 218W Package Power erreicht werden, aber offenbar bei mehr als 4,5GHz und damit bei mindestens einem 1GHz über dem Basistakt, was mit AVX Last eine massive Übertaktung ist. Dies hat man aber eben alles selbst in der Hand, dafür kann die Werte ja eben im BIOS einstellen und wer übertaktet, sollte keinen Blick auf die Effizienz werfen, sonst sollte man es lassen, da OC immer auf die maximale Leistung abzielt und die erreicht man nun einmal nur auf Kosten der Effizienz, weil die Leistungaufnahme dabei hoch geht und damit auch die Temperaturen. Die letzten paar Prozente an Leistung kosten eben immer am Meisten!
 
Intel gibt Ausblick auf Cascade Lake als MCP mit 48 Kernen

@Holt
Skylake besitzt nur 256B AVX Einheiten die zusammengeschaltet werden!
Skylake 2x256=512
Kabylake 1x512(nach 2.7 Millionen takzyklen slowmode)
Zen 2x128=256x2=512

Das untere ist am langsamsten.
Der 10 kerner SKL macht 2x256 und noch mal 2x256 gleichzeitig!

Edit: der Zen besitzt zwar 4x128B aber es können maximal je 2 zusammengeschaltet werden!
 
Zuletzt bearbeitet:
Was soll ich bitte abwarten?
Reale Tests und Vergleiche um zu entscheiden ob das tatsächlich so schlecht (oh - entschuldige, um in Deinen Worten zu reden scheiße) rennt wie Du vermutest. Vielleicht wirkt sich das überhaupt nicht so stark aus wie Du glaubst.

Mir egal, ich passe mich doch nicht an euch an.Was ich schreibe trifft ein, ziemlich lächerlich wenn amn mich jetzt wegen Zahlen von Intel deppat anmacht.
...
Du verstehst es noch immer nicht, die Leute hier machen Dich nicht wegen "Zahlen von Intel" oder Deinen Inhalten "deppat" an, sondern WIE Du Deine Inhalte schreibst.
So wie Du schreibst wunderst Du Dich auch noch darüber?

Dieses ewige Kindergartengehabe in solchen Foren ist wirklich nicht mehr schön. Wer schon so auftritt mit "Mir egal, ich passe mich doch nicht an ..." und "Was ich schreibe trifft ein ..." bla bla, ich bin so toll ich weiß alles und mit dieser verkrampften Sympathie bzw. Antisympathie ggü. Produkten oder Unternehmen hat es in der Welt echt nicht leicht.
Daß man hier nicht mehr auf vernünftigen Niveau diskutieren kann ist wirklich traurig. Natürlich kann jeder seine Meinung haben, aber er sollte diese auch als solche wiedergeben und sie nicht als einzig Wahre darstellen und versuchen diese anderen aufzuzwingen. Wir sind ja nicht bei Religionen und Kreuzzügen, sondern in einem Technik Forum.
 
Wer das noch nicht weiß oder nicht glaubt, der soll mal auf die Taktraten bei den Benchmarks achten, insbesondere bei Prime. Computerbase hat übrigens den 9900K auch mit im BIOS auf 95W fixiertem Powertarget gebencht und siehe da: Schon passt der Takt genau zum angegeben Basistakt, die Leistungsaufnahme zur TDP und die Temperaturen sind sehr moderat, alles durch eine Einstellung im BIOS.

Das ist genau der Knackpunkt. Und wenn man dann feststellt das die Fixierung auf 95W TDP "gerade mal" 9% Leistung im Gesamtrating kostet, dann sollte man sich Gedanken machen... Hat CB dieses Spiel eigentlich auch mit den RyZen gemacht? Also PBO ausgeschaltet, so das die RyZen unter Prime innerhalb der 105W bleiben? Der Vergleich wäre mach höchstinteressant, wie viel Vorsprung dann noch zugunsten von Intel bleibt.
 
Also daß man hier oft nicht auf vernünftigem Niveau diskutieren kann, stört mich ja auch, aber es liegt halt nicht an mir.
Oft poste ich anscheinend Meinungen, die hier niemand hören will, das liegt nicht an meinem Ton!
 
@Holt
Deine Erklärung fruchtet für den S1151(v2). Nicht aber für den 2066. Wie Anandtech bereits klargestellt hat, überschreiten die 2066er von selbst die TDP-Limits - ohne geheimes Tweaking.
 
...Dieses ewige Kindergartengehabe in solchen Foren ist wirklich nicht mehr schön. Wer schon so auftritt mit "Mir egal, ich passe mich doch nicht an ..." und "Was ich schreibe trifft ein ..." bla bla, ich bin so toll ich weiß alles und mit dieser verkrampften Sympathie bzw. Antisympathie ggü. Produkten oder Unternehmen hat es in der Welt echt nicht leicht....

Weist Du was noch mehr nervt Bucho? Das Leute mit diesem Klientel diskutieren. Kennst Du das nicht, der klügere gibt nach? Ihr habt alle eine Ignore Liste, ab darauf mit den Leuten und das Forum liest sich 100x besser.
 
Kennst du den Spruch: Wenn die Klügeren immer nachgeben, übernehmen die Idioten die Welt? Gab da auch mal eine coole Szene direkt am Anfang des Films Idiocracy.
 
Und bei solch offensichtlichen Doppel/Sockenpuppen/Trollaccounts könnte man einfach mal das Hausrecht ausüben und die Leute einfach bannen.
 
@Holt
Skylake besitzt nur 256B AVX Einheiten die zusammengeschaltet werden!
Skylake 2x256=512
Das ist so pauschal falsch. Die Xeon W (so auch die HEDT Plattform) und SP aus der Skylake Familie haben entweder 1x512 oder 2x512 AVX512 Einheiten. Die Desktop und Mobile Skylake CPUs haben dagegen nur AVX2 Support. Die ersten CPUs mit AVX512 Support waren die XeonPhis, aber da war der Befehlssatz etwas anders.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh