Informationen zu Naples-Prozessoren mit 16 und 32 Kernen (Update)

Naja, die 8/16er haben 95w TDP, klar, der realverbrauch weicht etwas ab, das ist aber nich Thema. Wir haben zwei mal die gleiche Basis als Angabe. Die Frage wäre, kriegt man 2 der aktuellen DIEs so effizient verwurstelt, das man quasi einen doppelten Ryzen 7 hätte? Die 10 Grad sind dann die Sicherheitsreserve nach oben. Dann könnten da auch >3,5GHz stehen. Das ist aber jetzt bitte nur als Best Case Gedanke zu verstehen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
StarCitizen wäre ein Kandidat. Soll ja bis 32 Threads können. Sonst sicher auch super für homeserver, wobei 200 Watt schon heftig sind.
Macht euch kein Kopf um die 180W TDP die der Franzose angegeben hat.
Das gilt für das 32C/64T Package, theoretisch wären es dann 95W für 16C/32T, es werden aber eher 140W sein. ;)
 
Ja, das mit den 200W schreckt mich auch etwas ab, gerade wenn man die CPU recht leise mit Luft kühlen will und wenn er dann mit 2,5Ghz daher kommt wäre es natürlich auch nicht in meiner Vorstellung.
Canard PC spricht von 150W TDP. Wäre auch plausibler. Wenn 8 Kerne mit 95W machbar sind, dann sollten 2x 8 (16) niedriger getaktete Kerne mit weniger als 2x 95W (190W) machbar sein.
 
Ja, das mit den 200W schreckt mich auch etwas ab, gerade wenn man die CPU recht leise mit Luft kühlen will und wenn er dann mit 2,5Ghz daher kommt
Also der R7 1700 ist recht sparsam und taktet immer noch >= 3GHz, der ist deutlich effizienter als die anderen 8 Kerner und mit 2,5GHz wäre er noch um einiges sparsamer, die Effizienz scheint ab 3GHz massiv zu leiden. Der 16 Kerner dürfte ein MCM aus 2 8 Kern Dies sein, viele Leistung der aufnehmen wird, kann man also gut erreichen / simulieren. Bei einer CPU mit so vielen Kernen ist der Takt natürlich geringer um die Leistungsaufnahme im Griff zu halten und damit auch die Kühlung nicht zu aufwendig werden zu lassen.

Für den normalen Heimanwender und vor allem Gamer ist so ein Vielkerner eher ungeeignet, dafür ziehen die meisten Anwendungen von Heimanwendern und vor allem Games einfach zu Nutzen aus den vielen Kernen und bei RZYEN müssen die Kerne auch noch möglich unabhängig voneinander arbeiten können, damit die Performance stimmt, da die Kommunikation zwischen ihnen nicht besonders flott ist sofern die nicht im gleichen CCX sind und über zwei getrennte Dies dürfte es noch lahmer gehen. Wer dafür keine passenden Anwendungen hat, sollte sich so eine CPU nicht kaufen, die Enttäuschung wäre vorprogrammiert.
 
Die News hat ein Update mit weiteren Informationen bekommen.
 
StarCitizen wäre ein Kandidat. Soll ja bis 32 Threads können. Sonst sicher auch super für homeserver, wobei 200 Watt schon heftig sind.

Da müssen die GPUs erstmal mitkommen. Selbst 1080ti Quad SLI wenn es sowas noch gäbe kämen bei SC wohl in GPU Limit...
 
Da müssen die GPUs erstmal mitkommen. Selbst 1080ti Quad SLI wenn es sowas noch gäbe kämen bei SC wohl in GPU Limit...
Naja im Moment, solange die am Netcode nix ändern, schlafen meine GPU's immernoch ^^
 
16 kerne gehen dann doch etwas weit für einen Consumer :d
Dennoch sehr schön zu sehen dass AMD wie von vielen vermutet und gehofft, alle Kategorien und Preisklassen mal eben um 50-100% mehr Kerne aufgestockt hat :)

180 Watt? Damit fallen Luftkühler schonmal aus dem Raster, selbst meine AIO ist nur für 160 Watt ausgelegt.
Womit wurden eigentlich damals die 220W FX ausgeliefert?
 
Zuletzt bearbeitet:
180 Watt? Damit fallen Luftkühler schonmal aus dem Raster, selbst meine AIO ist nur für 160 Watt ausgelegt.

Ich denke, dass für den Serienbetrieb auch Luftkühler reichen würden. Der AMD FX-9590 hat auch eine TDP von 220W. Und nur als Beispiele: Noctuas NH-D15 ist bis 220W und Cryorigs R1 Ultimate bis 250W+ ausgelegt.
 
Luft ist nicht das Problem. Wie laut ist die Frage...
 
280er AIO sollte sowas doch managen können. Dann geht das Ding unter Last halt auf 75-80 Grad mit eigener ruhigerer Lüfterkurve
 
180 Watt? Damit fallen Luftkühler schonmal aus dem Raster, selbst meine AIO ist nur für 160 Watt ausgelegt.

Also mein CoolerMaster Hyper 412S kühlt bei mir derzeit noch einen 125W PhenomII X6 (Realverbrauch laut HWMonitor unter Last 140W) bei festen 750 RPM Lüfterdrehzahl. Dabei erreicht die CPU gerade mal 56°C.

Geht man nun mal von deutlich potenteren Kühler wie einem Thermalright Macho oder Scythe Mugen aus, dann dürfte es da keinerlei Probleme geben. Von den großen Doppelturmkühlern ganz zu schweigen.
 
Ich würde prinzipiell 16C/32T unter der Haube auch nicht ablehnen :bigok:
Da wo es Probleme gibt, gibs auch ne Lösung.
Wird allerdings für die meisten erstmal unbezahlbar bleiben. Schon sehr sehr schmackhafte Features um den 12C/24T ala Intel SkylakeX obsolet zu machen. Ich denke Intel zieht dann auch mit einem 16C/32T nach, um nicht schlechter und langsamer dastehen zu müssen. Ob mans fürs Desktop braucht, ist wohl ne andere Frage. Hier gehts rein ums Prestige.
Mit dieser Ankündigung fallen 4C/8T in die Einsteigerklasse.
 
Zuletzt bearbeitet:
Mit dieser Ankündigung fallen 4C/8T in die Einsteigerklasse.

Dafür braucht es keine 16C/32T CPU. Dieses Schicksal ist den 4C/8T CPUs schon allein durch die 6C/12T Ryzen beschieden, welche das neue "Mainstream" Segment bilden und in den entsprechenden Anwendungen selbst deutlich teurere i7 abhängen sollten.
 
Ich weiss nicht, ob die Dinger wirklich ernsthaft die Intel Plattform konkurrieren können.
Die CCX Kommunikation hat bis dato grobe Schwächen, welche bei Intel offensichtlich anders/besser gelöst wurden.

Für komplett unabhängige Threads wird Naples Intel von der P/L deutlich in den Schatten stellen. Bei allen anderen Anwendungen wird man die gleichen Probleme wie bei Ryzen sehen. Kann jeder selber testen, welcher Inter-Threading mit ZeroMQ nutzt. Und da gibt es schon einige OpenSource Software.

In Fällen, wo man pro Case 24-48h Rechenzeit hat, spielt der Preis auch kaum eine Rolle. Die eingesetztekommerziele Lösung auf der Workstation kostet 7000$ pro Jahr und Core. Da könnte die Intel Lösung auch 5x teurer sein, wenn die gleiche Leistung mit weniger Cores geleistet werden kann.
 
Ab Win 7 hat Windows NUMA Support! Man muss nur die Geometrie der Architektur korrekt an das OS melden, also jede CCX als eigenen Node anmelden und nicht so tun als wären alle 8 Kerne des Dies im gleichen Node, dann kann der Scheduler es auch nicht korrekt handhaben. Der Nachteil ist dann aber, dass einige Programm nur die Kernes eines CCX nutzen werden, wie man auch immer wieder in Reviews von Dual-CPU Rechner sieht.

Wie viele Node meldet ein RYZEN System? Wenn es einer ist, liegt die Schuld wenn die Threads ständig zwischen den Kernern verschiedener CCX verschoben werden nicht bei Microsoft, sondern beim Hersteller des Boards bzw. BIOS!
 
Ja neue CPU, Windows update und Bios update hinken etwas hinterher. Das ist doch jetzt nichts neues. Insgesamt bertrachtet noch nicht mal 4 Wochen released.
 
@Holt
Man muss mal endlich aufhören den 8C/16T mit 2 CCX als NUMA sehen zu wollen. Dem ist nicht so und das klappt so auch nicht, wenn man dem OS sagen will es soll den als 2 Socket System handhaben. Die DDR4-Speichertopologie beim Ryzen ist flach (jede Adresse von jedem Core aus gleich schnell lesbar) und der L3 ist ein victim-cache. Der Aufbau mit 2 CCX ist nicht gleich 2 Socket. Cache snooping hat halt eine Latenz von 100 ns zwischen den CCX, das ist alles.
Trotzdem könnte es aber sein, dass der Scheduler von Windows noch leichte Verbesserungen kriegen wird (aber nichts weltbewegendes, wie AMD selbst mehrfach bestätigt hat).
 
Zuletzt bearbeitet:
Man muss mal endlich aufhören den 8C/16T mit 2 CCX als NUMA sehen zu wollen. Dem ist nicht so und das klappt so auch nicht, wenn man dem OS sagen will es soll den als 2 Socket System handhaben. Die DDR4-Speichertopologie beim Ryzen ist flach (jede Adresse von jedem Core aus gleich schnell lesbar) und der L3 ist ein victim-cache. Der Aufbau mit 2 CCX ist nicht gleich 2 Socket. Cache snooping hat halt eine Latenz von 100 ns zwischen den CCX, das ist alles.
Eben, es ist kein NUMA, NUMA ist bei mehreren CPUs pro Rechner, nur ist es mit der CCX Architektur auch kein klassischer Multikern Prozessor bei dem die Verbindungen zwischen allen Kernen etwa gleichschnell sind, wie PCPER ermittelt hat (auch planet3dnow hat darüber berichtet) und wie es auch zu erwarten war, hat die Kommunikation zwischen Kernen eines CXX und denen eines anderen CCX eben sehr viel höhere Latenzen als die Kommunikation zwischen den Kernen eines CCX, was eben bisher nur bei NUMA Architekturen so war.

Laut PCPer scheint auch nur ein NUMA Node vorhanden zu sein:
Trotzdem könnte es aber sein, dass der Scheduler von Windows noch leichte Verbesserungen kriegen wird (aber nichts weltbewegendes, wie AMD selbst mehrfach bestätigt hat).
Nein, da ist eine Fake News, AMD sagt klar das es nicht am Scheduler liegt, da haben sie Recht und das steht auch bei PCPER:
Was man machen könnte wäre entweder die beiden CCX als je einen NUMA Node zu definieren, dann würde der Scheduler sofort aufhören Threads zwischen ihnen hin- und her zu schieben, aber wie es auch bei PCPER steht, wären dann viele Programme nur noch in der Lage 4 der 8 Kerne zu nutzen, was auch erklären dürfte, warum man diesen Weg nicht gewählt hat, denn die Erklärung wie viele NUMA Nodes es gibt, kommt vom BIOS.

Der andere Weg am Scheduler etwas zu verändern würde bedeuten, dass man noch eine Ebene mehr einzieht, also NUMA Light, extra für die AMD CCX Architektur. Nur wie sollte sich diese nun praktisch von dem bestehenden NUMA unterscheiden? Diese Nodes Light sind dann die CCX auf dem gleichen Die, sie haben den gleichen RAM Controller etc. aber die Latenz zwischen ihnen ist eben höher. Wie sollte der Task Scheduler nun anderes reagieren, wenn er nun wüsste das die 8 Kerne zwar nicht in zwei NUMA Nodes aber auf 2 CCX (NUMA light Nodes) sitzen? Er soll Threads nicht zwischen diesen CCX verschieben ok, aber das macht er bei echten NUMA Nodes heute auch nicht. Nur wie sollen Programme damit umgehen? Die müssten aktiv alle Threads so verteilen, dass möglichst nur Threads auf Kernen eines CCX miteinander kommunizieren, nur was machen sie wenn das gar nicht geht, weil alle Threads untereinander gleich viel kommunizieren, was ja nicht untypisch ist? Sollen sie sich dann doch nur einen CCX nutzen? Das wäre auch heute so, wenn man die beiden CCX als je einen NUMA Node definiert, was sollte also eine weitere Schicht rein praktisch bewirken?

Nichts, denn es macht für das Problem keinen Unterschied ob die NUMA Nodes auf einen gemeinsamen RAM Controller zugreifen oder nicht und wie der Cache organisiert ist! Die Architektur mit den CCX hat eben den Nachteil eigentlich mehr NUMA als klassischer Mehrkerner zu sein und damit kann man nur wählen ob man sie von Seiten der SW so oder so behandeln möchte, beides hat Vor- und Nachteile. Das Problem kann nur AMD lösen indem man die Latenzen zwischen den CCX reduziert oder eben jeden CCX als eigenen NUMA Node beim System anmeldet. Hoffnungen auf Wunderlösungen sind irreal, die werden für den Task Scheduler nicht kommen, wohl aber für Probleme mit den Energiesparzuständen die es ja auch gibt, das Aufwachen von Kernen dauert recht lange und daher wird unter Windows der Energiesparplan "Höchstleistung" empfohlen und die Einstellung im Ausbalanziert eben entsprechend angepasst um die Kerne nicht mehr zu parken.
 
Zuletzt bearbeitet:
CCX ist nicht das Problem, sondern das Konzept und zugleich die Lösung für Zukunft von Multicore. AMDs Infinity Fabric skaliert und lässt sich besser nach oben als auch nach unten einteilen als Intel. Viel flexibler als alles was vorher da war.
 
Zuletzt bearbeitet:
Das Problem kann nur AMD lösen indem man die Latenzen zwischen den CCX reduziert

AMD muss die Latenz, angezeigt durch obiges Schaubild, reduzieren. Die Cores wie ein Multi CPU Sockel System zu behandeln würde Vorteile wie auch Nachteile bedeuten.
DDR4 4000+ könnte die Kommunikation deutlich beschleunigen.

vinacis_vivids schrieb:
CCX ist nicht das Problem, sondern das Konzept und zugleich die Lösung für Zukunft von Multicore.

Kann man nicht einschätzen. Ich warte auf Zen+ der kommt dann als Ersatz für Zen ins System.
Mittlerweile kann ich meinen Ram mit DDR3 3200 betreiben und kann somit das Problem ein wenig abfedern.
Die Gamingleistung geht mit schnellem Ram deutlich nach oben.

AMDs Infinity Fabric skaliert besser

Erstmal Tests zu den X399 8C16T abwarten, dann kann man was zur Skalierung sagen, vorher nicht!

PS: Was soll deine Signatur eigentlich bedeuten? Ich merke zwischen altem OC 3770 und Ryzen 1700x keinen Unterschied in BF1, beide laufen absolut smooth.
GTA5 läuft nebenbei irgendwie nur auf 3 oder 4 Kernen, smoother ist das mit Ryzen ganz bestimmt nicht.
 
Zuletzt bearbeitet:
Es geht um die 1% low, dass Ryzen die GPU permanent im Limit halten kann während im "GPU Limit" der Intel dropt. Daraus folgt dann auch smoothes Gaming beim Ryzen weil der niemals an die 100% Auslastung kratzt. hiccups und drops kommen weil die Intel-CPU an der Kotzgrenze ist.

- - - Updated - - -

7700k@5GHZ ist bottleneck für die 1080ti (bei ashes@1440p)
 
Zuletzt bearbeitet:
Es geht um die 1% low, dass Ryzen die GPU permanent im Limit halten kann während im "GPU Limit" der Intel dropt. Daraus folgt dann auch smoothes Gaming beim Ryzen weil der niemals an die 100% Auslastung kratzt.

Also erstmal ist die prozentuale Auslastung egal, Grafikkarten und Prozessoren haben da bei idealer Nutzung der Cores im optimalen Fall immer 99%. Und dein Video zeigt einen alten 3570k, ich hatte den 3770, der hat aber noch HT an Board, kann man doch nicht vergleichen, zudem lief er übertaktet.
In Deiner Signatur steht 7700k mit 4C8T im Video ist ein alter 3570 mit vier Cores, den Unterschied siehst du schon?

Edit:

Im Zweiten Video ist auch kein Battefield1, ich denke was in deiner Signatur steht, stimmt nicht.
Fanboygebrabbel erster Güte.
 
Zuletzt bearbeitet:
gibts hier auch konkrete werte?

es gibt IMMER ein Limit. solange die FPS passen, ist es relativ wurscht ob cpu oder gpu limit.

PS: Was soll deine Signatur eigentlich bedeuten? Ich merke zwischen altem OC 3770 und Ryzen 1700x keinen Unterschied in BF1, beide laufen absolut smooth.
GTA5 läuft nebenbei irgendwie nur auf 3 oder 4 Kernen, smoother ist das mit Ryzen ganz bestimmt nicht.

das kommt aus einem youtube video wo einer einfach nur labert, dass der ryzen ja merklich flüssiger in gta läuft. beweise gabs keine.

darauf hat sich jetzt eingeschossen
 
alles OT schon wieder. manche werden nie kapieren warum in Zukunft auch 16C/32T für desktop eingesetzt werden statt 4C/8T@10Ghz.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh