Spezifikationen zu Skylake-X: Intel packt den Core i9 für vier Prozessoren aus

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Immerhin lassen manche Boardhersteller nicht alles mit sich machen :bigok:
Solche Prozessoren sind für nen HEDT Sockel einfach sinnlos.
 
RAZ0RLIGHT, Tuxerus, vinacis_vivids, hat sich eure AMD-fanboy-gang schon wieder bei intel verirrt?
 
ja genau deshalb lasten einige Spiele/Software 4 Kerne/Threads aus während andere 8 Kerne/Threads auslasten oder ist das etwa "Individualsoftware"? ;)

Und wieso gibt es wohl Software/Spiele die unterschiedlich viele Kerne/Threads auslasten? Richtig, da nicht für eine bestimmte Kernanzahl optimiert wird ;)
Außerdem heißt es noch lange nicht, dass wenn 4 Kerne ausgelastet werden, dies durch genau 4 Threads geschieht, es können mehr als 4 Threads aber auch weniger sein. Nicht jeder Thread muss immer eine große Last erzeugen und benötigt viel Rechenzeit, sodass es auch gut sein kann, dass ein Kern mehrere Threads nacheinander abarbeitet und so eine hohe Auslastung aufweist. Desweiteren verteilt der Thread-Scheduler von Windows alle Threads so schnell zwischen den Kernen, dass es so aussieht als würden alle Kerne ausgelastet sein, obwohl es gerade z.B. nur zwei Lastthreads sind. Ganz einfaches Beispiel: starte mal Prime95 und begrenz die Anzahl der Torture Threads mal auf 2, dein i5 (wenn du den noch hast) müsste theoretisch eine Auslastung von 50% haben und die Auslastung von 2 Kernen müsste auf 100% sein, dies ist aber in der Praxis nicht der Fall und die Auslastung der Kerne spikt unterschiedlich zwischen allen Kernen und die Gesamtauslastung der CPU ist > 50%. Jetzt teil die 2 Threads von Prime mal 2 Kernen zu und dann bekommst du das erwartete Bild von einer Gesamtauslastung von 50% und 2 Kerne die zu 100% ausgelastet sind.
Wieso gibt es wohl Spiele, z.B. Assassins Creed Unity, die zu einer Zeit entwickelt wurden wo es größtenteils nur 4C/4T oder 4C/8T gab, die aber mehr als 8 Threads auslasten können? Beweißt doch nur meine Aussage oder nicht? Wieso nutzt Windows mehr als 1000 Threads?

Demnach müsste, sofern die Software "Multicore" unterstütz ALLE Kerne die zur Verfügung stehen auslasten, ist aber meines Wissens nach nicht der Fall.

Nein?! Wie kommst du darauf?
Wie bereits gesagt, es ist nicht immer möglich so viele parallele Threads zu haben, wie Kerne vorhanden sind.


Irgendwie widersprichst du dir da selber.

Ich widerspreche mir kein Stück selbst, nur du solltest einfach mal versuchen Texte zu verstehen oder einfach mal versuchen etwas weiter zu denken.


ps. warum sollen mehr Kerne im Consumerbereich (Smartphones) keinen Sinn machen, mehr niedrigtaktende Kerne sind nunmal kühler/energieeffizienter als weniger höhertaktende Kerne zumal da noch der Vorteil der Parallelisierung vorhanden ist.

1. Ich habe nicht gesagt, dass mehrere Kerne keinen Sinn im Consumerbereich machen.
2. Ich habe auch nicht gesagt, das mehrere Kerne bei Smartphones keinen Sinn machen.
3. Zwischen "nicht immer Sinn" und "keinen Sinn" gibt es einen gehörigen Unterschied.

Gerade im Smartphone-Bereich ist dies einfach nur reines Marketing. Man hat beim Smartphone meistens keine Apps mit großen Lastthreads oder irgendwelche große Berechnungen ausführen. Du bist bei Smartphones meistens im I/O-Limit (z.B. wenn Daten aus dem Internet geladen werden) und nicht im CPU-Limit. Damit deine UI nicht bei einem I/O-Limit anfängt zu freezen oder andere Sachen blockiert, sondern immer schön responsive bleibt, nutzt du ehr asynchrone Programmierung statt Multithreading.


MB kostet locker mal ~100€ mehr wenn man daran nicht spart im Vergleich zu Z270.
intel x99 Geizhals Deutschland
z270 Geizhals Deutschland
und komm mir jetzt nicht mit dem billigsten X99 und teuersten Z270...

Habe ich explizit von X99 und Z270 gesprochen? Irgendwie ja nicht...
 
Irgendwie verstehen wir uns beide grad falsch (ich versteh dich nicht richtig und vice versa)

Ich bin kein Programmierer, kenne mich aber etwas mit der Materie aus.
Mir geht es darum, dass man mit 8+ Threads als Basis mehr Möglichkeiten als Programmierer hat als mit 4 Threads als Basis (Nitrous Engine (Ashes of the Singularity) z.B. skaliert super mit mehr Threads/Kernen was man extrem an der KI merkt, die ist wohl das beste auf dem Gaming Markt)
Da fallen dann so Dinge wie bessere KI, Physik usw. an was eben über den Prozessor berechnet wird (bzgl. Spiele natürlich)
Finde es einfach lächerlich, dass es heute noch Software (speziell Games) gibt, die gerade mal 1-2 Threads bereitstellt obwohl garantiert mehr möglich ist und so das Potenzial brach liegt.

Ich verstehe deine Erklärung, es werden so und so viele Threads vom Programm bereitgestellt, der Prozessor teilt (falls so viele Software Threads vorhanden) es den Kernen/CPU Threads zu, demnach wird natürlich nicht nach Kernen programmiert sondern nach Threads (was eigentlich fast auf das selbe kommt).
Beispiel: Software bietet der CPU 8 Threads an, ein I5 ist langsamer, da er nur 4 gleichzeitig bearbeiten kann während ein I7 diese Software Threads auf alle 8 CPU Threads verteilen kann. (korrigiere mich falls ich daneben liege.)
Dass man aber nicht auf eine bestimmte Kernanzahl optimieren kann (was du geschrieben hast), da stimme ich nicht zu.
Wenn das Maximum der Software nunmal 8 Threads sind, wurde sozusagen auf 8 Kerne/CPU Threads "optimiert" ;)
Deshalb hab ich auch geschrieben, dass du dir da irgendwie widersprichst, aber egal

1. Ich habe nicht gesagt, dass mehrere Kerne keinen Sinn im Consumerbereich machen.
2. Ich habe auch nicht gesagt, das mehrere Kerne bei Smartphones keinen Sinn machen.
3. Zwischen "nicht immer Sinn" und "keinen Sinn" gibt es einen gehörigen Unterschied.
Japp, sorry du hast Recht, das habe ich falsch/übertrieben interpretiert

Habe ich explizit von X99 und Z270 gesprochen? Irgendwie ja nicht...
Nope, ist aber das naheliegendste Beispiel ;)
 
Zuletzt bearbeitet:
Tuxerus - hat sich eure AMD-fanboy-gang schon wieder bei intel verirrt?

Ich hatte bisher nur Intel/Nvidia Systeme, es freut mich dennoch zu sehen, dass ein Hersteller dagegen hält und sich nicht auf den Kopf schei*** lässt.
Keine Ahnung warum du mich jetzt als Fanboy bezeichnest ... oder liegt es einfach nur daran, dass du keine Argumente hast aber dennoch irgendwas rauslassen willst?
 
Finde es einfach lächerlich, dass es heute noch Software (speziell Games) gibt, die gerade mal 1-2 Threads bereitstellt obwohl garantiert mehr möglich ist und so das Potenzial brach liegt.
womit du zeigst dass du überhaupt keine ahnung vom programmieren oder der materie hast.
programmier doch mal eine anwendung mit einem thread, dann mit zwei - weil sonst deine GUI einfriert und dann mit 4 oder 8...

dann kannst du was zum thema programmieren beisteuern.
 
Klar ist Ryzen billiger hat aber Mankos die man dann dafür in Kauf nehmen muss ( Das heist nicht Ryzen ist per se schlecht um mal gleich allen selbsternannten AMD-Rechern der Gerechten - Underdogs Forumsrittern usw. den Wind aus den Segeln zu nehmen !!!) , kann jeder für sich selbst entscheiden was ihm wichtiger ist , Einen Tod muss man sterben.
Wer unbedingt top Singelthreadleistung mit der höchsten IPC und Multithreadperformance kombiniert will bezahlt halt mehr bei gleicher Kernzahl.
 
@bawder

Weiß jetzt auch nicht genau wie du auf Tuxerus kommst, aber bei vinacis_vivids stimme ich zu 100% zu :bigok: Vor dem is nie ein Intel Thread sicher höhö:lol:
 
Irgendwie verstehen wir uns beide grad falsch (ich versteh dich nicht richtig und vice versa)

Passiert ^^

Ich bin kein Programmierer, kenne mich aber etwas mit der Materie aus.

Und da liegt das Problem, du hast Halbwissen und Halbwissen ist, wie man so schön sagt, gefährlich. Dir ist es halt nicht mögliche das große Ganze zusehen, da du nicht alle Details kennst.

Mir geht es darum, dass man mit 8+ Threads als Basis mehr Möglichkeiten als Programmierer hat als mit 4 Threads als Basis (Nitrous Engine (Ashes of the Singularity) z.B. skaliert super mit mehr Threads/Kernen was man extrem an der KI merkt, die ist wohl das beste auf dem Gaming Markt)
Da fallen dann so Dinge wie bessere KI, Physik usw. an was eben über den Prozessor berechnet wird (bzgl. Spiele natürlich)

Irgendwie beschleicht mich so leicht das Gefühl, du würdest meinen, ich würde mich allgemein gegen mehr Kerne/Threads aussprechen. Dem ist aber nicht so.
Auch muss du aber bedenken, dass Spiele da auch ehr ein Sonderfall sind, da dort dort mehr fordernde Aufgaben (wie du geschrieben u.a. Physik, KI) anstehen die gleichzeitig berechnet werden müssen als bei einer Software.

Finde es einfach lächerlich, dass es heute noch Software (speziell Games) gibt, die gerade mal 1-2 Threads bereitstellt obwohl garantiert mehr möglich ist und so das Potenzial brach liegt.

Multithreading ist halt ein äußerst komplexes Thema. Manchen kleineren Spieleschmieden fehlt da einfach die Zeit und das Geld um dies gut umzusetzen. Auch hängen die oft auf veralteten Engines rum und können da einfach nicht mehr rausholen.

Ich verstehe deine Erklärung, es werden so und so viele Threads vom Programm bereitgestellt, der Prozessor teilt (falls so viele Software Threads vorhanden) es den Kernen/CPU Threads zu, demnach wird natürlich nicht nach Kernen programmiert sondern nach Threads (was eigentlich fast auf das selbe kommt).
Beispiel: Software bietet der CPU 8 Threads an, ein I5 ist langsamer, da er nur 4 gleichzeitig bearbeiten kann während ein I7 diese Software Threads auf alle 8 CPU Threads verteilen kann. (korrigiere mich falls ich daneben liege.)

Nicht der Prozessor teilt die Threads nicht zu, sondern der Scheduler des Betriebssystem. Deswegen gabs ja auch die Gerüchte, der Scheduler von Windows 10 würde Ryzen ausbremsen.
Und zu dem Bespiel. Nimm für den Vergleich lieber CPUs mit unterschiedlicher Kernanzahl, da bei SMT bzw. HT es nicht immer möglich ist, dass zwei Threads parallel abgearbeitet werden können. Dazu müssen dann aber auch andere Faktoren wie IPC, Takt und die Threads sollten alle gleich viel Rechenzeit brauchen. Es könnte z.B. so ein Fall eintreten, dass ein Thread deutlich länger brauch als die anderen, sodass beide CPUs gleichzeitig fertig werden, da beide in der Lage sind alle kleinen bzw. kurzen Threads schneller abzuarbeiten als den einen langen.
Daher ist es möglich, dass ein i7-7700k trotz weniger Cores/Threads mehr FPS liefert als ein i7-6900k, obwohl ein Spiel 8+ Lastthreads hat.

Dass man aber nicht auf eine bestimmte Kernanzahl optimieren kann (was du geschrieben hast), da stimme ich nicht zu.
Wenn das Maximum der Software nunmal 8 Threads sind, wurde sozusagen auf 8 Kerne/CPU Threads "optimiert" ;)
Deshalb hab ich auch geschrieben, dass du dir da irgendwie widersprichst, aber egal

Ne, ich habe nicht geschrieben, dass man es nicht kann. Ich habe geschrieben, dass man es nicht macht :d
Als Programmierer interessierst du dich nicht dafür, wie viele Kerne eine CPU hat und wie viele Threads sie gleichzeitig abarbeiten kann. Dir ist nur wichtig, dass die Leistung passt und du die CPU nicht überforderst. Dabei ist es egal ob deine Software 4,8 oder 16 Threads benutzt.
 
@bawder

Weiß jetzt auch nicht genau wie du auf Tuxerus kommst, aber bei vinacis_vivids stimme ich zu 100% zu :bigok: Vor dem is nie ein Intel Thread sicher höhö:lol:
bawder ist so ziemlich die letzte Person auf Erden, die durch Intelligenz glänzt. Über etwaige beeinflussende Vorgänge in der Vergangenheit will ich nicht spekulieren, aber naheliegend wäre es. Vielleicht hat ihn sein bester Kumpel mit einem AMD-System brüskiert?! Eine AMD-CPU lief schneller als sein Intel?! Wer kann sich schon in bawder hinein versetzen.... . :confused::confused::confused:

@Paddy92

Du laberst genauso wie holt und deine Zitierungen nerven auch so.
 
Zuletzt bearbeitet:

@Wini

Du laberst genauso wie holt

Oh danke das nehme ich doch direkt als Kompliment, da von Holt oft qualitative und sachliche Beiträge kommen, die relativ informativ sind :)
Im Gegensatz du deinen bashigen Wenigzeilern, die total unsachlich und nichts aussagend sind.


und deine Zitierungen nerven auch so.

Meinst du etwa diese Zitierweise? :d
Freut mich immer wieder, wenn ich nerven kann ;)
 
Das Zitieren hat halt leider auch den Nachteil das die geblockten Fanboys wieder da sind .
 
Der Knaller ist ja der: Geekbench skaliert eh nur bis 8 Threads. Wie stark müssen also die Kerne im Verband sein?! Singlecore bekomme ich auch 6188 auf 4.8 Ghz hin, Multicore aber dann nur 21160. Wenn Threadripper da auch nur 24.000 erreicht und Singlecore ist eh nicht der Rede wert bei Ryzen zusammen mit dem Takt, dann Halleluja. :d Dann ist der i9 verdammt schnell. Ich denke Intel haut hier richtig was raus. =)
 
Seit wann skaliert Geekbench nur bis 8 Threads?! Bezieht sich das auf die Windows Version oder was? Weil es auf macOS definitiv nicht der Fall ist.
 
@SkizZlz

Wenn die schon den 7820 so irre betreiben wird der 6-Kerner vermutlich auch in der Gegend angesiedelt gewesen sein.

Zitat:
"The Intel Core i7-7820X was overclocked to very extreme clock frequencies of 5802 MHz using LN2 cooling."

Ich würd mal einfach echte Benches abwarten, nicht LN2 bzw. "unbekanntes OC".
Kauf mir dann gegen Ende vom Sommer auch ein System (Threadripper oder die neuen Intel wird sich noch zeigen).
 
"In the benchmark posted over at the GeekBench 3 database, the Intel Core i7-7800X scored 6134 points in single and 37344 points in multi-threading tests. The chip was tested on an X299 Xpower Gaming AC motherboard and overclocked speeds were used."

Ich hab ehrlich gesagt nicht weiter den 7820X Beachtung geschenkt, da der aber ähnliche Punkte wie ein 7800X hat, wird der ebenso mit LN2 oced worden sein.

Naja abwarten.
 
Nein du scheinst einfach nicht zu verstehen, dass bei KBL bei Datengrößen > 8 MB der L3 Cache überläuft und die Daten in den Ram geschoben werden.
Das ist bei Ryzen EXAKT GENAUSO!

Ryzen hat das doppelte an L3-Cache und trotzdem sinken die Transferraten und die Latenzen schlagen aus, sobald zwischen den CCX kommuniziert werden muss, auch mit Datengrößen < 16 MB, welche nicht in den Ram ausgelagert werden müssen. Was jetzt KBL oder auch Broadwell aber deutlich von Ryzen unterscheidet ist, dass bei denen die Datenrate nicht so drastisch einbricht wie bei Ryzen. Bei Ryzen sinkt sie sogar unter die Datenrate vom Ram!
Erstens, nein, mit vergleichbarem RAM sind dessen Latenz und Transferraten bei Ryzen grundsätzlich nicht schlechter als bei Kaby. Das wurde ja nun mittlerweile auch von diversen Tests gezeigt. Und zweitens, weise doch erstmal nach, dass es so viel Kerntransfer zwischen den CCX gibt, dass das Infinity Fabric zum Flaschenhals wird. Solange du das nicht kannst, bleibt es nur leeres Gerede. Fakt ist, es wurden mittlerweile von mehreren Seiten auch Spiele mit unterschiedlichen CCX Konfigurationen getestet. Bis auf ein bis zwei kleinere Ausreisser, übrigens in beide Richtungen, gab es da keine Unterschiede. Ergo, das CCX Design hat auch auf Spiele keine relevanten negativen Auswirkungen. Dementsprechend haben das Latenz und Bandbreite auch nicht.

Wieso profitiert denn Ryzen so stark von schnellerem Ram?
Jeder Prozessor profitiert von schnellerem RAM, wenn die Datenmengen so gross werden, dass sie nicht konstant im L3 gehalten werden können. Da ist Ryzen keine Ausnahme und hat auch nichts speziell mit dem CCX zu tun. Das einzig spezielle am Ryzen ist, dass er keinen unified shared L3 besitzt, sondern zwei den CCX dedizierten L3. Das macht ihn aber nicht per se langsamer. Bis 8 MB gibt's da keinen nennenswerten Unterschied. Und oberhalb ist der Unterschied in der Praxis gering. Für AMD auf jeden Fall die richtige Entscheidung, diesen minimalen Nachteil in Kauf zu nehmen, dafür aber mehrere Designs zu vereinfachen und schneller auf den Markt bringen zu können, bei geringeren Kosten und damit für uns zu attraktiveren Preisen.

Ne, ich habe mich einfach nur ein bisschen über den schwachsinnigen Vergleich lustig gemacht
Daran war aber nichts schwachsinnig.

Und btw. die Aussage die du getroffen hast, war das eine Art Selbstreflexion
Falls das eine Frage werden sollte, nein. ;)

Ich meinte damit, dass die Software allgemein deutlich kleiner war und nicht so viele Daten über Threads austauschen musste wie heutzutage, wo Software riesiger und komplexer ist. Heutzutage arbeitet Software mit größeren Datengrößen als damals.
Der letzte Satz ist richtig. Nur ist das nebensächlich für Kernkommunikation. Synchronisierungsobjekte, die Kernkommunikation erfordern, egal ob OS-spezifisch oder selbstgeschriebene, haben sich kaum verändert.

Wie selber verstehst du keine Ironie?
Keine Sorge, ich habe die Ironie schon verstanden. Das ändert an meiner Antwort trotzdem nichts.

Ja es gibt noch Optimierungsmöglichkeiten bei der Software, ich habe nicht gesagt das es überhaupt keine gibt
Genauso klang es aber. Aber dann sind wir uns ja zumindest einig. Ein Programmierer kann sehr wohl dem Compiler dabei helfen, noch besser zu optimieren. Und das wird auch immer so bleiben. Alleine schon deswegen, da ein statischer Compiler keine Laufzeitdynamik kennt.


Aber du gehst davon aus ...
Ich gehe davon aus, dass die Möglichkeit besteht, dass es nicht stimmt was da steht. Ob jetzt absichtlich was falsches gesagt wurde oder es einfach nur Unwissenheit ist, war gar nicht mein Thema. Such dir also jemand anderen, dem du Worte in den Mund legen kannst, die nie gesagt wurden. Alle weiteren Unsachlichkeiten kannst du dir genauso sparen.

Ich möchte mal darauf hinweisen dass das ein Intel Thread und kein AMD Thread Wunschkonzert Thread ist.
Deshalb habe ich meine Antworten sogar in Spoiler-Tags gesetzt. Wenn du das nicht für notwendig hältst und den Thread weiter mit falschen Behauptungen und Unsachlichkeiten offen zuspammen möchtest, dann mache nicht mich dafür verantwortlich.

Na dann messe doch selbst wie hoch der Performanceabfall ist wenn über die Infinity Fabric kommuniziert werden muss.
Das kostet da teilweise 20% (Battlefield1) und da ist noch nicht mal der doppelte Cache mit rausgerechnet.
Nein, das kostet im Schnitt keine Performance. Die meisten Spiele verhalten sich gleich, egal ob zB mit 2+2 oder 4+0 Konfiguration. Es gibt Beispiele, da werden mit einer 2+2 Konfiguration sogar mehr FPS gemessen, zB in Dota 2. Was sagt uns das? Richtig, solche Ausreisser haben nichts mit der höheren Latenz und/oder der niedrigeren Bandbreite zwischen den CCX im Vergleich zum L3 zu tun. Die Ursachen dafür müssen woanders zu suchen sein. Wer diese logische Schlussfolgerung nicht einsehen will, der ist schlichtweg nicht objektiv bei diesem Thema. Typischer Fall von festgefahrener Meinungsbildung aufgrund von Halbwissen und dem Kursieren von oberflächlichen Behauptungen im Netz.

Ich rede vom 6900k vs 1800x, falls es dir nicht auffällt.
Und so ein Verhalten ist völlig normal da weiter entfernte L3 Segmente die Daten etwas langsamer liefern.
Dass darf aber niemals so stark nach oben gehen wie be Ryzen vom Sprung auf 4mb zu 8mb, da liegt nocht einiges im Argen.
Beim Ryzen geht von 4 auf 8 MB nichts stark nach oben. Nach oben geht es erst ab der Grösse des direkt angebundenen L3 Caches. Wie bei Intel auch. Egal ob Kaby, BDW-E oder was auch immer. Im Fall von Ryzen beträgt diese Schwelle 8 MB. Da liegt also nichts im Argen. Das wünschst du dir nur.

Aber nicht bei bereits deutlich weniger als der Hälfte an L3 Cache.
Ist bei Ryzen ja auch nicht anders.

Die Infinity Fabric limitiert hier massiv und das kostet AMD Konkurrenzfähigkeit und Leistung..
Falsch. Infinity Fabric limitiert hier nichts und ist für die kommende Zeit ein grosser Pluspunkt von AMD. Vega und Raven Ridge werden die nächsten Vertreter. IF ermöglicht komplett kohärente Systeme. Aber davon scheinst du nichts zu verstehen und willst es auch nicht. Diskussion daher zwecklos.

Und sogar innerhalb eines CCX stimmt die Cache Latenz nicht.
Sie ist, bezogen auf den L3, niedriger als bei Intel. Wie viel stimmiger soll es denn sonst noch werden?

Ja das stimmt, ich habe mich überall vertan.
Hab das mal für dich korrigiert. So stimmt es.

Ich weiß natürlich dass es ein Victim Cache ist
Ja, jetzt. :rolleyes: Wie war das nochmal mit dem windenden Aal bei seinen letzten Zuckungen? Schon lustig, was du dir hier alles zusammenphantasierst. Was einem nicht passt, wird einfach ignoriert. Ich zeige dir zB klare Belege dafür, dass Ryzen bis 8 MB keinen signifikanten L3 Latenzanstieg zeigt, du behauptest trotzdem weiterhin stur das Gegenteil. Hier nochmal in Zahlen:
Code:
...
 512 K    17                       1   
   1 M    29                      12   + 23 (L3)
   2 M    35                       6
   4 M    37                       2
   8 M    39 +  5 ns       2 +  5 ns
  16 M    40 + 48 ns       1 + 43 ns   + 90 ns (RAM)
...
Wer nicht auf beiden Augen blind ist, sieht den deutlichen Latenzanstieg erst oberhalb der 8 MB.

Und das legt nur einen Schluss nahe. Du willst gar nicht sachlich und objektiv diskutieren und Gegenargumente akzeptieren oder zumindest darauf eingehen. Du willst nur Ryzen irgendwas negatives andichten, teils mit erfundenen und schlichtweg falschen Behauptungen. Über Motive kann sich jeder seine eigene Meinung bilden. Die dürften aber nicht schwer zu erraten sein. Jede weitere Diskussion mit dir führt daher zu nichts. Kannst dir also weitere Antworten sparen. Du kommst auf Ignore.
 
Zuletzt bearbeitet:
Das ist bei Ryzen EXAKT GENAUSO!

Ja toll reiß die Aussage voll aus dem Kontext. :d
Außerdem ist es nicht EXAKT GENAUSO, da Ryzen DOPPELT SOVIEL L3-Cache hat und DATENGRÖßEN VON 8 MB noch NICHT IN DEN RAM AUSLAGERN MUSS, er aber SCHON ANFÄNGT ZU SPIKEN bei den Latenzen, obwohl KEINE DATEN IN DEN RAM AUSGELAGERT WURDEN, sondern IN DEN ANDEREN CCX AUSGELAGERT WURDEN!

(Meine Caps-Lock-Taste funktioniert auch :3 )

Erstens, nein, mit vergleichbarem RAM sind dessen Latenz und Transferraten bei Ryzen grundsätzlich nicht schlechter als bei Kaby. Das wurde ja nun mittlerweile auch von diversen Tests gezeigt. Und zweitens, weise doch erstmal nach, dass es so viel Kerntransfer zwischen den CCX gibt, dass das Infinity Fabric zum Flaschenhals wird. Solange du das nicht kannst, bleibt es nur leeres Gerede. Fakt ist, es wurden mittlerweile von mehreren Seiten auch Spiele mit unterschiedlichen CCX Konfigurationen getestet. Bis auf ein bis zwei kleinere Ausreisser, übrigens in beide Richtungen, gab es da keine Unterschiede. Ergo, das CCX Design hat auch auf Spiele keine relevanten negativen Auswirkungen. Dementsprechend haben das Latenz und Bandbreite auch nicht.

Ich hatte nen Link zu nem Video gepostet...
Dort ist zu sehen, dass man ~20% FPS verliert, nur wenn man von 2+0 zu 1+1 wechselt...
Und jetzt kommt eine Spekulation von mir. Ein R7 1800x und ein 6900k trennen bei gleichem Takt ~15% zugunsten des 6900k. Ja ich weiß jetzt kommt wieder "mimimi es wurde jahrelang nur für Intel optimiert mimimi", aber könnte es nicht sein, dass ein Ryzen Spezifika *hust* Infinity Fabric *hust* dafür verantworklich ist?


Hier mal ein paar Links:
Ashes of the Singularity Gets Ryzen Performance Update | PC Perspective
The AMD Ryzen 7 1800X Review: Now and Zen | Gaming Performance
AMD Ryzen and the Windows 10 Scheduler - No Silver Bullet | PC Perspective
https://www.pcper.com/reviews/Processors/Ryzen-Memory-Latencys-Impact-Weak-1080p-Gaming/Timings-timings-timings
AMD CCX Compromises | techPowerUp
Indices de performance - AMD Ryzen 7 1800X en test, le retour d'AMD ? - HardWare.fr (Quelle wovon techpowerup die Daten hat)


Jeder Prozessor profitiert von schnellerem RAM, wenn die Datenmengen so gross werden, dass sie nicht konstant im L3 gehalten werden können. Da ist Ryzen keine Ausnahme und hat auch nichts speziell mit dem CCX zu tun.

Ryzen profitiert viel mehr von schnellem Ram als Intel CPUs.
Zudem ist die Geschwindigkeit der Data Fabric vom Ram abhängig.

AMD Ryzen Infinity Fabric Ticks at Memory Speed | techPowerUp



Der letzte Satz ist richtig. Nur ist das nebensächlich für Kernkommunikation. Synchronisierungsobjekte, die Kernkommunikation erfordern, egal ob OS-spezifisch oder selbstgeschriebene, haben sich kaum verändert.

Doch sie haben sich verändert, da deutlich mehr Daten und größere Daten synchronisiert werden müssen.
 
Zuletzt bearbeitet:
Paddy, Infinity Fabric hat kaum bis nichts mit der Performance zu tun, schonmal das Datum deiner Artikel angesehen?

Komisch, dass seitdem keine solchen Aussagen getätigt wurden ;)

ps. zumindest bei Spielen, scheint der Ram genauso zu skalieren wie bei Intel auch...
Does Ryzen Really Need Fast Memory? Guide for Gamers - YouTube

Außerdem, falscher Thread für so eine Diskussion mMn.
 
Zuletzt bearbeitet:
Das ist bei Ryzen EXAKT GENAUSO!

Du erzählst Geschichten aus dem Paulanergarten mein lieber Freund.
Ryzen hat 16MB L3 Cache Broadwell E besitzt 20MB L3.
Bei Ryzen fallen die Latenzen bei 4MB bereits stark ab, bei Broadwell E erst ab 17mb.
Kabylake hat selbst nur 8MB Cache, logisch dass er bei mehr als 8MB auf RAM Speed zurückfällt, Ryzen sollte das nicht, aber da die Infinity Fabric ja so langsam ist tut Ryzen das eben schon, obwohl man 16mb zur Verfügung hat.
Und das koset eben vor allem in Spielen Leistung und genau dieser Zusammenhang ist der Begründung für AMDs Spieleschwäche im Verhältnis zur Anwendungsperformance.

Genau deshalb wird Skylake X hier ja auch deutlich in Führung gehen was Gamingleistung angeght.:)
Bei Ryzen wäre ein schneller RAM vorteilhalft um das auszubügeln, das wird auch noch kommen, ergo ist alles nicht so schlimm für AMD.

Erstens, nein, mit vergleichbarem RAM sind dessen Latenz und Transferraten bei Ryzen grundsätzlich nicht schlechter als bei Kaby.

Ryzen hat einen geringen Vorteil bei Blöcken <4mb, danach ist Ryzen aber weit weit weg, egal ob Kabylake, Skylake X oder gar Bulldozer.
Langsame Caches kosten Performance. Ryzen wäre mit einem nativen 8Core Design erheblich schneller, aber dazu fehlte wohl einfach das Geld.
Ein nativer 8 Core AMD Ryzen könnte vielleich gar noch kommen. Bringt vor allem in Spielen was.;)

Ich gehe davon aus, dass die Möglichkeit besteht, dass es nicht stimmt was da steht.

Diese Möglichkeit scheint vor allem bei deinen Postings eminent zu sein.
Man wäre ja schwer von Begriff sollte man nicht erkennen um was es dir geht.
Geh doch mal an die frische Luft oder treibe ab und zu Sport, das befreit.

Deshalb habe ich meine Antworten sogar in Spoiler-Tags gesetzt. Wenn du das nicht für notwendig hältst und den Thread weiter mit falschen Behauptungen und Unsachlichkeiten offen zuspammen möchtest, dann mache nicht mich dafür verantwortlich.

Wasser predigen und Wein trinken.:shot:

Nein, das kostet im Schnitt keine Performance.

Na dann lügst du aber hier mein Freund. 1+1 statt 2+0 oder 2+2 statt 4+0 ist mit doppeltem Cache pro CCX quasi immer langsamer.
Bis zu 20% trotz doppeltem Cache pro CCX. Heißt es könnten ohne den doppelten Cache zu berücksichtigen im schlimmsten Fall sogar mehr als 30% sein.
Da muss man leider sagen dass die Infinity Fabric in einigen Fällen überhaupt nicht funktioniert oder einfach zu wenig Bandbreite bzw. zu hohe Latenzen hat.

Das macht natürlich Ryzen keinesfalls schlecht.:)

Beim Ryzen geht von 4 auf 8 MB nichts stark nach oben.

Doch doch!
pennermas5a.png


Von 15,07 auf 49,27 von 4 auf 8mb und bei 4 auf 6mb sinds auch schon 38,61, deutlich mehr als bei jedem Skylake/Broadwell und auch Sklake x.
Mehr als die dreifache Latenz innerhalb eines CCX.
Wäre man böse würde man sagen, da ist bei Ryzen ordentlich was kaputt.
Oder ein Scherz: Ryzen wurde unter der Leitung von Jim Keller gebaut und nachdem der L2 Cache fertig designed war, hat er dann das Unternehmen verlassen und der L3 wurde dann scheiße.

Falsch. Infinity Fabric limitiert hier nichts und ist für die kommende Zeit ein grosser Pluspunkt von AMD.

Langsam arbeitende Caches sind kein Pluspunkt, sondern ein Negativpunkt.
Wenn ein Sprinter A schneller ist als Sprinter B, erklärst du dann auch Sprinter B als Sieger?
Achso ich verstehe, natürlich nur wenn Sprinter B AMD heißt.:shot:

Sie ist, bezogen auf den L3, niedriger als bei Intel. Wie viel stimmiger soll es denn sonst noch werden?

Am Anfang leicht niedriger, bringt garantiert auch bisschen was, später dann erheblich schlechter.
Bitte nicht lügen.

Razorlight schrieb:
Paddy, Infinity Fabric hat kaum bis nichts mit der Performance zu tun, schonmal das Datum deiner Artikel angesehen?

Ach Razorlight... wenn bei 1+1 2+2 die Leistung teilweise deutlich hinter 2+0 und 4+0 trotz halbem l3 Cache hängt dann ist das einfach ein Faktum.
Wäre die Infinity Fabric kein Problem, wäre die Leistung meistens eher besser (doppelter L3).
Wenn du einen Ryzen Prozessor besitzt kannst du das im Bios selbst einstellen und selbst testen. Probier es doch einfach mal aus, anstatt Müll zu labern.
Denn was für den AMD Koleriker nicht sein darf, darf nicht sein. Oder so siehts doch aus oder?:shot:

Außerdem, falscher Thread für so eine Diskussion mMn.

Find ich nicht. Genau diese langsamen Caches werden bei Threadripper und Ryzen die Punkte sein, wieso sich die Leute dann leider doch wieder einen Intel ins System stecken werden.
Ich würde AMD mehr Erfolg gönnen, aber im lezten Detail hakt es bei AMD bekanntlich fast immer.
 
Zuletzt bearbeitet:
Ich hätte mal gerne Realanwendungen, die bei 2+2 langsamer laufen, als bei 4+0. Und zwar bitte merkbar.
 
Paddy, Infinity Fabric hat kaum bis nichts mit der Performance zu tun, schonmal das Datum deiner Artikel angesehen?

Komisch, dass seitdem keine solchen Aussagen getätigt wurden ;)

Ja ich habe das Datum der Artikel gesehen, so was ist dein Punkt? Hat sich die Architektur von Ryzen seitdem etwa geändert?
Und was für Aussagen wurden seitdem nicht mehr getroffen?
Hier ist ein Artikel zu dem Ryzen Patch für Rottr vom 30.05.17. Der Ryzen hat durch den Patch ~17% mehr FPS (zufällig genauso viel wie der Draw call Test den ich vorher gepostet habe) bekommen, während der bummelige ~2% zugenommen hat, was ehr unter Messtoleranz fällt. Dadurch wird deutlich, dass es spezifische Anpassungen für Ryzen gegeben hat. In dem Artikel wird vermutet und ich vermute dies auch, dass diese Optimierungen wohl im Bezug auf die Infinity Fabric gemacht wurden oder warum sollte der Autor weiter oben die erhöhten Speicher Latenzen, als Ryzen Spezifika, ins Spiel bringen?

Nein hat sie nicht?
Hast du dir denn das Draw-Call Video angesehen?
Du meintest doch, du kennst dich etwas mit der Materie aus. Dann müsstest du doch wissen, dass die L3-Caches eine niedrige Latenz und schnelle Datenraten haben sollen. Bei CCX externer Kommunikation über die Infinity Fabric spikt die Latenz und die Datenrate sinkt = schlecht. Kann bei Cache sensiblen Anwendungen zu Performanceverlust führen, muss aber nicht.


Um nicht nur Off-Topic zu sein, hier mal was zum Thema.

Intel hat bei Skylake-X den langsamen Ringbus durch ein Mesh-artiges Gitter ersetzt, sodass alle Kerne direkt miteinander kommunizieren können. So werden die Latenzen beim LLC (L3-Cache) reduziert. Es ist also das Ziel möglichst geringe Latenzen und hohe Datentransferraten beim LLC zu haben.

Skylake-X/-SP: Intel gibt den langsamen Ringbus auf
Intel Introduces New Mesh Architecture For Xeon And Skylake-X Processors
 
Zuletzt bearbeitet:
Wie sieht das eigentlich mit der Mesh-Struktur aus? Ist diese Aussage schon sicher?
Intel präsentiert Core-X-Series-Prozessoren mit bis zu 18 Kernen - Hardwareluxx
Eine kleine Information haben wir auch noch zum früher vorhandenen Ringbus. Diesen gibt es bei Skylake-X nicht mehr. Stattdessen setzt Intel auf eine Mesh-Struktur für die Interconnects.
Im Zusammenhang mit Mesh wurde immer Xeon (Skylake-SP) genannt und bisher gibt es ja nur den Die-Shot vom 18-Kerner der nachträglich von den Xeons auf Skylake-X gezogen wurde.
Sprich, ist es sicher, dass auch die 6 bis 10-Kerner auf Mesh setzen?
 
Zuletzt bearbeitet:
Ich bin mir fast 100%ig sicher, dass die 6- bis 10-Kerner genauso wie bisher mit ihrem bidirektionalen Ringbus auskommen müssen, was aber auch nicht schlimm ist, für die "kleinen" hat der eine Ringbus ja immer gereicht, und ein Mesh würde kaum Vorteile bringen.
Nur wenn dann bei noch mehr Kernen mehrere Ringe miteinander kommunizieren müssen, dann wird's komplexer und langsamer - und deswegen gibt's jetzt Mesh, so wie schon bei Knights Landing.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh