RYZEN: AMD präsentiert weitere Details zu den Dektop-Prozessoren mit Zen-Architektur

Die "Quelle" ist schlichtweg Fake.

Wer zumindest seinen Verstand benutzen kann und nicht völlig blind auf zwei Augen ist, konnte erwarten, dass diese Scores nicht von einem finalen 8C/16T Zen stammen können. Aber schon lustig, wie einige immer sofort auf sowas anspringen und alles gleich für bare Münze nehmen. Und dann noch diese Puppenaccounts :rolleyes:
Korrigier mich falls ich falsch rechne, bin es halt vom ECC gewohnt. :d

Bei 40% IPC ganz nackt berechnet wäre das 40% mehr Insgesamt als Excavator, aber nur mit 8 Threads.
Mit 16 Threads müssen doch dann weitere 40% SMT Skalierung oben drauf kommen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum baut Intel, AMD den DIE nicht einfach etwas größer?
So könnte man durch den dazugewonnen "Platz" ja nochmal 4 "Echte" Kerne reinstopfen.

Es wird durch SMT(Fake- Kerne) vor allem das in den Kernen genutzt, was teilweise brach liegt. Also ohne viel Aufwand und Fläche mehr Leistung aus dem rausgeholt, was man sowieso braucht. Ein >4- Core ohne SMT würde also eher Leistung verschwenden. Und generell den Markt mit billigen >4- Cores fluten muss Intel nicht - die sind ja aktuell sowieso Marktführer... Mit AMDs RyZen Offensive könnte sich das natürlich dann hoffentlich demnächst ändern.
 
Und was hat man von 8 kernen?
Zumindest die OC/Gamer Fraktion wird den 8 Kerner nicht anfassen!
Da ist man mit dem Kaby 4C/8T @ 5 GHz bei fast allen Sachen besser dran als mit dem AMD. Seht es ruhig als Fanboy Gelaber....
Fakt ist.
Jemand der 4+GHz So1366 6C/12T CPU bzw. Sandy @4,5+ GHz besitzt kann nur intelligent auf Kaby wechseln.
Die guten Z170/270 boards kosten 150€ und die CPU 300€. Hinzu kommt DDR4 RAM .
Man wäre schon schön blöd auf AMD zu wechseln. Die Kosten sind am Ende max. 100€ auseinander. Mit dem Kaby wird man mehr Gamingperfomance erhalten @ 5 GHz.





Gesendet von iPhone mit Tapatalk

oder man wechselt garnicht ;) - weil an der CPU performence scheitert bei mir atm garnix
 
Was manche für Vorstellungen haben.
Dualchannel reicht dicke fürs Gaming. Gerade da die Module dann auch schneller sein können und die chipfläche nochmals kleiner ist. Quad oder sixxchannel ist nur im Serverumfeld interessant wenn man auch Mal 1TB RAM adressieren will.

Und nur am Rande sind 2/3 der chipfläche bei Intels Quads die iGPU... AMD ist nur nicht mitgegangen damit man nun ein besseres comback hat. Bulldozer gabs doch bisher immer noch in 28nm? Das ist schon gut so wie man mit Zen an den Start geht.

Ich verstehe auch nicht wo das Problem ist. IPC auf haswell Niveau oder etwas besser. 3,4ghz basistakt sind auch mehr als beim 5960x. Leistung stimmt also. Und beim Preis hat man genug Spielraum. Zumindest interessanter als noch einmal einen Quadcore im Jahre 2017.

Alle modernen Spieleengine skalieren immer besser mit mehr Kernen. Selbst unter dx11. In dx12 sowieso. Da kann man auch mit 5ghz an der kotzgrenze nicht gegen anstinken. War nicht anderes wie damals Dualcore vs Quad.

Dx11. Auf 2,5ghz untertaktet.
The-Division-Final-CPU-Core-Scaling-Core-i7-5820K-pcgh.png
 
Zuletzt bearbeitet:
Und was hat man von 8 kernen?
Zumindest die OC/Gamer Fraktion wird den 8 Kerner nicht anfassen!
Da ist man mit dem Kaby 4C/8T @ 5 GHz bei fast allen Sachen besser dran als mit dem AMD. Seht es ruhig als Fanboy Gelaber....
Fakt ist.
Jemand der 4+GHz So1366 6C/12T CPU bzw. Sandy @4,5+ GHz besitzt kann nur intelligent auf Kaby wechseln.
Die guten Z170/270 boards kosten 150€ und die CPU 300€. Hinzu kommt DDR4 RAM .
Man wäre schon schön blöd auf AMD zu wechseln. Die Kosten sind am Ende max. 100€ auseinander. Mit dem Kaby wird man mehr Gamingperfomance erhalten @ 5 GHz.





Gesendet von iPhone mit Tapatalk

Sagt jemand, der sich ein Billig-Sys zusammengebaut hat. Dein Mainboard damals billig geschossen, genau wie den Xeon. Für die fetten Intels reichts wohl nicht, geschweige einer gescheiten Grafikkarte?!
Fanboy trifft bei dir ins Schwarze. Wieso muss man immer dermassen provozieren, haten und vor allem Dünnpfiff verbreiten????? Der Thread verkommt zu einer ekelhaften Monstrosität. :shake:

Wobei die Performance deines Systems schon beachtlich ist...... . :haha:
 
Zuletzt bearbeitet:
Ist die Größe genormt?
Es geht vor allem um die Kosten, die Wafer sind immer gleich groß und kosten etwa gleich viel in der Herstellung (solange man nicht auf 3D Strukturen geht die viel mehr Bearbeitungsschritte benötigen wie es bei NAND aktuell der Fall ist). Je mehr Dies man aus einem Wafer bekommen kann, umso günstiger ist die CPU hinterher herzustellen. Außerdem passieren bei der Herstellung immer auch Verunreinigungen und auch wenn man zuweilen die Chips selbst dann noch als teildefekte Chips verwerten kann, ist dies nicht immer der Fall. Je größer ein Chip wird, umso wahrscheinlicher hat er einen Defekt und ist wirtschaftlich es doppelt vorteilhaft keine Chips zu fertigen.
Ist das ganze nicht mehr Kühlbar da zuviel abwärme Produziert wird? (Wäre für mich das Logischste)
Das kommt dazu, die Schaltungen erzeugen Abwärme und dann hätte man mehr Leistungsaufnahme und Aufwand bei dr Kühlung und müssten vermutlich trotzdem weniger Takt fahren, hätte also bei Singlethread weniger Leistung. Man kann mit den Turbotakten einiges machen, aber auch da gibt es Grenzen.

Außerdem wollen die Kerne auch gefüttert werden, daher muss wie schon erwähnt wurden dann das RAM Interface breiter werden um sie mit Daten zu versorgen und auch intern wird der Aufwand höher um alle Kerne an die Dinge im Uncore anzubinden, wie eben den RAM Controller und die PCIe Lanes, was dann zu mehr Latenz bei der Anbindung führt und wiederum bei Singlethread zu weniger Performance. Es gibt ja auch von Intel CPU mit viel mehr Kernen, bis zu 24 derzeit und demnächst wohl bis 32 auf einem Die, aber die sind eben für ganz andere Anwendungen optimiert und gedacht. Die wären für Gamer auch alles andere als optimal, selbst wenn man vom Preis mal ganz absieht.

War SMT nicht eher bei 25-30% Leistungsplus?
Wie viel SMT bringt, hängt vor allem vom Programm und dann von der Effizienz der Architektur ab. Bei den alten P4 und Atoms mit ihrer In-Order Architektur hat SMT meist sehr viel gebracht, denn die mussten alle Nase lang auf Daten warten und dann kann man eben die Recheneinheiten im Kern mit dem zweiten Thread in der Zeit auslasten. Bei den modernen Out-Of-Order Architekturen mit ihren internen Optimierungen die dafür sorgen, dass andere Befehle vorgezogen werden wenn diese nicht vom Ergebnis der Befehle abhängen die auf Daten warten und en Vorhersagen die auch versuchen Daten vorab zu laden die gebraucht werden dürften, bringt SMT eben oft wenig bis nichts, denn je besser diese Mechanismen funktionieren, umso seltener muss ein Thread auf Daten warten und lässt den anderen dann die Recheneinheiten nutzen und natürlich wird dann die IPC auch umso besser.

Wenn als SMT auf RYZEN mehr bringt als beim gleichen Programm auf einer aktuellen Intel CPU, dann zeigt es nur das AMD noch mehr Optimierungspotential bei der Architektur zur Steigerung der IPC hat.
 
Bei den modernen Out-Of-Order Architekturen mit ihren internen Optimierungen die dafür sorgen, dass andere Befehle vorgezogen werden wenn diese nicht vom Ergebnis der Befehle abhängen die auf Daten warten und en Vorhersagen die auch versuchen Daten vorab zu laden die gebraucht werden dürften, bringt SMT eben oft wenig bis nichts

In Programmen, die keine gut vorhersagbare Last erzeugen, kann es sogar Leistung kosten, weil die Threads ständig umverteilt werden müssen, je nach Auslastung des zweiten Threads auf dem Kern. Ist beispielsweise bei vielen 8- Kern- Spielen der Fall, die noch nicht im CPU- Limit sind... Der Leistungsverlust ist gegenüber reinen 4 Kernen dann zwar gering, aber vorhanden. Auch mit ein Grund, warum so viele Hardwarekerne wie unterstützte Threads vorhanden sind, ohne SMT, bei Spielen Sinn ergeben.
 
Bei den modernen Out-Of-Order Architekturen mit ihren internen Optimierungen die dafür sorgen, dass andere Befehle vorgezogen werden wenn diese nicht vom Ergebnis der Befehle abhängen die auf Daten warten und en Vorhersagen die auch versuchen Daten vorab zu laden die gebraucht werden dürften, bringt SMT eben oft wenig bis nichts, denn je besser diese Mechanismen funktionieren, umso seltener muss ein Thread auf Daten warten und lässt den anderen dann die Recheneinheiten nutzen und natürlich wird dann die IPC auch umso besser.

Du denkst viel zu kurz dabei... SMT ist bei weitem nicht nur/ausschließlich für irgendwelche Sortierung von Befehlen gut. Sondern sorgt für höhere Auslastung der Einheiten. Eine CPU bzw. besser, ein Kern besteht nunmal nicht nur aus einer ALU und gut. Sondern im aktuellen Fall sind das 4x ALUs beim Zen, zumindest soweit die Daten bisher richtig und bei Intel ab Haswell, Skylake kann dabei sogar 5-6 "Befehle" decodieren, wärend das bei Haswell noch 4 waren, bei Zen? Keine Ahnung, ob da schon was bekannt ist. Dazu gesellt sich noch die FPU. All das will mit Arbeit gefüttert werden. Kommt nun ein eher mau skalierender Code zum Einsatz, sorgt SMT im meist praxisfremden best case dafür, dass da annähernd doppelte Performance bei rum kommt. Einfach weil schlicht und ergreifend alles im Prozessor mehr kann, die Ausführung dieses (idR sequenziellen) Codes aber mehr (gleichzeitig) nicht zulässt. Hier springt der/ein zweiter Thread auf dem selben physischen Core ein -> und es lüppt.

Und nein, auf einem AMD Prozessor wird höchstwarscheinlich SMT nicht besser skalieren. Aber das bleibt abzuwarten. Maßgeblich dafür dürfte wohl sein, wie viel Durchsatz der Prozessor schafft. Mit "mehr Optimierungspotential bei der Architektur zur Steigerung der IPC" hat das irgendwie nicht viel zu tun... Wenn du da 16 ALUs drauf knallst, kannste mit 4-way oder gar 8-way SMT noch eine gute bis sehr gute Skalierung raus holen. Die pro Takt-Performance (IPC) wird damit aber bestenfalls unwesentlich steigen -> wohl eben, weil der Code gar nicht in der Lage wäre, über derart viele ALUs zu skalieren.
Auch kannst du, im linken Thread INT-Load und im rechten Thread FPU-Load drauf hauen und hast dank/mit SMT eine fast perfekte Skalierung -> also ähnlich/fast gleich zwei physisch unabhängigen Cores, wo eben jeweils nur die ALUs und nur die FPU belastet sind/waren. Darf dann blos nix anderes anfangen zu deckeln. Bspw. der Decoder... -> auch das wird wohl ziemlich sicher bei AMD mit Zen nicht anders ausfallen als bei Intel.

In Programmen, die keine gut vorhersagbare Last erzeugen, kann es sogar Leistung kosten, weil die Threads ständig umverteilt werden müssen, je nach Auslastung des zweiten Threads auf dem Kern. Ist beispielsweise bei vielen 8- Kern- Spielen der Fall, die noch nicht im CPU- Limit sind... Der Leistungsverlust ist gegenüber reinen 4 Kernen dann zwar gering, aber vorhanden. Auch mit ein Grund, warum so viele Hardwarekerne wie unterstützte Threads vorhanden sind, ohne SMT, bei Spielen Sinn ergeben.

Das eine hat mit dem anderen aber nix zu tun... Leistung kostet SMT dort, wo das OS unnötigerweise die Last ungünstig verteilt... Und das tut es hin und wieder bzw. sogar recht häufig... Warum? Weil es VORHER nicht weis, was da für Last erzeugt wird. Woher soll es das auch wissen? Seit Win7 klappt das aber dahingehend ganz brauchbar (unter Win zumindest), dass das OS möglicherst erst den SMT Part belastet, wenn nicht mehr freie Threads anderer Cores frei sind.
Mal davon ab, Ressourcensharing kostet in 99,99% IMMER Leistung. Und genau das tut SMT... Das ist/wäre/wird aber ohne SMT exakt identisch sein, nämlich in dem Fall, wenn sich zwei Softwarethreads unter Last einen physischen Core teilen müssen. Das kommt genau dann vor, wenn eben (wie ab Win7 schon) keine freien Threads mehr vorhanden sind.

Das ist übrigens auch ein Grund, warum die Bulldozer FX8er dort nicht wirklich wegbrechen... Da ist in der Breite einfach mehr da. Ob und wie man sich das dann schön redet, bleibt jedem selbst überlassen... Wenn vier Cores samt SMT unter zu hoher Last einknicken, bei halber Last aber deutlich schneller sind, ist das aus meiner Sicht dennoch ein Vorteil -> und wenn das Einknicken alle Nase lang zu sehen ist, hat man sein Prozessor nicht breit genug gewählt. :wink: Auch hier wird Zen ziemlich sicher keine Ausnahme machen. Kurzum, der Quadcore + SMT wird ziemlich sicher ein ähnliches Verhalten an den Tag legen. Ob er dann vor- oder nach dem Bulldozer FX8 oder FX9 raus kommt, sehen wir dann demnächst...
 
Zuletzt bearbeitet:
Alle modernen Spieleengine skalieren immer besser mit mehr Kernen. Selbst unter dx11. In dx12 sowieso. Da kann man auch mit 5ghz an der kotzgrenze nicht gegen anstinken. War nicht anderes wie damals Dualcore vs Quad.

Kleiner Tipp für den Unwissenden. Wenn du Prozessoren weit unter deren normalen Taktraten betreibst, ergibt sich für Mehrkerner ganz automatisch eine bessere Skalierung.
Machst du das mit den Standardtaktraten, dann bringt ein 6er oder 8er fürs Gaming sogut wie gar nichts.

Da kann man auch mit 5ghz an der kotzgrenze nicht gegen anstinken.

Oh doch das kann man. Die wenigsten Games profitieren von mehr als 4 Threads,die allerwenigsten, nur jetzt bringt AMD einen 8Kerner auf den Markt also muss das Marketing in den Foren dafür anlaufen.
Wieviel bekommst du für das Marketing? 50 Euro im Monat?
 
Na das mit mehr als 4 Threads kommt zusehens, so unter den Teppich kannst das nicht mehr kehren.
Von der Mehrheit ist noch nicht zu reden, aber nen Prozessor kauft man ja heute nicht mehr für 1-2 Jahre sondern eher für 3-5.
 
Na das mit mehr als 4 Threads kommt zusehens, so unter den Teppich kannst das nicht mehr kehren.
Von der Mehrheit ist noch nicht zu reden, aber nen Prozessor kauft man ja heute nicht mehr für 1-2 Jahre sondern eher für 3-5.

Man sollte sich allerdings bei den Aussagen auch Festlegen, was man überhaupt aussagen will... Potentiell JEDES Spiel kann über eine beliebige Anzahl an Threads ziemlich gut skalieren, wenn man dem Titeln einfach zusätzliche Berechnungen drauf drückt. KI oder Physikberechnungen eignen sich dafür ziemlich gut.
Deswegen bekommt man aber ab einem gewissen Punkt nicht mehr FPS. Vor allem nicht in DX11 und älter. Bei DX12/Vulcan kann das möglicherweise anders ausfallen, aber das werden wir sehen. Verpauschalisieren ist halt unsinn. Dann noch mit so nem Bild, wo größer Quadcore effektiv keine Skalierung mehr da ist :wall:

PS: die Masse dürfte schon immer 3-5 Jahre ihre Hardware behalten ;)
 
Kleiner Tipp für den Unwissenden. Wenn du Prozessoren weit unter deren normalen Taktraten betreibst, ergibt sich für Mehrkerner ganz automatisch eine bessere Skalierung.
Machst du das mit den Standardtaktraten, dann bringt ein 6er oder 8er fürs Gaming sogut wie gar nichts.



Oh doch das kann man. Die wenigsten Games profitieren von mehr als 4 Threads,die allerwenigsten, nur jetzt bringt AMD einen 8Kerner auf den Markt also muss das Marketing in den Foren dafür anlaufen.
Wieviel bekommst du für das Marketing? 50 Euro im Monat?

Zen ist für mich persönlich ziemlich uninteressant, da ich bereits seit 2 Jahren die Leistung in meinem Rechner habe. PCGH hat bei allen aktuellen Spielebenchmarks eine CPU-Kernskalierung mit dabei. Da kann man praktisch fast jeden Benchmark der letzten 3 Jahre nehmen.

Interessant ist eher die Tatsache, dass damals als die ersten QuadCores auf den Markt kamen es wirklich keine Spiele-Software gab die davon gebrauch machen konnte. Exakt 0,00% Untersschied zwischen DualCore vs gleichgetaktetem QuadCore. Dennoch waren auf lange Sicht die QuadCores die bessere Wahl. E6600 vs Q6600 (beide 2,4GHz)
https://www.computerbase.de/2007-04/test-intel-core-2-extreme-qx6800/16/

Heute sieht es bereits so aus, dass die meisten aktuellen Titel sehr wohl bereits mit mehr als 4 Cores skalieren, aber dennoch wollen wohl einige dies nicht wahrhaben. bereits vor 2 Jahren war das beim Release des 5960x der Fall.
https://www.computerbase.de/2014-08...#diagramm-call-of-duty-black-ops-ii-640-x-480
https://www.computerbase.de/2015-08.../#diagramm-call-of-duty-advanced-warfare-720p

Nicht vergessen, zwischen Stock 5960x und 4790k liegen 1GHz im Basistakt und 700MHz im Turbo. Auch der 6700k kann die Kerne nicht mit mehr Takt kompensieren. Diese Skalierungsverhältnisse kann man bei jeder aktuellen Engine beobachten. Ich erspare mir die 5000 Links der letzten 3 Jahre die man sich dazu auch selbst ergooglen kann.

Aber ist wie mit dem VRAM. Die Erkenntnis kommt immer erst etwas später. (Mehr als 4 Kerne bzw 2GB VRAM wird man nie brauchen. Alles Overkill für FullHD.)
 
Zuletzt bearbeitet:
Diese Skalierungsverhältnisse kann man bei jeder aktuellen Engine beobachten. Ich erspare mir die 5000 Links der letzten 3 Jahre die man sich dazu auch selbst ergooglen kann.

Besser ist ;) Denn das geht wieder in die Schlüpper, wenn die Zusammenhänge nicht verstanden werden...
Nur mal als Hinweis, 640x480 oder allgemein, LowRes Vergleiche sind an der Stelle reichlich unsinnig, da du ja den Engines diese Fähigkeiten zuschreibst. Nun ist es aber für gewöhnlich so, dass im quasi vollständigen CPU Limit der GPU Treiber extrem hohen Einfluss auf die FPS hat. Dazu noch massive Unterschiede zwischen NV und AMD GPU vorhanden sind.

Wir wissen nicht erst seit gestern, dass NV GPUs im CPU Limit (Stichwort DX Overhead) massiv besser dastehen können. Und welch Wunder, der NV Treiber skaliert über die CPU Breite. -> mit der Engine hat das generell wenig bis gar nix zu tun.
Mal davon ab, hast du denn deine Links selbst mal gelesen? Du verlinkts einen BO2 Test in 640x480 auf einer NV GPU mit ~30% Vorsprung des Oktacores zum Quadcore. Und in realen (oder realitätsnahen) Bedingungen ist der auf einmal 5% langsamer... seriously??? Ich glaube nicht...
 
Zuletzt bearbeitet:
Ein low-Res-Benchmark ist nicht tragisch. Soviel ändert sich da nicht. Die aktuellsten Spiele sind für gewöhnlich immer GPU-Limitiert. Wie man sieht ist es bei FullHD (~200fps) egal welche CPU da drin steckt. Egal ob 4770k, 4790k, 1231v3 oder 5960x die fps-Unterschiede liegen alle bei ~5% => GPU-Limit.

Die Alternative zu einem low-Res Benchmark ist übrigens eine Ultra-Hyper-Grafikkarte oder anders ein simples Grafikkarten-Upgrade nach 3-4 Jahren. Da beides zum Releasezeitpunkt der CPU nicht zur Verfügung steht und die Spiele für gewöhnlich immer GPU-Limitiert sind eben nicht anders möglich.

Willst du sehen was die Grafikkarte oder CPU kann muss du eben GPU oderCPU-Limit eliminieren.

Daher sind die CPU-Skalierungsbenchmarks bei PCGH auch sehr gut. Die CPU, ein 5820k ist auf 2,5GHz untertaktet und die Auflösung gleichzeitig reduziert. So eliminiert man das GPU-Limit (reduzierte Auflösung) und zudem das Problem eine Skalierung überhaupt erst sichtbar machen zu können (reduzierter Takt). Theoretisch würde ja auch ein extrem schneller (20GHz) SingleCore für alles reichen. Erst durch beide Einschränkungen bekommt man das gewünschte Ergebnis.

Es bringt eben nichts einen stumpfen FullHD Bench zu machen und daraus falsche Schlüsse zu ziehen. Nur weil die fps am Ende annähernd gleich sind, heißt das nicht, dass 6700k oder 5960x gleich schnell sind, sondern unterschiedliche Reservern haben bzw am wahrscheinlichsten einfach bereits beide im GPU-Limit stecken.
 
Zuletzt bearbeitet:
Du denkst viel zu kurz dabei... SMT ist bei weitem nicht nur/ausschließlich für irgendwelche Sortierung von Befehlen gut.
Du hast mich missverstanden, denn das habe ich nicht behauptet, sondern im Gegenteil das die Wirksamkeit von SMT eben von solchen Dingen wie der Effizienz der Vorhersagen und der Sortierung der Befehl abhängt. Weil es eben dazu dient die Einheiten des Kerns dann mit dem zweiten Thread auszulasten, wenn die Abarbeitung des einen ins Stocken gerät weil er mal auf etwas warten muss und die Optimierungen der Architekturen zielen ja eben genau darauf solche Stockungen möglichst zu vermeiden.
 
Du hast mich missverstanden, denn das habe ich nicht behauptet, sondern im Gegenteil das die Wirksamkeit von SMT eben von solchen Dingen wie der Effizienz der Vorhersagen und der Sortierung der Befehl abhängt. Weil es eben dazu dient die Einheiten des Kerns dann mit dem zweiten Thread auszulasten, wenn die Abarbeitung des einen ins Stocken gerät weil er mal auf etwas warten muss und die Optimierungen der Architekturen zielen ja eben genau darauf solche Stockungen möglichst zu vermeiden.

Nein, eben nicht zwangsweise... Wie ich dir versucht habe zu erklären hat das nicht primär was mit Optimierungen usw. zu tun. Mal davon ab wäre die Frage, wer überhaupt optimiert. Der Hersteller des Prozessors kann schlicht nur einen Mittelweg gehen, es wird IMMER Fälle geben, die nach oben oder unten streuen. Du wirst Fälle finden, da schiebst du die 4x ALUs aktueller CPUs (und dem kommenden Zen) spielend zu. Und du findest Fälle, da ist das bei weitem nicht der Fall. Während bei erstem SMT gar nix bringt bzw. nur, wenn man auf andere Einheiten ausweicht (FPU), hat letzteres massives Skalierungspotential.

Keine Ahnung ob es genaue Zahlen dafür gibt, aber die 4x ALUs eines Haswell Prozessors und neuer werden recht häufig brach liegen. Sonst müsste das Ding unter INT-Load schlicht und ergreifend bei Taktgleichstand ggü. einem Ivy Modell gelinde gesagt um 33% schneller sein -> ist aber nicht der Fall! Das heist, da ist Leerlauf zu sehen. Auch unter SMT höchstwarscheinlich nicht.
Auch finde ich die Aussage mit "wenn da was in Stocken gerät" quatsch... Du denkst immernoch zu kurz, scheint mir. Denn das Stocken ist doch gar kein Problem... Das Problem ist der Code, der die Einheiten perse schon nicht ausfahren kann. Und davon gibt es eine ganze Menge! Da gerät also nix ins Stocken, sondern da ist Luft, die einfach da ist -> und Ressourcen liegen brach rum.

@G3cko
du hast doch behauptet, jede aktuelle Engine skaliert über die Kerne?
Ich sehe das an deiner Aussage keineswegs belegt... Denn du pickst dir explizit eine Rosine, die NICHTS mit der Engine zu tun hat, um zu "belegen", dass die Engines es können.

Um es dir verständlicher zu machen, eine ähnliche Skalierung über die CPU Breite sehe ich auch bei Titeln, die bei weitem von MT nicht viel gehört haben. Noch dazu, bevor du es auf die Cores runter brichst, was ist mit Caches? Was ist mit RAM/Bandbreite? Einfach 1:1 zusammenzählen ist nicht. WENN, dann nimm den Oktacore und bench mit diesem die Skalierung unter den selben Bedingungen. Also volle Bandbreite, voller Cache usw. (also analog PCGH, nicht aber CB!)

Dazu ist das hier übrigens OT!
:btt:
 
Zuletzt bearbeitet:
Nein, eben nicht zwangsweise... Wie ich dir versucht habe zu erklären hat das nicht primär was mit Optimierungen usw. zu tun.
Doch Du hast mich missverstanden und versteht es immer noch nicht. Die Effizienz von SMT hängt vom Grad der Optimierung der ganze Architektur ab, wobei SMT selbst mit den Optimierungen um die es dabei geht, eben nichts zu tun hat, was ich auch nie behauptet habe und Du mir aber trotzdem unterschieben möchtest.
 
Nochmal, NEIN, eben nicht... Was ist an dem fiktiven Beispiel mit den 16x ALUs falsch zu verstehen?
Da kannst du optimieren, bis der Arzt kommt, das wird nicht aufgehen... Oder was glaubst du, warm man sich in den letzten Jahren dort bestenfalls mit homöopathischen Dosen nach oben steigert? Und nicht einfach dort anzieht -> brauch man ja nur bisschen Optimieren, dann skaliert das nach oben -> deine Aussage!

Ist halt einfach quatsch. Sequenziellen Code kann man schlicht nicht endlos in die Breite ziehen, ist nicht, geht nicht und wird nicht gehen. Die Optimierungen, über die du hier sprichst, möchte ich übrigens gern mal sehen oder wenigstens benannt haben ;)
 
brauch man ja nur bisschen Optimieren, dann skaliert das nach oben -> deine Aussage!
Nein, dies ist nicht meine Aussage! Lies meine Aussagen doch mal und versuche sie zu verstehen, was Dir bisher offenbar nicht gelungen ist. Denn ich schreibt nichts über die Optimierungen selbst oder wie weit man da kommen kann, nur darüber das diese eben die Effizienz von SMT mindern, je besser sie sind. Nur darüber schrieb ich und den Rest von Dir habe ich gar nicht gelesen, weil der gar nichts mit meinen Aussagen zu tun hat die Du zitiert, aber nicht verstanden hast, denn generell lese ich von Dir nur noch möglichst wenig und um blos nicht in die Versuchung zu geraten darauf antworten zu wollen, aber wenn Du mich zitiert, nicht verstehst, mir Aussagen unterschiebst die ich nicht gemacht habe um diese dann zu widerlegen, dann komme ich leider kaum darum herum.
 
Warum bekriegt ihr euch immer virtuell wenn es um solche Themen geht?
Manchmal habe ich so das Gefühl, einer stellt sich absichtlich dumm um den anderen zu nerven.

Richtige Ergebnisse gibt es erst, wenn Zen auf dem Markt ist. Dann kann sich jeder sein eigenes Bild davon machen.
 
Das ist der Geist der AMD CPU, lasst ihn aus der Flasche Helden der Foren.. mhmm jamjam.
Wäre so schön wenn die Firma AMD weg wäre, dann gibt es kein Gezanke mehr, das wären die bisschen teureren Preise wert.
 
Heute sieht es bereits so aus, dass die meisten aktuellen Titel sehr wohl bereits mit mehr als 4 Cores skalieren, aber dennoch wollen wohl einige dies nicht wahrhaben. bereits vor 2 Jahren war das beim Release des 5960x der Fall.
]

Senkst du den Takt der Prozessoren massiv, ergibt sich automatisch eine bessere Skalierung von 6 oder 8kernern, da du ja Leistungsfähigkeit durch geringeren Takt wegnimmst und automatisch Platz frei wird um mehr Kerne auszulasten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh