hier noch ein argument pro L3 Chache.
Das ist eher ein Argument kontra bisheriger L3, wenn dieser von Stacked Memory ersetzt werden kann. Das habe ich ja weiter vorne schon geschrieben. Trotzdem sollte man bedenken, dass die Technik noch relativ neu ist und im Vergleich deutlich teurer. Schliesslich reden wir hier nicht nur über 40-50 mm² zusätzlicher Die-Fläche bei einem einzigen Chip. So schnell wird Stacked Memory bisherige L3 also nicht ersetzen können. Technisch ja, bezüglich Kosten aber noch lange nicht.
Waren mit dem PGI Compiler die Opterons schon immer schneller als die Xeons?
Immer nicht, teilweise aber schon. Schon zu Barcelona und Shanghai Zeiten konnte PGI die Opterons deutlich beschleunigen. Wobei AMD zuletzt immer Open64 genutzt hat. Der fehlt leider in der Liste.
Nur noch kurz zwecks Screenshots @mr.dude: ich hatte bereits geschrieben das ich das die letzten Monate für mich getestet hatte, da das nicht für so ne Diskussion gedacht war habe ich es nicht dokumentiert.
Dann lasse ich das mal unkommentiert so stehen. Ich will nur sagen, nicht alles, was man vermeintlich misst, muss die Ursachen haben, die man glaubt. Ohne zu wissen, was du konkret getestet hast, lässt es sich als Aussenstehender halt schwer beurteilen. Die eigentliche Frage ist doch aber, welche Praxisrelevanz das hat. Und meiner Erfahrung nach eine sehr geringe, weil das eher Ausnahmen sind und nicht die Regel.
"€dit2: Was mir aufm Heimweg eingefallen ist: Ich reg mich z.b. nicht über die Verkleinerung des L2 Caches auf, da er imo eh nicht viel bringt bei so ner doch eher "langsamen" CPU/APU ... ich wäre halt dafür das man den gesparten L2 Cache (von 2x 2Mb auf 2x1Mb) halt ummünzt auf 2x1 Mb L2 + 1x 2Mb L3 Cache - fände ich Sinnvoll."
2 MB L3 macht doch aber wenig Sinn. Das ist zu wenig, wenn der L2 bereits 1 MB gross ist. Da kann man auch gleich bei 2x 2 MB L2 bleiben. Vielleicht wäre was ab 4 MB L3 brauchbar. Aber das kostet dann halt auch schon wieder einiges an Fläche. Mit 28nm hat man die im Moment einfach nicht. Da ist anderes wichtiger. Vielleicht wird's mit 14nm besser. Übrigens, Apple's Cyclone besitzt genau diese Cache Konfiguration, 1 MB shared L2, 4 MB L3. Aber die können es sich halt auch leisten, weil Cyclone in Geräten verbaut wird, die hohe ASPs haben. Da rentieren sich auch höhere Chipkosten.
Wie schon gesagt, sind wir lange schon über den Punkt drüber hinaus einfach nur eine Basisleistung abzudecken.
Um Basisleistung geht es auch gar nicht. Du übertreibst einfach wieder mal bewusst. Basisleistung ist ein kleiner 2-fach OoO 2 GHz Jaguar. Wir reden hier von 4-fach OoO und 4 GHz. Nur weil man ein paar Prozent verliert, wird aus relativ hoher Leistungsfähigkeit nicht plötzlich Basisleistung.
"Und AMD kann es sich fast schon nicht mehr leisten eben Prozente liegen zu lassen."
Was sich AMD nicht leisten kann, sind unwirtschaftliche Designs für Premiummärkte, wo sie aufgrund von Intels Marktmarkt und Knebelverträgen eh wenig Chancen haben. Auf einen grossen und aufwändigen L3 im Clientmarkt zu verzichten, ist kein Nachteil. Ganz im Gegenteil.
"Was spielt das für eine Rolle?"
Eine gewichtige, wenn dieser eine Titel im Schnitt der Masse untergeht.
"Man geht in den Laden und kauft eine Software, installiert diese und nutzt das Ding so wie es kommt. Nicht mehr und nicht weniger. Der Anteil derer, die sich da an irgendwelchen Optimierungen aufhängen ist derart gering, das es gar nicht lohnt das zu erwähnen."
Was auch gar nicht das Thema ist. Ingenieure entwickeln Prozessoren ja nicht danach, was Leute im Laden machen. Sie entwickeln Prozessoren anhand von Simulationen. Und wenn diese zeigen, dass mit L3 in typischen Workloads halt nur maximal 5-10% mehr rausspringen, der Chip dafür aber 50% teurer wird, dann verwirft man den L3 logischerweise. Dass auf dem Markt befindliche Anwendungen nochmal was anderes zeigen können, mag sein. Spielt aber für die Entwicklung keine entscheidende Rolle.
"Stichwort Verbrauch, Stichwort Featuresets, Stichwort Boardauswahl, Stichwort RAM Menge/Anbindung (bei mobilen Geräten mit integrierter GPU) -> und hier lässt AMD immer mehr Federn, weil Intel aufholt.""
Und wo soll Intel konkret aufgeholt haben? Ich sehe da nichts. Entweder lagen sie schon vorher vorne oder liegen nach wie vor hinten. Verbrauch ist kein Argument. Da konnte schon der Pentium-M zu P4 Zeiten punkten. Featureset? Was meinst du da konkret? Eyefinity? Mantle? FreeSync? TrueAudio? Usw. Kann das Intel oder vergleichbares bieten? Sie haben sicherlich in einigen Bereichen aufgeholt, wie bei Bildqualität. Es hakt trotzdem noch in genügend Bereichen. Da hat AMD auch einiges nachgeholt. Die lange Zeit zB kein SSSE3 und SSE4 boten. Selbst der kleine Cat bietet mittlerweile sogar AVX, was Atom wiederum nicht bieten kann. Boardauswahl ist auch kein Argument. Die war bei Intel schon immer grösser. Was auch nicht wirklich überraschen sollte, wenn man den grössten Marktanteil hat. RAM Menge? Das ist ja wohl immer noch jedem selbst überlassen. Oder können da Intel Systeme mittlerweile mit mehr bestückt werden, obwohl es mal anders war? Nicht dass ich wüsste. Bei der RAM-Anbindung hinkt Intel nach wie vor hinterher. Offiziell unterstützt zB ein Haswell i3 lediglich DDR3-1600, während zB Kaveri DDR3-2133 unterstützt. Sicherlich hat Intel einiges nachgeholt, wenn es um den alten FSB geht. Aber das ist mittlerweile wie lange her? 6 Jahre? Weniger als AMD mit HT Vorteile hatte, nämlich nur gut 5 Jahre. Wirklich aktuell ist das also nicht mehr. Sry, aber deine Aussagen ergeben für mich keinen wirklichen Sinn. Beide Unternehmen haben in einigen Bereichen aufgeholt, in anderen Bereichen aber nach wie vor Nachholbedarf.
"Benötigt deine Anwendung 7MB, wird es bei Nehalem passen, bei Yorkfield hingegen nicht."
Wenn es so einfach ist, wieso hat Intel nicht einfach einen cachelosen C2D mit aufs Package geklatscht? Da hätten sie sicherlich einiges an Wafer sparen können. Das es nicht so einfach ist, sollte auch dir klar sein. Da könnte ich auch fragen, was interessiert mich das singlethreaded Verhalten eines Quad-Core? Wenn alle Kerne Last haben und jeder 3 MB an Daten verarbeitet, dann passt das in den L2 von Yorkfield, nicht aber in den L3 von Nehalem. Yorkfield hat 3 MB pro Thread, Nehalem lediglich 1 MB.
"Und ja, auch die Core2 CPUs haben massiv am Cache geklammert."
Die hatten ausserhalb des Caches aber auch noch einen ziemlichen Bremsklotz mit FSB. Da sind aktuelle Speicheranbindungen und erst recht Stacked Memory eine ganz andere Kategorie.
"Deine Vergleiche von wegen doppelter DIE Größe aufgrund des Caches sind damit ebenso ziemlich unsinnig."
Wieder mal nicht richtig gelesen? Von doppelter Die Grösse habe ich nichts gesagt. Ich sprach von 50%. Und daran ist gar nichts unsinnig. Die waren zwischen Deneb (>250 mm²) und Propus (~170 mm²) real. Das mag heutzutage vielleicht nicht mehr so viel in Relation ausmachen, weil es mehr Uncore und iGPU Logik gibt. Das absolute Transistorbudget ist deswegen aber nicht weniger geworden. Und wie gesagt, damit kann man auch anderes implementieren, was im Zweifel mehr bringt.
"Wie viel Cache benötigt wird in diesen und jenen Anwendungsfällen, wissen wir nicht. Mehr wie 1MB pro Thread scheint aber durchaus sinnvoll, gerade wenn man in den Spielesektor schielt."
Lass doch mal deine Spiele stecken. Wir haben's ja kapiert. Das interessiert die meisten Systeme trotzdem herzlich wenig. Erst recht, wenn es nur ein paar wenige Spiele betrifft.
"Es gibt übrigens noch weitere Benchmarks... Gerade zwischen 750/760k und FX4300/4350 kann man gute Unterschiede beobachten. Auch dort wieder über mehrere Spiele."
Na dann verlinke die doch mal.
"Aber weist du was, mir ist es auch vollkommen Latte, was du hier denkst. Die Diskusion wird so oder so nicht objektiv verlaufen, das habe ich über die Jahre Diskusionen mit dir und deinem Geschreibsel gelernt. Also fahr ruhig weiter drauf ab, wenn es AMD auch in Zukunft fertig bringt, ihre Produkte immer weiter in die Einsteigerniesche zu drücken..."
Ist mir schon klar, dass immer genau das dann von dir kommt, wenn du keine wirklichen Argumente hast. Hauptsache du kannst dich stur an deine meist sehr spezifischen und für den Markt wenig relevanten Vorlieben klammern. Ob eine andere Betrachtungsweise nicht doch sinnvoller ist, wird dabei natürlich immer ignoriert. Nochmal, es sagt doch niemand, dass L3 was schlechtes ist. Es macht aber nicht bei jedem Design Sinn, wenn die Kosten weitaus höher sind als der Nutzen. Und bei Mainstream Clientdesigns macht es halt meistens keinen Sinn. ZB bei ARM ist L3 auch nicht nur aus Spass optional.
Schaut man weiter nach argumenten, so ist das P/L von den A10-78xx aktuell nicht sonderlich gut. Mit ner älteren Richland 750K/760K oder ner aktuellen 860K + dGPU kommt man nicht primär teurer, hat dafür aber bedeutend mehr GPU Power bei bestenfalls unwesentlich CPU Leistungsbeeinträchtigungen.
Da bin ich aber mal gespannt, welche dGPU mit aktuellem Featureset du für gut 60 Euro bekommen willst. Denn so viel beträgt der Unterschied zwischen X4 und A10 im Moment. In dem Preisbereich gibt's eigentlich nur sowas wie eine R7 250. Ohne Vergleichstests zu kennen, anhand der Specs bezweifle ich, dass die "bedeutend mehr GPU Power" bieten kann. Für eine R7 260 oder GTX 750 darfst du schon etwa 30 Euro mehr hinblättern.
"Und ich sag dir nochwas, mit Broadwell wird sich in Sachen GPU noch etwas tun, ob man 7850K Niveau erreicht, bleibt abzuwarten, aber es könnte schon eng werden..."
Wenn Intel abseits der deutlich teureren Iris Pro nicht gerade 100% mehr gefunden hat, wird es nicht eng. Und dann muss man eher mit Carrizo vergleichen, der seit Llano den grössten GPU Sprung machen könnte. Kaveri machte mit GCN schon einen grossen Sprung, wurde in der Praxis aber noch zu sehr durch die fehlende Bandbreite ausgebremst. Da könnte gerade delta color compression einiges bei Carrizo bringen.