Mick_Foley
Semiprofi
- Mitglied seit
- 10.02.2008
- Beiträge
- 15.045
Shrinks sind ja immer relativ, der Llano 3870k ist 32nm und läuft standardmäßg mit 1,4v...
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Die Kaveri APU muss sich dann aber mit "Haswell" messen, Ivy Bridge ist dann wieder ein altes ThemaAlso über Kaveri würde ich mir keine Sorgen machen. Nicht nur dass die CPU dann ordentlich aufgebohrt wird, da jedes Modul dann 2 Decoder hat.
Genau, sonst gibt es nicht viel zu erwarten.Die Decoder-Nummer muss sich erst mal zeigen.
Ich denke, hier irrst du. Ich will jetzt keine Grundsatzdiskussion lostreten, aber mEn ist es eher umgekehrt. Aussenbereiche sind idR viel GPU intensiver, weil je nach Sichtweite viel mehr Objekte berechnet und angezeigt werden müssen. Bei Innenbereichen können mehr Berechnungen eingespart werden, weil Objekte oft verdeckt hinter Wänden oder was auch immer und damit nicht im Sichtfeld liegen. Grundsätzlich lässt sich das aber nicht pauschalisieren. Im Endeffekt hängt es immer vom Aufwand der jeweiligen Szene ab.
Nun ja, ich habe halt andere Erfahrungen gemacht. Gerade mit älteren Rechnern, die noch nicht so viel CPU und GPU Leistungsfähigkeit hatten wie aktuelle, musste ich öfter mal Auflösung und Sichtweite runterschrauben, damit es in Aussenbereichen flüssig läuft. In Innenbereichen hat das kaum eine Rolle gespielt.Draußen ist es öfter CPU-Lastig als drinnen.
Ich denke, so kann man das nicht sagen. Im Endeffekt hängt es von beiden ab. Engine, Settings, Auflösung, AA/AF, Szene, etc, bestimmen dann, was zuerst zum Flaschenhals wird. Und in der Praxis wird eher die Grafikkarte zuerst ausgereizt. Eben weil man deren Belastung direkter beeinflussen kann.Die Spielgeschwindigkeit hängt also vom Prozessor ab, die Grafikkarte sorgt nur dafür, dass die Ausgabe schnell genug erfolgt.
... CPU seitig hat AMD doch selbst gesagt, dass sie nicht mehr mit Intel konkurrieren müssen/wollen. Der Bereich APU ist mMn einfach ein genialer Schritt, sobald er sich einmal vervollständigt haben wird (CPU/GPU symbiose, GPU als Co-Prozessor, etc.). ..... Bei Spielen ist es heute bereits beinahe egal welche CPU man drin hat (SC 2, SLI, CF mal ausgenommen, ), wenn man mit hochwertigen Grafikeinstellungen spielt (1920iger Auflösung, AA, etc.). Wird man auch hier an den 60FPS mit hochwertigen Grafikeinstellungen angelangt sein (shooter), dann ist es mir wirklich (sorry) scheißegal, welche CPU drin werkelt. Vielleicht werde ich dann jene auswählen, welche weniger verbraucht? Mehr Zusatzfunktionen hat? Billiger ist?
Das kann ich aus praktischer Erfahrung nur bestätigen. Als ich damals mein altes Notebook mit 2,0GHz Turion X2 und Radeon HD 3650 verkaufte gab es diverse Spiele, die in 640x480 bis 1024x768 bei minimalen Details die praktisch gleichen fps lieferten - nur eben leider alles unspielbar, weil der Prozessor limitierte. Ähnliche Erfahrungen habe ich mit dem E-450 gemacht: Auflösungsreduzierung bringt häufig kaum fps-Gewinne; Obwohl man mit der GPU (entspricht ja etwa einer HD 54xx) noch so manches Spiel bei minimalen Einstellungen gut spielen könnte, verhindert dies der zu langsame CPU-Part.
Ähnliches könnte auch Trinity blühen. Das deutet sich in einigen Benchmarks bereits an.
Hier sollte man allerdings bedenken, dass die Performance nicht immer linear mit dem CPU-Takt skaliert. Also ein 30% höher getakteter Llano muss nicht zwangsläufig 30% mehr Performance haben. Je nach Anwendung kann das deutlich weniger sein.Was man sieht st, dass Trinity oft ca 10 - 15% Schneller als der Llano ist, dies aber mit 30% mehr Takt als dieser.
Doch ist es, CMT ist schwächer als K10 & CMP. Logisch das die IPC kleiner ausfällt.CMT ist nicht so tragisch, die IPC ist das Problem.
Letztendlich ist IPC wurscht, wenn man zwei völlig verschiedene Architekturen wie K10 und BD vergleicht. Wie heisst es so schön, es zählt, was hinten rauskommt. Wie man an Trinity vs Llano sieht, ist BD & CMT nicht schwächer als K10 & CMP. Und das wird in Zukunft sicherlich nicht schlechter für BD ausfallen. CMT hat auch nichts mit zu wenig IPC zu tun. CMT ist theoretisch besser für hohe IPC geeignet, zumindest was singlethreaded betrifft, weil diverse Einheiten shared sind und für 2 Threads entsprechend aufgebohrt wurden, natürlich aber auch komplett von einem Thread genutzt werden können. Ist bei SMT ja nicht viel anders. Nur fehlen hier noch zusätzliche EUs. Der Punkt an Bulldozer ist, dass man sich irgendwann für ein Serverdesign entschieden hat. Da hatte hohe IPC wenig Priorität, sondern vielmehr die Threadskalierung, also CMT. AMD wird sich des IPC Problems schon bewusst sein und hier in Zukunft nachlegen. Trinity scheint ja schon ein gutes Stück besser zu sein und fast wieder auf K10 Niveau. Wobei ich das Problem vor allem auch im Softwaresupport sehe und weniger in der Hardware. Wenn jede Anwendung bereits soweit für Bulldozer optimiert wäre wie für ältere Architekturen, wäre IPC sicherlich nicht so ein Thema bei einigen.Doch ist es, CMT ist schwächer als K10 & CMP.
Wie gesagt, genau diese Ressourcenteilung ist alles andere als kontraproduktiv für IPC. Dass es nominell nur eine FPU gibt, ist auch nicht wichtig. Die FPU wurde so üppig dimensioniert, dass sie von einem Thread gar nicht ausgelastet werden kann. Bis 4 Threads und korrektem Scheduling ist das momentan nicht problematisch. Problematisch wird es erst darüber hinaus. Und da fehlt es eben noch an FMA Support, vor allem im Client Markt. Bei Servern ist das weniger ein Problem, da Software schnell angepasst wird. C-Ray hat gezeigt, dass FMA mal locker 1/3 mehr Performance bringen kann. Stell dir mal Cinebench mit entsprechendem Support vor. Dort würde ein X6 locker abgehängt werden und selbst SB hätte das Nachsehen. Ebenso betrifft das die Decoder. Ausreichend breit dimensioniert, sind die nicht der Flaschenhals. Ich sehe daher auch keinen Grund, in Zukunft zwei Decoder-Blöcke pro CU zu implementieren. Auch wenn das als Möglichkeit für Steamroller/Excavator im Raum steht.CMT = Integer Cores müssen sich Ressourcen teilen, 2 Kerne nur 1 FPU oder 2 Kerne nur 1 Decoder.
Ja. Bei singlethreaded IPC hilft dir das aber auch nicht weiter. Doppelt so viel heisst auch nicht automatisch doppelt so stark. Bulldozer besitzt zB 4 Fastpath/Microcode Decoder pro CU. K10 besitzt 3 Fastpath/Microcode Decoder pro Kern, also 6 für zwei Kerne, was nur 50% mehr ist. Hinzu kommt auch die Flexibilität, mit der Einheiten arbeiten können. Ebenso ist Flächenbedarf und Leistungsaufnahme zu beachten, die praktisch linear mit CMP steigen. Es wird also nichts an Effizienz gewonnen. Das ist bei Techniken wie CMT oder SMT anders. Dort gewinnt man Effizienz.CMP = Dual Core (jedes Modul hat eigene Ressourcen, doppelt soviele Decoder, FPU Einheiten usw.)
Letztendlich ist IPC wurscht, wenn man zwei völlig verschiedene Architekturen wie K10 und BD vergleicht. Wie heisst es so schön, es zählt, was hinten rauskommt.