Neue APUs am 15. Mai? AMDs Trinity soll in den Startlöchern stehen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ICH werde mir Trinity als CPU gepaart mit einer 7870 anschaffen. So wie ein A8-3850 mit einer 580GTX wunderbar spielbare FPS in BF3 z.B. gezaubert hat, so wird es mit dem Trinity Desktop Top Modell auch hervorragend funktionieren :P

Hab Trinity bisher auch rein als APU betrachtet - wohl meine eingeschränkte Sichtweise, weil ich bis dato nicht vorhabe, mir eine zusätzliche Graka zu holen, aber jetzt wo du's schreibst, würden mich dazu Tests interessieren...hoffentlich ist bald Mitte/Ende Mai ;)

Apropo Llano - bei welchem Mainboard ist es möglich, per DVI und HDMI gleichzeitig 2 Bildschirme (Monitor und Fernseher) anzusteuern? Ich hab trotz googeln nicht wirklich brauchbare Antworten gefunden...
 
Nun ja, der 5800k müsste schätzungsweise die Leistung eines FX-4170 haben, bei hoffentlich geringerem Verbrauch. Da sich der 4170 in Spielen recht gut verhält, müsste der A10-5800K doch eine gute und günstige CPU zum Spielen werden :d
 
...
Apropo Llano - bei welchem Mainboard ist es möglich, per DVI und HDMI gleichzeitig 2 Bildschirme (Monitor und Fernseher) anzusteuern? Ich hab trotz googeln nicht wirklich brauchbare Antworten gefunden...
Musst direkt auf die Seiten der Mainboard-Hersteller (und dort am besten ins Handbuch) schauen
Bei meinem Gigabyte A75M-UD2H geht es (es müssen aber beim Start beide Monis an sein)
 
@Cylord
Es ging nicht um den auto vergleich ehr um den marken vergleich, da eine Antwort kam mit einer aufforderung das zu tun was er besser findet.
Wenn du es nicht verstehst kann ich da auch ncihts für..
 
[...]
Was sind für dich denn lahme Karten? Eine HD 7870? :rolleyes: Von CF habe ich gar nicht gesprochen. Aber bezüglich Treiber und Features ist eine Radeon deutlich sinnvoller in der Kombination. Da sollten theoretisch auch Sachen wie ZeroCore und dergleichen funktionieren. Eine zusätzliche GeForce macht bei einer APU von AMD einfach wenig Sinn. Oder würdest du dir eine Intel CPU und dazu speziellen AMD RAM kaufen? Ich denke nicht.

Oh genau das hab ich letztens getan. Die AMD oder besser Patriot-RAMs sind nämlich sehr gut, relativ günstig und haben vernünftige Timings. Zudem haben sie ein korrekt programmiertes SPD und nicht nur blöde XMP-Profile. Die kann man auch hervorragend mit Intel-Systemen koppeln. Ich kann das Zeug nur empfehlen. Da ich noch zwei Speicherkanäle frei hab, werd ich demnächst meine zwei Mushkin-DIMMs durch 16GB Patriot (AMD) Performance 1600 ersetzen.
Trinity mit einer modernen Geforce zu koppeln kann auch sinnvoll sein.
 
Zuletzt bearbeitet:
mr.dude schrieb:
Es bleibt mMn trotzdem die weniger sinnvolle Kombination, da einfach mehr Synergieeffekte verloren gehen.

Ich weiß ja nicht was AMD da vielleicht noch an "Features" aus dem Hut zaubert, aber ich gehe mal davon aus, dass da nichts großartiges bei rum kommt.
Deren derzeitige Haltung mit den Crossfire Lösungen ala APU+ dedidzierte GPU kombinieren, sind jedenfalls sicherlich der falsche Ansatz, außer die Karten haben wirklich annähernd die gleiche Grundleistung.

mr.dude schrieb:
Für deine Behauptung, man hätte weiter auf K10.5 setzen sollen, sagt uns das aber herzlich wenig.

Es ist sowieso nur reine Spekulation wie die Fertigung mit K10 Kernen gelaufn wäre.
Eventuell hätte sich auch das Energiebudget nicht verringert und die Übertaktbarkeit wäre annähernd gleich geblieben.
Ich denke nicht, dass man da was gewonnen hätte.
 
Zuletzt bearbeitet:
Doch, muss man. Ansonsten brauchen wir über K10.5 vs Bulldozer gar nicht weiter diskutieren. Welche Aussagekraft besitzt das denn sonst? Mehr Performance kann man immer rausquetschen, wenn das Energiebudget erhöht wird. Das ist keine Magie.
Ich werd' dann unserem Foren-Magier zusehen, wie er Intels Atom auf 8,5 GHz hochheizt um einen Core-i3 einzuholen. Gibt's bei dir Popcorn? :d
Beim überarbeiteten K10.5 wäre zumindest die Single-Thread-Performance gesteigert worden - Kerne hatte man ja schon beim Phenom II zur Genüge. EDIT: Mit dem CMT-Konzept hat man Resourcen für noch mehr Kerne verschwendet, dort wo sie der Allerwelts-PC-Käufer nicht braucht.
 
Zuletzt bearbeitet:
APU mit APU? Also Mehrsockelsysteme? Ich glaub nicht das sich jeder so was ins Wohnzimmer stellen wird.
Ich denke, Dude meint die Möglichkeit, Berechnungen von der IGP durchführen zu lassen.

Einen beschnittenen K10 Kern mit einer hypotethischen Weiterentwicklung vergleichen.... Okay ;)
Soweit ich gelesen habe, war das Design des K10 ausgereizt und das Design des Bulldozer ist nicht so schlecht, wie es manchmal geschrieben wird. Auf einer Linux Seite wurde der gcc mit Bulldozeroptimierungen getestet, was diesem einen ganz guten Schub gab.
 
Einen beschnittenen K10 Kern mit einer hypotethischen Weiterentwicklung vergleichen.... Okay ;)

Beschnitten? Llano ist die am weitesten entwickelste Version des K10, besser als Thuban. Nur der L3 fehlt, das hat aber nicht mim Kern zu tun.
 
Deswegen heißt er auch K12.
 
Welche Synergieeffekte wären das den? Sprich nicht in Rätseln, sondern bring mal konkrete Beispiele.
Es wurden bereits mehrere Beispiele angesprochen. Beiträge lesen!

APU mit APU? Also Mehrsockelsysteme? Ich glaub nicht das sich jeder so was ins Wohnzimmer stellen wird.
Das hat auch niemand behauptet. Aber AMD hat solche Lösungen im Angebot und will damit natürlich auch Geld verdienen. Stichwort HPC Markt, wo GPU bzw Many-Core basierte Lösungen in Zukunft sicherlich deutlich an Bedeutung gewinnen.

Einen beschnittenen K10 Kern mit einer hypotethischen Weiterentwicklung vergleichen....
Was bitteschön soll an Husky beschnitten sein? Bitte um Antwort!


Deswegen heißt er auch K12.
Nein, es gibt keinen K12. Selbst Barcelona wurde von AMD nicht mehr K10 genannt. Die Bezeichnung haben die Medien mehr oder weniger etabliert. K10 war bei AMD ursprünglich ein anderes Projekt. Offiziell wird der Husky Kern als Family 12h geführt.
 
Zuletzt bearbeitet:
Deswegen heißt er auch K12.

Nein, heißt er nicht. Du verwechselst da die "Family" names. Zudem ist K10 eher eine Bezeichnung um mit anderen über das gleiche zu reden und keine offizielle Angabe. Genauso wie K10.5 für die Phenom II CPUs.
 
Es wurden bereits mehrere Beispiele angesprochen. Beiträge lesen!
Gib mir mal einen Tip ;) Post Nr.? Und komm mir jetzt nicht mit Zero Core.

Das hat auch niemand behauptet. Aber AMD hat solche Lösungen im Angebot und will damit natürlich auch Geld verdienen. Stichwort HPC Markt, wo GPU bzw Many-Core basierte Lösungen in Zukunft sicherlich deutlich an Bedeutung gewinnen.
Eventuell bin ich ja schlecht informiert, aber ich kenn kein Board mit 2 oder mehr Sockeln für APUs.

Was bitteschön soll an Husky beschnitten sein? Bitte um Antwort!
Weniger Takt, kein L3
Ich hab ja nicht behauptet das er schlechter ist, aber etwas Performance bringt der L3 ja auch und der Standardtakt ist ja eher bescheiden.
 
Ich will mich bezüglich 'besseres Nachfolgeprodukt' für den Phenom II nicht auf 'K10.5 + X' versteifen, vielleicht auch eine neue Microarchitektur wie sie jetzt im BD implementiert wurde, aber auf jeden Fall ohne CMT und all die Probleme die man sich damit einhandelt.
Jede neue Architektur kann Probleme mit sich bringen - cmt ist kein schlechter Ansatz. Lass uns erstmal abwarten, welche Kinderkrankheiten Trinity, bzw. Piledriver beseitigen. Die Divisionseinheit ist ja schon mal eine davon und am Stromverbrauch scheint sich ja auch schon was getan zu haben. Ein knapper Monat noch und wir sehen Ergebnisse.

Im Steamroller werden dann grössere Änderungen vorgenommen.
 
*arg* kein schlechter Ansatz? Welches aktuelle drängende AMD-Problem löst CMT?
 
miriquindi schrieb:
*arg* kein schlechter Ansatz? Welches aktuelle drängende AMD-Problem löst CMT?

AMD`s derzeitges Problem ist eher die Effizienz( v.a. der Fertigungsprozess) und nicht die Singlethreadleistung, denn die kann man mit einem guten Turbo und einem Mehrtakt gegenüber der Konkurrenz schon kaschieren.
Ich bin ja mal gespannt, wie Intel in Zukunft ihre Mehrleistung erreicht. Kleine IPC Schritte um die 10% reichen jedenfalls nicht aus um AMD langfristig so locker in Schach zu halten. ( Unbestritten ist natürlich, dass Intel einen sehr großen Vorsprung (vor allem Singlethreaded hat).

Dein Problem ist, dass du das Design immer anhand der derzeitigen Prozessorleistung beurteilst und dabei andere Faktoren wie Compiler, den schlechten Fertigungsprozess, die zu Beginn sehr geringe Packdichte etc.. nicht siehst.
Das Design steht erst am Anfang. Und Piledriver wird mit Sicherheit zeigen, dass mit einem 8 Thread (Spekulativ 8x4,5ghz und 125 Watt TDP, sowie eine SInglethreadperformance auf Phenom II Niveau), der Vorsprung von Intel um (geschätzt) etwa 10% schmilzen wird.

Also ich habe den Satz jetzt 10 mal gelesen aber ich verstehe ihn nicht. Bitte um Aufklärung.

Das kommt daher, weil es argumentativlose Polemik ist, auf die man kaum mit Aspekten antworten kann, weil die Aussage selbst keinen Inhalt hat.
 
Zuletzt bearbeitet:
Nee, aber du hast behauptet, dass Husky beschnitten wäre. Und sry, das ist einfach mal kompletter Unsinn. Husky ist die Weiterentwicklung des Stars Kern. Da wurde nix beschnitten. Im Gegenteil, einiges wurde bei Husky aufgebohrt. Der Rest, wie Takt oder Cache, ist einfach abhängig von Design und TDP. Das hat mit dem Kern nix zu tun.
Nachdem du nicht verstehst was ich meine, versuche ich es mal anders zu Formulieren.
Es wird sicher nicht das volle Potential der Kerne ausgeschöpft, damit die FX Prozessoren überhaupt eine Daseinsberechtigung haben.
Ein 32nm Kern mit L3 und ~ dem selben Takt wie die FX, würde die FX ganz schön alt aussehen lassen. Die Befehlssatzerweiterungen der FX CPUs kann man auch in "alte" Kerne implementieren.
 
Also ich habe den Satz jetzt 10 mal gelesen aber ich verstehe ihn nicht. Bitte um Aufklärung.
Wenn du schon mehr Kerne hast, als ~70% der Kunden braucht, bringen dir eine Verdopplung der Kernzahl mittels CMT rein gar nichts. Man nutzt statt zwei von vier (K10) jetzt mit CMT zwei von acht Kernen.




Was handelt man sich mit CMT alles an Nachteilen ein (ohne Anspruch auf Vollständigkeit):

vom Management:
- hoher Entwicklungsaufwand - weniger Geld für Arbeiten am eigentlichen Kern
- zusätzliche Fehlerquelle bei der Entwicklung, deren Beseitigung Zeit kostet

Technisch:
- Man muss im Kern Signal-'Weichen' einbauen:
- das Frontend muss beim Dekodieren ständig zwischen zwei Threads umschalten
- & die Ergebnisse an zwei Threads (+ separat FPU) ausliefern
- die FPU muss zwischen beiden Threads umschalten und die Ergebnisse an zwei Adressen ausliefern
- der L2-Cache wird von zwei L1-Caches gefüttert und muss in zwei solche prefetchen
- (nicht nur L2 & L1 müssen synchron gehalten werden, sondern zusätzlich noch L1-1 und L1-2)

Jede 'Weiche' mit ihren Transistoren braucht Zeit & Energie zum Schalten, aber das geht noch weiter:
Die 'Weichen' sitzen mitten im Kern zwischen den Funktionsblöcken (oder machen diese größer) und brauchen Die-Fläche. Dadurch rücken die Funktionsblöcke weiter von einander weg und die Leiterbahnwege werden länger. Physikalisch bedingt das aufgrund der endlichen Geschwindigkeit von Elektronen in Leiterbahnen zusätzliche Verzögerungen.

Durch die Möglichkeit zwischen zwei Threads umzuschalten, verliert man daher auch etwas. Sofern die Software genug Threads hat, lohnt sich das, aber mit nur einem Thread rechnet ein Modul durch die Weichen langsamer als es ohne CMT täte.

Wenn man beide Kerne eines Moduls für einen Thread einspannen wöllte, hätte man auch dort mit Problemen durch die Signallaufzeiten und zusätzlichen Verdrahtungen und Schaltstellen zu kämpfen. Der L1-Cache sitzt nicht umsonst so tief im Kern drin. Ich wäre nicht verwundert, wenn AMD das mit den geteilten Frontend's und evtl. sogar L2-Caches über Bord wirft und nur noch die FPU zwischen zwei Kernen teilt.



Was ich übrigens mit dem Vergleich Corei3 vs. 8,6 GHz Intel Atom-Prozessor sagen wollte: Single-Thread-Leistung kann man nur sehr begrenzt durch einen Turbo erzeugen. Dies (und die Leckströme) sind der Grund, warum man mit einer Kernarchitektur nicht den ganzen Markt vom Tablet bis zur Workstation abdecken kann. Gebt euch keiner Hoffnung hin, dass AMD den ~33 % Rückstand zu Intel (bzw. die ~50 % Vorsprung Intels auf AMD) in Sachen Single-Thread Leistung mit einem Turbo ausgleichen kann. Dazu müsste ein Bulldozer-Kern über 6 GHz erreichen - und das mit 95 W thermischer Leistung und Zimmertemperatur. Das wird auch mit einem besseren 32 nm Prozessor sehr schwierig.

---------- Post added at 22:39 ---------- Previous post was at 22:36 ----------

CMT dient der besseren Prozessorauslastung: Hardwareseitiges Multithreading
Und ist somit ein Grund für die relativ gute Multithreadleistung.
In dem Bereich war AMD schon vor Bulldozers CMT-Konzept gut im Geschäft. Das Problem liegt wo anders.
 
Ich hoffe das zumindest ein echter 6 Kerner kommt, ein echter 8Kerner kostet ja auch schon 450
 
Was hat denn die Anzahl der Kerne mit CMT zu tun? Überhaupt nichts.CMT implementiert in der momentanen Form 2 logische Prozessoren innerhalb eines physischen Kerns. Unterm Strich sind das also 2 Threads.
Dann nenne es 'Threadausführungseinheiten' - wenn dir Kern nicht passt. Gegenüber dem sonst recht verbreiteten Doppelkernen hast du jetzt Doppel-Module - macht zwei Threadausführungseinheiten zuviel.

Zusammenfassend klingt es ein wenig so, als dass CMT kein großer Mehrentwicklungsaufwand gegenüber einem 'Bulldozer ohne CMT' war, im Betrieb vernachlässigbar wenig Energie (und Fläche) für die 'Weichen' braucht und der Kern single-threaded so schnell arbeitet, wie er es ohne die ganze CMT-Logic könnte. Nur warum ist die Performance eines Bulldozer-Moduls mit nur einem Thread dann so mies? Erklär es mal.

---------- Post added at 19:01 ---------- Previous post was at 18:52 ----------

Wenn ein Prozessor 2 GHz Basistakt besitzt, mit Turbo bei einem Thread aber auf 3 GHz takten kann, dann sind das mal locker 50%. Alles andere als begrenzt.
Im Notebook wäre das ein Fortschritt, für den Desktop ist der Spielraum sehr klein.
 
miriquindi schrieb:
Nur warum ist die Performance eines Bulldozer-Moduls mit nur einem Thread dann so mies? Erklär es mal.

Wahrscheinlich weil das Konzept noch in den Kinderschuhen steckt und es auf Biegen und Brechen released wurde.
 
Afaik hat man 20% mehr IPC wenn man ein Integer pro CU deaktiviert, die Shared Ressourcen pro CU sind das Problem.

Steamroller = 8 Decoder
Excavator = 8 FPUs

Das ist der einfachste Weg um die IPC zu steigern.
Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Im Netz finde auch keine Berichte dazu, dass dies klappt, nachdem ich 5 Reviews abgeklappert habe. Dann hatte mr. dude wohl doch Unrecht bzgl. des Synergieeffektes durch ZeroCore. Monitor aus reicht, was im Prozessorsockel steckt ist dann hierfür völlig egal wie es scheint.
AMD wäre auch grenz dämlich, wenn das nur mit einer AMD-CPU/APU gehen würde, wo der Konkurrent, doch über 70% der Plattformen stellt...
 
@ boxleitnerb

Hätte er Fakten-basiert Recht, hätte ihm auch nicht widersprochen - wie üblich. Die großen Radeons müssen für sich alleine laufen.
 
Okay, das hab ich nicht gewusst, Asche mein Haupt. Hätte man aber vielleicht in der Diskussion etwas früher bringen können :fresse:
 
Ich hab von Anfang gesagt, Zero Core läuft unabhängig ;-) siehe Post #192.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh