Ein i5 hat genau wie Trinity eine iGPU.Trinity ist und bleibt eine APU, keine CPU. Insofern sind diskrete Grafikkarten eher nebensächlich. Und wenn man Trinity damit kombiniert, wäre zumindest eine Radeon wesentlich sinnvoller.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ein i5 hat genau wie Trinity eine iGPU.Trinity ist und bleibt eine APU, keine CPU. Insofern sind diskrete Grafikkarten eher nebensächlich. Und wenn man Trinity damit kombiniert, wäre zumindest eine Radeon wesentlich sinnvoller.
ICH werde mir Trinity als CPU gepaart mit einer 7870 anschaffen. So wie ein A8-3850 mit einer 580GTX wunderbar spielbare FPS in BF3 z.B. gezaubert hat, so wird es mit dem Trinity Desktop Top Modell auch hervorragend funktionieren :P
Musst direkt auf die Seiten der Mainboard-Hersteller (und dort am besten ins Handbuch) schauen...
Apropo Llano - bei welchem Mainboard ist es möglich, per DVI und HDMI gleichzeitig 2 Bildschirme (Monitor und Fernseher) anzusteuern? Ich hab trotz googeln nicht wirklich brauchbare Antworten gefunden...
[...]
Was sind für dich denn lahme Karten? Eine HD 7870? Von CF habe ich gar nicht gesprochen. Aber bezüglich Treiber und Features ist eine Radeon deutlich sinnvoller in der Kombination. Da sollten theoretisch auch Sachen wie ZeroCore und dergleichen funktionieren. Eine zusätzliche GeForce macht bei einer APU von AMD einfach wenig Sinn. Oder würdest du dir eine Intel CPU und dazu speziellen AMD RAM kaufen? Ich denke nicht.
mr.dude schrieb:Es bleibt mMn trotzdem die weniger sinnvolle Kombination, da einfach mehr Synergieeffekte verloren gehen.
mr.dude schrieb:Für deine Behauptung, man hätte weiter auf K10.5 setzen sollen, sagt uns das aber herzlich wenig.
Ich werd' dann unserem Foren-Magier zusehen, wie er Intels Atom auf 8,5 GHz hochheizt um einen Core-i3 einzuholen. Gibt's bei dir Popcorn?Doch, muss man. Ansonsten brauchen wir über K10.5 vs Bulldozer gar nicht weiter diskutieren. Welche Aussagekraft besitzt das denn sonst? Mehr Performance kann man immer rausquetschen, wenn das Energiebudget erhöht wird. Das ist keine Magie.
Ich denke, Dude meint die Möglichkeit, Berechnungen von der IGP durchführen zu lassen.APU mit APU? Also Mehrsockelsysteme? Ich glaub nicht das sich jeder so was ins Wohnzimmer stellen wird.
Soweit ich gelesen habe, war das Design des K10 ausgereizt und das Design des Bulldozer ist nicht so schlecht, wie es manchmal geschrieben wird. Auf einer Linux Seite wurde der gcc mit Bulldozeroptimierungen getestet, was diesem einen ganz guten Schub gab.Einen beschnittenen K10 Kern mit einer hypotethischen Weiterentwicklung vergleichen.... Okay
Einen beschnittenen K10 Kern mit einer hypotethischen Weiterentwicklung vergleichen.... Okay
Es wurden bereits mehrere Beispiele angesprochen. Beiträge lesen!Welche Synergieeffekte wären das den? Sprich nicht in Rätseln, sondern bring mal konkrete Beispiele.
Das hat auch niemand behauptet. Aber AMD hat solche Lösungen im Angebot und will damit natürlich auch Geld verdienen. Stichwort HPC Markt, wo GPU bzw Many-Core basierte Lösungen in Zukunft sicherlich deutlich an Bedeutung gewinnen.APU mit APU? Also Mehrsockelsysteme? Ich glaub nicht das sich jeder so was ins Wohnzimmer stellen wird.
Was bitteschön soll an Husky beschnitten sein? Bitte um Antwort!Einen beschnittenen K10 Kern mit einer hypotethischen Weiterentwicklung vergleichen....
Nein, es gibt keinen K12. Selbst Barcelona wurde von AMD nicht mehr K10 genannt. Die Bezeichnung haben die Medien mehr oder weniger etabliert. K10 war bei AMD ursprünglich ein anderes Projekt. Offiziell wird der Husky Kern als Family 12h geführt.Deswegen heißt er auch K12.
Deswegen heißt er auch K12.
Gib mir mal einen Tip Post Nr.? Und komm mir jetzt nicht mit Zero Core.Es wurden bereits mehrere Beispiele angesprochen. Beiträge lesen!
Eventuell bin ich ja schlecht informiert, aber ich kenn kein Board mit 2 oder mehr Sockeln für APUs.Das hat auch niemand behauptet. Aber AMD hat solche Lösungen im Angebot und will damit natürlich auch Geld verdienen. Stichwort HPC Markt, wo GPU bzw Many-Core basierte Lösungen in Zukunft sicherlich deutlich an Bedeutung gewinnen.
Weniger Takt, kein L3Was bitteschön soll an Husky beschnitten sein? Bitte um Antwort!
Jede neue Architektur kann Probleme mit sich bringen - cmt ist kein schlechter Ansatz. Lass uns erstmal abwarten, welche Kinderkrankheiten Trinity, bzw. Piledriver beseitigen. Die Divisionseinheit ist ja schon mal eine davon und am Stromverbrauch scheint sich ja auch schon was getan zu haben. Ein knapper Monat noch und wir sehen Ergebnisse.Ich will mich bezüglich 'besseres Nachfolgeprodukt' für den Phenom II nicht auf 'K10.5 + X' versteifen, vielleicht auch eine neue Microarchitektur wie sie jetzt im BD implementiert wurde, aber auf jeden Fall ohne CMT und all die Probleme die man sich damit einhandelt.
CMT dient der besseren Prozessorauslastung: Hardwareseitiges Multithreading*arg* kein schlechter Ansatz? Welches aktuelle drängende AMD-Problem löst CMT?
Welches aktuelle drängende AMD-Problem löst CMT?
miriquindi schrieb:*arg* kein schlechter Ansatz? Welches aktuelle drängende AMD-Problem löst CMT?
Also ich habe den Satz jetzt 10 mal gelesen aber ich verstehe ihn nicht. Bitte um Aufklärung.
Nachdem du nicht verstehst was ich meine, versuche ich es mal anders zu Formulieren.Nee, aber du hast behauptet, dass Husky beschnitten wäre. Und sry, das ist einfach mal kompletter Unsinn. Husky ist die Weiterentwicklung des Stars Kern. Da wurde nix beschnitten. Im Gegenteil, einiges wurde bei Husky aufgebohrt. Der Rest, wie Takt oder Cache, ist einfach abhängig von Design und TDP. Das hat mit dem Kern nix zu tun.
Wenn du schon mehr Kerne hast, als ~70% der Kunden braucht, bringen dir eine Verdopplung der Kernzahl mittels CMT rein gar nichts. Man nutzt statt zwei von vier (K10) jetzt mit CMT zwei von acht Kernen.Also ich habe den Satz jetzt 10 mal gelesen aber ich verstehe ihn nicht. Bitte um Aufklärung.
In dem Bereich war AMD schon vor Bulldozers CMT-Konzept gut im Geschäft. Das Problem liegt wo anders.CMT dient der besseren Prozessorauslastung: Hardwareseitiges Multithreading
Und ist somit ein Grund für die relativ gute Multithreadleistung.
Dann nenne es 'Threadausführungseinheiten' - wenn dir Kern nicht passt. Gegenüber dem sonst recht verbreiteten Doppelkernen hast du jetzt Doppel-Module - macht zwei Threadausführungseinheiten zuviel.Was hat denn die Anzahl der Kerne mit CMT zu tun? Überhaupt nichts.CMT implementiert in der momentanen Form 2 logische Prozessoren innerhalb eines physischen Kerns. Unterm Strich sind das also 2 Threads.
Im Notebook wäre das ein Fortschritt, für den Desktop ist der Spielraum sehr klein.Wenn ein Prozessor 2 GHz Basistakt besitzt, mit Turbo bei einem Thread aber auf 3 GHz takten kann, dann sind das mal locker 50%. Alles andere als begrenzt.
miriquindi schrieb:Nur warum ist die Performance eines Bulldozer-Moduls mit nur einem Thread dann so mies? Erklär es mal.
AMD wäre auch grenz dämlich, wenn das nur mit einer AMD-CPU/APU gehen würde, wo der Konkurrent, doch über 70% der Plattformen stellt...Im Netz finde auch keine Berichte dazu, dass dies klappt, nachdem ich 5 Reviews abgeklappert habe. Dann hatte mr. dude wohl doch Unrecht bzgl. des Synergieeffektes durch ZeroCore. Monitor aus reicht, was im Prozessorsockel steckt ist dann hierfür völlig egal wie es scheint.