[Sammelthread] Piledriver Core (Vishera & Trinity) Bulldozer & Llano Nachfolger 2012

Fragt sich jetzt nur wer Recht hat, Mr.Dude oder du

Lässt sich wohl so nicht sagen... Scheinbar gibts aktuell keine 100% sichere Aussage oder Dokumentation darüber.

Aber an der Übersicht sehen wir eigentlich nur zwei Sachen. Einerseits, das Bulldozer im Vergleich (ob nun 15 oder 18 states ist dabei ja egal) eine längere Pipeline hat als der Vorgänger K10 und zu erwartender Weise wohl auch den Nachteilen der längeren Pipeline unterliegt. (wohl weil das Frontend nicht hinterher kommt)
Und andererseits sehen wir, das bei Intel Nehalem entwickelt von nem anderen Team als davor Core2 und danach SB sich trotz länger Pipeline genau dazwischen einordnet. Wobei der Vergleich auch etwas hinkt, ich denke Nehalem profitiert zum Beispeil auch durch den internen MemoryController den Core2 ja nicht hat, der IPC Unterschied ist auf jedenfall so extrem groß nicht.

Unterm Strich sehen wir daraus aber immernoch recht wenig, als das man darüber streiten müsste ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Laut C'T : Für einen unbedingten Sprung oder Return ohne korrekten Eintrag im BTB(Branch Target Buffer) beträgt die Strafzeit 15 Takte,folglich dürfte die von AMD nicht spezifizierte Standard Pipeline Länge ebenfalls bei rund 15 Stufen liegen.
 
@Win8 Beta
Vor kurzem hat jemand in einem Forum von Win7 & Win8 Screesn von seinem FX6100 gepostet, bei Win8 meldet sich der FX6100 nur noch als Triple Core an, weiß jemand warum das so ist? Stellt euch vor ihr kauft euch ein FX8150 & Win8 zeigt dann nur noch 4 Kerne an, der Kunde würde sich doch verarscht fühlen oder nicht?

Hast du dazu mal nen Link?
Klingt eher so, als hätte der User händisch im Bios den zweiten Core pro Modul deaktivert. Oder die Preview kommt nicht sauber mit der Modulbauweise klar.

Die sechs Einheiten des Hexacore Modells müssen definitiv auftauchen, sonst kann Windows ja die Threads nicht verteilen.
Aber ich könnte mir vorstellen, das MS ne Art Erkennung ähnlich dem SMT Parking gebastelt hat. Um so zu verhindern, das eben beide Cores pro Modul als gleichberechtigt gelten. Die i7 von Intel sind laut Windows 7 ja auch nur Quadcores plus SMT und keine Oktacores. Wohingegen die Bulldozer als Oktacores durchscheinen. Und hier liegt wohl ein Punkt, andem potentiell Performance verloren geht. Wenn die Threadaufteilung ungünstig fällt.
Bei Vista und SMT gabs ja ordentlich Federn zu lassen. Mit CMT dürfte das zwar nicht ganz so fett sein, aber immerhin...

Laut C'T : Für einen unbedingten Sprung oder Return ohne korrekten Eintrag im BTB(Branch Target Buffer) beträgt die Strafzeit 15 Takte,folglich dürfte die von AMD nicht spezifizierte Standard Pipeline Länge ebenfalls bei rund 15 Stufen liegen.

Kann man das so schlussfolgern?
Wobei ja angesprochene 18 denke ich auch als ~15 durchgehen würden ;)
 
ist altbekannt, die preview erkennt 3C/6T
 
Grundsätzlich lässt sich wohl jeder Part in irgend einer Wiese durch einen anderen Kompensieren. Aber mal ehrlich, wie stellst du dir das vor?

Eben, jeder Part kompensiert den anderen.
Was anderes wollte ich nicht ausdrücken und dazu hab ich ein Beispiel genannt.
Dir scheint nicht klar zu sein, um was es konkret geht.

Welche Konkurenz!? Im Moment seh ich da keine, und es macht nicht unbedingt aktuell den Eindruck, als ändert sich das von jetzt auf gleich. Wobei es nicht auszuschließen wäre

Kontext Fail.
Es ging immernoch um die Behauptung der Pipeline die pauschal getroffen wurde und um keinen Vergleich aktuell mit der Konkurrenz.

fdsonne schrieb:
Unterm Strich ists aber auch völlig Banane, wie lang die Pipeline ist, solange der Spaß sauber tut.

Na dann sind wir uns ja einig. :)
 
Eben, jeder Part kompensiert den anderen.
Was anderes wollte ich nicht ausdrücken und dazu hab ich ein Beispiel genannt.
Dir scheint nicht klar zu sein, um was es konkret geht.

Doch, voll und ganz. Das Problem ist, einerseits reist du den Satz aus dem Zusammenhang und andererseits, wie in den Folgesätzen steht:
In der Theorie lässt sich das kompensiere, in der Praxis aber eben nur bedingt. Die Cores können genutzt werden um mehr IPC zu erhalten, bedürfen aber Anwendungen die mitspielen -> aktuell gerade bei Alltagsanwendungen nur wenig der Fall. Und der Takt ist nach wie vor gedeckelt durch diverse andere Faktoren.
Was bleibt also übrig wenn die IPC nicht passt? Richtig, man wird IPC Leistung hochpushen müssen, wie auch immer man das anstellt, um mitzuhalten.

Kontext Fail.
Es ging immernoch um die Behauptung der Pipeline die pauschal getroffen wurde und um keinen Vergleich aktuell mit der Konkurrenz.
Ähm nein...
Mir ging es darum, das mr.dude eine Aussage kopiert und für seine Worte negiert hat. Spricht ja grundsätzlich nix dagegen, nur ergibt die Orginalaussage noch Sinn, die von mr.dude eben nicht, weil aktuell keine Konkurenz da ist. Und genau das steht da... Ob der Ursprungskontext nun ein anderer war oder nicht spielt dabei keine Rolle.
 
Das Problem ist, einerseits reist du den Satz aus dem Zusammenhang und andererseits, wie in den Folgesätzen steht:

Das stimmt.
Das kommt davon, wenn man sich dazwischen ne heiße Schokolade macht. :d

Zitat von Duplex Beitrag anzeigen
Ein Design mit einer langen Pipeline wird langfristig keine Chancen gegen die Konkurrenz haben
Ein Design mit kurzer Pipeline wird langfristig aber genauso wenig Chancen gegen die Konkurrenz haben.

Das war der usprüngliche Zusammenhang.
Und der ist pauschal und falsch.
Es ging nicht um die Konkurrenz, sondern um die Feststellung, dass Pipelinelänge eben nicht alles ist.
 
Zuletzt bearbeitet:
Das war der usprüngliche Zusammenhang.
Und der ist pauschal und falsch.
Es ging nicht um die Konkurrenz, sondern um die Feststellung, dass Pipelinelänge eben nicht alles ist.

Es wirkt für mich eher so, als nutzt Duplex die aktuelle Marktlage als Basis für diese Behauptung. Und da macht nunmal BD mit ner im Vergleich zu SB längeren Pipeline dieser eben anstatt der "Planierraupe" eher den "Spielzeugbagger"
Duplex behauptet also, das man mit der längeren Pipeline nicht gegen die kürzere Pipeline der Konkurenz anstinken kann. Und im Moment sieht alles danach aus, als würde sich daran in Zukuft (langfristig wie er schreibt) nix ändern. Ergibt also auch Sinn diese Behauptung. (wenn auch doch schon weit her geholt ;))

mr.dude dreht nun in seiner Art den Satz einfach um. Was dann aber jeglicher Logik wiederspricht. Denn die Konkurenz hat die Nase vorn, für seine Behauptung müsste die CPU mit längerer Pipeline eben schneller als die mit kürzerer sein. Was ich aktuell am Markt nicht sehe. Und was im Moment auch für die ersten Refreshs nach Sandy (Sandy-E mal außen vor) und Zambezi nicht so ausschaut.

Und genau das bezweckt meine Aussage...
 
Zuletzt bearbeitet:
Mir ist auf die schnelle kein weiteres Spielzeugbaustellenfahrzeug eingefallen, was in dem Zusammenhang gut geklungen hätte :fresse:
 
mr.dude dreht nun in seiner Art den Satz einfach um. Was dann aber jeglicher Logik wiederspricht. Denn die Konkurenz hat die Nase vorn, für seine Behauptung müsste die CPU mit längerer Pipeline eben schneller als die mit kürzerer sein. Was ich aktuell am Markt nicht sehe. Und was im Moment auch für die ersten Refreshs nach Sandy (Sandy-E mal außen vor) und Zambezi nicht so ausschaut.


Das sagst du ja aber nur aus der aktuellen Situation heraus. Stimmen muss es deswegen nicht.
 
Das sagst du ja aber nur aus der aktuellen Situation heraus. Stimmen muss es deswegen nicht.

Ja woraus soll man sonst ableiten?
Ich kann nicht zwei drei CPU Generationen in die Zukunft schauen, du etwa?

Es macht aktuell nicht den Eindruck, das AMD mit Piledriver so viel zulegen kann, das die gedrehte Aussage dann Sinn machen würde...
Und Intel bringt als bald mit IvyBridge schon den Nächsten. Auch wenn dessen Verbesserungen wohl mehr ins Detail gehen werden und im Vergleich zu Nehalem oder Lynfield vs. SandyBridge wohl kleiner ausfallen, hat man den 22nm Vorteil auf seiner Seite und könnte Takttechnisch weiter agieren.

Es macht also wie Duplex sagte langfirstig stark den Eindruck, das man mit längerer Pipeline nicht gegen die Konkurenz anstinken kann...
Es kann durchaus anders kommen, keine Frage, nur stört mich dieses Schöngequatsche ein wenig. Beim BD hat man es exakt genau so getan, bis zur letzten Minute. Und als die Karten auf dem Tisch waren, nimmt man nun den nächsten verdächtigen um damit weiter zu machen. Es macht den Eindruck als ist BD abgehakt und es kann nur besser werden... :motz:
 
Ich wollts nur gesagt haben ;)

Die Frage ist wollte AMD überhaupt anstinken können oder ist das Konzept eher langfristig gedacht?! Was hier der eine oder andere sagt bzw denkt hat ja mit fachlichen Wissen fast schon grundsätzlich nichts zu tun.
 
Zuletzt bearbeitet:
Ich wollts nur gesagt haben ;)

ich doch auch :fresse:
Nur dieses ständig gegenseitig angezicke ist irgendwie nervig. Wenn Duplex der Meinung ist, dann ist das eben so. Warum man dessen Aussage also trollig kopieren muss und offensichtlich zeigt, das man "rumstänkern" will ist mir vollkommen schleierhaft. Wenn man der Meinung nicht konform geht, ignoriert man diese halt, oder gibt ein Kommentar mit seinem Teil dazu ab. Ganze Zeilen kopieren und negieren trägt aber nicht der Sachlichkeit bei sondern schürrt unnötig Feuer im immer währenden Kampf der Parteien. :motz:
 
Welche Konkurenz!? Im Moment seh ich da keine, und es macht nicht unbedingt aktuell den Eindruck, als ändert sich das von jetzt auf gleich.
Es ging um die generelle Problemtik von Architekturen und Pipelines, nicht um einen oder mehrere konkrete Prozessoren. Das war zumindest meine Auffassung von Duplex' Aussagen. Und nur dazu habe ich mich geäussert. Vielleicht solltest du nicht so viel lachen und mehr lesen. :rolleyes: Ich kann dir auch nicht zustimmen, dass Bulldozer keine Konkurrenz hätte. Intel sollte man nicht unterschätzen. Auch wenn sie es in Zukunft sicherlich nicht einfach gegen Bulldozer und Fusion haben werden. Und da es einige vermutlich wieder nicht kapieren werden, ein leicht ironischer Unterton ist Absicht.

Ich verstehe nach wie vor nicht, für was man die GPU Leistung wird brauchen können, wenn man nicht spielt. Und schiele damit auf den riesigen Markt der Office PCs und "Arbeitstiere", wo die GPU wohl nichtmal im Ansatz Code eines Spiels zu berechnen bekommen wird...
Und ich verstehe nicht, wie man nicht verstehen kann, dass eine GPU nicht nur fürs Spielen gut ist.

Es macht mir so den Eindruck als will man verstärkt die GPU nutzen um den CPU Part defizit zur Konkurenz auszugleichen. Aber ich sehe auch nicht ganz den Punkt, andem die mehr GPU Leistung dieses ausgleichen kann...
Da unterliegst da aber einem falschen Eindruck. Ich sage nur Heterogeneous Computing. Es gibt Aufgaben, die eine GPU bzw diskrete Logik einfach effizienter lösen kann. Und genau deswegen gibt es Fusion, mit einem ausgewogenen CPU/GPU Ansatz. Man kann sicherlich darüber diskutieren, ob das die beste Lösung ist. Aber zumindest ist es besser als bei der Konkurrenz, die ihre CPU Defizite nicht über den GPU Part ausgleichen kann und umgekehrt. AMD ist momentan der einzige Hersteller, der leistungsfähige CPUs und GPUs liefern kann. Insofern müssen sie nichts ausgleichen. Sie sollten diese spezielle Position einfach nur clever ausspielen, Stichwort Next-Gen Konsolen.


falsch falsch...

K8/K10 = 12 Stage Pipeline
Core2/Sandy Bridge = 14 Stage Pipeline
Nehalem = 16 Stage Pipeline
Bulldozer = 18 Stage Pipeline
Netburst = 20 Stage Pipeline
Netburst Prescott = 31 Stage Pipeline
Bevor du das noch weiter kolportierst, bringe doch bitte mal eine offizielle Quelle, die diese 18 Stufen untermauert. Im Software Optimiation Guide heisst es jedenfalls:
The minimum branch misprediction penalty is 20 cycles in the case of conditional and indirect branches and 15 cycles for unconditional direct branches and returns.
Also 15 Takte für unbedingte Sprünge. Darauf wird sich vermutlich auch die c't beziehen. Das ist zwar noch kein Beleg. Aber zumindest das bisher stichhaltigste Indiz für die Länge der (Integer) Pipeline.


Ganze Zeilen kopieren und negieren trägt aber nicht der Sachlichkeit bei sondern schürrt unnötig Feuer im immer währenden Kampf der Parteien.
Und das ausgerechnet von dir. Was du machst, trägt auch nicht gerade zur Sachlichkeit bei. Du kannst Aussagen auch ignorieren, wenn du dazu nichts zu sagen hast. Was und wie jemand zitiert, sollte dir egal sein. Solange die Antworten sachlich sind, ist dagegen nichts einzuwenden. Und ich sehe nirgendwo, dass es nicht so wäre. Du bist der einzige, der jetzt wieder eine persönliche Fehde daraus macht. Und das ausgerechnet von einem Moderator ist schon ziemlich absurd. Mal davon abgesehen geht es nicht ums Negieren. Es geht darum, jemandem vorzuhalten, dass Behauptungen nicht haltbar sind, weil man diese genauso gut andersrum formulieren kann, ohne dass sie an Wahrheitsgehalt verlieren.
 
Zuletzt bearbeitet:
Die Frage ist wollte AMD überhaupt anstinken können oder ist das Konzept eher langfristig gedacht?! Was hier der eine oder andere sagt bzw denkt hat ja mit fachlichen Wissen fast schon grundsätzlich nichts zu tun.

Bei der Frage hat Duplex ja ebenso erwähnt, das Intel damals mit Netburst eben in genau jene Sackgasse gefahren ist. Lange Pipeline, auf Takt ausgelegt, später mit Prescott dann noch längere Pipeline und unzureichende Sprungvorhersagen usw.
Unterm Strich, ist man nach Netburst wieder zu altbekannten kurzen Pipelines zurück und das Konzept geht auf. Duplex sagt weiterhin, bei Netburst hat es mit ner ähnlich langen Pipeline wie möglicherweise bei BD angefangen und er könnte sich vorstellen, das auch AMD die möglicherweise weiter pusht um eventuel noch mehr Taktspielraum zu bringen. Er schließt schlussendlich den Schluss, das auch langfristig die kürzere Pipeline die bessere Wahl ist...

Entweder man geht damit konform oder nicht. Eigentlich gibts da keinen Spielraum zum rumzicken :hail:

Es ging um die generelle Problemtik von Architekturen und Pipelines, nicht um einen oder mehrere konkrete Prozessoren. Das war zumindest meine Auffassung von Duplex' Aussagen.
Dann haben wir wohl verschiedene Auffassungen von Duplex Aussage... Und jegliche Diskusion ist sinnfrei. Übrigens, mit diesen Ironieausflüchten was andere besser tun sollten, trägst du leider wieder mal nicht der Sachlickeit bei... Einfach mal sachlich bleiben kann doch nicht so schwer sein. Komisch auch, das du mir vorwirfst auf die persönlich zu werden, wo du doch die guten Tips gibst ;) Aber lassen wir das.

Und ich verstehe nicht, wie man nicht verstehen kann, dass eine GPU nicht nur fürs Spielen gut ist.
Ich bitte um fundierte Programmnamen, jenseits von HD Videosplayern und Browsern, da beides von aktuellen Intel GPUs (auch den kleinen) problemfrei gehändelt werden kann.

Da unterliegst da aber einem falschen Eindruck. Ich sage nur Heterogeneous Computing. Es gibt Aufgaben, die eine GPU bzw diskrete Logik einfach effizienter lösen kann. Und genau deswegen gibt es Fusion, mit einem ausgewogenen CPU/GPU Ansatz. Man kann sicherlich darüber diskutieren, ob das die beste Lösung ist. Aber zumindest ist es besser als bei der Konkurrenz, die ihre CPU Defizite nicht über den GPU Part ausgleichen kann und umgekehrt. AMD ist momentan der einzige Hersteller, der leistungsfähige CPUs und GPUs liefern kann. Insofern müssen sie nichts ausgleichen. Sie sollten diese spezielle Position einfach nur clever ausspielen, Stichwort Next-Gen Konsolen.

Aufgaben sind in meinen Augen keine Programme... Und Aufgaben gibts immer, nur fehlt die Software, oder seh ich das falsch?
Mal ganz davon ab, ich gehe voll konform mit dem Ansatz gewisse Sachen in GPU ähnlichen Strukturen auszulagern. Aber der Ansatz wird sich in meinen Augen erst dann durchsetzen können, wenn die CPU native selbst diese Einheiten mit Aufgaben befüllen kann, ohne das die Software dediziert für die GPU geschrieben sein muss...

Und das ausgerechnet von dir. Was du machst, trägt auch nicht gerade zur Sachlichkeit bei. Du kannst Aussagen auch ignorieren, wenn du dazu nichts zu sagen hast. Was und wie jemand zitiert, sollte dir egal sein. Solange die Antworten sachlich sind, ist dagegen nichts einzuwenden. Und ich sehe nirgendwo, dass es nicht so wäre. Du bist der einzige, der jetzt wieder eine persönliche Fehde daraus macht. Und das ausgerechnet von einem Moderator ist schon ziemlich absurd.

Das hatten wir doch schonmal, sieh es als meine persönliche Meinung und gut ist... Und diese Meinung darf ich auch als Mod kundtun... Was spricht dagegen?
 
Zuletzt bearbeitet:
Übrigens, mit diesen Ironieausflüchten was andere besser tun sollten, trägst du leider wieder mal nicht der Sachlickeit bei...
Dann solltest du vielleicht nicht damit anfangen zu behaupten, was andere angeblich besser machen. Dann kann ich mir auch die Ironie schenken.

Komisch auch, das du mir vorwirfst auf die persönlich zu werden, wo du doch die guten Tips gibst
Nee, komisch ist daran nichts. Du bist derjenige, der wieder Namen in die Runde wirft und gezielt damit provoziert, nicht ich. Vielleicht kannst du das irgendwann wirklich mal bleiben lassen. Einfach nur zu sagen, "lassen wir das", reicht da nicht. Man muss es schon tun. ;)

Ich bitte um fundierte Programmnamen, jenseits von HD Videosplayern und Browsern, da beides von aktuellen Intel GPUs (auch den kleinen) problemfrei gehändelt werden kann.
Ja, aber wie. Der Support hinkt immer noch und an die Qualität von AMD/Nvidia kommt Intel auch noch nicht ran. Das war aber nicht der Punkt. Der Punkt war, dass die GPU für mehr als nur Spiele gut ist. Und das können durchaus auch anspruchsvollere Aufgaben sein, zB DC. Auch sollte man bedenken, Multitasking gilt nicht nur für die CPU, sondern auch für die GPU. Bei mehreren grafiklastigen Tasks merke ich schon, wie meine HD 5750 ins Schwitzen kommt. Da brauchst du mir nicht erzählen, dass Intel GPUs solche Situationen problemfrei handeln könnten.

Aufgaben sind in meinen Augen keine Programme... Und Aufgaben gibts immer, nur fehlt die Software, oder seh ich das falsch?
Aufgaben werden aber über Programme gelöst. Oder wie willst du sonst Aufgaben auf Computern lösen? Und wo fehlt konkret die Software? Für GPUs gibt's doch mittlerweile schon so einiges. Und wenn die Programmierschnittstellen einfacher werden und sich weiter verbreiten, wird das in Zukunft sicherlich nicht weniger. Auch da hat man mit Fusion noch einiges vor.

Mal ganz davon ab, ich gehe voll konform mit dem Ansatz gewisse Sachen in GPU ähnlichen Strukturen auszulagern. Aber der Ansatz wird sich in meinen Augen erst dann durchsetzen können, wenn die CPU native selbst diese Einheiten mit Aufgaben befüllen kann, ohne das die Software dediziert für die GPU geschrieben sein muss...
Das muss sie doch schon seit längerer Zeit nicht mehr. Das war mal mit OpenGL so. Darüber sind wir aber spätestens seit OpenCL hinweg.

Das hatten wir doch schonmal, sieh es als meine persönliche Meinung und gut ist... Und diese Meinung darf ich auch als Mod kundtun...
Aber nicht hier im Thread. Wenn du was persönlich zu sagen hast, dann mache das per PN.
 
Zuletzt bearbeitet:
Ja, aber wie. Der Support hinkt immer noch und an die Qualität von AMD/Nvidia kommt Intel auch noch nicht ran. Das war aber nicht der Punkt. Der Punkt war, dass die GPU für mehr als nur Spiele gut ist. Und das können durchaus auch anspruchsvollere Aufgaben sein, zB DC. Auch sollte man bedenken, Multitasking gilt nicht nur für die CPU, sondern auch für die GPU. Bei mehreren grafiklastigen Tasks merke ich schon, wie meine HD 5750 ins Schwitzen kommt. Da brauchst du mir nicht erzählen, dass Intel GPUs solche Situationen problemfrei handeln könnten.
Also ich habe mit meinem Notebook (Lynfield CPU inkl. Intel + NV GPU) kein Problem bei FullHD in voller Qualität (gleich wie mit der NV GPU) noch mit dem Browser bei teils 20+ Tabs gleichzeitig. Auch beim surfen und gleichzeitigem Film gucken gibst kein Problem.
Das gleiche gilt für die OnBoard IGP im jüngst verbauen 880G Board gepaart mit nem X3 460. Auf der Arbeit gibts bei uns aktuell ausschließlich PCs und Notebooks mit Grafik im Prozessor oder OnBoard GPUs diverser Generationen. Bei sauber laufenden Treiber gibts auch dort nichts zu meckern.
Die von dir angesprochen mangelnde Qualität kann ich bestenfalls bei Spielen und dessen Unterstützung feststellen. Aber ich fragte ja nach Beispielen jenseis Browser, HD Videos und Games...

Und wenn du ne HD5750 mit Grafiklastigen Tools ins Schwitzen bringst, bist du doch auch kein Kandidat der zu ner im Vergleich zu den dedizierten Karten doch schon schwächeren iGPU greift. Oder versteh ich das falsch?


Aufgaben werden aber über Programme gelöst. Oder wie willst du sonst Aufgaben auf Computern lösen? Und wo fehlt konkret die Software? Für GPUs gibt's doch mittlerweile schon so einiges. Und wenn die Programmierschnittstellen einfacher werden und sich weiter verbreiten, wird das in Zukunft sicherlich nicht weniger. Auch da hat man mit Fusion noch einiges vor.

Das muss sie doch schon seit längerer Zeit nicht mehr. Das war mal mit OpenGL so. Darüber sind wir aber spätestens seit OpenCL hinweg.

Ich meine eher, das ohne laufende GPU Treiber da nicht viel geht aktuell. Wohingegen bei nativ in die CPU integrierten Einheiten diese auch ohne GPU Treiber funktionieren würden. Um das mal ganz vereinfacht auszudrücken.
Du kennst dich ja selbst mit Programmierung aus. So einfach ne Software schreiben und diese auf der GPU laufen zu lassen, ist da aktuell wohl nicht.

Aber ich verstehe schon worauf du hinaus willst, dennoch fehlt im Moment die Implementierung in Software. GPUs mit programmierbaren Einheiten gibts nunmehr seit 5 Jahren.
 
Also ich habe mit meinem Notebook (Lynfield CPU inkl. Intel + NV GPU) kein Problem bei FullHD in voller Qualität (gleich wie mit der NV GPU) noch mit dem Browser bei teils 20+ Tabs gleichzeitig. Auch beim surfen und gleichzeitigem Film gucken gibst kein Problem.
Schön für dich. Es gibt trotzdem Leute, bei denen es durchaus mehr sein darf und die mehr Ansprüche haben. Wer nur mal ein Video anschauen will oder ein bisschen im Internet surfen will, der braucht auch keine Intel CPU. Da reicht auch jeder AMD locker. Eventuell sogar VIA oder ARM.

Und wenn du ne HD5750 mit Grafiklastigen Tools ins Schwitzen bringst, bist du doch auch kein Kandidat der zu ner im Vergleich zu den dedizierten Karten doch schon schwächeren iGPU greift. Oder versteh ich das falsch?
Ja. AMD fehlt doch nicht mehr viel zu HD 5700 Niveau. Vermutlich wird Trinity bereits zwischen HD 5600 und 5700 liegen. Für meine momentanen Anforderungen könnte ich also bereits auf eine diskrete Karte verzichten und komplett auf eine APU setzen. Intel ist davon noch weit entfernt. Wer also auch nur ansatzweise etwas anspruchsvollere Sachen machen möchte, und das sind eben nicht nur Spiele, wird immer eine zusätzliche diskrete GPU neben der Intel IGP benötigen. Und das kann ja nicht der Sinn einer CPU mit GPU Integration sein. Die IGP taugt bei Intel nur für Low-End Lösungen, die CPU ist hingegen für Performance Lösungen dimensioniert. Wie passt das zusammen?

Ich meine eher, das ohne laufende GPU Treiber da nicht viel geht aktuell.
Ohne laufenden GPU Treiber wird dein System auch nicht booten. Da spielt es dann auch keine Rolle mehr, was Anwendungen unterstützten. Und falls du den OpenCL Support des GPU Treibers meinst, nein, der ist auch nicht notwendig. Wenn sauber programmiert wurde, dann läuft die OpenCL Anwendung eben auf der CPU, wenn kein in Frage kommendes anderes Gerät gefunden wird.

Wohingegen bei nativ in die CPU integrierten Einheiten diese auch ohne GPU Treiber funktionieren würden.
Wenn die Executable für eine andere ISA erstellt wurde, tut sie das auch nicht. Es reichen auch schon unterschiedliche Modi innerhalb der selben ISA. Hast du schon mal versucht, eine x86-64 Anwendung unter x86-32 auszuführen? ;) Also ich sehe da keinen grundlegenden Unterschied in der Problematik. Es läuft im Endeffekt alles auf ein Zusammenspiel zwischen Hochsprache, Compiler und Hardware hinaus. Mit GPGPU ist die Problematik nur noch etwas komplexer geworden. Was allerdings auch daran liegt, dass man es früher einfach versäumt hat, parallele Programmierung zu berücksichtigen. So musste das im Laufe der Zeit nachgereicht werden. Was nicht unbedingt die saubersten Lösungen hervorbrachte.

Aber ich verstehe schon worauf du hinaus willst, dennoch fehlt im Moment die Implementierung in Software. GPUs mit programmierbaren Einheiten gibts nunmehr seit 5 Jahren.
Die gibt's sogar schon länger, seit den ersten Pixel und Vertex Shader GPUs. Ich bin mir im Moment nicht sicher, ob es die Möglichkeit sogar schon seit den ersten T&L Karten gibt.
 
Eine HD 6550D hat die Hälfte der ALUs einer HD 5770 und deutlich weniger Chiptakt (somit gerade mal ein Drittel der GFLOPS), nur gut ein Drittel der Speicherbandbreite und keinen dedizierten Speicher. Aber hey, "AMD fehlt doch nicht mehr viel zu HD 5700 Niveau" ... selbst die HD 5750 ist meilenweit entfernt.
 
Zuletzt bearbeitet:
Eine HD 6550D hat die Hälfte der ALUs einer HD 5770 und deutlich weniger Chiptakt (somit gerade mal ein Drittel der GFLOPS), nur gut ein Drittel der Speicherbandbreite und keinen dedizierten Speicher. Aber hey, "AMD fehlt doch nicht mehr viel zu HD 5700 Niveau" ... selbst die HD 5750 ist meilenweit entfernt.

dennoch scheint es möglich zu sein mit trinity zwischen hd 5600 und 5700 zu landen... und da ist intel noch mehr als meilenweit von entfernt
 
Schön für dich. Es gibt trotzdem Leute, bei denen es durchaus mehr sein darf und die mehr Ansprüche haben. Wer nur mal ein Video anschauen will oder ein bisschen im Internet surfen will, der braucht auch keine Intel CPU. Da reicht auch jeder AMD locker. Eventuell sogar VIA oder ARM.
Ich warte nach wie vor auf ein paar fundierte Anwendungsbeispiele, die den Otto Normalo im Moment Intel/AMD IGP Käufer einen Vorteil bringen würden, durch die stärkere GPU.

Dazu sprach ich mich als Beispiel an. Du sagtest oben ja, Intel ist in Sachen Leistung, Qualität und Support hinter AMD und NV hinterher hinkt. Ich sehe nur davon nichts, wenn es nicht um Games geht. Und der Otto Normalo wohl auch nicht. Es gab ein Leben vor der APU und alles lief uneingeschränkt. Wer mehr wollte, kaufte dedizierte GPUs. Mit der APU bekommt man etwas mehr Leistung für anspruchsvollere Aufgaben (wo ich im Moment nur Games sehe, es sei denn du kannst mir Gegenbeispiele bringen) aber immernoch nicht die von dedizierten Karten.
Und zum Thema AMD CPU, wenn ich mir anschaue, wie die CPU Last im Schnitt über den Takt auf der CPU meines Arbeitsnotebooks anliegt, will ich bestimmt nicht auf ne VIA oder ARM CPU gehen... ;)
So recht kann ich deiner Argumentationen aber nicht ganz nachvollziehen, du versuchst mir was von Vorteilen bei schnellen GPUs einzureden, bringst im Gegenzug aber Argumente, für langsamere CPUs...

Die IGP taugt bei Intel nur für Low-End Lösungen, die CPU ist hingegen für Performance Lösungen dimensioniert. Wie passt das zusammen?
Es gibt auch Intel CPUs unterhalb der Quadcore Riege, sollte dir das entfallen sein?
Ein kleiner Intel Dualcore + SMT ist mit nichten eine Rakete, reicht aber für Otto normalo Desktop Software durchaus für alles aus. Gleichsam AMDs X3/X4 CPUs.
Aber wenn du so argumentierst, kann man das genau so auf AMD umkehren, die CPU taugt dann nur als Low-End Lösung, wohingegen die GPU als Performance Lösung dimensioniert ist. Wie passt das zusammen?


Ohne laufenden GPU Treiber wird dein System auch nicht booten. Da spielt es dann auch keine Rolle mehr, was Anwendungen unterstützten. Und falls du den OpenCL Support des GPU Treibers meinst, nein, der ist auch nicht notwendig. Wenn sauber programmiert wurde, dann läuft die OpenCL Anwendung eben auf der CPU, wenn kein in Frage kommendes anderes Gerät gefunden wird.

Ich wollte nach wie vor auf was anderes hinaus... Lässt sich vllt ein bisschen schwer ausdrücken, wie ich sehe ;)
Ich denke in dem Punkt daran, das die CPU selbstständig die ihr gegebenen Aufgaben auf die ALUs verteilt, anstatt diese auf ihren eigentlichen Cores zu berechnen. Dabei spielt es dann keine Rolle, wie das ganze Programmiert ist, und es würden quasi alle Anwendungen daraus nutzen ziehen.
Heute musst du noch dediziert der Anwendung mitteilen, nutze für Part xy eben die GPU. Das würde bei native in die CPU integrierten Einheiten wegfallen. Spart somit dem Programmierer Arbeit und bringt dem unwissenden trotzdem die Vorteile. Im Moment hast du so oder so die Schnittstelle zur GPU, und diese muss gefüttert werden, sonst passiert nix. Würde die CPU selbst die Arbeit übernehmen, Berechnungen über die ALUs eines GPU Parts laufen zu lassen, umgeht man dieses gekonnt.


PS: weil es auch angesprochen wurde, APU gut und schön, wie will man das in Zukunft mit der Speicherbandbreite machen?
CPUs selbst profitieren eher wenig von Speicherbandbreite, die APU hingegen in Games zum Beispiel doch recht stark (vergleichsweise), siehe Llano zwischen DDR3-1333 vs. DDR3-1866 oder mehr.
Noch deutlich schnellere GPUs würden das noch weiter vorrantreiben. Ich sehe da im Moment bald Ende im Gelände. Weil schnellere Speicher gibts auf absehbare Zeit doch nicht. Oder geht AMD dann auf Tripple/Quadchannel für die APU?
 
PS: weil es auch angesprochen wurde, APU gut und schön, wie will man das in Zukunft mit der Speicherbandbreite machen?
CPUs selbst profitieren eher wenig von Speicherbandbreite, die APU hingegen in Games zum Beispiel doch recht stark (vergleichsweise), siehe Llano zwischen DDR3-1333 vs. DDR3-1866 oder mehr.
Noch deutlich schnellere GPUs würden das noch weiter vorrantreiben. Ich sehe da im Moment bald Ende im Gelände. Weil schnellere Speicher gibts auf absehbare Zeit doch nicht. Oder geht AMD dann auf Tripple/Quadchannel für die APU?

Das wird sicherlich noch interessant, AMD ist mit sicherheit an einem schnellen wechsel zu DDR4 interessiert :)

bringt trippel und quadchannel denn 100 % skallierung mit? Also die doppelte bandbreite von 128 bit sinds ja (glaube ich?), in der praxis?
 
Zuletzt bearbeitet:
es kommt eben drauf an. für media und ab und an nen game, also entertainment notebooks, sehe ich die APU vorne. Es ist ein rundes paket, man braucht eben nicht eine zusätzliche graka und kann alle spirenzchen machen, die im allgemeinen eben auch nicht wahnsinnig viel mehr cpu-power benötigen als trinity/llano bieten. Sowieso ist es ja so, dass in notebooks die olle hdd am meisten, dann die gpu bremst, eher weniger die cpu.

Das mehr CPU-power im zweifel immer besser ist, ist unbestritten. Dennoch ist llano/trinity auf einem niveau, mit dem man etwas anfangen kann.

Wichtiger ist da energieeffizienz und mobilität, die zumindestens bei den ersten llanos ja gut und in der nähe von intel aussahen.

Als reines arbeitsnotebook, auf dem nur ab und an nen filmchen läuft und ansonsten doch eher aufwendige sachen gerechnet werden ist intel sicher noch besser, aber im mid- und entertainment-segment glaube ich sind die APU's gut platziert (ich würde mir einen kaufen wenn ich nicht bereits genug notebooks hätte, die sich auch kaum mehr zu geld machen lassen ;)

der ram-gedanke ist gut ;)
 
Zuletzt bearbeitet:
Den Gedanken kann ich wohl so auch teilen ;)
Wobei ich mich eher frage, ob auch im Entertainment Bereich die GPU Leistung der APU von nöten ist, wenns nicht ums spielen geht.

Die großen Llanos haben ja ne schnellere GPU als die kleineren, geht man dann mit den Cores noch runter, wirds noch wenig.
Merkt man da nen unterschied in den enterainment Aufgaben? Ich seh da keinen... Ergo ist die GPU Leistung nicht von belang -> im Moment.
Und kann man dort Sachen mit ner APU machen, die die Intel IGP nicht bietet? -> ernst gemeinte Frage!!

Das Llano und Nachfolger auf einem CPU Niveau liegen, mit dem man was anfangen kann, ist denke ich unbestritten ;)


@Gustav
es geht zumindest gut nach vorn mit der Bandbreite... Zumindest bei Intel zwischen Single/Dual/Tripple Channel. Aus mangel an Quadchannel Lösungen lässt sich letzteres nur schwer vergleichen. Aktuell gibts Quadchannel im HighEnd Serverbereich bei Intel und bei AMD. Das lässt sich aber so nicht 1:1 vergleichen.
Bestensfalls noch die i5x00er Chipsätze von Intel mit Quadchannel FB-Dimm, aber das war durch den RAM schon so extrem lahm, trotz Quadchannel
 
Wobei ich mich eher frage, ob auch im Entertainment Bereich die GPU Leistung der APU von nöten ist, wenns nicht ums spielen geht.

Wenn man mal im Preisvergleich nach Notebooks guckt scheinen die Notebookhersteller, das nicht zu glauben, sonst gäbe es wohl mehr Llano-Notebooks.
 
bisschen Zeit brauchen die wohl auch noch...
Einerseits scheint es etwaige Lieferschwierigkeiten zu geben, andererseits siehts auch mit dem Verbrauch nicht 100% rosig aus (unter Last)
Vllt hält man sich deswegen noch bedeckt?
 
Interessante Frage, mir kommen BD und Llano so ein weing wie Brücken-Generationen vor, wenn man mal deren Verfügbarkeit übers gesamte Portfolio betrachtet. Haben ja auch beide ihre Defitzite. Die Piledriver-Kerne schein ja schon relative weit zu sein, kommt Trinity früh in 2012 dürfte die Vishera-Plattform bald nachziehen.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh