AMD Fusion: Erster CPU-GPU-Hybridchip "Llano" noch in diesem Jahr

Deshalb erwähnt AMD bei seinen APUs auch ausdrücklich "low-latency memory model", weil ja alles "ausschließlich an der Bandbreite hängt". Wie schön man sich doch alles zurecht biegen kann, wenn man Null Ahnung von der Materie hat. Und dass die Notwendigkeit von Bandbreite von Workloads abhängig ist, ist ja mal was ganz Neues. :rolleyes:

Ok, nochmal für alle wirklich Interessierten und spammenden Märchenonkel eine kurze Geschichtsstunde.

Die klassische GPU (also zu Zeiten vor 3D) hatte einen relativ kleinen VRAM. Dieser war direkt über das Segment A000 im Real oder Protected Mode auf x86 Systemen ansprechbar. In der heutigen Zeit von 3D Grafik und virtuellem Speicher funktioniert das alles etwas anders. Der Zugriff erfolgt über APIs wie OpenGL oder Direct3D. An den grundlegenden Prinzipien hat sich hardwareseitig allerdings nicht viel geändert. Jede GPU benötigt eine gewisse Menge an Speicher, um zB Texturen, Vertices, Offscreen Surfaces, etc "on-the-fly" zu halten und so schnell Zugriff zu haben. Und genau darum geht es, schneller Zugriff und grosse Speicherkapazitäten. Denn je schneller der Zugriff ist, umso schneller kann die GPU rendern. Und je mehr Daten im Speicher gehalten werden können, umso weniger muss über den Bus nachgeladen werden. Das ist der Grundgedanke. Bandbreite spielt konzeptionell also keine Rolle, ist für Effizienz und Leistungsfähigkeit aber mehr oder weniger ein notwendiges Übel.

Woher bekommt die GPU nun ihren Speicher? Normalerweise könnte man problemlos den RAM benutzen. Nur ist dies zu langsam und man klaut der CPU nur unnötig Kapazitäten. Deshalb ist der VRAM bei diskreten Grafikkarten direkt mit auf dem PCB und an das Speicherinterface der GPU angebunden. Was dieser Märchenonkel ständig in den Raum wirft, ist die Hypertransport Anbindung der CPU und hat damit erstmal überhaupt nichts zu tun.

Was passiert nun, wenn eine GPU kein PCB mitbringt, auf welchem man VRAM unterbringen könnte, also wie im Fall von Llano? Hier gibt es unterschiedlichste Lösungsansätze. Einer wäre, den Speicher auf dem Mainboard unterzubringen, also der schon weiter vorne angesprochene Sideport Memory. Ein anderer wäre, den Hauptspeicher zu benutzen. Damit der Hauptspeicher dann nicht zum Flaschenhals wird, gibt es weitere Lösungsansätze. Im verlinkten Beitrag von mmarq wurde ja schon einiges angesprochen, womit sich Latenz und Bandbreite erhöhen lassen, wie read ahead buffer, high-speed serial buffer, dual-mode memory interconnect, usw. Und man darf davon ausgehen, dass AMD genau hier mit der APU Plattform einiges umgekrempelt hat, siehe "memory ... optimizations via high performance bus" und "low-latency memory controller". Vergleiche mit aktuellen Plattformen sind also nicht nur nicht zielführend, sondern schlichtweg abwegig.

Llano wird daher nicht an fehlender Bandbreite ersticken, auch nicht mit ~400 SPs. Die Performance wird sich nicht halbieren gegenüber aktuellen vergleichbaren GPU Designs. Die Bandbreite wird sich nicht auf 1/6 verringern. Und was sonst noch hier alles für lächerlicher Unsinn kolportiert wurde. Könnte dieser Dauerspammer also seine haltlose Polemik endlich mal einstellen? Es sollte doch auch ihm auffallen, dass das hier keinen interessiert und nur anödet. Ich würde vorschlagen, auch er beruft sich endlich mal ausschliesslich auf Fakten und nicht irgendwelche Phantastereien.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Deshalb erwähnt AMD bei seinen APUs auch ausdrücklich "low-latency memory model", weil ja alles "ausschließlich an der Bandbreite hängt".

Und auch hier scheerst du wieder Dinge über einen Kamm, die nicht zusammengehören. Es hängt nicht "alles" an der Bandbreite - aber Spiele tun es, zu einem vergleichsweise extrem hohen Maß. Low-latency, sprich vermehrter Einsatz kleiner, aber sehr schneller interner Caches ist hingegen ein essentieller Punkt für GPGPU - kleiner Exkurs hierzu: GF100 aka Fermi bekam explizit für GPGPU Zwecke große L1 und L2 Caches spendiert - die für Spiele hingegen kaum nützlich sind und im rein Consumer-orientierten GF104 deshalb auch größtenteils wieder herausfliegen. Hier würden sie nur die Effizienz pro mm² senken.
ATI und Nvidia würden sich die Hände reiben, wenn die teuren und energiehungrigen High-Speed VRAMs aktueller GPUs durch zusätzliche Caches auch in Spielen auf einmal bedeutungslos und überflüssig werden würden - das klappt nuneinmal leider nicht. In meinem bereits weiter oben geposteten Link findest du, das du bei üblichem Workload einer Grafikengine hunderte von Takten Latenz völlig problemlos durch ALU-Operationen verstecken kannst, gleichzeitig aber auch vergleichsweise gigantische Datenmenge produzierst: Mit einem einzigen Texel bei einer 32Bit
Textur bereits 256Byte! Was willst du jetzt für einen Cache designen? Du brauchst ihn nur alle paar hundert Takte, dann aber gleich erhebliche und noch viel wichtiger, sich ständig ändernde Datenmengen aus hunderten MB an Texturen - womit soll der Cache da gefüttert werden, wenn er diese über einen schmalbandigen Hauptspeicherzugriff holen soll?

Ich denke für jeden halbwegs im Thema hängenden Leser wird klar: Caches sind bei viele Takte im Voraus einsehbarem Workload mit großen Datenmengen ohne Nutzwert. Und genau solchen Workload stellt jedes 3D-Spiel dar. Anders hingegen beim Thema GPGPU, hier sind Caches sehr wohl bedeutsam - und hier liegt auch das Fusion-Konzept. :wink:

p.s. Ich würde mir von dir einen etwas gehobeneren Diskussionsstil wünschen. Ein "basta, es wird xxx Performance und keine Bandbreitenlimitierung", völlig ohne Fakten, Argumentation und Begründung führt diesen Thread kaum weiter. Genausowenig die Vermischung von Zitaten bzgl. GPGPU und Spielen oder Bandbreitenvergleiche mit CPUs ohne GPU wie im Bloomfield-Beispiel weiter oben oder die immer wiederkehrenden Beleidigungen - sollen die nur fehlende Argumente überdecken? ;)

Das Thema ist an sich sehr interessant und die Diskussion absolut wert, da damit auch die für viele wohl sehr entscheidende Frage beantwortet werden kann, wie weit sich ein solcher Chip letztlich von heutigen IGPs in Spielen absetzen könnte. Damit sollte der Diskurs auch auf entsprechendem Niveau geführt werden.
 
Zuletzt bearbeitet:
Spiele (bzw konkreter Grafik) hängen genauso wenig nur an der Bandbreite. Solch eine Behauptung ist schlichtweg Unsinn. Und das steht ja auch nicht in dem verlinkten Beitrag. Offenbar hast du diesen gar nicht verstanden. Hinzu kommt, dass die Darstellung dort teilweise falsch ist. Das Verhältnis zwischen CPU und GPU geht bei weitem nicht so auseinander. Dem User ging es dort ja auch vielmehr um die Notwendigkeit von Cache. Das ist hier gar nicht das Thema. Das Thema ist die Speicheranbindung der GPU in Llano. Und diese wird durch Latenz und Bandbreite bestimmt. Übrigens würde auch Grafikrendering stark von Caches profitieren. Ist nur momentan keine Option, da die dafür notwendigen Mengen nicht vernünftig in einem Prozessor integriert werden können.

Und wenn du mehr Informationen willst, dann solltest du erstmal mit deinen Lügenmärchen aufhören, von wegen die Bandbreite wird sich auf 1/6 reduzieren oder Llano wäre nichts für Spieler. Völlig lächerlich wird es dann auch noch, wenn du versuchst, technische Aspekte ins Spiel zu bringen, wie "dafür müssten z.B. explizit zusätzliche Datenleitungen im Sockel vorgesehen sein, das ist bisherigen Informationen nicht der Fall". Bisherige Informationen? Nach bisherigen Informationen ist über den Sockel noch gar nichts bekannt. Was willst du da bitteschön über Datenleitungen wissen? Ich verrate dir, was du über Datenleitungen weisst, nämlich rein gar nichts. Also lass diesen Unsinn einfach bleiben.

Alles, was du bisher geschrieben hast, sind weder Tatsachen, noch ist es zu erwarten, noch in irgendeiner Weise logisch hergeleitet. Es ist schlichtweg deine typische AMD negative Basherei, sonst nichts. Es liegt also nur an dir, hier "gehobeneren Diskussionsstil" zu zeigen, nicht an mir. Beschränke dich auf Fakten und logische Spekulationen und kolportiere nicht solchen Müll wie bisher. Dann kann man auch vernünftig diskutieren. ;)

Und ich verrate dir noch ein kleines Geheimnis. Ein Schlüsselwort bei jeder Diskussion heisst "konstruktiv". Was du ständig machst, ist das genaue Gegenteil. Alles so negativ wie möglich zu sehen und so schlecht wie möglich hinzustellen. Das ist der falsche Ansatz. So führt man jedenfalls keine vernünftige und konstruktive Diskussion. Wenn du wissen willst, wie die Bandbreite von Llano ausschaut und wie sich diese auf reale Performance auswirkt, dann solltest du erstmal damit anfangen, herauszufinden, was notwendig sein wird, damit hier kein Flaschenhals entsteht und dementsprechend ableiten, was wahrscheinlich für die Implementierung ist. Und nicht eine aktuelle Plattformen nehmen und dann behaupten, es würde nicht reichen. Oder bist du wirklich so naiv zu glauben, die Ingenieure wären so dumm?
 
Zuletzt bearbeitet:
@mr.dude Wie sehen denn Bandbreite und Latenz bei einer IGP aus, wenn sie auf ihren Sideport bzw. über HT und NB auf den Hauptspeicher zugreift?
 
Jetzt bin ich aber mal gespannt, wie du die Latenzen des GPU-Speichers modifizieren konntest. ;)

das ging früher bis zur 1950er wunderbar per atitool

ps: schon lustig zu lesen wie 2 halbinformierte sich gegenseitig die existenz von gerüchten beweisen wollen. wartest doch einfach ab, ihr seid wedern chipdesigner noch was verwandtes und habt nicht die geringste ahnung was sich die ingeneure haben einfallen lassen. fakten hin oder her, an dei ihr euch hier klammert, fakt ist, dass dei menschheit früher glaubte, der menschliche körper könne nicht überleben wenn er sich schneller als ein pferd bewegt.
 
Zuletzt bearbeitet:
Spiele (bzw konkreter Grafik) hängen genauso wenig nur an der Bandbreite. Solch eine Behauptung ist schlichtweg Unsinn.

Zum Glück habe ich das so auch nie behauptet. Wichtig ist das Verhältnis von Rechenleistung zu Latenz, und das ist schon bei aktuellen IGPs grenzwertig wie obige HT4U-Messungen belegen: Der Sideportspeicher skaliert bereits an einem 40SPs Chip auf 700MHz recht gut, weitere Taktsteigerungen des Chips skalieren deutlich schlechter - ein klassisches und absolut klares Bandbreitenlimit.

Und das steht ja auch nicht in dem verlinkten Beitrag.

Du verstehst wohl weder das Posting noch deine eigenen Beiträge.

"aber ich denke es zeigt dennoch, dass ein groessere cache auf einer gpu rein garnichts braechte (ich spreche von graphik, nicht von gpgpu)"

Damit sind deine bisherigen und nur am Rande auch durchgängig fachlich weder sinnvollen noch irgendwie begründeten Theorien vom Tisch, Bandbreitenprobleme ließen sich durch einen "low-latency memory controller" oder zusätzliche Buffer lösen - wenn du diese nicht auf dutzende bis hunderte Megabyte aufbläst, nützen die dir gar nichts.

"wir haben noch 6 mal 64 alu operationen bis das "gewollte" texel benutzt wird, also ca 400cycles bis es wirklich gelesen wird. ziemlich viel an latenz was versteckt wird, aber auch ziemlich viel bandbreite, denn im falle von 32bit texturen hast du 256byte. du kannst nicht davon ausgehen dass die in einer cacheline liegen, also hast du im schlimsten fall zu der kachel die du liest noch 5weitere kacheln "gepingt", also 6x256byte.

du hast 1.5kb bandbreit bei 400cycle latenz gelesen. [...]

und was passiert beim naechsten durchgang? vermutlich wird aus einer ganz anderen textur gelesen, der ganze 1.5kb cache hat nichts verwertbares. 2kb bei 32bit/texel reichen dir also vollkommen aus"

Das Thema ist die Speicheranbindung der GPU in Llano. Und diese wird durch Latenz und Bandbreite bestimmt.

Exakt. Nur das Latenzen bekanntermaßen bei einer GPu sehr leicht zu verdecken sind, da die benötigten Daten bereits hunderte Takte im voraus bekannt sind - jetzt kommt die Bandbreite ins Spiel, diese vergleichsweise enormen Datenmengen auch in dieser Zeit bereitsstellen zu können. Je schneller die Abarbeitung erfolgt, desto größere Datenmengen müssen in einer bestimmten Zeit geliefert werden - der Punkt, wo die Bandbreite limitieren kann. Und genau das, was bereits heutige schwachbrüstige IGPs trifft, wenn sie sich mit der CPU in den Hauptspeicher teilen müssen.

von wegen die Bandbreite wird sich auf 1/6 reduzieren oder Llano wäre nichts für Spieler

Das sind leider die Fakten. Selbst mit DDR3-1600 im Dualchannel hast du nur noch 40% der theoretischen Bandbreite einer HD5670, die zudem keine CPU mit ihrem Speicher füttern muss. Um uns nicht über den Anteil der CPU streiten zu müssen, verwende ich wieder den Ansatz mit dem Vergleich zu aktuellen IGPs: Im Vergleich zu einem RV620 steigt die Rechenleistung um Faktor >10, die Bandbreite um Faktor ~1,2 falls DDR3-1600 supportet wird. Ein eklatantes Missverhältnis, zumal eine heutige IGP in Verbindung mit einer Deneb CPU inkl. L3 Cache mehr Bandbreite vom Hauptspeicher bekommen sollte, als mit einer CPU ohne L3 (der doppelte L2 gleicht das kaum aus)

mr.dude14696158 schrieb:
Bisherige Informationen? Nach bisherigen Informationen ist über den Sockel noch gar nichts bekannt. Was willst du da bitteschön über Datenleitungen wissen?

Bisherige Informationen sprechen von einem Dualchannel-DDR3 Interface. Immerhin sprechen wir auch nur von einem Einstiegschip, da wäre alles andere höchst abwegig. Aber rechnen wir doch mal optimistisch damit, das weiterhin zusätzlich der Sideport verfügbar ist und damit eine Bandbreitensteigerung von ~20% durch DDR3-1600 möglich. :)

mr.dude14696158 schrieb:
Wenn du wissen willst, wie die Bandbreite von Llano ausschaut und wie sich diese auf reale Performance auswirkt, dann solltest du erstmal damit anfangen, herauszufinden, was notwendig sein wird, damit hier kein Flaschenhals entsteht und dementsprechend ableiten, was wahrscheinlich für die Implementierung ist.

Das ist leider nur deine übliche Blauäugigkeit, nicht aber real. Ich wiederhole für dich gerne noch ein drittes Mal, dass das Fusion-Konzept nicht Spiele zum Ziel hat. Für GPGPU reicht ein schnelle Dual-Channel Interface, optimalerweise mit ordentlichen L1 und L2 Caches für die CPU völlig. Für Spiele solllte ein 400SPs Chip bei DDR3-1600 Bestückung mindestens exklusive 256Bit zu haben, was zwar immernoch unter einer HD5670 mit 128Bit und 1000MHz GDDR5 läge, aber immerhin die größten Einbrüche verhindern sollte. Zusammen mit zwei weiteren Kanälen für die CPU bräuchten wir damit ein 6-Channel Speicherinterface in einem Mainstreamprozessor, nur um im Rahmen einer HD5670 spielen zu können, einer Graka, die 2011 im <50€ Bereich spielen wird. Und daran möchtest du ernsthaft glauben?
 
Eigentlich ist die Diskussion ja sehr interessant, aber wenn eine Seite der anderen in jedem Post Polemik, Bashing, Schlechtreden und sonstige Dinge vorwirft, obwohl diese auf einem höchstsachlichen Niveau versucht zu diskutieren macht das den Thread ziemlich uninteressant.

Mich interessiert der ganze technische Teil wirklich sehr und kann Undertaker1s Erklärungen recht gut folgen und verstehen die Problematik auf die er hinaus will, aber was als Antwort kommt sind nichts weit als persönliche Angriffe und das pure Abwatschen als Unsinn, ohne dass dafür Erklärungen oder sonstige Beweisführungsschritte folgen.
Das ist eigentlich schade, wenn diese Diskussion sofort in ein Bashing ausartet, obwohl es im Grunde keinen Anlass dazu gab.

Ich kann Undertaker1 bisher gut folgen, was ich mich jetzt frage ist: Warum stimmts denn (angeblich) nicht? Was ist denn gerade so falsch? Die einzige Aussage die dazukommt ist "stimmt nicht", "kann nicht stimmen", "ist Unsinn", "der Märchenonkel erzählt" und "hör auf davon zu reden, wenn du keine Ahnung hast". Wenn es so falsch ist, dann klär doch auf was daran falsch ist. Das pure Beharren auf "AMDs Ingenieure werdens wohl wissen" bringt den Thread der im ürbrigen ein Diskussions- und Spekulationsthread ist nicht weiter.
Es werden durchaus plausible Argumente gebracht, die nachvollziehbar sind aber die Gegenargumentation befindet sich ausschließlich auf persönlicher Ebene.

Ich habe ja in diversen Threads mitbekommen, dass ihr euch offenbar nicht wirklich leiden könnt oder zumindest der eine den anderen nicht, aber mir und bestimmt einigen anderen wärs doch sehr lieb wenn man das mal bei Seite packen könnte und auf einem sachlichen Niveau diskutieren würde. :)
 
Was hast du nie behauptet? Nun ja, jeder, der lesen kann, sieht das ein bisschen anders.
Eine GPU hängt praktisch ausschließlich an der Bandbreite
:rolleyes:

Ausserdem weisst du, was "ich denke" bedeutet? Damit liegt der User nämlich nicht ganz richtig. Aktuelle Caches würden für Rasterizer recht wenig bringen, das ist richtig, in ausreichender Grösse aber definitiv. Genauso wie Raytracing stark von Caches profitiert. Aber das ist Zukunftsmusik und off-topic.
Ebenfalls erzählst du schon wieder nur Märchen. Wird dir das nicht langsam langweilig? Dass die Bandbreite sich auf 1/6 reduziert und Llano nichts für Spieler wäre, sind weiter Lügen deinerseits, ohne jeglichen Beleg.
Und bisherige Informationen sprechen nach wie vor von so gut wie gar nichts. Bringe erstmal eine Quelle, die von einem Dual-Channel DDR3 Interface spricht, wenn du das schon behauptest. Die Quellen, die ich kenne, sprechen lediglich von DDR3 und sonst nichts. Danach kann ich dir dann erklären, dass das erstmal die Speicheranbindung der CPU (Hypertransport) ist und noch nicht die komplette Geschichte der GPU erzählt.
Ob primär Spiele oder GPGPU ist hier auch irrelevant. Beides soll mit Llano möglich sein. Dementsprechend muss auch das Design des Prozessors und die Plattform dafür ausgelegt sein. Die Vorstellung zu Fusion auf der Computex spricht eine eindeutige Sprache. Zwei Demos, eine zu Spielen, eine zu GPGPU.


Wie sehen denn Bandbreite und Latenz bei einer IGP aus, wenn sie auf ihren Sideport bzw. über HT und NB auf den Hauptspeicher zugreift?
Sideport würde einen eigenen Connect bekommen, typischerweise PCIe. Die Bandbreite wäre kommutativ zum Hypertransport Connect. Zur Latenz kann ich nichts sagen. Hier muss man abwarten, was AMD mit dem Speichercontroller in Llano angestellt hat. Ich gehe aber davon aus, dass die Latenz niedriger als beim aktuellen Design ist. Sonst hätte man dies wohl nicht so auf den Folien hervorgehoben.

ihr seid wedern chipdesigner noch was verwandtes und habt nicht die geringste ahnung was sich die ingeneure haben einfallen lassen.
Das brauchst du mir nicht zu erzählen. Im Gegensatz zu dem Märchenonkel habe ich hier ja auch nichts als Tatsache hingestellt und ebenfalls darauf hingewiesen, Fakten abzuwarten. ;)

was ich mich jetzt frage ist: Warum stimmts denn (angeblich) nicht?
Habe ich das nicht mehr als deutlich erläutert? Bisher ist praktisch nichts zur Llano Plattform bekannt. Erst recht nicht, was das Speicherinterface betrifft. Was er sich ausdenkt, sind Märchen ohne jegliche Belege. Oder siehst du eine offizielle Quelle? Ich sehe keine. Zeige mir bitte eine Quelle, die seine Behauptungen bestätigen. Es wurde auch mehr als ausführlich erläutert, dass Bandbreite noch nichts über reale Performance aussagt.
 
Zuletzt bearbeitet:
1:0 für mr.dude . :shot:

Gibts von der Gegenseite endlich mal ein gelungenes Kontra oder nur 0815 Geblubber, wie man es bereits kennt?!
Manche Sigfaker sollten eben doch lieber im 3DCenter ihr Unwissen verbreiten. :wink:


BTT
Wie genau nun Fusion arbeitet, wird man spätestens erfahren, wenn AMD Folien dazu freigibt.
Das geschieht wohl erst zeitnah mit dem Release von Sandy Bridge. :kotz:
 
Wie genau nun Fusion arbeitet, wird man spätestens erfahren, wenn AMD Folien dazu freigibt.
Eben. Ich kann hier auch nur noch mal inständigst darum bitten, Fakten abzuwarten. Dann werden wir sehen, was Llano zu bieten hat und was nicht. Und nicht schon im Vorfeld irgendwelche unsinnige Polemik breittreten. Das ist weder konstruktiv, noch interessant, noch zielführend.
 
Glaube kaum das man ( egal von wem, AMD oder Intel ) dann auf eine "externe" Grafiklösung verzichten kann wenn man genügend Leistung für aktuelle Spiele haben will.

Ich würds mir natürlich sehr wünschen, aber ich glaube nicht dran, zumindest nicht in den nächsten 2-3 Jahren.

MfG


PS: Für ATI wärs ja dann nicht so dramatisch, gehören ja zu AMD.
Aber was macht den nvidia dann? Werden sicher zusammen mit Intel was machen, sonst würden die ja auf der stecke bleiben.

Oder de bringen eine Grafikkarte mit intrigiertem CPU raus :d




sry fürs rumspinnen :d
 
Diskrete Karten für High-End Gaming wird es auch weiterhin geben. Das ist ja auch nicht der angepeilte Markt für Llano. Llano ist für Notebooks und Mainstream Desktop gedacht. Selbst die kleineren diskreten Karten werden nicht verschwinden. Soll ja auch Systeme ohne AMD Sockel geben, der für Llano notwendig ist. ;)
 
Was hast du nie behauptet? Nun ja, jeder, der lesen kann, sieht das ein bisschen anders.

Wenn es anders nicht geht, greifen wir wohl auf selektive Zitate zurück?

Eine GPU hängt praktisch ausschließlich an der Bandbreite und nicht der Latenz.

Für den Vergleich von Speicherbandbreite und Latenz ist das nach wie vor vollständig korrekt. :) VRAM läuft verglichen zum Hauptspeicher einer CPU auf geradezu horrenden Latenzen, eben weil jene verglichen zur Bandbreite recht unbedeutend sind. Aber schön, wie du den letzten Halbsatz einfach weglässt, um den Inhalt zu verdrehen.

Ob primär Spiele oder GPGPU ist hier auch irrelevant. Beides soll mit Llano möglich sein.

Wir reden nicht von Möglichkeiten sondern Performance. Und dafür ist der Workload eben nicht völlig egal. Einer spezialisierter GPGPU-Beschleuniger würde völlig anders aussehen, als ein spezialisiertes Design nur für Grafikbeschleunigung. Fusion ist ein Kompromiss zwischen beidem, das Verhältnis von Rechenleistung zu Speicherbandbreite geht aber sehr stark in Richtung des Ersteren. Das vermutete Dualchannel DDR3-1600 Interface kann dabei natürlich noch speziell der Taktraten nach oben oder unten abweichen, genauso ist es aber auch bei der SP-Zahl bzw. deren noch völlig unbekannter Taktrate.

Eigentlich ist die Diskussion ja sehr interessant, aber wenn eine Seite der anderen in jedem Post Polemik, Bashing, Schlechtreden und sonstige Dinge vorwirft, obwohl diese auf einem höchstsachlichen Niveau versucht zu diskutieren macht das den Thread ziemlich uninteressant.

Das ist in der Tat sehr schade. Auch mir würde die Argumentation weitaus mehr Freude bereiten, wenn Rechnungen, Fakten und Quellen nicht immer wieder gegen ein "Unsinn", "Lüge" und "Falsch" stoßen, sondern fachlich begründet würden. Konkret erwarten würde ich technische Details zu folgenden Punkten:

1. Wie hoch ist der durchschnittliche Bandbreitenbedarf einer aktuellen CPU (Deneb, 8MB L2+L3) einzuschätzen? Welche Anforderungen dürfte ein Modell mit nur 4MB L2+L3 stellen?

Meine Einschätzung: Mindestens ein Single-Channel DDR3-1600 Speicherinterface ist anzusetzen (entspräche Dualchannel DDR2-800), um größere Einbrüche zu verhindern. An Hand diverser Speicherskalierungstests im Netz dürfte das die CPU-Performance um nicht größer als 10% beschneiden, das wäre noch vertretbar.

2. Welches Speicherinterface ist realistisch?

Meine Einschätzung: Aktuelle Quellen sprechen von DDR3-1600 und zwei Kanälen, was im Jahre 2011 für eine Einstiegs-CPU realistisch sein sollte. Mehr als zwei Kanäle würden eine in diesem Preisbereich unrealistische Bestückung mit 3 oder 4 Speichermodulen erfordern, das ist teuer und verschlechtert die Energieeffizienz. Gerade für das Haupteinsatzgebiet in Notebooks völlig unrealistisch.

3. Wodurch soll der Bandbreitenbedarf einer GPU der 400SPs Rechenleistungsklasse vermindert werden können? Realisierbare Vorschläge erwünscht.

Meine Einschätzung: Zunächst, wenn es hierfür eine Lösung gäbe, würde sie auch im Bereich dezidierter Grafiklösungen angewendet werden. GPU-Workload erfordert vorausschaubare, große Datenmengen. Ein Cache ist sinnvoll, wenn geringe bzw. immer wiederkehrende Daten kurzfristig angefordert werden müssen - relevant wenn wir in Richtung GPGPU schauen, nicht aber in einer Grafikengine. Man könnte über EDRAM nachdenken, der allerdings erst dann Sinn macht, wenn du mindestens die für das Rendertarget benötigte Menge verbaust - für 1080p ~20MB. Transistorbudget dafür: 9-stelliger Bereich. Und du kannst noch keine Texturen darin speichern, ein schneller Zugriff auf den VRAM/RAM wäre weiterhin notwendig.
 
Ich kann Undertaker1 bisher gut folgen, was ich mich jetzt frage ist: Warum stimmts denn (angeblich) nicht? Was ist denn gerade so falsch? Die einzige Aussage die dazukommt ist "stimmt nicht", "kann nicht stimmen", "ist Unsinn", "der Märchenonkel erzählt" und "hör auf davon zu reden, wenn du keine Ahnung hast". Wenn es so falsch ist, dann klär doch auf was daran falsch ist. Das pure Beharren auf "AMDs Ingenieure werdens wohl wissen" bringt den Thread der im ürbrigen ein Diskussions- und Spekulationsthread ist nicht weiter.
Es werden durchaus plausible Argumente gebracht, die nachvollziehbar sind aber die Gegenargumentation befindet sich ausschließlich auf persönlicher Ebene.

da ich Undertaker1 aug ignore habe kann ich nur mutmaßen - Es ging um die Bandbreite nehm ich mal an wie schon zig Seiten vorher auch - Was mich dabei so stört und warum ich UT1 auf ignore habe ist schlicht die Tatsache das er ständig in AMD Threads versucht aktuelle oder zukünftige CPUs schlecht zu reden - da behauptete er es gäbe nur ein 64Bit interface, dann möchte er mit einer Mittelklasse GPU auf die Spieleleistung eines LIano schließen und dann kommen behauptungen wie das Dual Channel DDR3-1600 interface sei so langsam das er für Spiele komplett ungeeignet sei - und das obwohl AMD schon gezeigt hat das spielen möglich ist - und hat dafür nichtmal das Topmodell verwendet

Auf den Gipfel treib er das ganze - mMn - damit das man in einem Thread wo es um Sandy Bridge geht - der mit seiner GPU exakt das das gleich Problem hat - nämlich das im vergleich zu diskreten GPUs langsame Dual Channel DDR3-1600 interface - man dort keinen einzigen Post von UT1 findet der Sandy Bridge als für Spiele untauglich abstempelt, man findet auch keine wirren Simulationsversuche oder irgendwas in die Richtung, nur in den AMD Threads treibt er es - mit leichter mithilfe - so weit bis der Thread geschlossen wird --> siehe Post #53

Llano ist für Notebooks und Mainstream Desktop gedacht.

der Meinung bin ich auch und genau dafür ist er mit sicherheit optimal - für ein Spiel zwischendurch kann ist die iGPU durchaus zu gebrauchen

mfg
 
Zuletzt bearbeitet:
Sideport würde einen eigenen Connect bekommen, typischerweise PCIe. Die Bandbreite wäre kommutativ zum Hypertransport Connect. Zur Latenz kann ich nichts sagen. Hier muss man abwarten, was AMD mit dem Speichercontroller in Llano angestellt hat. Ich gehe aber davon aus, dass die Latenz niedriger als beim aktuellen Design ist. Sonst hätte man dies wohl nicht so auf den Folien hervorgehoben.
Also es müsste doch theoretisch ein relativ großer Vorteil sein, wenn die GPU im Llano direkt auf den Hauptspteicher zugreifen kann. Oder habe ich da einen Denkfehler?

Das K10-Design hat doch zwei unabhängige 64bit Speicherkanäle, nutzt Llano dann einen für die GPU und einen für den Rest? Kann es sein, dass AMD das noch weiter aufbohrt?
 
Zuletzt bearbeitet:
Also es müsste doch theoretisch ein relativ großer Vorteil sein, wenn die GPU im Llano direkt auf den Hauptspteicher zugreigen kann. Oder habe ich da einen Denkfehler?

Ein prinzipieller Vorteil ist natürlich, dass die Verbindung zwischen Hauptspeicher und VRAM wie bei üblichen GPUs entfällt - typischerweise also eine 16x PCIe 2.0 Verbindung mit 8GB/s. Rein real ist diese aber selbst für heutige High-End GPUs nicht limitierend, erst unter einem 4x Link (ergo 2GB/s) beginnt die Performance in sehr speicherlastigen Szenarien nennenswert zu sinken, wenn der dezidierte VRAM nicht mehr ausreicht und vermehrt auf den Hauptspeicher zugegriffen werden muss. Bei einem Redwood, z.B. also einer HD5670, dürfte diese Grenze durch die niedrigere Rechenleistung noch spürbar darunter liegen.

Das K10-Design hat doch zwei unabhängige 64bit Speicherkanäle, nutzt Llano dann einen für die GPU und einen für den Rest? Kann es sein, dass AMD das noch weiter aufbohrt.

Besser wäre es natürlich, wenn sich CPU und GPU dynamisch in beide Kanäle teilen würden, von einer solchen Lösung darf man vermutlich ausgehen. Eine feste Aufteilung würde bei starker CPU oder GPU-Belastung mögliche verfügbare Kapazitäten der jeweils anderen Komponente brach liegen lassen.

dann kommen behauptungen wie das Dual Channel DDR3-1600 interface sei so langsam das er für Spiele komplett ungeeignet sei

Es ist sehr beschämend einerseits zu sagen, man würde nicht mitlesen, andererseits aber Behauptungen über den Inhalt meiner Aussagen aufstellen zu wollen. Keiner sagt, dass er für Spiele komplett ungeeignet sei. Nirgends, aber auch wirklich nirgends, wurde das behauptet. Es geht um den Punkt, wo genau der Chip sich zwischen einer aktuellen IGP (vielfach niedrigere Rechenleistung, allerdings ähnliche Bandbreite) und einem RV830 (ähnliche Rechenleistung, allerdings vielfach höhere Bandbreite) platzieren wird. Diese Einordnung ist Workload-abhängig. Haben wir eine Anwendung, die eine sehr hohe Rechenleistung, aber keine sonderlich großen Mengen sehr schnell angebundenen Speichers benötigt, wird die Performance abhängig von Takt und letztlicher Threadzahl sehr nahe an dem Niveau einer vergleichbaren dezidierten GPU liegen - typisches Beispiel, GPGPU. Ein jeder mit einer aktuellen GPU kann selbst an Hand von verfügbaren Anwendungen aus diesem Gebiet testen, dass sich in erster Linie praktisch nur Änderungen des Chiptaktes auf die Performance auswirken.
Ein anderer Fall sind Spiele, die zwar ebenfalls hohe Rechenleistungen erfordern, gleichzeitig aber eine adäquate Speicheranbindung, um die Rechenleistung auf die Straße zu bringen. Eine adäquate Anbindung für einen >=400SPs Chip liegt je nach Taktrate bei 50GB/s aufwärts exklusiv für die GPU.

Auf den Gipfel treib er das ganze - mMn - damit das man in einem Thread wo es um Sandy Bridge geht - der mit seiner GPU exakt das das gleich Problem hat - nämlich das im vergleich zu diskreten GPUs langsame Dual Channel DDR3-1600 interface - man dort keinen einzigen Post von UT1 findet der Sandy Bridge als für Spiele untauglich abstempelt

Auch hier bin ich erneut verwundert wie du ohne meine Postings zu lesen den Inhalt kennst. Zudem bist du jetzt glaube ich der dritte oder vierte Nutzer, der den Thread mit einer themenfremden Diskussion über andere Produkte - Sandy Bridge - ins Offtopic drängt - unnötig. Um dir trotzdem deine Frage zu beantworten:

Völlig korrekt, auch Sandy Bridge wird keine höhere Speicherbandbreite zur Verfügung haben. Aber: Sandy Bridge wird auch eine vielfach niedrigere Rechenleistung besitzen, aktuelle Theorien sprechen von etwa doppelter Clarkdale-Leistung - was etwa in einer Leistungskategorie von ~80-100 Shadern auf Seiten AMDs anzusiedeln ist, ergo Faktor 4-5 niedriger. Das bottleneck Speicheranbindung wird also viel früher von einem anderen Engpass in Form der Rechenleistung limitiert. Eine Diskussion über ersteres wäre somit recht theoretisch, die GPU-Performance wird so oder so klar unter einem Fusion in Vollausbau liegen.

Damit sollte das Thema SB aber auch abgehandelt sein und wieder das Topic diskutiert werden.
 
Zuletzt bearbeitet:
Ich habe jetzt mal auf Beitrag anzeigen geklickt weils mich einfach interessiert hat

Auch hier bin ich erneut verwundert wie du ohne meine Postings zu lesen den Inhalt kennst.

wenn dich jemand zitiert wird das trotz ignor angezeigt, davon abgesehn was ich lese und was nicht entscheide ich schon selbst


Keiner sagt, dass er für Spiele komplett ungeeignet sei. Nirgends, aber auch wirklich nirgends, wurde das behauptet

von wegen die Bandbreite wird sich auf 1/6 reduzieren oder Llano wäre nichts für Spieler.
Das sind leider die Fakten.

nachdem du Fakten schreibst meist du offensichtlich beide aussagen - bevor jetzt wieder kommt "aber für das und das reichts nicht", nicht jeder Spieler spielt Crysis auf einem 30Zoll monitor - vor allem Fans älterer Spiele haben mit der iGPU mehr als genug Leistung

Ende der Diskussion und BTT

mfg
 
Zuletzt bearbeitet:
Ahja. Nur wurden die erwähnten Beitragsteile teils nirgends zitiert - noch lustiger, ich habe sie selbst nicht geschrieben.

Desweiteren möchte ich dir gerne den Unterschied erklären zwischen "komplett ungeeignet für Spiele" - O-Ton du - und "nichts für Spieler" bzw. auch "das Fusion-Konzept hat nicht Spiele zu Ziel".

Komplett ungeeignet für Spiele würde bedeuten, dass kein einziges Spiel in absolut beliebigen Settings auf erträgliche Frameraten zu bringen ist oder gar nicht startet. Das lässt sich selbst für ein Netbook inkl. üblicher IGP kaum sagen. Dennoch ist ein solches Netbook mit seiner uralt-GMA "nichts für Spieler", nur um mal den Extremfall deutlich zu machen.
Eine aktuelle High-End GPU besitzt eine Speicherbandbreite von 150-180GB/s, im Jahre 2011 werden wir mit schnelleren GDDR5-Modulen locker die 200GB/s knacken - diese Bandbreiten sind schlicht nötig, um die vorhandenen Rechenleistungen auf den Boden zu bringen. Selbst eine Mittelklasse-Karte wie die HD5770 kommt noch auf knapp 80GB/s und stößt dabei bereits ohne AA/AF in aktuellen Spielen schnell an ihre Grenzen - im Jahre 2011 wird sie kaum noch für dann kommende Spiele in mehr als HDready Auflösung taugen, sofern man nicht auf Details verzichten will. Vorausgesetzt, die kommende Fusion-APU begnügt sich CPU-seitig mit der Bandbreite eines einzigen DDR3-Kanales - der ist nuneinmal 64Bit breit, du kannst nicht sagen, dass allein die GPU den Speicher für sich vereinnahmen kann - verbleiben bei DDR3-1600 gerade einmal 12,8GB/s für die GPU. Das entspricht gerade einmal der Bandbreite einer HD5450 mit nur 80 Shadern. Bandbreite und Rechenleistung lassen sich ferner nicht gegeneinander aufrechnen, zu sagen: "Mit xx% mehr Rechenleistung kann ich xx% weniger Bandbreite aufwiegen" klappt nur sehr bedingt.

Auch an dich richte ich meine 3 Fragen diesbzgl., in denen ich dich bitte, deine eigene Einschätzung des Themas vorzubringen:

1. Wie hoch ist der durchschnittliche Bandbreitenbedarf einer aktuellen CPU (Deneb, 8MB L2+L3) einzuschätzen? Welche Anforderungen dürfte ein Modell mit nur 4MB L2+L3 stellen?

Bitte mit argumentativer Begründung, woraus du deine Einschätzung ableitest.

2. Welches Speicherinterface ist realistisch?

Bitte Speicherinterface und zu erwartende Taktrate angeben, von der resultierenden Speicherbandbreite das Ergebnis von 1. abziehen.

3.
Wodurch soll der Bandbreitenbedarf einer GPU der 400SPs Rechenleistungsklasse vermindert werden können?

Das Ergebnis von 2. heranziehen und einordnen, mit welchen dezidierten GPUs die resultierende Bandbreite vergleichbar wäre. Wenn du der Meinung bist, dass die resultierende Performance dennoch höher liegt bitte begründen, warum die GPU eines Fusion-Chips mit weniger Bandbreite eine höhere Leistung erzielen kann, als ein dezidiertes Modell.

Ich bin gespannt auf deine Argumentation. :wink:
 
Noch ein Gedanke:

Aktuell wird die Bandbreite doch durch die verhältnismäßig niedrig getaktete NB etwas "begrenzt", AMD könnte auch hier den Takt erhöhen...
 
In der Tat, der aktuelle Speichercontroller hat verglichen zu anderen CPUs bei gleicher Speicherbestückung noch gut 25% Potential nach oben, gut möglich, dass hiervon mit Tweaks noch einiges herausgeholt werden kann. Gutes, sachliches Argument. :wink:
 
Wenn nen Mod sieht was hier wieder für ne Kacke hin und herläuft - ich denke jeder weiß was ich meine - dann ist der Thread zu...

Undertaker 1 dein Wissen (>) und Unwissen (<) in allen Ehren, aber reicht es nicht irgendwann mal? Der Klügere gibt nach... heißt es... leider gibt nie einer nach und deswegen werden am laufenden Band irgendwelche Threads dichtgemacht... herzlichen Glückwunsch.

von LIano ist bisher so gut wie nichts faktisch bekannt außer das es eine APU ist, alle Aussagen, Vermutungen und Mutmaßungen entspringen nur aus Phantasie oder wiederrum nur aus Vermutungen. Warum also den Kessel immer weiterbelasten?

Das heißt natürlich nicht das es im Endeffekt eine der Lösungsansätze ist, aber solange wir es net wissen hilft die hitzigste Debatte nichts... oder kannst du schon eine Waffe abfeuern bevor die Patrone geladen ist? ;)

lg

Martin
 
Eine GPU hängt praktisch ausschließlich an der Bandbreite und nicht der Latenz.
Für den Vergleich von Speicherbandbreite und Latenz ist das nach wie vor vollständig falsch.

Keiner sagt, dass er für Spiele komplett ungeeignet sei. Nirgends, aber auch wirklich nirgends, wurde das behauptet.
Nein, natürlich nicht. :rolleyes:
das wird jede ernsthafte Spieleambition mehr oder weniger schnell zunichte machen.
Erst solchen Unsinn erzählen. Und jetzt, wo du merkst, wie unsinnig das war, es wegreden zu wollen, anstatt mal zuzugeben, dass du dich damit vermutlich zu weit aus dem Fenster gelehnt hast. Auch das ist eines deiner Probleme, du besitzt Null Einsicht und lässt keinerlei Selbstkritik zu. Ich warte übrigens immer noch auf offizielle Quellen, die deine ganzen Behauptungen bestätigen. Wo sind diese? Ich sehe nichts. Von Kyraa sehe ich auch nichts. Ist das eure Art zu diskutieren? Behaupten ja, belegen nein?

Nur zur Info, ich werde alle deine Behauptungen und Mutmaszungen mal schön festhalten, wie
verglichen zu einer HD5570 dürfte allerdings auch die Performance nahezu halbieren
und beim Launch von Llano nochmal darauf zurückkommen. ;)


Also es müsste doch theoretisch ein relativ großer Vorteil sein, wenn die GPU im Llano direkt auf den Hauptspteicher zugreifen kann. Oder habe ich da einen Denkfehler?
Von Vorteil würde ich nicht sprechen. Wenn die Anbindung aber schnell genug ist, also schnelle Zugriffszeiten + ausreichend Durchsatz, dann sollte es zumindest kein signifikanter Nachteil gegenüber VRAM sein.

Das K10-Design hat doch zwei unabhängige 64bit Speicherkanäle, nutzt Llano dann einen für die GPU und einen für den Rest? Kann es sein, dass AMD das noch weiter aufbohrt?
Ich denke, das Speicherinterface arbeitet ziemlich dynamisch. Wer Bandbreite braucht, bekommt diese. Eine CPU braucht vergleichsweise wenig Bandbreite für Workloads, in denen die Grafikleistung der GPU gefordert ist. Spiele sind zB sehr Cache-lastig. Und ja, dass der Speichercontroller auf mehr als 128-bit aufgebohrt wird, ist eine mögliche Option. Die Patente dazu habe ich ja schon weiter oben verlinkt. Hängt halt vom Kosten-Nutzen-Faktor ab.

Noch ein Gedanke:

Aktuell wird die Bandbreite doch durch die verhältnismäßig niedrig getaktete NB etwas "begrenzt", AMD könnte auch hier den Takt erhöhen...
Korrekt. Auch das ist noch eine Option. ZB ein theoretischer NB Takt von 3,2 GHz würde 60% mehr Bandbreite im Vergleich zum aktuellen Design bedeuten. Ein Hypertransport 3.1 Link ermöglicht bis zu 25,6 GB/s in eine Richtung und zusammen 51,2 GB/s (bidirektional). Zum Vergleich, die HD 5570 hat eine Bandbreite von 28,8 GB/s. Und es ist nicht gesagt, dass Llano nur einen HT Link besitzen muss.
 
Zuletzt bearbeitet:
Wenn nen Mod sieht was hier wieder für ne Kacke hin und herläuft - ich denke jeder weiß was ich meine - dann ist der Thread zu...

Undertaker 1 dein Wissen (>) und Unwissen (<) in allen Ehren, aber reicht es nicht irgendwann mal? Der Klügere gibt nach... heißt es... leider gibt nie einer nach und deswegen werden am laufenden Band irgendwelche Threads dichtgemacht... herzlichen Glückwunsch.

von LIano ist bisher so gut wie nichts faktisch bekannt außer das es eine APU ist, alle Aussagen, Vermutungen und Mutmaßungen entspringen nur aus Phantasie oder wiederrum nur aus Vermutungen. Warum also den Kessel immer weiterbelasten?

Das heißt natürlich nicht das es im Endeffekt eine der Lösungsansätze ist, aber solange wir es net wissen hilft die hitzigste Debatte nichts... oder kannst du schon eine Waffe abfeuern bevor die Patrone geladen ist? ;)

lg

Martin

Gegen Spekulationsthreads gibt es grundsätzlich wohl von niemandem etwas einzuwenden - wenn man Vermutungen begründet, Theorien hinterlegt und einen Umgangston an den Tag legt, der ein angenehmes Gesprächsklima für alle Beteiligten ermöglicht. Sachliche Diskussionsansätze jeglicher Art sollen nicht an mir scheitern - siehe Mondrials Einwand ein paar Postings weiter oben bzgl. der Limitierung des aktuellen Speichercontrollers durch den Northbridgetakt. Ein sachlicher, begründeter Punkt, den ich ohne Einwand zur Kenntnis nehme. Warum das andere nicht können oder wollen? Frag mich etwas besseres. :wink: Da werden anderen Nutzern fröhlich drauf los Behauptungen untergeschoben, Argumente mit "Basta" widerlegt und das ganze mit Beleidigungen garniert - braucht man darauf weiter eingehen? Ich denke nicht. Bisher hat sich keiner zu meinen geäußerten 3 Fragen bzgl. der Bandbreitenproblematik geäußert. Aber ich warte weiter. :)
 
Zuletzt bearbeitet:
Von Vorteil würde ich nicht sprechen. Wenn die Anbindung aber schnell genug ist, also schnelle Zugriffszeiten + ausreichend Durchsatz, dann sollte es zumindest kein signifikanter Nachteil gegenüber VRAM sein.
Also ich meine Vorteil gegenüber heutigen IGPs. Die haben doch "nur" den wohl oft zu kleinen Sideport...
Ich denke, das Speicherinterface arbeitet ziemlich dynamisch. Wer Bandbreite braucht, bekommt diese. Eine CPU braucht vergleichsweise wenig Bandbreite für Workloads, in denen die Grafikleistung der GPU gefordert ist. Spiele sind zB sehr Cache-lastig. Und ja, dass der Speichercontroller auf mehr als 128-bit aufgebohrt wird, ist eine mögliche Option. Die Patente dazu habe ich ja schon weiter oben verlinkt. Hängt halt vom Kosten-Nutzen-Faktor ab.
Was wäre laut der Patente denn möglich? Mehr als 64bit pro Kanal, weitere Kanäle?

Die Kanäle sind ja unabhängig voneinander, aber glaubst du dass die GPU beide belegen kann, ohne die CPU zu behindern(falls die dann doch mal Daten aus dem RAM braucht)?
 
Sachliche Diskussionsansätze jeglicher Art sollen nicht an mir scheitern
Wir nehmen es wohlwollend zur Kenntnis. Ich bin mal gespannt, ob du dich in Zukunft auch daran hältst. Und zwar von Anfang an. Und nicht erst, wenn man dich auf deine unsachliche Polemik ansprechen muss. Hier im Thread war jedenfalls von diesem Vorsatz noch so gut wie nichts zu sehen. ;)


Also ich meine Vorteil gegenüber heutigen IGPs. Die haben doch "nur" den wohl oft zu kleinen Sideport...
Achso, du meinst die Speichermenge? Ja, das könnte theoretisch ein Vorteil sein.

Was wäre laut der Patente denn möglich? Mehr als 64bit pro Kanal, weitere Kanäle?
Jup, weitere Kanäle.

Die Kanäle sind ja unabhängig voneinander, aber glaubst du dass die GPU beide belegen kann, ohne die CPU zu behindern
Ja, denke ich. Dass für die CPU dadurch höhere Latenzen entstehen, ist durchaus möglich. Aber wie gesagt, wenn diese eh verbessert werden, und die CPU hat ja sowieso noch ihren Cache für ausreichend Pufferung, dann sollte das keine signifikanten Auswirkungen haben.
 
Zuletzt bearbeitet:
Ahja. Nur wurden die erwähnten Beitragsteile teils nirgends zitiert - noch lustiger, ich habe sie selbst nicht geschrieben.

der Teil stammt aus Post #97

Wie hoch ist der durchschnittliche Bandbreitenbedarf einer aktuellen CPU (Deneb, 8MB L2+L3) einzuschätzen? Welche Anforderungen dürfte ein Modell mit nur 4MB L2+L3 stellen?

Bitte mit argumentativer Begründung, woraus du deine Einschätzung ableitest.

1. Ich glaube kaum das man das pauschal sagen kann - Es hängt schlicht davon ab wie oft wie viele Daten aus dem RAM geladen werden müssen
2. Steht in keinster weise fest wie AMD die vorhandene Bandbreite bei LIano nutzt bzw zwischen CPU und GPU aufteilt

2. Welches Speicherinterface ist realistisch?

Bitte Speicherinterface und zu erwartende Taktrate angeben, von der resultierenden Speicherbandbreite das Ergebnis von 1. abziehen.

na Dual Channel DDR3-1600 - was willst du da abziehen?? - es steht doch gar nicht fest wie die Bandbreite aufgeteilt wird - vll hat die GPU bei GPU intensiven Anwendungen "Vorrang" und bekommt die ganze Bandbreite, Es wird 64 zu 64 aufgeteilt, Sideport, ... - Es ist vieles möglich


3.
Wodurch soll der Bandbreitenbedarf einer GPU der 400SPs Rechenleistungsklasse vermindert werden können?

Sideport wie bei aktuellen IGPs ??? ... schließlich gibts zum aktuellen Zeitpunkt keinerlei infos über den Sockel und dessen belegung

mfg
 
Zuletzt bearbeitet:
mr dude kann es nicht lassen und spammt fröhlich weiter. Aber ich warte auch weiterhin auf Argumente. :)

Was wäre laut der Patente denn möglich? Mehr als 64bit pro Kanal, weitere Kanäle?

Die Busbreite eines Speichermoduls ist ersteinmal fix, was aber zumindest theoretisch durchaus denkbar ist, sind zusätzliche Kanäle. Die Frage ist: Wäre eine Bestückung mit mehr als zwei Speichermodulen bei einem Einsteigs- bis Mainstream-orientierten Produkt realistisch?

Die Kanäle sind ja unabhängig voneinander, aber glaubst du dass die GPU beide belegen kann, ohne die CPU zu behindern(falls die dann doch mal Daten aus dem RAM braucht)?

Vollständig natürlich nicht - aber eine dynamische Einteilung, die über eine fixe Halbierung für beide Komponenten hinaus geht, würde durchaus zweckmäßig sein.

1. Ich glaube kaum das man das pauschal sagen kann - Es hängt schlicht davon ab wie oft wie viele Daten aus dem RAM geladen werden müssen
2. Steht in keinster weise fest wie AMD die vorhandene Bandbreite bei LIano nutzt bzw zwischen CPU und GPU aufteilt

Nun, was ist deiner Meinung nach in üblichen Spielen durchschnittlich zu erwarten? Nur mal so als Hausnummer. Wäre auch durchaus mal einen kleinen Test wert: Schritt für Schritt den Speicher herunterzutakten und zu benchen, ab wann die Leistung beginnt spürbar abzufallen.

na Dual Channel DDR3-1600 - was willst du da abziehen?? - es steht doch gar nicht fest wie die Bandbreite aufgeteilt wird - vll hat die GPU bei GPU intensiven Anwendungen "Vorrang" und bekommt die ganze Bandbreite, Es wird 64 zu 64 aufgeteilt, ... Es ist vieles möglich

Nun, von Luft und Liebe kann die CPU nicht leben. ;) Wenn du ihr so viel Bandbreite wegnimmst, dass sie wiederum die GPU einbremst, hat man nichts gekommt - bleibt, die Frage, ob sich soetwas schlau in Echtzeit aufteilen lässt. Gehen wir mal optimistisch davon aus stehen wir wieder vor der Frage, welche Bandbreite denn nun für die CPU in einem durchschnittlichen Spiel nötig ist - ich sehe schon, dass muss mal getestet werden. :)

Sideport wie bei aktuellen IGPs ???

Wäre eine Möglichkeit, ich denke so etwas könnte man durchaus sehen. Allerdings sind zumindest die aktuellen 32Bit mit DDR2/3 nur ein kleiner Tropfen auf den heißen Stein - schön wären 64/128Bit mit GDDR5/DDR3, natürlich bei ausreichender Kapazität. Aber auch das wäre imho wohl recht kostenintensiv für ein Produkt der angepeilten Preisklasse.
 
Zuletzt bearbeitet:
Nun, was ist deiner Meinung nach in üblichen Spielen durchschnittlich zu erwarten? Nur mal so als Hausnummer. Wäre auch durchaus mal einen kleinen Test wert: Schritt für Schritt den Speicher herunterzutakten und zu benchen, ab wann die Leistung beginnt spürbar abzufallen.

Was willst du denn heruntertakten und Testen wenn doch noch nichtmal feststeht wieviel Bandbreite der LIano GPU überhaupt zur verfügung stehen?? - Das diese niedriger ist als bei aktuellen diskreten GPUs bestreitet ja keiner, und das man damit Crysis nicht auf einem 30Zöller spilen kann bestreitet auch keiner - nur mit irgendwelchen Spekulationen und herumprobieren mit irgenwelchem herumgetakte erreicht man nix ausser eine schlechtes Diskussionsklima

mfg
 
Was willst du denn heruntertakten und Testen wenn doch noch nichtmal feststeht wieviel Bandbreite der LIano GPU überhaupt zur verfügung stehen??

Da haben wir uns gerade missverstanden: Ich will untersuchen, welche Bandbreite die CPU in verschiedenen Spielen benötigt, bevor die Leistung massiv einzubrechen beginnt. Ein mit 8MB L2+L3 ausgestatteter Phenom II ist dafür natürlich nicht das beste Testobjekt, aber ich erwarte mir davon zumindest Anhaltspunkte. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh