AMD,s Gaming Zukunft 2015-2017

Also nur 4 GB Systemram wäre total unbrauchbar.

Star Citizen hat als mindestanforderung 8GB ram, und Battlefield 4 ist mit 4GB ram auch ungenießbar. Selbst World of Tanks verbraucht bei mir mit den anderen standard windows elementen über 4GB.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja deswegen ja auch der Gedanke das lediglich für den GPU Teil zu nutzen und den CPU Teil weiterhin mit normalen DDR3 (bzw. irgendwann mal DDR4) zu versorgen. Das würde jedoch die APU preislich in die Höhe schnellen lassen und diverse andere Vorteile die das APU Design haben sollte (AMDs HSA) wären damit auch wieder hinfällig.

Intel nutzt ja bei der Iris Pro 5200 (und der kommenden 6200 in den Broadwell Chips) eDRAM. Dieser dient aber nur als Cache und ist auch "relativ" klein mit 128MB. Für einen Cache ist das recht viel und er nimmt auch einen großen Teil am Chip-Package ein. Deswegen ist das auch so teuer.
 
unter diesen umständen glaube ich nicht das sich die APU,s unter Desktop PC Gamern durchsetzen werden. sind ja deutlich schlechter als ich dachte.
 
Ja deswegen ja auch der Gedanke das lediglich für den GPU Teil zu nutzen und den CPU Teil weiterhin mit normalen DDR3 (bzw. irgendwann mal DDR4) zu versorgen. Das würde jedoch die APU preislich in die Höhe schnellen lassen und diverse andere Vorteile die das APU Design haben sollte (AMDs HSA) wären damit auch wieder hinfällig.
Excavator APUs haben schon einen DDR4/3 Combi Kontroller verbaut, ist halt die Frage wie lang die Mainboard Hersteller dafür brauchen .
HBM kann ich mir auch gut als "Secure" Speicher Vorstellen, unabhängig vom System mit einem kleinen ARM. :)
 
Im Grunde ist Intel was die reine Performance angeht schon dran mit der Iris Pro und dem GT3e Chip von Haswell.
Aber immer noch nicht auf Augenhöhe. Das Problem ist vielmehr, mit welchem Aufwand sie das machen. Ein grösserer Chip, trotz kleinerer Fertigungsstruktur, und mit einem zusätzlichen eDRAM Chip. Insgesamt also bedeutend teurer, wo 22nm FinFET von Intel pro mm² eh schon um einiges teurer sein soll als 28nm Bulk von Glofo. Wenn man mal abseits dieser Premium Lösung vergleicht, hat sich seit Llano im Grunde nicht wirklich was geändert. AMDs iGPU ist immer noch etwa doppelt so leistungsfähig (Spectre vs HD 4600).

"Der Hype mit HSA und hUMA vor fast einem Jahr mit Kaveri ging kläglich nach hinten los."
Welcher Hype? Und was soll da nach nur einem Jahr nach hinten losgegangen sein? Nichts dergleichen ist der Fall. HSA ist eine konsequente und auf Jahre ausgelegte stetige Entwicklung. Carrizo wird die erste APU mit vollständiger HSA 1.0 Unterstützung sein. Genauso stetig ist das Voranschreiten der Entwicklerwerkzeuge.

"Etwas Bauchschmerzen habe ich ehrlich gesagt nur mit der Speichermenge... Ich persönlich will heute keine 4GB RAM mehr haben. Es sollten schon 8GB sein, selbst für das normale Arbeiten mit ein paar wenigen Tools sind die 4GB oftmals auch schon voll."
Herkömmlicher RAM und HBM sind erst mal zwei verschiedene Paar Schuhe. Beides lässt sich parallel nutzen. Betrachte HBM eher als sowas wie einen LLC. Aber selbst wenn man HBM in Zukunft als Unified RAM nutzt, so sollte die Kapazität kein Problem darstellen. Wie gesagt, die zweite HBM Generation wird bereits bis zu 32 GB ermöglichen. Und es wird sicherlich nicht die letzte Generationen sein. Maximal mit der Aufrüstung dürfte es dann schwierig werden.
 
Welcher Hype? Und was soll da nach nur einem Jahr nach hinten losgegangen sein? Nichts dergleichen ist der Fall. HSA ist eine konsequente und auf Jahre ausgelegte stetige Entwicklung. Carrizo wird die erste APU mit vollständiger HSA 1.0 Unterstützung sein.

Kaveri ist die 1. HSA fähige APU nicht Carrizo - schön den Hype nach hinten geschoben. :fresse2:
 
Wenn HBM aber so funktioniert, wie es auf den Folien zu lesen ist, dann wird schlagartig das Bandbreitenproblem verschwinden. Das macht aus Kaveri 7850k auf einmal eine (fast) doppelt so schnelle GPU (wenn man annehmen würde, man portiert das Teil quasi 1:1 und stattet es mit HBM aus)

Wie bitte? Man sieht anhand von Skalierungstests dass etwas mehr Bandbreite nicht schaden würde, keine Frage. Ich schätze man erreicht damit ~20% mehr Leistung.
Gleichzeitig muss ich aber auch Takt und Einheiten aufpumpen um zu profitieren und das kostet wieder Leistungsaufnahme.

mr.dude schrieb:
Aber immer noch nicht auf Augenhöhe.

Intel Iris Pro 5200 Grafik im Test (Seite 3) - ComputerBase

Also das muss man leider etwas anders sehen.
Die IGP des A10 7850k ist etwa 8% schneller wie eines 6800k.

AMDs APU

Hier zu sagen, man wäre nicht auf Augenhöhe ist ein bisschen weit hergeholt, aber das kennt man ja von dir zur Genüge.
Andererseits tätigst du Aussagen AMd wäre auf Augenhöhe, wenn diese 20% zurückliegen, da geht dann wohl der Fanboyism mit dir um.
Du denkst wohl immer, man würde deine AMD Lobgesänge nicht nachprüfen?

Das Problem ist vielmehr, mit welchem Aufwand sie das machen. Ein grösserer Chip, trotz kleinerer Fertigungsstruktur, und mit einem zusätzlichen eDRAM Chip. Insgesamt also bedeutend teurer, wo 22nm FinFET von Intel pro mm² eh schon um einiges teurer sein soll als 28nm Bulk von Glofo.

Und AMD hat mit HBM später dann keinen Aufwand und Kosten? In 20nm + HBM?

Welcher Hype? Und was soll da nach nur einem Jahr nach hinten losgegangen sein?

Deine Behauptung Huma bringe mehr Performance hat sich bis jetzt immernoch nicht gezeigt.:fresse2:

HSA ist eine konsequente und auf Jahre ausgelegte stetige Entwicklung.

Auf Jahre ausgelegt sicherlich aber konsequent? Ich denke erst es geht richtig voran wenn Intel das Feld betritt.
 
Zuletzt bearbeitet:
Wenn man mal abseits dieser Premium Lösung vergleicht, hat sich seit Llano im Grunde nicht wirklich was geändert. AMDs iGPU ist immer noch etwa doppelt so leistungsfähig (Spectre vs HD 4600).
Du unterschlägst also die HD 5000/5100 im Mobile-Bereich, wo die iGPU viel viel häufiger verwendet wird?

Wie gesagt, die zweite HBM Generation wird bereits bis zu 32 GB ermöglichen.
v2 sieht pro Stack 8 GByte vor, wie kommst du auf 32? Vier davon?
 
Aber immer noch nicht auf Augenhöhe. Das Problem ist vielmehr, mit welchem Aufwand sie das machen. Ein grösserer Chip, trotz kleinerer Fertigungsstruktur, und mit einem zusätzlichen eDRAM Chip. Insgesamt also bedeutend teurer, wo 22nm FinFET von Intel pro mm² eh schon um einiges teurer sein soll als 28nm Bulk von Glofo. Wenn man mal abseits dieser Premium Lösung vergleicht, hat sich seit Llano im Grunde nicht wirklich was geändert. AMDs iGPU ist immer noch etwa doppelt so leistungsfähig (Spectre vs HD 4600).
Den Aufwand hat doch niemand verglichen... Immer dieses rauspicken von irgendwelchen unsinnigen Gegenargumenten. :rolleyes:
Und wenn das Ding 20x so groß wäre, die Aussage bezog sich rein auf die Leistungsfähigkeit.

"Der Hype mit HSA und hUMA vor fast einem Jahr mit Kaveri ging kläglich nach hinten los."
Welcher Hype? Und was soll da nach nur einem Jahr nach hinten losgegangen sein? Nichts dergleichen ist der Fall. HSA ist eine konsequente und auf Jahre ausgelegte stetige Entwicklung. Carrizo wird die erste APU mit vollständiger HSA 1.0 Unterstützung sein. Genauso stetig ist das Voranschreiten der Entwicklerwerkzeuge.
Na dann zeig uns doch die tolle Mehrperformance, die durch HSA und hUMA in Spielen rauskommt... Ich sehe davon immernoch absolut gar nix. Kaveri verhungert genau so an der Bandbreite wie Richland. Schlimmer sogar noch, möchte man meinen. Aber es gab da ja so ein paar Experten hier im Unterforum, die bis aufs Messer gestritten haben und nicht von ihrer Behauptung abgewichen sind, dass HSA und hUMA sonstwieviele Vorteile für Spiele bringt... Auch sehr interessant dass keine der Redaktionen, die die APUs nun zur genüge getestet haben, da von sonstwelchen Spieleperformance-Vorteilen allein durch HSA/hUMA sprachen.

"Etwas Bauchschmerzen habe ich ehrlich gesagt nur mit der Speichermenge... Ich persönlich will heute keine 4GB RAM mehr haben. Es sollten schon 8GB sein, selbst für das normale Arbeiten mit ein paar wenigen Tools sind die 4GB oftmals auch schon voll."
Herkömmlicher RAM und HBM sind erst mal zwei verschiedene Paar Schuhe. Beides lässt sich parallel nutzen. Betrachte HBM eher als sowas wie einen LLC. Aber selbst wenn man HBM in Zukunft als Unified RAM nutzt, so sollte die Kapazität kein Problem darstellen. Wie gesagt, die zweite HBM Generation wird bereits bis zu 32 GB ermöglichen. Und es wird sicherlich nicht die letzte Generationen sein. Maximal mit der Aufrüstung dürfte es dann schwierig werden.

Du meinst also, dass man HBM mit DDR Speichern kombiniert? Also 4GB HBM + 2x64Bit DDR3 Controller?
Wäre durchaus eine Option, halte ich aber nicht für sehr realistisch. -> damit geht doch der Flächenvorteil flöten, es geht der Verbrauchsvorteil flöten und man muss wieder (entgegen der bisherigen Praxis bei den AMD APUs) die Speicher dediziert ausführen. HSA/hUMA wäre damit zwar weiterhin machbar, aber was bringt mir dann bitte das Pointerumbiegen von den Daten, die im lahmen DDR3 Part liegen? -> gar nix... Dann bin ich wieder im Bandbreitenlimit.

Wie bitte? Man sieht anhand von Skalierungstests dass etwas mehr Bandbreite nicht schaden würde, keine Frage. Ich schätze man erreicht damit ~20% mehr Leistung.
Gleichzeitig muss ich aber auch Takt und Einheiten aufpumpen um zu profitieren und das kostet wieder Leistungsaufnahme.

Du hast recht... fast doppelt so viel war etwas übertrieben... Aber verglichen mit der HD7750 als GDDR5 und DDR3 Version, die vergleichbar aufgebaut ist, stehen 53% mehr gemessene Spieleleistung auf der Uhr. Das ist immernoch ne Hausnummer würde ich meinen. Nichts, was man mal so eben irgendwo her holt. Theoretisch liegt das für die AMD APU eigentlich auf der Straße, man müsste es nur einfach mal einsammeln.

Mehr wie diese Prozentangabe geht sicher auch, wenn man als Basis nicht 2133er DDR Module oder sonstwas nimmt, sondern langsamere... Ggf. gar Single Channel Vergleiche? Gibts ja auch genügend, die sowas betreiben.
 
Zuletzt bearbeitet:
AMD, Gaming Zukunft.

Tolle Überschrift.
Da sehe ich nur bei Grafikkarte eine Zukunft.
Wenn sie es nicht auch schaffen es zu verbocken wie in CPU Bereich.

Wen in CPU bereich nicht bald ein AS aus dem Ärmel gezaubert wird, wird AMD im kommende Jahr in die Bedeutungslosigkeit versinken.
Server Bereich hat es ja schon vor gemacht.

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Kaveri ist die 1. HSA fähige APU nicht Carrizo
Kaveri unterstützt die HSA 1.0 Spezifikation aber nicht vollständig. Erst Carrizo tut dies.


Also das muss man leider etwas anders sehen.
Wie gesagt, die Iris Pro ist reines Brute Force. Ein Äpfel und Birnen Vergleich. Vergleiche Spectre mit HD 4600. Da sieht man sehr deutlich, dass bei vergleichbarem Aufwand Intel noch lange nicht auf Augenhöhe ist und man sich seit über 3 Jahren im Grunde im Gleichschritt bewegt. Aber das kennt man von dir ja zur Genüge. Alles von AMD wird schlecht- oder kleingeredet. Selbst wenn Intel 50% zurückliegt, sind diese bei dir auf Augenhöhe. Und ein 2-Kern Celeron ist natürlich doppelt so leistungsfähig wie ein 4-Kern Athlon. Usw. :wall:

"Und AMD hat mit HBM später dann keinen Aufwand und Kosten? In 20nm + HBM?"
Noch gibt's aber kein HBM und auch kein 20nm bei APUs. Mal schauen, ob die Iris Pro dann noch in irgendeiner Form Land sieht, wenn AMD mit 20nm mehr Shader verbauen und mit HBM das Bandbreitenlimit beseitigen kann. ;)

"Deine Behauptung Huma bringe mehr Performance hat sich bis jetzt immernoch nicht gezeigt."
Na dann zeige uns mal hUMA Tests, die klar belegen, dass sich an der Performance nichts ändert. Aber wir wissen natürlich, dass du das nicht können wirst. Hauptsache gegen alles von AMD bashen.

"Auf Jahre ausgelegt sicherlich aber konsequent? Ich denke erst es geht richtig voran wenn Intel das Feld betritt."
Intel interessiert hier nicht. HSA wird vor allem von ARM Herstellern gepusht. Und gegen die sieht Intel im Moment eh wenig Land.

"Im Alltag trifft das nicht zu"
Da zeigen Spielebenchmarks in FHD wie diese hier aber was ganz anderes. Es ist vielleicht so, dass das in synthetischen Benchmarks nicht zutrifft. Aber da wissen wir ja schon aus der Vergangenheit, dass da Intel gerne mal schummelt und die eigene Hardware schönrechnet. Da braucht man sich über solche Aussagen wie von dir auch nicht wundern, wenn du auf dieses Marketing hereinfällst, wo man uns anhand von 3DMark weismachen wollte, dass die HD 4600 nur 15% hinter Richlands Devastator liegt. In der Praxis ist das eher doppelt so viel. Und bei Kaveri kommen da nochmal etwa 20 Prozentpunkte hinzu.

Langsam ist das nur noch zum Kopfschütteln, was du permanent abzuziehen versuchst. Null Nachweise für wilde und absurde Behauptungen, gefolgt von persönlichen Anfeindungen, wenn man diesen heuchlerischen und polemischen Käse widerlegt.


Du unterschlägst also die HD 5000/5100 im Mobile-Bereich, wo die iGPU viel viel häufiger verwendet wird?
Das ist der gleiche Prozessor wie bei den Modellen mit Iris Pro. Trotz 22nm grösser als der 28nm Kaveri. Also immer noch Brute Force und teurer. Der Unterschied ist lediglich, dass hier kein extra eDRAM Chip zum Einsatz kommt. Also weniger teurer, aber immer noch deutlich genug. Und ohne eDRAM geht auch einiges an Performance verloren.

"v2 sieht pro Stack 8 GByte vor, wie kommst du auf 32? Vier davon?"
HBM2 sieht 8 Gb (1 GB) pro DRAM Die und bis zu 8 DRAM Dies pro Stack vor. Bei 4 Stacks ergibt das eben 32 GB (1 GB x 8 x 4). Wobei ich mir vorstellen kann, dass man notfalls auch mehr Stacks anbinden könnte. Sehe nichts, was dagegen sprechen würde. Man bräuchte dann nur ein breiteres Speicherinterface, was die GPU vergrössern würde. Bei ausreichend Transistorbudget aber machbar.


Na dann zeig uns doch die tolle Mehrperformance, die durch HSA und hUMA in Spielen rauskommt...
Bei hUMA geht es nicht nur um Spiele. Zeig uns doch erst mal, dass mit hUMA nicht mehr Performance herauskommt. Aber ist schon lustig, immer wieder von Leuten wie dir solche Forderungen zu hören, wo du genau weisst, dass hUMA mehr Performance ermöglicht, man es aber nicht einfach so messen kann.

"Aber es gab da ja so ein paar Experten hier im Unterforum, die bis aufs Messer gestritten haben und nicht von ihrer Behauptung abgewichen sind, dass HSA und hUMA sonstwieviele Vorteile für Spiele bringt..."
Also ich habe davon nichts gesehen. Ich zB habe weder von "sonst wie vielen Vorteilen" gesprochen, noch habe ich es als Fakt dargestellt. Ich sagte immer, aufgrund der Vorteile ERMÖGLICHT es mehr Performance. Der einzige, der bis aufs Messer bestritten hat, dass es irgendwas bringen soll, warst du Experte. Und irgendwas, was deine Behauptungen von damals belegt, habe ich bisher noch nicht gesehen.

"Auch sehr interessant dass keine der Redaktionen, die die APUs nun zur genüge getestet haben, da von sonstwelchen Spieleperformance-Vorteilen allein durch HSA/hUMA sprachen."
Weil sie schlichtweg nicht die Mittel haben, um es messen zu können, zumindest was hUMA betrifft? Schon mal auf die Idee gekommen? Es gab genügend Seiten, die dieses Thema angesprochen haben. Mehr als das Marketingmaterial konnten aber auch sie nicht vorweisen. Oder wie stellst du dir vor, soll man hUMA messen? Mach doch mal ein paar konstruktive Vorschläge, anstatt jedes mal alles notorisch zu zerreden. Vorteile durch HSA wurden bereits in diversen Anwendungen von mehreren Seiten gezeigt. Und diese sind SIGNIFIKANT!

"Du meinst also, dass man HBM mit DDR Speichern kombiniert?"
Nein, meine ich nicht. Ich meine, dass man es parallel nutzen KANN. Ob man das auch tut, darüber sagte ich nichts. Wieso hast du eigentlich immer solche Probleme, Aussagen richtig zu verstehen?
 
Zuletzt bearbeitet:
Ach mr.dude, nicht immer an den Wortfetzen aufhängen... Die Diskusion wäre so entspannt, aber nein, du hängst dich permanent drauf auf.

Wo ist jetzt bitte der Unterschied zwischen "Herkömmlicher RAM und HBM sind erst mal zwei verschiedene Paar Schuhe. Beides lässt sich parallel nutzen." und der meinigen Frage "Du meinst also, dass man HBM mit DDR Speichern kombiniert? Also 4GB HBM + 2x64Bit DDR3 Controller?"
Die Frage war völlig ohne jegliche Wertung gemeint... Nichtmal das scheinst du erkannt zu haben. :wall: Dennoch fängst du wieder an rumzustreiten über irgendwelche Wortwahl anstatt dich dem Thema zu widmen... Und ja, meine Frage war durchaus ernstgemeint. Denn um etwas "parallel" nutzen zu können muss wohl eine vorhandene mit einer neuen Technik in irgend einer Weise kombiniert werden. Und genau darauf zielte die Frage ab, nicht mehr und nicht weniger, keine Gewichtung noch sonstwas. Es nervt einfach nur noch permanent deine Wortverdreherei, such dir bitte andere Leute mit dehnen du das abziehen kannst, mir reichts hiermit vollends... Sachlichkeit wieder NULL und nichtmal im entferntesten auch nur die Spur dich der Kernaussage anzunehmen sondern einfach wieder mal Unsinn³
 
Aus Sicht der CPU ist Speicher nur eine Adresse, ob sich hinter dieser Adresse DDR3/4 oder HBM Speicher befindet ist der CPU egal, dafür gibt es den/die Speichercontroller. Also ja, das müsste sich kombinieren lassen.

Der Unterschied zwischen deiner und mr. dudes Aussage liegt darin, das bei dir davon ausgegangen wird, dass man es so auch umsetzt.
So wie ihr euch alle auf Kleinigkeiten aufhängt, versteh ich, dass er es richtig stellt ;)
 
Die Radeon user können ja mal mit GPUz schauen wie voll der "dynamischer Speicher" wird beim Spielen.
Bei mir reicht die Spanne von wenigen MByte bis 2,5GByte.
Evt. macht es Sinn den HBM Speicher als Pool für das System zu nutzen, bisher lagert z.B. auch Mantle das auf die GPU aus: http://abload.de/img/aida64_mantlehkr8o.png
Das macht auch Sinn, hier ist der schnellste Speicher verbaut der verfügbar ist. ;)
 
Wo ist jetzt bitte der Unterschied zwischen "Herkömmlicher RAM und HBM sind erst mal zwei verschiedene Paar Schuhe. Beides lässt sich parallel nutzen." und der meinigen Frage "Du meinst also, dass man HBM mit DDR Speichern kombiniert? Also 4GB HBM + 2x64Bit DDR3 Controller?"
Das erste beschreibt eine Möglichkeit. Das letzte drückt aus, dass etwas auch tatsächlich gemacht wird. Diesen Unterschied sollte man eigentlich erkennen können. Gerade du hast ein Talent dafür, solche Aussagen immer wieder zu verdrehen. Und leider muss man dich auch darauf aufmerksam machen. Denn später behauptest du wieder Sachen, die man gar nicht gesagt, sondern die du einfach nur falsch wiedergegeben hast. Was leider oft genug schon passiert ist. Es geht nicht darum, sich an Wortfetzen aufzuhängen. Sondern darum, was man tatsächlich gesagt hat und was du einem wieder in den Mund legen willst. :wall:

"Und ja, meine Frage war durchaus ernstgemeint. Denn um etwas "parallel" nutzen zu können muss wohl eine vorhandene mit einer neuen Technik in irgend einer Weise kombiniert werden."
Was idR Kompromisse erfordert. Und das kann von uns im Moment sowieso keiner abschätzen. Also wird dir da wohl auch keiner eine Antwort geben können. Grundsätzlich kann aber beides gleichzeitig genutzt werden. Wie gesagt, stell dir HBM wie einen LLC vor. Oder schau mal zur Iris Pro von Intel. Die nutzen eDRAM und darüber hinaus normalen DDR3.


Der Unterschied zwischen deiner und mr. dudes Aussage liegt darin, das bei dir davon ausgegangen wird, dass man es so auch umsetzt.
So ist es. Langsam habe ich schon geglaubt, dass man mich tatsächlich nicht versteht. Aber ist wohl dann doch nur fdsonne.
 
Zuletzt bearbeitet:
@mr.dude
Wenn du mich mit einbeziehst, bin ich auch nicht wirklich besser.
Viele tappen da im Dunklen rum, der Hammer wurde noch nicht genutzt.
Daher noch das Spiegelbild, die GPU kann auf jeweils 8GByte RAM zugreifen. (nein kein VRAM) http://abload.de/img/boinc_avx_collatz_aidhmqtb.png
 
Ach mr.dude, nicht immer an den Wortfetzen aufhängen... Die Diskusion wäre so entspannt, aber nein, du hängst dich permanent drauf auf.

Wo ist jetzt bitte der Unterschied zwischen "Herkömmlicher RAM und HBM sind erst mal zwei verschiedene Paar Schuhe. Beides lässt sich parallel nutzen." und der meinigen Frage "Du meinst also, dass man HBM mit DDR Speichern kombiniert? Also 4GB HBM + 2x64Bit DDR3 Controller?"
Die Frage war völlig ohne jegliche Wertung gemeint... Nichtmal das scheinst du erkannt zu haben. :wall: Dennoch fängst du wieder an rumzustreiten über irgendwelche Wortwahl anstatt dich dem Thema zu widmen... Und ja, meine Frage war durchaus ernstgemeint. Denn um etwas "parallel" nutzen zu können muss wohl eine vorhandene mit einer neuen Technik in irgend einer Weise kombiniert werden. Und genau darauf zielte die Frage ab, nicht mehr und nicht weniger, keine Gewichtung noch sonstwas. Es nervt einfach nur noch permanent deine Wortverdreherei, such dir bitte andere Leute mit dehnen du das abziehen kannst, mir reichts hiermit vollends... Sachlichkeit wieder NULL und nichtmal im entferntesten auch nur die Spur dich der Kernaussage anzunehmen sondern einfach wieder mal Unsinn³

Die Idee ist doch gar nicht mal so doof, ein 128Bit DDR3/4-Controller ist vergleichsweise winzig zu bauen, wenn der RAM fest verdrahtet wird, das ist billig und sparsam. Da könnte man ganz klassisch 8GB Texturpuffer dranbauen, während der Framebuffer und alles andere im HBM residiert, der DDR3/4 RAM ist quasi als LLC bevor die Texturauslagerung über den latenzhohen PCIe in den Hauptspeicher geht nutzbar. Das könnte man auch im Serverbereich u.U. ebenfalls interessant ausnutzen und das Speicherinterface sogar mit 32GB RAM bestücken, während man 4GB HBM als Cache nutzt, also andersherum.
 
Zuletzt bearbeitet:
Der Unterschied zwischen deiner und mr. dudes Aussage liegt darin, das bei dir davon ausgegangen wird, dass man es so auch umsetzt.

Deswegen steht sowohl hinter dem ersten, als auch hinter dem zweiten ein Fragezeichen!? Meint normal sowas wie: KÖNNTE! das vieleicht so gemeint sein? Oder meinst du das so? Oder vielleicht anders? -> das war der Ausdruck und kein Anderer...
Also ganz ehrlich... Ne, das ist Krümelkackerei ohne Sinn und Verstand, nicht mehr und nicht weniger...

Das erste beschreibt eine Möglichkeit. Das letzte drückt aus, dass etwas auch tatsächlich gemacht wird.

Das ist mal echt Einbildung deinerseits... Beachte die Satzzeichen. Da stehen zwei Fragezeichen... Siehe oben. Es beschreibt also in keinster Weise, dass es tatsächlich so gemacht wird, sondern beschreibt bestenfalls eine Möglichkeit einer Umsetzung und das sogar noch in Form einer Frage um den Gesprächsball wieder zurückzugeben. Die Antwort deinerseits hätte darauf lauten können, nein, so eher nicht... Weil dies und jenes und folgendes. Oder ja, so könnte man das machen, oder was weis denn ich.
Das was du aber drauf gemacht hast ist das komplette Gegenteil von dem, was hier an Sachlichkeit gewünscht ist. Du hast dich schlicht und ergreifend an Wortfetzen aufgehangen... Und das nichtmal richtig, weil du die Hälfte übersehen hast.

EDIT:
Offenbar hat [HOT] erkannt wie das geht... Und ja, Idee trifft es da schon ziemlich genau.
/EDIT

Sondern darum, was man tatsächlich gesagt hat und was du einem wieder in den Mund legen willst. :wall:
Also bist du nicht an einer Sachlichen Diskusion interessiert, wenn es dir darum geht: "was man (also DU) tatsächlich gesagt" hat. :rolleyes:
 
Zuletzt bearbeitet:
Wie gesagt, die Iris Pro ist reines Brute Force.

Du hast auf die Aussage von fdsonne gesagt, man wäre nicht auf Augenhöhe was die reine Performance angeht.
Meine verlinkten Benchmarks zeigen außer 6% Unterschied, dass man es wohl ist.
Und das mit 54 Watt TDP Budget vs 95 Watt TDP Budget.
Wegen 6% Differenz zu behaupten, man wäre nicht auf Augenhöhe, ist leider ziemlich polemisch, zumal du bei AMD ganz andere Rückstände der Performance auf eine Performance auf Augenhöhe hebst.
Bitte beende endlich dieses Getrolle und bleibe sachlich.

mr.dude schrieb:
Kaveri unterstützt die HSA 1.0 Spezifikation aber nicht vollständig. Erst Carrizo tut dies.

Das macht seinen Einwand aber lange noch nicht unsinnig. AMD hatte Huma und HSA groß angekündigt.
Bisher ist fast nichts zu sehen.

Wie gesagt, die Iris Pro ist reines Brute Force. Ein Äpfel und Birnen Vergleich. Vergleiche Spectre mit HD 4600. Da sieht man sehr deutlich, dass bei vergleichbarem Aufwand Intel noch lange nicht auf Augenhöhe ist und man sich seit über 3 Jahren im Grunde im Gleichschritt bewegt.

Wie an fdsonnes Beitrag zu erkennen ist, spricht er von reiner Performance und nicht von irgendwelchen Größen des Dies.
Und darauf habe ich mich bezogen. Lesen können sollte man schon noch.

Du hast auf diese Aussage deine Bemerkung gebracht, man wäre nicht auf Augenhöhe.
Die Tatsache dass selbst die HD 4600 ein großes Feld der AMD IGP im mobile schlägt, ist wohl nicht Augenhöhe genug.

Noch gibt's aber kein HBM und auch kein 20nm bei APUs. Mal schauen, ob die Iris Pro dann noch in irgendeiner Form Land sieht, wenn AMD mit 20nm mehr Shader verbauen und mit HBM das Bandbreitenlimit beseitigen kann.

Ich denke eher Intel überholt AMD mit Broadwell und Skylake.
Ob AMD mit HBM dann noch kontern kann, ist für mich zweifelhaft.

Na dann zeige uns mal hUMA Tests, die klar belegen, dass sich an der Performance nichts ändert.

Du hast die Behauptung damals aufgestellt. Eine Antwort auf die Frage wie Huma die Performance steigern soll.
AMD hat zu Huma noch keine einzige Anwendung gezeigt, die davon profitiert.
Etwas zu behaupten und von anderen dann den Beweis zu fordern, ist einfach nur Kindergartenlike.

Aber wir wissen natürlich, dass du das nicht können wirst. Hauptsache gegen alles von AMD bashen.

Da geht es überhaupt nicht um Bashing. Ich kann auch in eueren Diskussion bei Planet3d Now niemanden finden der genaueres zu huma weiß.
Tatsache ist nur, dass der Code dafür massiv umgeschrieben wird.
Diene Behauptung war dass durch huma auch ohne angepassten Code mehr Performance herausspringen dürfte, jemans aus dem Plant3dNow Forum ging sogar soweit und behauptete man habe das Bandbreitenproblem mit Huma gelöst.
Ich weiß ehrlich nicht welche secret sauce ihr da raucht, aber die muss heftig sein.

Alles von AMD wird schlecht- oder kleingeredet. Selbst wenn Intel 50% zurückliegt, sind diese bei dir auf Augenhöhe. Und ein 2-Kern Celeron ist natürlich doppelt so leistungsfähig wie ein 4-Kern Athlon. Usw.

AMD wird gar nicht kleingeredet, ich bin ein AMD Fan und hoffe das bald wieder entwas brauchbares aus CPU Sicht kommt. Grafikkarten sind ja nach wie vor gut. Nicht umsonst habe ich mir erst ne 290x 8GB für 4K Gaming gekauft. ;)
Und von Leistungsfähigkeit beim Celeron spreche ich nicht, sondern erstens von der gemessenen Performance und zweitens von der Alltagsperformance die vom 1 und 2 Thread bestimmt wird.
Und hierbei ist zu sehen dass durch die höhere IPC und den höherren Takt der Athlon halt keine Chance hat.

Intel interessiert hier nicht. HSA wird vor allem von ARM Herstellern gepusht. Und gegen die sieht Intel im Moment eh wenig Land.

Kann man HSA in ARm Designs schon nutzen? Ich sehe bisher nur Libre Office und ein paar andere Sachen hilfreich für einen A10 7850k.

Da zeigen Spielebenchmarks in FHD wie diese hier aber was ganz anderes.

Ich rede von CPU Performance. Soviel zu deiner Lesefähigkeit.

Aber da wissen wir ja schon aus der Vergangenheit, dass da Intel gerne mal schummelt und die eigene Hardware schönrechnet.

Cinebench läuft auf AMD sehr gut. Die Vergangenheit hat nichts mit heute zu tun.
Mag sein dass vor 6 Jahren die Cinebenchversion Intel bevorteilt hat, aktuell ist das nicht mehr so.
Denn wenn man so argumentiert, benachteiligt jede Anwendung die AMD CPu´s. Wenn AMD keinen eigenen vernünftigen Compiler bietet ist das deren Problem.
Im Schnitt zeigt Cinebench die Performance gut an.
Die Diskussion haben wir schon geführt, ich habe Quellen geliefert, du hast sie als nutzlos hingestellt. Weitere Diskussion hier also sinnfrei.

wenn du auf dieses Marketing hereinfällst, wo man uns anhand von 3DMark weismachen wollte, dass die HD 4600 nur 15% hinter Richlands Devastator liegt.

Wie kommst du jetzt auf 3DMark? Davon war gar keine Rede.
Erstens ging es mir um Alltagsperformance in Spielen, deswegen habe ich gerade das Performancerating von CB hergenommen und nicht 3dMark.;)
Und dort sieht man dass eine Iris Pro auf Augenhöhe arbeitet.
Widerlege das doch, wenn du es so nötig hast, Intel zu bashen und wenn Intel 20mal soviel Fläche benötigt, das hat für die reine Performance überhaupt keinen Belang.

Langsam ist das nur noch zum Kopfschütteln, was du permanent abzuziehen versuchst.

Also ne, du kommst hier seit Monaten wieder her und alles was du zu tun hast, ist Quellen nicht akzeptieren, Argumente nicht akzeptieren, Aussagen verdrehen, Kontexte verdrehen und mit Polemik und Rabulistik andere für dumm zu verkaufen.

Null Nachweise für wilde und absurde Behauptungen, gefolgt von persönlichen Anfeindungen, wenn man diesen heuchlerischen und polemischen Käse widerlegt.

Ich habe die Quellen für meine Behauptungen geliefert.
Siehe CPU Performance Athlon 5350 vs Pentium oder Celeron.
Fazit, der Athlon ist chancenlos, CPU performance P/L daher schlecht, weil nichtmal günstiger.
Ende der Geschichte, ob dir das passt oder nicht ist mir wirklich völlig wurscht.

Ich zB habe weder von "sonst wie vielen Vorteilen" gesprochen, noch habe ich es als Fakt dargestellt. Ich sagte immer, aufgrund der Vorteile ERMÖGLICHT es mehr Performance.

Na dann schauen wir doch mal was du damals gesagt hast.

"Wie soll Huma die Leistung in Spielen steigern?
Wie andere schon gesagt haben, Transfers zwischen RAM und VRAM fallen weg, da CPU und GPU auf einen gemeinsamen Adressraum zugreifen. Oder in anderen Worten, du hast zwar nicht mehr Bandbreite, diese kann aber effizienter genutzt werden. "

Du hast darauf geantwortet wie huma in Spielen die Leistung steigern soll. AMD hat hierzu keine einzige Folie gezeigt, keine Benchmarks und keine Ankündigungen.
Daher kann man aktuell festhalten dass das bisher gar nichts gebracht hat du bist bei Planet3dnow sogar davon ausgegangen dass es ohne Anpassung das Codes zusätzlich nochwas bringt, auch hier wieder eine Behauptung flockig durch die Hose geschossen.

Und was das effektiv bringen kann, wurde von fdsonne schon logisch dargestelltm nämlich sogut wie nix.
Als er gute Argumente brachte, hast du die Diskussion danach abgewürgt.

"Aber fragen wir mal anders, welchen Effekt würde diese Technik denn bringen, wenn die Daten schon im "VRAM" Bereich der APU drin sind? -> keinen nennenswerten mehr. Oder etwa nicht?"

Die Frage bleib unbeantwortert. Du hast kein einziges Argument vorgebracht, wie das bei Spielen etwas helfen soll.

Weil sie schlichtweg nicht die Mittel haben, um es messen zu können, zumindest was hUMA betrifft?

Wer hat dann die Mittel es zu messen? Kleiner Tip:

Der Spielecode ist darauf nicht angepasst. Zumal das hin und herkopieren von Daten in Spielen so minimal ist, dass das kein Bottleneck ist.

Herkömmlicher RAM und HBM sind erst mal zwei verschiedene Paar Schuhe. Beides lässt sich parallel nutzen. Betrachte HBM eher als sowas wie einen LLC. Aber selbst wenn man HBM in Zukunft als Unified RAM nutzt, so sollte die Kapazität kein Problem darstellen.

Beides lässt sich parallel nutzen, aber erstens würde das nix bringen, zweites ist es teuer und drittens verliert man dadurch den Flächenvorteil.
 
Zuletzt bearbeitet:
Das macht seinen Einwand aber lange noch nicht unsinnig. AMD hatte Huma und HSA groß angekündigt.
Bisher ist fast nichts zu sehen.

Fast? LibreOffice ist am Arsch der Welt :fresse2: das ist gar nichts! 0 Nix Nada Niente! HSA Huma existiert nur halbgar in Hardware (Konsolen ausgenommen), alles andere ist zur Zeit nicht existent. Das sind Objektive Fakten. Keine Anwendung mit mehr als nur einem Hauch von Marktanteil profitiert aktuell davon.
 
Mir ist dieses ganze Geblabbel um Mantle oder was auch immer für APUs vollkommen egal.

Was AMD braucht ist eine neue CPU Architektur die vernünftige IPC abliefert und nicht das aktuelle Desaster.
 
OMG was ist denn das für ein lächerliches Geschwätz von wegen Mantle braucht man nur bei AMD Prozis bzw APUs??? In BF4 MP merke ich einen deutlichen Unterschied, da die Framerate praktisch nie einbricht mit Mantle! Bei DX11 habe ich teils deutlich unter 80FPS und mit Mantle nie unter 100.. Bestes Beispiel Shanghai an einer Stelle habe ich unter DX 60FPS und mit Mantle 100+ (Details Max - aber ohne AA)... Manchen Leuten hier mögen die 60FPS ja reichen, aber wer einen 120/144hz Monitor besitzt hat auf 60FPS keinen Bock^^...
 
Nun haben wir die drölfte Auflage von AMD muss, sonst. Was bringt die Diskussion? Genau, nichts.
Es wäre doch mal an der Zeit mal in die Tiefe zu gehen. Das kratzen an der Schale des Apfels, klar ihr könnt einfach nichts anderes.
Wo sind die Ideen? Wo bleiben die Lösungsvorschläge? Genau, es kommt nichts von euch.
Wird es mal auch nur einen Beitrag geben der einen Weg beschreibt, der diese Fragen behandelt?

Ich kann das nicht. Ihr aber auch nicht.

Mantle hat zumindest MS und Nvidia unter Druck gebracht. Und das von AMD. Ein Unternehmen das ja hier im Forum und hier bei diesem Thema zu 70-95% als Versager dargestellt wird.
Doch wer ist eigentlich der Versager?
AMD gibt es seit über 40 Jahren, haben 10000 Angestellte und andere Firmen mit Angestellte profitieren auch davon.
Oder sind die Versager nur diejenigen, welche nichts anderes können als nur meckern und verurteilen, aber mit keinem Wort sagen können was zB an der Architektur der CPU verbessert werden soll? Sind das Versager die Tag für Tag, Jahr ein Jahr aus nichts anderes können, als immer nur das gleiche zu schreiben?
 
Ein Unternhmen besteht immer aus Menschen und ein paar davon müssen nunmal Prophet spielen und vorausahnen, was sich in 3-5 Jahren verkaufen lässt. Versagen ist da extrem wahrscheinlich (es sei denn man ist so groß, dass man den Markt steuern kann, aber selbst das geht selten wirklich gut, siehe Intels "Versagen" im Mobiltelefon und Tablet-Bereich. Das hätt ich auch nicht für möglich gehalten). Deswegen kann man weder den Menschen noch dem Unternehmen einen Vorwurf des Versagens machen, die werden schon ihr bestes innerhalb des Umfeldes getan haben, was möglich war. Vielleicht ist Lisa Su aber jemand, die die Banche mal wirklich versteht und richtig einschätzt. Die Treiberoffensive, die sie ja nach ihrem Antritt als CEO losgetreten hat (sie hat wohl die Treiberteams mächtig aufgestockt) beispielsweise wirklich viel besser als jede PR-Offensive und beweist Verständnis für die Zielgruppe. Genau das war bei AMD immer ein Problem.
 
Zuletzt bearbeitet:
Ein Unternehmen das ja hier im Forum und hier bei diesem Thema zu 70-95% als Versager dargestellt wird.
Doch wer ist eigentlich der Versager?
AMD gibt es seit über 40 Jahren, haben 10000 Angestellte und andere Firmen mit Angestellte profitieren auch davon.

Die bloße Anwesenheit eines Unternehmens reicht halt nicht aus. So etwas reicht höchstens in kommunistischen Diktaturen; dort ist auch ein Trabbi ein tolles Produkt. In einer Marktwirtschaft muss das Produkt halt im Wettbewerb bestehen und das können die AMD CPUs derzeit halt nicht.
 
TARDIS
Es ist reichlich sinnlos einen Absatz aus dem Zusammenhang zu ziehen und dann darauf irgendwas zu meinen. Soll ich jetzt auch ein paar Wörter aus deinem Beitrag nehmen und dich dann fragen. Warum ist es für dich nicht ausreichend, wenn für mich eine 5kg Trommel in der Waschmaschine reicht?
 
Wo sind die Ideen? Wo bleiben die Lösungsvorschläge?

Sagte ich mehrfach.

Neuer Sockel mit Excavator mit L3 Chache und 2-4 Modulen und freiem Multi, also als FX.

2016 dann den Shrink davon mit DDR4.

Nebenbei weiter versuchen mehr IPC rauszuholen was ja von Bulldozer auf Piledriver und von Piledriver auf Steamroller bereits mehrfach geklappt hat.

OT:
gestern mal BF4 gespielt. auf Low Details wegen meiner graka.

BF4 gibt 4 x so viel fps wie World of Tanks mit meinem FX4.
Gefühlt war das Bild auch Tausendmal flüssiger und nie einbrüche :)
Wot dagegen bricht trotz Low details auch oft unter 40 fps ein.

Sind schon welten unterschiede die 2 Engines.
 
TARDIS
Es ist reichlich sinnlos einen Absatz aus dem Zusammenhang zu ziehen und dann darauf irgendwas zu meinen. Soll ich jetzt auch ein paar Wörter aus deinem Beitrag nehmen...

Ein Absatz stellt einen in sich geschlossenen Sinnzusammenhang dar. Deshalb wird er in der Schrift mit einem Absatz gekennzeichnet. Das Zitieren eines Absatzes hat nichts mit dem Zitieren einzelner aus dem Sinnzusammenhang gerissener Wörter oder Sätze zu tun. Keine Ahnung was dein Problem ist. Ich hätte auch deinen gesamten Beitrag zitieren können, nur ist das laut den Forenregeln nicht erwünscht. Und das ist auch gut so.
 
Zuletzt bearbeitet:
Sagte ich mehrfach.

Neuer Sockel mit Excavator mit L3 Chache und 2-4 Modulen und freiem Multi, also als FX.

2016 dann den Shrink davon mit DDR4.

Nebenbei weiter versuchen mehr IPC rauszuholen was ja von Bulldozer auf Piledriver und von Piledriver auf Steamroller bereits mehrfach geklappt hat.

OT:
gestern mal BF4 gespielt. auf Low Details wegen meiner graka.

BF4 gibt 4 x so viel fps wie World of Tanks mit meinem FX4.
Gefühlt war das Bild auch Tausendmal flüssiger und nie einbrüche :)
Wot dagegen bricht trotz Low details auch oft unter 40 fps ein.

Sind schon welten unterschiede die 2 Engines.

Und wieder wird gekonnt ignoriert, was andere geschrieben haben..... der L3 Cache ist das kleinste Problem der Pattform/Prozessoren. Die CPU Kerne an sich sind auf dem Stand der Technik und Konkurenzfähig, das Problem ist das drum herum und da ist es eben nicht mit "nur" einem L3 Cache getan.
Das ganze Takt Konstrukt der Northbridge und die Synchronisation zwischen den unterschiedlich getakteten I/O bzw uncore Teilen sind das Problem. Hier kommt es aufgrund der unterschiedlichen Taktratdomänen zu verzögerungen. CPU bis 5GHz, NB mit 2,4GHz, HT-Link zum Chipsatz mit mit 2,6 oder 3,2 Ghz und dann noch der PCIe Takt 2,5 oder 4GHz.
Überall entsteht durch die Synchronisation Leerlauf.
Bei den Intel sieht das Ganze aktuell anders aus, dort hat der Uncore bereich die selbe Taktung wie der Prozessor-Kern.

btw. ein neuer Sockel nur wegen L3 Cache, der nebenbei nichts mit dem Sockel zu tun hat, um ihn dann nach einem Jahr gegen einen wiederum neuen Sockel zu tauschen? Mit den ganzen Zertifikaten, Werkzeugen zur Herstellung, Tests, Validieren.... Kostet ja nichts! Und die OEMs dazu zu bewegen etwas neues zu entwickeln, für einen Sockel der schon vor Ankündigung tot ist.... könnte ich mir schwierig vorstellen.

Und wie schon geschrieben, nur wegen eines L3 Caches einen neuen Sockel zu entwickeln ist Sinnlos, da nicht nötig. Einzig neue I/O Schnittstellen zwingen zu einem Sockel wechsel, oder wie bei AM3+ eine geänderte Anforderung an die Spannungsversorgung. Also für was den neuen Sockel?
 
Intel hat bei S775 doch auch DDR und später DDR2 gehabt und es hat auch geklappt.

AMD könnte die Excavator auch mit anfang an mit DDR3 & DDR4 bringen.

Wer sprach von Nur L3 ? Nein das ist mehr, keine iGPU und dadurch 2 Module mehr.

Abgesehen davon hat Excavator auch mehr IPC, und aussreichend genug.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh