AMD Zen-Prozessoren sollen im Oktober 2016 starten

Das dies nicht schlau von AMD ist, ist wohl selbsterklärend. Das ist wie Poker Spielen. Man sollte nicht Zocken wenn man schon fast Pleite ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja.. aber wenns keiner macht.. wo wären wir dann. Ich bin sehr Froh das dank AMD DX 12 nun Bald am start ist.
 
Von HSA hört man nichts mehr. Das ist aus meiner Sicht auch schon wieder tot.
Es ist ja noch nicht mal das Entwickler kit draußen, was man mal für Anfang 2014 angekündigt hat, kann mich aber auch irren.
Jedenfalls ist der HSA Support bis heute völlig unbedeutend.
AMD hätte niemals ATI kaufen dürfen, sondern die IP lizensieren.
Jetzt hat AMD das Problem, dass sie auf zwei Hochzeiten gleichzeitig tanzen müssen, einmal GPU und einmal CPU, ich denke nicht, dass AMD das schaffen wird.
 
Tja, bis auf AMD setzen all diese Firmen auf RISC Architekturen (meist ARM, bei Imagination auf MIPS).
Wenn sich HSA irgendwann einmal durchsetzen sollte, dann wohl eher in der Welt der Smartphones und Tablets.
Also dort wo AMD kaum oder überhaupt nicht vertreten ist. :rolleyes: :lol:
 
Das man steckplätze hat ist doch kein Antigrund. Sonnst wäre das auch ein Antigrund gegen APU,s
Sehe ich schon so - wenn man Steckplätze hat verbaut man eine dGPU (also non Onboard/Chipsatz Lösungen) als Karte. Würde keinen Sinn machen diese Dinger auf das Board zu packen und dadurch das Board unnötig komplexer zu machen. Sieh Dir mal die ganzen OEMs an wie Dell, HP, Fujitsu, Lenovo, ACER etc. an was die für (µATX, ATX) Desktop PCs anbieten. Da gibt es keinen wo eine dGPU am Mainboard verlötet ist, das sind alles Karten. Erst wenn es kleiner wird (Thin Clients oder eben dann Notebooks) gibt es solche Lösungen, die haben dann aber meist gar keinen Erweiterungsslot der für eine dGPU geeignet wäre.
Und Antigrund gegen APUs ist das nicht da ja der Platz für die CPU sowieso da ist, da wird deswegen nichts extra verlötet und verbaut.

Die Teile waren bisher immer Passiv gekühlt, und das obwohl die in 110nm und 90nm oder 64nm oder 45nm waren. Sollte also heutzutage noch weniger ein problem darstellen die passiv zu kühlen.
Die Teile waren passiv zu kühlen weil die Lower als Low End / Low Budget dGPUs waren :fresse:
Sämtliche Chipsatzlösungen damals, selbst die besseren, waren langsamer als die jeweiligen Lösungen als Karten. Beispiele:
AMD XPress Chipsätze mit Radeon X1200 <- sagt schon der Name daß die unter den billigsten X1300 dGPUs angesiedelt sind. Die X1200 basierten sogar noch auf der X700er Serie und konnten nur DX 9.0b.
AMD 760G, 780G, 790GX Chipsätze mit Radeon HD3000, 3100/3200 und 3300 GPUs - alle unter HD3450 was zu der Zeit die günstigste dGPU war.
AMD 785G, 880G, 890GX Chipsätze mit Radeon HD4200, 4250 und 4290 GPUs - alle unter HD4350 dGPU.
nVidia GeForce 6100 und 6150 in den nForce 400er Chipsätzen - unter der 6200 dGPU.
nVidia GeForce 7025, 7050, 7100 und 7150 der nForce 600er Chipsätze - unter der 7200 und 7300er dGPUs.
nVidia GeForce 8100, 8200 und 8300 der Namensgleichen Chipsätze (MCP78) - unter der 8400 GS dGPU.

Wenn die stärkere Varianten verbaut hätten wären diese nicht mehr passiv zu kühlen gewesen. Bei den dGPUs war das noch möglich da hier fette Passivkühler Platz hatten (meist Dual Slot und/oder auf der Rückseite der Karte etc.), schnall mal sowas auf ein Mainboard?

Mit dem Schritt das in die CPU zu legen konnte man diese wesentlich besser Kühlen und die GPU kam näher an die CPU, Speichercontroller und letztlich PCI-Lanes. Letztere wurden ja sowieso in die CPU verlegt demnach konnte die GPU gleich mitwandern. Sonst wäre es wieder unnötig komplex die PCI Lanes zum Chipsatz und dessen GPU umzuleiten oder schlimmer die GPU über die PCI-Lanes des Chipsatzes anzubinden und die Speicheranbindung rennt dann auch über den HT Link, DMI Link oder was auch immer der Hersteller nutzt zwischen Chipsatz und CPU.

Die APUs haben eben erstmals teilweise mehr Leistung als die allerbilligsten dGPUs.
die HD6350 dGPU wurde teils überflügelt von den (zumindest etwas stärkeren) APUs mit HD 6410D, 6530D und 6550D GPUs der ersten APU Generation.

Und Platz auf dem Mainboard ? Ich bitte dich. Selbst micro ATX Platinen hatten diese mainboard GPU,s.
Ergo: Es gab immer genug platz.
Ja nur hier musst Du unterscheiden - Chipsatz/Onboard GPUs = ganz langsam und meist langsamer als die billigsten dGPUs.
APUs sind definitiv eine Liga drüber und mischen den Low Budget dGPU Bereich bereits auf. MidRange dGPUs und höher liegen aktuell noch über den APUs aber ich schätze daß man mit APUs diesen Markt auch erschließen will.

Ergo: Die Platinen sind garnicht mehr richtig voll und haben nochmals mehr als genug Platz.
Und komm mir jetzt nicht mit materialkosten. Solche boards gabs von 25-35€ Neu und unterschieden sich nicht im geringsten vom Preis.
Mal abgesehen davon das man die materialien auch in der APU hat.
Ja nur nochmal, von was reden wir hier? Chipsatz GPUs oder separat verlötete vollwertige dGPUs wie bei Notebooks? Das musst Du unterscheiden. Die Boards damals waren nur so billig weil eben die Logik im bereits vorhandenen Chipsatz war. Eine vollwertige dGPU auf dem Board verlötet hättest Du nie für den gleichen Preis bekommen eben weil die Platine komplexer sein muß, eigener Speicher für die dGPU vorhanden sein muß, diese auch einen eigenen zumindest passiven Kühler haben muß usw.

Von Flaschenhals kann keine rede sein wenn gewisse Grakas auf Mainboards mehr leistung bieten als jede APU.
Ja weil das auch vollwertige eigenständige dGPUs sind mit eigenem Speicher, Kühler etc. und das kostet auch wesentlich mehr. Sobald das jedoch im Chipsatz oder CPU realisiert wird und die GPU vom Hauptspeicher abhängt und irgendwie an der CPU und Speichercontroller angebunden sein muß können Flaschenhälse entstehen die man umgehen muß.
Würde man auch eine billige Lösung anstreben und sagen wir mal nur eine separate GPU auf dem Board verlöten muß diese ja irgendwie auf den Speicher zugreifen können. Über den PCI-E Bus? -> Headshot. Das hat schon damals mit Turbo Cache, AGP Shared Texture Memory etc. nicht funktioniert. Da könnte man nie leistungsfähige Lösungen realisieren. Von so Ideen wie HSA ganz zu schweigen.

Wofür dann wenn nicht zum Zocken ? Zum Filme in HD gucken ? Dafür hätte es auch eine Onboard graka getan.
SoCs sind einzig dafür entwickelt und gedacht um alle relevaten Komponenten zu vereinen um Strom zu sparen und effizienter als separate Lösungen zu sein, nicht unbeding leistungsfähiger.
APUs gehen schon in den Bereich Low Budget Casual Gamer aber bestimmt nicht zum Hardcore Zocken wie einige es vielleicht gerne hätten. Und der Markt ist definitiv da, nicht jeder ist bereit über hundert EUR für eine Grafikkarte zu investieren nur für den kleinen Spaß Computerspiele zu spielen. Sieh Dir mal die Steam Hardware Survey an. Bei den GPUs ist da ganz oben die Intel HD 4000 und 3000.
Steam-Hard- & Software-Umfrage
Intel hat da einen GPU Anteil von fast 20% und ich sag' mal mehr als 19% davon sind wohl langsamer als alle APUs und lediglich die Iris Pro hat das Zeug dazu gleich auf bzw. teils schneller als die APUs zu sein.
Leider kann man da schlecht bei AMD herausrechnen wie viel von dem ~ 29% Marktanteil APUs sind, aber ein paar % bestimmt.

Wozu gibts denn wohl noch so viele Laptops mit Onboard Graka auf dem Mainboard ? APU,s sind doppelt gemoppelt.
Da muß ich wieder fragen was Du mit Onboard Graka meinst? Eine verlötete dGPU?
Dann ist die Antwort weil die GPU Leistung der APUs aber auch Intels iGPUs halt gerade mal den Low Budget Bereich ersetzen aber am untersten MidRange sich teils noch die Zähne ausbeissen.
Klassische Chipsatzgrafiklösungen gibt es ja keine mehr. Also gibt es eigentlich nur noch verlötete dGPUs und der Rest sind APUs (und iGPUs).

Also im Endeffekt bin ich persönlich ja auch Deiner Meinung daß eine iGPU oder APU zum seriösen Gaming nicht taugt. Das kann sich aber in Zukunft ändern und darauf arbeitet AMD und auch Intel hin. Wie schon gesagt werden APUs wohl nie oder zumindest nicht in nächster Zeit >=Performance dGPUs nahe kommen aber in den MidRange bereich gehen sie ganz bestimmt, eventuell schon mit der nächsten Generation. Und das ist ein ordentlicher Markt den man da bedienen kann.
Und wie gesagt ist dafür eine APU, egal ob nun am selben DIE oder Interposer die effizienteste Lösung sowas anzugehen um immer noch günstiger als separate Lösungen zu sein. Denn ohne dem letzten Vorteil Preis würde kaum wer so etwas kaufen, vor allem solange HSA und ähnliche Lösungen noch in den Kinderschuhen stecken.

Ich sprach nicht von einer 80% steigerung im bezug zu Intel CPU,s. Sondern im bezug zur Bulldozer IPC.
Und Skylake hat locker schon diese 80% mehr IPC als Zambezi.
Häh? Du sagst Du sprachst nicht im Bezug zu Intel CPUs und im nächsten Satz nennst Du die 80% von Skylake zu Zambezi???

Ich sprach auch nur von 80% innerhalb des Herstellers. Intel hat es von Nehalem auf Broadwell nicht geschafft, also von 2008 bis 2015 und selbst mit Skylake geht sich das noch nicht aus. Wieso sollte also AMD das von 2011 bis sagen wir 2016 hätte schaffen können?

Wie gesagt, ich bin bei Dir daß AMD heute FX CPUs mit Excavator Kernen haben könnte, selbst wenn die APUs / HSA / Mantle etc. daneben liefen. Könnte auch gut sein daß diese dann >=40% mehr Leistung (eventuell sogar pro Kern) haben würde als Bulldozer Mk1 Zambezi. Aber 80% ist noch mal einigs mehr, das wäre schon ein unglaublich gutes Stück Arbeit das aus einer Architektur herauszuholen.
Das gab es meines Wissens nach noch nie, egal ob mal jetzt den Pentium P5 -> P54C -> P55C -> Tillamook oder PII Klamath -> ... -> Tualatin PIII oder P4 Willamette -> ... -> Presler oder gerne auch AMD bei den Athlons Argon -> ... -> Barton usw. bei Taktgleichheit (!) heranzieht. Gerade damals waren nur so Riesenschritte mögliche weil man eben daduch den Takt deutlichst nach oben schrauben konnte. Das geht heute eher nur moderat, nicht nur weil die ersten Modelle (Zambezi) ja schon recht hoch getaktet waren und auch Nehalem war schon relativ hoch getaktet.

Also AMD hat Milliarden in die APU entwicklung und umsetzung gesteckt, nur für einen nutzen den sie von Onboard GPU,s unterscheidet.. HSA.
Und wie viele leute nutzen HSA ? Haben sich diese Jahre und Millionen für HSA Wirtschaftlich gelohnt ? Gewiss nicht.
Nein nicht nur HSA, wie ich oben schon schrieb sind GPUs erst in / an den CPUs gebunden effizient und günstig schneller zu machen. Da wieder die Frage was Du mit Onboard GPU meinst:
Eine dGPU auf ein Board zu löten wäre bestimmt kein Kunststück, damit kostet das Board aber bestimmt nicht viel weniger als wenn man das Board und die dGPU so kauft und man hat den Nachteil daß man diese nicht aufrüsten kann (bzw. müsste diese dann brach liegen o.Ä.) und man muß sich etwas bzgl. Kühlung einfallen lassen. Themen wie HSA etc. wäre nicht so effizient zu lösen wie wenn die GPU an der CPU hängen würde und den selben Speicher nutzen würden etc.
Eine Chipsatz GPU Lösung wird schwer in den Leistungsbereich aktueller APUs bzw. über Low Budget dGPUs zu bekommen. Und wenn dann vielleicht nur mit starker Kühlung, eigenem Speicher etc. Und dann wären wir wieder beim ersten Punkt - eine verlötete dGPU.

Nur nicht soviele Argumente. HSA im x86 Bereich? Für mich ist das nicht existent.
Leider gibt es da aktuell nicht sehr viel, aber bedenke daß es HSA und zumindest teilweise fähige Hardware ja auch noch nicht sehr lange gibt. Vollständig zu HSA 1.0 kompatibel soll ja gerade erst mal Carrizo der derzeit am Erscheinen ist sein was ich so gelesen habe. Warten wir ab was die Zukunft bringt und ob das eine Zukunft hat. Aktuell ist da kaum was zu nutzen, stimmt, in 1-2 Jahren wenn dann Zen raus ist werden wir sehen ob das noch ein Thema ist oder ob das vielleicht sogar wieder in die Tonne getreten wird.
 
Wenn man sieht wie eine GTX960 in 1080p in vielen neuen games auf High gerademal 20-30fps packt, dann kann man echt nicht sagen das man mit APU,s gut in 1080p zocken kann, es sei denn man meint Details unter High. Also eher so Low bis Medium jeh nach Game.
Und so war es ja auch gemeint. Keiner hat von FHD mit maximalen Settings gesprochen. Man sollte auch nicht nur auf die neuesten AAA Spiele schauen, die logischerweise den grössten Hardwarehunger haben. Die machen nur einen sehr kleinen Teil des gesamten Marktes aus. Mit Llano war FHD jedenfalls nur selten möglich in 2011. Seitdem ist die Spieleperformance der APUs aber deutlich gestiegen. Und so ist mittlerweile auch oft FHD mit niedrigen oder mittleren Settings möglich. Die Notwendigkeit für dGPUs wird auf jeden Fall weiter sinken. Sie werden heute schon von unten durch APUs aufgefressen. -20% Absatz von dGPUs im letzten Jahr ist eine deutliche Zahl. Wir werden irgendwann dorthin kommen, wo wir schon mal bei CPUs vor über 10 Jahren waren. Mehr Performance wird für die Masse immer weniger interessant, weil für den Alltag mehr als ausreichend vorhanden ist. Selbst Intel investiert ja mittlerweile massiv in die iGPU. Sie kommen zwar bei weitem noch nicht an AMDs iGPU heran, bzw wenn dann nur mit deutlich mehr Transistorbudget zu weit höheren Kosten. Aber auch hier ist die Performance deutlich gestiegen gegenüber den alten PowerVR IGPs.

Zum Fiktiven BD.
Wir hätten heute schon einen FX8 Bulldozer mit Nehalem IPC in 28nm der mit 4,5ghz auf allen Kernen bei 140W TDP laufen würde.
Solche Taktraten sind mit der 28nm Bulk Fertigung einfach nicht drin. Man hätte also weiter bei 32nm SOI bleiben müssen. Wirklich effizient wäre das aber auch nicht geworden. Bei 140W TDP hätte es eh genügend Kritik gegeben. Man hätte das dann schon mit 95W TDP anbieten müssen. Und das ist mehr als zweifelhaft.

Ende des Jahres oder spätestens Anfang 2016 wär der Locker Shrinkbar gewesen weil man sich mit der CPU besser auskennen würde und es nichts neues wäre. (Würde ja Fiktiv schon seit 2013 in 28nm laufen)
14nm LPP ist wohl nicht vor 1H 2016 reif für die Massenfertigung. Und dann braucht man auch erst noch einige Monate, um ausreichende Mengen für einen Launch zu produzieren. Vor Mitte 2016 wäre also auch ein 14nm Bulldozer nicht zu erwarten gewesen. Dann soll eben auch die 8-Kern Zen CPU in den Startlöchern stehen. Da sehe ich keinen Sinn mehr in einem 14nm Bulldozer FX.

Achja und Zen kommt erst ende 2016 wenn es keine Probleme mit der Fertigung gibt.
Wann Zen kommt, steht noch überhaupt nicht fest. Die plausibelsten Gerüchte besagen im Moment Q3 2016 (~August).

Könnte auch 2017 werden.
Ja, die Zen APU, nicht die Zen CPU.

Und in 32nm gabs schon 8 Moduler, also 16 Kerner. In 14nm könnte man dann sicher 16 Moduler bauen. Also Quasi 32 Sandy Kerne in einer CPU im Jahr 2016 mit diesem Fiktiven Bulldozer.
In 32nm gab es 8 Module nur per MCM. Und nein, ein Bulldozer "Kern" ist noch lange nicht vergleichbar mit einem Intel Kern. Das Bulldozer Modul ist der eigentliche Kern. 16 Bulldozer Module mit Nehalem/SB IPC wären also mehr vergleichbar mit 16 Haswell Kernen bzw sogar etwas mehr. Zumindest was den gesamten Durchsatz betrifft. Man hätte zwar Nachteile bei der IPC, könnte das aber locker mit der besseren CMT Skalierung gegenüber SMT wieder wettmachen. Intel bietet allerdings bereits heute 18 Haswell Kerne. Mit Skylake sollen bis zu 28 Kerne in 14nm kommen. Da müsste ein fiktiver 16-Modul Bulldozer schon deutlich über 50% höher takten. Eher unwahrscheinlich. Da wäre es besser, 24 oder 32 Bulldozer Module zu nutzen. Ob das allerdings in 14nm umzusetzen wäre, ist fraglich.

Aber wie gesagt, um maximalen Durchsatz alleine geht es nicht. Mit Zen will man eben wieder besser für alle Märkte gerüstet sein. In den letzten Jahren hatte man bis zu drei Architekturen parallel laufen (K10, Cat, Bulldozer) und war trotzdem nicht überall ausreichend gut gerüstet. Eine Entschlackung und Zusammenführung der Entwicklungslinien sehe ich daher positiv. Intel hatte das Problem ja auch schon mal, als sie mit P-M, P4 und Itanium dreigleisig fuhren. P-M war relativ gut und Intels bester Prozessor, medial aber zu unbedeutend und aufgrund der mobilen Limitierungen kein top Performer. Itanium war von Anfang an eine ziemliche Katastrophe aufgrund von zu schlechtem IA64 Softwaresupport und fehlender 32-bit Abwärtskompatibilität. Und die Geschichte zum P4 sollte ja jeder kennen. Intel stand technologisch damals schlechter da als AMD heute. Bei Servern wurden sie von IBM und vom Opteron vorgeführt, bei Desktops wurden sie vom Athlon vorgeführt. Und mit mobilen Prozessoren war damals noch kein grosser Blumentopf zu gewinnen. Erst die nahezu komplette Umstellung aller Bereiche auf die Core Architektur hat die Konkurrenzfähigkeit von Intel wieder deutlich verbessert.


HSA Foundation ARM, AMD, Imagination, MediaTek, Qualcomm, Samsung, TI

Von gewissen Leuten hier nichts mehr zu hören wäre mir lieber.
Mittlerweile haben wir den finalen HSA 1.0 Support, sowohl was die Spezifikation als auch die Hardware betrifft. Und da wird echt behauptet, man hört nichts mehr von HSA. Ein SDK von AMD gibt es auch schon lange. Das nennt sich heutzutage übrigens APP. Von den HSA Entwicklungen profitieren aber auch andere Standards, wie OpenCL. OpenCL 2.0 wird übrigens auch schon seit einiger Zeit von AMDs APP unterstützt. Kann dir daher nur zustimmen. Wäre in der Tat echt besser, wenn einige nichts mehr zu dem Thema sagen, wovon sie offenbar wenig oder keine Ahnung haben.


Tja, bis auf AMD setzen all diese Firmen auf RISC Architekturen (meist ARM, bei Imagination auf MIPS).
Wenn sich HSA irgendwann einmal durchsetzen sollte, dann wohl eher in der Welt der Smartphones und Tablets.
Also dort wo AMD kaum oder überhaupt nicht vertreten ist.
HSA hat überall seine Anwendungsgebiete, nicht nur bei Smartphones und Tablets. Den Apple Deal hat AMD Gerüchten zufolge auch bekommen, weil sie einen deutlich besseren OpenCL Support als Nvidia haben. Apple engagiert sich stark in diesem Bereich. Sie waren nicht nur einer der Initiatoren von OpenCL, sondern verstärken das Engagement auch noch mit der Metal API. Und Mediatek hat GPU IP von AMD lizenziert. Wer verkauft weltweit nochmal mit die meisten Smartphone Prozessoren? Mal davon abgesehen ist dir schon bewusst, dass AMD mit K12 eine eigene ARM Architektur in der Entwicklung hat? Echt traurig, dass manche immer nur mit Polemik glänzen wollen. :rolleyes:
 
Zuletzt bearbeitet:
Und die Software hatte eigentlich schon viel mehr Zeit gehabt denn schon lange davor gab' es (nicht nur im High End/Server Bereich) Dual CPU Systeme. Also die 50:50 Chance wäre schon sehr sehr optimistisch und gutgläubig gewesen.

Ich meinte das eher so, dass die Chance 50:50 stand, dass es eben vielleichte hätte noch einen Hexa/Oktacore für den Mainstream gegeben und man hätte anstatt sich auf die pro Thread/Core Performance zu konzentrieren, die Einheiten einfach nochmal verdoppelt. Da noch 1-2 Jahre "Luft" erkauft hätte AMD stark geholfen... Vor allem weil Intel wohl diesen Schritt abermals mit einer Dual DIE Kombo bedient hätte, wie es die Dualcore Netburst und Quadcore Core2 Modelle waren. Warscheinlich wäre sogar dieser Schritt nochmals basierend auf nem FSB gewesen anstatt diesen zu beerdigen.

Allerdings hat Intel in dem Fall klar ihre Stellung ausgespielt und den Mainstreammarkt gedeckelt. Entsprechend den Fokus vorgelegt. Alles was damit nicht ins Raster gepasst hat, viel halt hinten runter. BD ggü. Core2 ist ja weit weniger "mau" aufgestellt wie es heute eben der Fall ist. Und ne weitere Stufe Core2 (womöglich dann Core3 geschimpft) mit ebenso noch FSB würde AMD wohl deutlich näher bringen. Da aber der Phenom I schon zu lebzeigen mit dem Nehalem kämpfen musste, war da halt auch entsprechend schnell die Luft raus. -> schnelle OCed 3GHz+ Phenom I CPUs gingen auf jedenfall gut ab. Waren aber so eben nicht kaufbar...

Dagegen spricht auch nichts. Nur können die OEMS genau so mit Mainboard Onboard GPU,s arbeiten.
AMD hat durch die APU,s wie sich herausgestellt hat, ja nicht gerade die OEM welt erobert.
Und so Milliarden und Jahre für einen sehr geringen Marktanteil verschwendet.
Das hätte ich AMD seit 2004 jedes Jahr sagen können das dass so endet.
Genau wie Mantle und HSA oder anderer Schnick Schnack.
Ich war von anfang an davon überzeugt, das AMD damit nicht in Schwarze zahlen kommt.
Die hätten die ganzen Gelder und Manpower einfach in die verbesserung der Architektur stecken sollen, und alle überschüssigen anderen mitarbeiter für diese ganzen nebenprojekte entlassen sollen. Aber in erster Linie, keinen APU Quatsch versuchen sollen.
Es hätten einfach so laufen sollen wie schon zu Athlon 64 Zeiten.
Purer Fokus auf die CPU Entwicklung. Ich will nicht wissen wie viel besser der Bulldozer heute wäre, ohne den ganzen Firlefanz mit APU, Mantle, HSA, etc was ja alles Gelder gekostet hat welches dann für die Forschung und umsetzung besserer CPU,s fehlte.
Von der Verlorenen Zeit garnicht erst zu sprechen.

Und woher kommt die Mainboard Grafik?
Es macht irgendwie den Eindruck, als glaubst du, die fällt vom Baum...
Mal ganz davon ab, dass das wieder ganz andere Probleme mitbringt. Wie eben bspw. die Kühlbarkeit so einer Lösung. Stell dir doch nurmal vor, das Board allein, bzw. der Chipsatz versäuft mal so seine 50W+... Wer soll das wegkühlen? Da stecken dann riesige Kühlkörper drauf, die genau wo auf dem Board Platz haben ohne dass sie irgendwelche Slots/Bauteile behindern? Im grunde ist die einzige freie Stelle für ausladene Kühler doch der Platz um die CPU.
Dann wieder das Thema Bandbreite. Woher soll die kommen? Vom RAM, der an der CPU steckt? Ja potentiell -> nur wie kommt die Bandbreite von CPU zum Chipsatz? Das bedingt fetter Anbindungen usw. usf.
-> es geht heute eher den genau anderen Weg, nämlich nur das notwendigste an Anbindung für das Subsystem liefern zu müssen, was die Komplexität der Geschichte gering hält anstatt das Board mit Logik voll zu kloppen und sich dann hinzusetzen und zu schauen, wie man das miteinander verdrahtet bekommt...

PS: auch ist damit keineswegs gesagt, dass es AMD dadurch heute besser ergehen könnte/würde. Die Spirale fing doch schon mit dem A64 an. Nämlich durch die Wegkehr vom FSB, was als logische Folge mehr Aufwand für die Entwicklung von Dualcores und Quadcores notwendig machte. Während man die Dualcores noch im Plan bringen konnte, war der Phenom I schon hinter der Zeit (gemessen an Blau), dazu zu langsam, und in erster Version auch noch Fehlerbehaftet. Zzgl. mauer 65nm Fertigung. Da kommt eins zum Anderen und die Konkurenz zieht munter schrittweise vorbei... Da kann man noch so viel Nebenbeientwicklungen einstellen, das Kernprodukt wird doch durch die Einstellung von Aktivitäten nebenbei nicht schneller/besser oder kommt früher zur Serienreife!
Auch der Part Llano APU, da hat man doch das Rad nicht wirklich neu erfunden. Es ist halt ne GPU + CPU Kombo. Ob das im Endeffekt so extrem viel Entwicklungsressourcen gekostet hat, zwei vormals verschiedene paar Schuhe, die aber so oder so durch die Chipsatzgrafik und die verquickung mit CPU RAM Anbindung schon irgendwie mit einander konnten, zu kombinieren, waage ich ernsthaft zu bezweifeln!
Möglicherweise kann man hier bestenfalls die Brechstangenmethode ankreiden... Nämlich das ganze im ersten Schritt schon zu kombinieren, anstatt wie es Intel zeigte, erstmal ne Dual DIE Lösung zu bauen... Was ggf. etwas Zeit gebracht hätte.

Der Schritt hin zur APU war konsequent und so auch genau richtig. Sowohl was Intel als auch was AMD angeht. AMD hat es dazu noch mit anfangs mehr GPU Power versucht, diese ist aber nicht angekommen. Und durch den CPU Leistungsnachteil verpuffte eben auch dieser Vorsprung, bis Intel aufholen kann/konnte...

Nur wenn für dich "Gut" = Leage of Legends ist.
Es fehlt einfach die Rohpower in Form von mehr Shadereinheiten in den APU,s.
Daran wird auch DX12 nichts ändern.
Die APU,s bräuchten trotz HBM einfach mal eben 4-5x mehr Rohpower in Form von Shadern oder Takt damit man Moderne Titel in Hohen Details darstellen kann. Dadurch würde die CPU aber mal sowas von Überhitzen. Ist einfach noch ein Wunschdenken im Jahre 2015.

Was hast du denn jetzt für ne GPU stecken?
Bist du schon bei HighEnd angekommen? Ich kann mich noch an diverse Diskusionen zwischen uns erinnern, die sind noch gar nicht so lange her, da warst du noch mit ner HD68xx unterwegs... So ne APU Lösung, wie sie in der PS4 verbaut ist, steckt das Ding mal spielend in die Tasche ;)
-> es ist also nicht unbedingt das Problem Leistung vorhanden... Sondern es bleibt eher das Problem Bandbreite. Da eine GDDR5 Anbindung mit fix verlöteten RAM Bausteinen und folglich auch fixer Größe eben im flexiblen PC Markt so nicht wirklich taugt. HBM macht das zwar nicht direkt anders, aber je nach der Form, wie man die Speicher einbindet, könnte ein schneller HBM als Zwischencache und für die Bedienung der GPU vor der eigentlichen DDR3/4 RAM Anbindung als großer Storagepool schon ausreichend sein um den Bandbreitenbedarf zu deckeln... Mit 1024+ GCN ALUs und genügend Bandbreite kommst du potentiell auf Leistungsniveau einer HD78xx/270/370er Lösung. Eben PitCairn Niveau. Damit bist du voll im aktuellen Durchschnitts-GPU Bereich der Masse der Käufer.
Einzig der Verbrauch wird dabei weh tun -> aber das stellt sich wohl vollends erst mit den 14nm raus, was da wirklich stehen wird ;)
 
Wer verkauft weltweit nochmal mit die meisten Smartphone Prozessoren?
Qualcomm und dann wohl Apple. Aber bestimmt nicht AMD. ;)
Mal davon abgesehen ist dir schon bewusst, dass AMD mit K12 eine eigene ARM Architektur in der Entwicklung hat?
Mir ist vor allem bewusst, das AMDs ARM Prozessoren in Servern werkeln sollen (falls sie jemand noch haben will und falls AMD bis zum Release überhaupt noch existiert)
und man bisher nicht weiß, ob sie eine Grafikeinheit besitzen werden.

Der Hinweis, dass die anderen Mitglieder der HSA Foundation im Gegensatz zu AMD nicht auf x86 setzen ist nicht polemisch, sondern entspricht nur den Tatsachen.
Insofern wird der mögliche Erfolg von HSA auch wenig mit AMD zu tun haben, da die Mehrzahl der Mitglieder im Smartphone- und Tabletgeschäft tätig ist.
Also alles Geschäftsfelder in denen AMD nichts zu melden hat. :rolleyes:
 
Nur nicht soviele Argumente. HSA im x86 Bereich? Für mich ist das nicht existent.

Ich bin nicht mr.dude. Mit Holz diskutiere ich eher als mit sowas wie du.
btw....
Oh, der Oberhater ist mal wieder da. Auf CB und HWL der gleiche Dreck.
 
Zuletzt bearbeitet:
Junge jetzt hab ich hier 3 Mammut Quotes gegen mich :d Eig voll kein Bock wieder alles zerflücken zu müssen.
Hab bei Bucho gerade angefangen zu lesen, aber das würde Stunden Dauern wieder alles zuwiderlegen. Zb das die genannten Onboard Karten die Bucho aufgelistet hat, zwar low end waren, aber für HD Filme gucken vollkommen ausgereicht haben. Abgesehen davon sprechen wir da von Serien die 10 Jahre alt sind, Geforce 8 kam 2006 raus. Also man sollte schon Realistischere Beispiele machen und sich Fiktiv heutige 28nm GPU,s auf dem Board vorstellen um meine Argumentation zu verstehen. APU,s sind wie gesagt zum zocken zu langsam, ergo brauch man sie nur für HD Filme gucken und co, und das können auch Passiv gekühlte Onboard GPU,s.

Jetzt müsste ich weiterlesen aber hab ehrlich gesagt keine lust drauf.

Und ja Bucho, eine verlötete GPU kostet wieder mehr, aber APU,s kosten doch auch mehr als normale CPU,s.

Mal abgesehen davon das die verlöteten GPU,s dann auch stärker sind und auch gern noch mehr kosten dürfen.

Und wenn es billig sein soll reicht auch ein Chipsatz GPU zum Surfen und Filme gucken.
Hab bischen weiter gelesen. Steam ist auf deiner seite das die APU,s Stark genug sind.
Aber das liegt nur an der Unwissenheit oder Armut der Massen.
Ein Vernünftiger Zocker der auch mehr als nur zeit, sondern auch mal was geld in sein Spiel steckt, sei es für Skins oder Extras oder sonnstwas, wird wohl zu 95% auch mit einer vernünftigen Hardware zocken.
Aber ok wenn man argumentieren will das AMD im Casual Markt die leute greifen will, dann kann ich dagegen nichts sagen, außer evtl das amd,s apus zu teuer dafür sind. Doch andererseits will AMD damit ja auch was verdienen um die kosten wieder reinzubekommen. Beißt sich also leider ein bischen dieses Geiz ist Geil APU Schema.
Und ich bezweifle doch ganz ehrlich das es AMD,s ziel war, mit APU,s quasi eine CPU nur für Hartz 4 empfänger zu entwickeln :fresse:
AMD Notebooks mit guten APU,s kosten ja auch keine 300€ sondern sind erst gut ab 500€ zu haben.
Und in dem Preis bereich kann schon mehr Grafikpower mit einer verlöteten GPU haben als AMD,s APU.
Daher haben die selbst da kaum Existenzberechtigung.
Eine APU ist quasi für Arme Schlucker, auf einem Preis Niveau für das man besseres bekommt.
 
Zuletzt bearbeitet:
Junge jetzt hab ich hier 3 Mammut Quotes gegen mich :d Eig voll kein Bock wieder alles zerflücken zu müssen.

Vielleicht lässt du dann einfach das zerflücken und antwortest auf den Kontext anstatt jeden Satz rauszupicken?
Sorry, aber das nervt nämlich einfach nur noch...
 
Bucho, das mit dem Zambezi auf Skylake war ein Beispiel weil ich ein paar seiten vorher schon geschrieben habe, das man Bulldozer MK1 mit genug arbeit sicher noch so stark verbessern kann, das man eines tages bestimmt 80% mehr IPC erreichen könnte. Und das wurde angezweifelt. Daher habe ich gezeigt das diese Steigerungen nicht so Unrealistisch sind, weil das CMT Design de Fakto nur 20% weniger IPC haben muss als ein normales Design, und Intel mit Skylake schon 80% erreicht. Wenn intel mit einem Nachfolger von Cannonlake oder dem nachfolger danach iergentwann eine IPC erreicht die 100% besser ist als Zambezi, würde das also genau dies beweisen, weil 100% -20% wären immernoch 80% mehr. Ergo würde so ein Fiktiver Cannonlake nachfolger mit 100% mehr IPC als Zambezi, mit CMT dann immernoch 80% mehr IPC haben wenn man die Regel das CMT so 20% weniger IPC hat im Kopf behält.

Und es ging in meinem Beispiel auch nicht um 2008-2015 und auch nicht um 2011 bis 2016.
Es ging eine langsame Steigerung von gen zu gen. Es würde reichen wenn AMD das so wie Intel macht mit ca 5-15% alle 2 Jahre.

- - - Updated - - -

@ mr Dude. wir hatten 2 x 4 Module in 32nm durch MCM. Wo ist das Problem ? Das könnte man auch in 14nm machen und hätte dann 4 x 4 Module, ergo statt 16 kernen in 32nm, 32 Kerne in 14nm durch MCM. Fakt ist, es ist ein CPU Heatspreader, und darauf kommts an.
Bei Multisockel systeme könnte man bei 4 Sockeln so also 128 Bulldozer Kerne haben, bei einer guten IPC auf Nehalem oder Sandy Niveau, wäre das doch super.

@ FDsone. Für Inet Surfen HD Filme gucken brauch man keine Grafikkarte mit 50W+
Eine GTX960 Referenz zieht nur 82W und packt quasi jeden modernen Titel bei High Details Flüssig unter Full HD.
Für diese alltags anwendungen brauch man so viel leistung garnicht. nichtmal die hälfte der leistung. Nichtmal 1/3 der Leistung.
Nichtmal 1/4 der leistung. 82 / 4 = 20W. 20W würde man Passiv wegkühlen können ohne Massive Kühlkörper und man hätte genug power für HD filme gucken. Nur auf Hartz 4 Niveau Zocken ginge mit einer APU leicht besser, kostet dann aber auch wieder mehr.

- - - Updated - - -

Und hey so wie sich das bei dir liest, das es ja ach so schlimm ist das dinge einen längeren Weg haben, müsstest du ja glatt dafür sein das wir das komplette mainboard samt Arbeitsspeicher in die CPU Intigrieren.
Natürliche würde dies in der Theorie mehr bringen, doch brauch man das jetzt schon wenn AMD so angeschlagen ist in zeiten von 28nm wo die iGPU,s in den CPU,s von AMD kaum nennenswerte Vorteile haben ?
Klar steigen die vorteile über die Jahre durch 14nm und 10nm etc, aber bis dahin hätte man auch echt auf die APU,s verzichten können. Zz sind sie für mich nach wie vor unnütz. Zu klein ist der nutzen für den Aufwant den AMD da betrieben hat.

- - - Updated - - -

Was hast du denn jetzt für ne GPU stecken?
Bist du schon bei HighEnd angekommen? Ich kann mich noch an diverse Diskusionen zwischen uns erinnern, die sind noch gar nicht so lange her, da warst du noch mit ner HD68xx unterwegs... So ne APU Lösung, wie sie in der PS4 verbaut ist, steckt das Ding mal spielend in die Tasche

Soviel schneller als eine HD6870 ist die APU in Kaveri wirklich nicht. zz habe ich eine GTX570 drin welche wohl so auf Kaveri APU iGPU Niveau agieren kann, aber die Karte ist sowas von Lahm das ich damit alle meine Games auf Low Zocke (Killing Floor 2, Wot, World of Warships), einfach weil ich keine Framedrops unter 60fps mit Vsync etc haben möchte, und dafür ist die GPU Rohpower bei High Details viel viel viel zu schwach.

Dazu brauch es mindestens eine R9 285.

Die GTX570 von 2010 ist heute wirklich alles andere als brauchbar. Damit kann man nur noch Leage of Legends in Schöner Optik genießen. Das ist auch der grund warum ich auf die neue AMD Gen gewartet habe. Nur bin ich zz unsicher ob ich mir jetzt eine 380 kaufen soll, oder noch auf die Nano warten soll um zu gucken wie gut die ist.

-> es ist also nicht unbedingt das Problem Leistung vorhanden... Sondern es bleibt eher das Problem Bandbreite.

Bandbreite ist doch nur für Auflösung und Filter wichtig. Mit einer APU sollte man wohl kein 4k Gaming betreiben.
Für 1080P sollte die APU mit DDR4 doch mehr als genug Bandbreite haben. Und dennoch würde die dadurch nicht gerade Doppelte FPS oder so sehen, und es ist wirklich mehr als Doppelt so viel fps nötig als im moment, um APU,s brauchbar für die meisten PC Spieler zu machen.
Fazit: Es ist noch lange nicht genug Leistung vorhanden.
Man kann es auch anders Beweisen. Schau dir mal den Takt und die Shader an. Kein wunder das da nicht die Leistung einer 270X zb rauskommen kann.

Mit 1024+ GCN ALUs und genügend Bandbreite kommst du potentiell auf Leistungsniveau einer HD78xx/270/370er Lösung. Eben PitCairn Niveau. Damit bist du voll im aktuellen Durchschnitts-GPU Bereich der Masse der Käufer.
Einzig der Verbrauch wird dabei weh tun -> aber das stellt sich wohl vollends erst mit den 14nm raus, was da wirklich stehen wird

Da stimme ich dir zu, 1024+ GCN Shader, aber eben nicht bei 600 oder 800mhz takt, sondern auch bei 950-1100mhz, sonnst liegen da wieder locker 30% unterschied zu den genannten Grakas.
Und bis eine 14nm APU kommt, ist die HD78xx/270/370 nicht mehr der aktuelle durchschnitt im Berreich der Masse, sondern eher was schnelleres.

Mr Dude hat ja recht damit, das 2016 erstmal 14nm Zen als CPU Only kommt, und Excavator als APU in 28nm.
Erst 2017 kommt frühstens die 14nm APU. Bis dahin gibts mit sicherheit schon eine R9 500er Serie und bei Nvidia auch schon den Pascal nachfolger.

- - - Updated - - -

btw.
Ob AM4 ende des jahres oder anfang 2016 mit Excavator APU,s startet ?
Ich bin echt gespannt wie gut die werden. Werden wohl wieder nur 2 Moduler in 28nm aber ich verspreche mir eine Starke Effizienz steigerung.
Habe gehört die werden evtl nur DDR3 Supporten, bin dann mal gespannt wie das bei den Boards wird.

Weil es soll ja die Option geben dann auf den Brettern Später mit Bios Update auf Zen gehen zu können wie bei AM3+ schon der übergang mit Phenom & Bulldozer war.

Ich hätte schon lust auf so einen AM4 Desktop 2 Modul Excavator, vorallem da ich auch meinen jetzigen Kühler und Ram vom AM3+ Board weiter verwenden könnte.
Allerdings ka ob ich dann was mit der iGPU in der CPU anfangen kann.
Wenn ich mir eine R9 380 hole, hab ich dann ja kaum was davon, oder kann ich die beiden karten iergentwie zusammen rechnen lassen ?
DX12 Optimierte Titel würden auch nicht die iGPU zur Hilfe Aktivieren oder ?

Edit: Hab jetzt wieder gehört die werden nur DDR4 Supporten :d
Quelle: http://www.golem.de/news/roadmap-am...4-unterstuetzt-nativ-usb-3-1-1506-114853.html

http://www.computerbase.de/2015-06/amd-roadmap-weitere-details-zu-stoney-raven-und-bristol-ridge/

http://www.gamestar.de/hardware/news/prozessoren/3087490/amd_roadmap.html

Ob wir wohl schon im 1Q 2016 mit dem neuen Sockel und Bristol Ridge Excavator 2.0 Rechnen können ?

CPU wird 512 Shader haben, also quasi die halbe Rechenleistung einer R7 370. Das ist Nix :d
Mich Interessiert aber die CPU da ich wie ihr ja sicher gemerkt habt, ein totaler Fan der Bulldozer Architektur bin.
 
Zuletzt bearbeitet:
Btw gibt ein paar Benchs zum neuen Excavator auf laptop Basis.
Demnach ist der mit 1,7 ghz schon schneller als ein Phenom II X4 @3,4 ghz.

Und zwar im Geekbench.

[Integer singlecore]
X4 965: 1994
FX-8800P (15W?): 2340 (+17,4%)
FX-8800P (35W?): 2429 (+21,8%)


[Integer multicore]
X4 965: 7527
FX-8800P (15W?): 7107 ( -5,6%)
FX-8800P (35W?): 8568 (+13,8%)


[FP singlecore]
X4 965: 1915
FX-8800P (15W?): 2046 ( +6,8%)
FX-8800P (35W?): 2149 (+12,2%)


[FP multicore]
X4 965: 7433
FX-8800P (15W?): 6071 (-18,3%)
FX-8800P (35W?): 7157 ( -3,7%)


Was sagen diese werte über mögliche Spieleleistung aus ?
Ich weiß nicht was Geekbench ist, und wie aussagekräftig diese Ergebnisse sind.

Finde es aber schon beachtlich das eine CPU auf Bulldozer Basis, mit der hälfte an Takt, den guten alten Phenom II schlägt welcher ja eine Solide IPC hat.

- - - Updated - - -

Es werden übrigens wie von mir Spekuliert, wirklich verbesserte Excavator Kerne für den Desktop geben.
Man spricht von Excavator Version 2.0.

Bristol Ridge ist der Carrizo-Refresh für den Desktop 2016 auf AM4 Basis.
Bristol Ridge wird auf eine TDP von 35 bis 95 Watt ausgelegt, und wird den aktuellen Kaveri Refresh Übertrumpfen.

Zum Einsatz kommen dabei noch einmal angepasste Excavator-Prozessorkerne, auf der Roadmap „Excavator Gen 2“ genannt.
Dies mag damit zusammenhängen, dass die aktuellen Kerne lediglich auf sehr geringe Leistungsaufnahmen ausgelegt sind und bereits ab 30 Watt der Vorteil dieser Lösung schwindet.
 
Zuletzt bearbeitet:
Ja bei den Athlon 64 und darauf basierende FX hat AMD auch ordentlich Preise verlangt, aber wie Du sagst war das ja auch gerechtfertigt.
Die Preise müssen eben am Markt durchsetzbar sein und da bestimmt eben die Leistung was für ein Preis realistisch zu erzielen ist.
In der Fury steckt ja auch einiges an Entwicklung und bestimmt aktuell (noch?) nicht sonderlich günstiger HBM Speicher sowie die AIO Wakü.
Der HBM mag Technikfreaks begeistern, die Masse honoriert sowas aber nicht, die schaut darauf wie viele fps sie bekommt und was die Karte des Wettbewerbers kostet, die ähnlich viele fps erzeilt, egal wie sie das macht. Dann geht es noch um den Verbrauch und die Lärm und dann vielleicht noch, ob die Karte ins Gehäuse passt oder ein anderes her muss. Da hat die AiO übrigens einen blöden Nachteil, denn nicht jeder kann mal eben so einen 120er Radi unterbringen und beim spätenstens zweiten sieht es dann für die meisten Gehäuse schon gar schlecht aus.
Falls die Fertigung tatsächlich ein Hindernis ist dann ist ja so eine Lösung auf einem Interposer kaum ein Nachteil. Gibt's da wo Infos bzgl. daß AMD das so machen will bzw. es Probleme mit den unterschiedlichen Fertigungen gibt? Hab da diesbezüglich noch nichts gehört.
Leider finde ich nicht mehr was ich eigentlich gesucht habe, aber hier es zumindest am Rande eräwhnt:
Interposer könnten hier die Lösung sein, dürften aber wieder andere Nachteile mit sich bringen. CPUs und GPUs zu vereinen ist eben immer ein Kompromiss, da das Optimum bzgl. Design und Fertigung für beide unterschiedlich aussieht, erst recht wenn man in den Bereich von Hochleistungs CPUs geht, also den Fokus auf hohe Taktraten legt. Bei Lower-Power Designs, wie sie eben für Mobile CPUs benötigt wird, ist die Aufgabe einfacher.

Von HSA hört man nichts mehr. Das ist aus meiner Sicht auch schon wieder tot.
Es ist ja noch nicht mal das Entwickler kit draußen, was man mal für Anfang 2014 angekündigt hat, kann mich aber auch irren.
Jedenfalls ist der HSA Support bis heute völlig unbedeutend.
Das Projekt SkyBridge (Puma+ x86 und ARM A57 Kerne zusammen in einer CPU) wurde wurde wegen mangelndem Kundeninteresse schon eingestampft.

Die SW-Unterstützung um die Fähigkeiten der APU endlich mal richtig nutzen zu können, also weshalb man diese anfänglich überhaupt erst gemacht hat, lässt noch sehr zu wünschen übrig und auch die Zahl der Anwendungen dafür. Aber solange man eben mit einer reinen CPU mehr Performance erzielen kann als mit eher schwachen CPU Kernen denen dann ab und zu die GPU Kerne unter die Arme greifen, lohnt es sich auch nicht dafür Aufwand zu investieren, schon gar nicht für die eher geringe Basis und dann sind das vor allem Anwender die sehr budgetorientiert sind, also kein großes Marktpotential bieten.
AMD hätte niemals ATI kaufen dürfen, sondern die IP lizensieren.
Dann wären aber die APU niemals möglich gewesen, denn dafür musste man beides anpassen und das wäre bei lizensierter Technik nie gegangen.
Jetzt hat AMD das Problem, dass sie auf zwei Hochzeiten gleichzeitig tanzen müssen, einmal GPU und einmal CPU, ich denke nicht, dass AMD das schaffen wird.
Es ist auf jeden Fall eine besondere Herausforderung und seid die CPU Hersteller die 3rd Party Chipsatzhersteller abgewürgt haben, müssen zu den CPU auch noch die Chipsätze mit all ihren Controllern kommen. Auch wenn AMD da viel fremde Technologie lizensiert, macht es die Aufgabe nicht banal.

Wenn sich HSA irgendwann einmal durchsetzen sollte, dann wohl eher in der Welt der Smartphones und Tablets.
Also dort wo AMD kaum oder überhaupt nicht vertreten ist. :rolleyes: :lol:
Wenn schon Intel hart kämpft, viel Geld darin investiert und kaum Erfolge vorweisen kann, dann wird es AMD sicher nicht leichter fallen. Mit dem x86er wird es ganz, ganz schwer und bei ARM hat NVidia mehr Erfahrung als AMD. Obendrein liegt bei AMD dort der Fokus auf Server-CPUs, was wieder eine ganze andere Richtung ist als die für Mobile Endgeräte.
 
Skybridge war etwas, was man den Analysten zeigen konnte, aber nie existiert hat. Schon die Idee war strunzdämlich.
 
@ FDsone. Für Inet Surfen HD Filme gucken brauch man keine Grafikkarte mit 50W+
Eine GTX960 Referenz zieht nur 82W und packt quasi jeden modernen Titel bei High Details Flüssig unter Full HD.
Für diese alltags anwendungen brauch man so viel leistung garnicht. nichtmal die hälfte der leistung. Nichtmal 1/3 der Leistung.
Nichtmal 1/4 der leistung. 82 / 4 = 20W. 20W würde man Passiv wegkühlen können ohne Massive Kühlkörper und man hätte genug power für HD filme gucken. Nur auf Hartz 4 Niveau Zocken ginge mit einer APU leicht besser, kostet dann aber auch wieder mehr.

Na klar, 20W lassen sich so leicht passiv kühlen...
Würdest du dir ein Mainboard kaufen, dass so einen Monsterkühler nur für den "Chipsatz" drauf hat?
http://geizhals.de/msi-c847ms-e33-7835-001r-a890032.html?hloc=at&hloc=de&hloc=pl&hloc=uk
Außerdem, wo haben aktuelle Mainboards bitte so viel Platz übrig?

Dazu brauch es mindestens eine R9 285.

Wie können Leute nur auf der PS4 spielen?

Naja egal, ich könnte so weiter machen, aber deine Posts strotzen einfach so vor Naivität, Unwissenheit, Ignoranz, ... dass es keinen Sinn hat mit dir zu diskutieren.

Noch jemand, der bei seinen Beiträgen immer an "Oh Honey" von HIMYM denken muss?
 
Und es ging in meinem Beispiel auch nicht um 2008-2015 und auch nicht um 2011 bis 2016.
Es ging eine langsame Steigerung von gen zu gen. Es würde reichen wenn AMD das so wie Intel macht mit ca 5-15% alle 2 Jahre.

Und nochmal, was soll das bringen?
Die Lücke wird doch deswegen nicht kleiner... Sie wird damit bestenfalls nicht größer. Aber wie soll das bitte das Problem beheben?
Damit AMD mehr potentielle Käufer anlockt, benötigen sie ein Produkt, was besser ist als die Konkurenz und nicht was mit jeder Generation nicht schlechter wird...
Du hast irgendwie ganz komische Ansichten...
Auch deine IPC Spekulation. Kein Mensch weis, wie viel man aus der Bulldozer Grundtechnik noch rausholen kann. Ob da jemals viel rausoptimiert werden kann steht genau so in den Sternen wie ob das spielend drin wäre. Man weis es einfach nicht! Wieso beharst du auf dem Standpunkt, das dies so einfach möglich wäre? Ohne jegliche Hintergrundinfos dazu? Macht für mich irgendwie den Eindruck, als willst du dem Todgeglaubten Produkt noch die letzte Ehre erweisen und es nicht als Fail sterben lassen mit diesen Aussagen...

@ mr Dude. wir hatten 2 x 4 Module in 32nm durch MCM. Wo ist das Problem ? Das könnte man auch in 14nm machen und hätte dann 4 x 4 Module, ergo statt 16 kernen in 32nm, 32 Kerne in 14nm durch MCM. Fakt ist, es ist ein CPU Heatspreader, und darauf kommts an.
Bei Multisockel systeme könnte man bei 4 Sockeln so also 128 Bulldozer Kerne haben, bei einer guten IPC auf Nehalem oder Sandy Niveau, wäre das doch super.

Dein Problem dabei ist, dass dieses Design selbst in Bereichen, wo es primär auf MT ankommt schon viel zu viele Nachteile mitbringt, die die Vorteil überhaupt nicht aufwiegen.
Ein Dual NUMA Node Design, wie es die aktuellen Opteron Bulldozer sind, würdest du nichtmal mit jeder Windows Version betreiben können. Denn die können teils nur einen NUMA Node ansprechen... Ob du das nun glaubst oder nicht. Das ist nicht der Weg, der fruchten wird. Mal ganz davon ab, Bulldozer hat kein MT Problem. Wie du in den Benches nachlesen kannst. Das extreme aufziehen der Module ändert am Grundproblem genau gar nix.

@ FDsone. Für Inet Surfen HD Filme gucken brauch man keine Grafikkarte mit 50W+
Eine GTX960 Referenz zieht nur 82W und packt quasi jeden modernen Titel bei High Details Flüssig unter Full HD.
Für diese alltags anwendungen brauch man so viel leistung garnicht. nichtmal die hälfte der leistung. Nichtmal 1/3 der Leistung.
Nichtmal 1/4 der leistung. 82 / 4 = 20W. 20W würde man Passiv wegkühlen können ohne Massive Kühlkörper und man hätte genug power für HD filme gucken. Nur auf Hartz 4 Niveau Zocken ginge mit einer APU leicht besser, kostet dann aber auch wieder mehr.

Du solltest richtig lesen. Ich sprach nicht von Kaveri, sondern von einer APU Lösung ähnlich der bei den Konsolen. -> das reicht für anständige Mittelklasse Performance und würde potentiell eben jene GPUs für ein AMD based System überflüssig machen. Die die dann mehr wollen, stecken ne dGPU zu. Oder greifen zu einem CPU Modell mit abgeschalteter GPU usw.
Mit FHD Video schauen hat das genau gar nix zu tun... Das packt die kleinste GPU auf der halben Arschbacke.

Und hey so wie sich das bei dir liest, das es ja ach so schlimm ist das dinge einen längeren Weg haben, müsstest du ja glatt dafür sein das wir das komplette mainboard samt Arbeitsspeicher in die CPU Intigrieren.
Natürliche würde dies in der Theorie mehr bringen, doch brauch man das jetzt schon wenn AMD so angeschlagen ist in zeiten von 28nm wo die iGPU,s in den CPU,s von AMD kaum nennenswerte Vorteile haben ?
Klar steigen die vorteile über die Jahre durch 14nm und 10nm etc, aber bis dahin hätte man auch echt auf die APU,s verzichten können. Zz sind sie für mich nach wie vor unnütz. Zu klein ist der nutzen für den Aufwant den AMD da betrieben hat.

Auch hier, ich sprach von Nachteilen... Und nannte dir ein Beispiel, was deine Theorie mit der GPU auf dem Board entkräftet und die Sinnhaftigkeit anzweifelt. Aber ja, vielleicht werden wir irgendwann sehen, dass nur noch Single Chip Lösungen gibt. HBM, wie er auf der Fury im Einsatz ist, könnte bei ausreichender Menge die RAM Slots überflüssig machen. Die Frage ist nur, was ist mit der Flexibilität. Im Notebook/Tablet Bereich, wo man heute teils nichtmal RAM oder HDD/SSDs tauschen kann, wäre das ne tolle Sache... Im klassischen Desktop hingegen eher nicht. Da dann doch lieber als Zwischencache + normale RAM Anbindung. Aber selbst dort geht das Prinzip auf, was du mit der GPU im Chipsatz nicht hättest.

Ehrlich gesagt kann ich deinen Standpunkt nicht nachvollziehen, muss ich sagen. Was für ein Ziel verfolgst du mit der Kritik an den APUs?
Mir scheint, dein Standpunkt stützt sich einzig und allein darauf, dass du glaubst, durch weglassen der APUs hätte AMD heute einen schnelleren Bulldozer im Programm... -> aber das darf arg angezweifelt werden, weil es einfach völlig verschiedene paar Schuhe sind und eben das Weglassen von einer Sache ganz andere Baustellen auf der anderen Seite aufwirft, wo ebenso stark angezweifelt werden darf, dass diese einfach zu lösen wären und vor allem, dass dieser Weg der generell bessere wäre.

Wie schon gesagt wurde, der aktuellen APU fehlt es nicht primär an Leistung, sondern es fehlt primär an Bandbreite. Das wird sich in Zukunft ändern. Und dann hast du in dem Teil ne GPU Performance, welche sich nicht hinter einer Mittelklasse dGPU verstecken muss. Das bringt dann auch potentielle Kunden auf den Plan. Heute hingegen ists halt Bandbreitenlimitiert. Zu wenig Leistung für die Spieler und zu viel für die ausschließliche 2D Desktop Bildausgabe. -> ergo kein wirklicher Kaufgrund. Nur wächst so ne APU nicht auf den Bäumen. Sondern muss entwickelt werden. Genau so wie der Speicher, die Erkentnis, dass Bandbreite wichtig ist usw. usf.

EDIT: zu deinen Benchmarks, du hast mal eiskalt den Turbo ausgeklammert, welcher wenn ich das richtig sehe, bis 3,4GHz geht... Nur mal als Hinweis. Nicht immer nur auf die nakten Zahlen gucken, sondern auch mal das drum rum ansehen... Zumal ich den Vergleich zu nem horn alten X4 Phenom II Modell heutzutage für ziemlichen Unsinn halte. Der Phenom II war zu lebzeiten schon keine Rakete. Was soll dieser Vergleich also aussagen? Das man es schafft, nach 5-6 Jahren eine CPU zu bringen, die etwas schneller arbeitet bei weniger Verbrauch? Toll, nichts anderes ist zu erwarten... Stell doch lieber nen Haswell oder Broadwell daneben, dann kannst du gucken, wie viel Excavator zu leisten im Stande ist. Kommt er ran, dann ist gut, kommt er nicht ran, dann bestätigt dass die Annahme von oben, dass es einfach unsinnig ist, da viel Zeit in Bulldozer zu stecken, weil es nicht reichen wird...
 
Zuletzt bearbeitet:
Zumal ich den Vergleich zu nem horn alten X4 Phenom II Modell heutzutage für ziemlichen Unsinn halte. Der Phenom II war zu lebzeiten schon keine Rakete. Was soll dieser Vergleich also aussagen? Das man es schafft, nach 5-6 Jahren eine CPU zu bringen, die etwas schneller arbeitet bei weniger Verbrauch? Toll, nichts anderes ist zu erwarten...
Naja, sollten die 15W stimmen, dann ist das fast eine verzehnfachung des Performance/Wattverhältnisses im vergleich zu der 140W Version des Phenoms (die ich hatte und die man damit im Winter als Heizung nutzen konnte q_q )
Und eigentlich sollte der auch gegen einen Haswell U (auch mit 15W angegeben) garnicht mal so schlecht abschneiden. Ich hab damals vor dem Kauf meines Surface verglichen und zumindest in Multithreadaufgaben hat der i5 4200U inklusive Turbo nur ~15% mehr Leistung als der Phenom.

AMD hat also was recht interessantes im Feuer.
Allerdings ist zumindest Geekbench in diesen beispielen ein reiner Computingbenchmark.
 
Zuletzt bearbeitet:
Posts strotzen einfach so vor Naivität, Unwissenheit, Ignoranz, ... dass es keinen Sinn hat mit dir zu diskutieren.

hm findest du ?

Na klar, 20W lassen sich so leicht passiv kühlen...

Mein AM3+ Brett schluckt mehr 20W als Intel Bretter und mein Brett hat nicht gerade dicke Kühlkörper.
Also würde das auf Intel Brettern quasi genau so wenig Kühlkörper benötigen, wie auf meinem Brett.

Asus M5a97 Pro v1.jpg

Achja und wenn du jetzt sagst das dass Brett mit gpu dann 40W frisst: Es müssen keine 1/4 der Power einer GTX960 da sein um Hd Filme zu gucken. Da reicht auch deutlich weniger. Ergo brauch man nichtmal eine GPU mit 20W abwärme.

Wie können Leute nur auf der PS4 spielen?

PS4 bzw generell Konsolen mit PC,s zu vergleichen zeugt von Unwissenheit deinerseits.
Denn es ist bekannt, das Spiele auf Konsolen wesentlich besser Optimiert sind, als auf PC,s.
 
Zuletzt bearbeitet:
@DragonTear

Keine Sorge :d Iwann gibts den Hardwareluxx sicher als Roman, wann aber nur in Bände :d gg
 

JA, sonst hätte ich das ja nicht geschrieben...

Mein AM3+ Brett schluckt mehr 20W als Intel Bretter und mein Brett hat nicht gerade dicke Kühlkörper.
Also würde das auf Intel Brettern quasi genau so wenig Kühlkörper benötigen, wie auf meinem Brett.

Achja und wenn du jetzt sagst das dass Brett mit gpu dann 40W frisst: Es müssen keine 1/4 der Power einer GTX960 da sein um Hd Filme zu gucken. Da reicht auch deutlich weniger. Ergo brauch man nichtmal eine GPU mit 20W abwärme.

Was soll denn der Scheiß jetzt? DU hast doch die 20W für die GPU in den Raum gestellt! Und auch gesagt dass das kein Problem sei...
Und die 20W Mehrverbrauch kommen sicher nur von einer Komponente? Na dann lass mal hören...

Technisches Verständnis <= 0

PS4 bzw generell Konsolen mit PC,s zu vergleichen zeugt von Unwissenheit deinerseits.
Denn es ist bekannt, das Spiele auf Konsolen wesentlich besser Optimiert sind, als auf PC,s.

Du laberst doch was von Gamern...
Fakt ist, viele spielen nun mal auf den Konsolen und am PC ist das Meist gespielte Spiel AFAIK LoL, gefolgt von Dota2 und die laufen auf den APUs wunderbar (zumindest als ich sie das letzte mal gezockt hab).
Die ganzen Browsergames zähl ich nicht mal dazu ;)

Du bist nicht repräsentativ für die ganze Welt.
Gaming ist nun mal nicht AAA-Titel auf High mit >= 60FPS. Die breite Masse ist froh, wenn das Spiel startet und für diese Masse reicht die APU idr. locker. Und um dich noch mal zu Zitieren, das hat nichts mit "Hartz 4 Gaming" zu tun.
 
Naja, sollten die 15W stimmen, dann ist das fast eine verzehnfachung des Performance/Wattverhältnisses im vergleich zu der 140W Version des Phenoms (die ich hatte und die man damit im Winter als Heizung nutzen konnte q_q )
Und eigentlich sollte der auch gegen einen Haswell U (auch mit 15W angegeben) garnicht mal so schlecht abschneiden. Ich hab damals vor dem Kauf meines Surface verglichen und zumindest in Multithreadaufgaben hat der i5 4200U inklusive Turbo nur ~15% mehr Leistung als der Phenom.

Welche Werte nimmst du als Basis?
Wenn ich mir die DB vom Bench ansehe, dann erreicht der 965er im Mittel ca. 1750 Punkte beim ST Bench Wert.
Dieser 8800p ist ebenso vertreten in der DB und kommt auf 1900-2200 Punkte. Allerdings ist nicht ganz klar, welche Power Settings für welchem Wert anlagen.

PS: den Vergleich über den Verbrauch zu tätigen ist so oder so ziemlich schwer (bis unmöglich), Bedenke, der neue Prozessor schöpft seine 15W wohl voll aus über den Turbo und das selbst im ST Bench, er boostet also deutlich über seine 1,7GHz. Warscheinlich bis zu den 3,4GHz, wie ich oben sagte. Der Phenom II macht dies nicht. Er tuckert mit seinen 3,4GHz und das wars dann auch. Auch verbraucht dieser bei reiner ST Last keine 140W!! Sondern deutlich weniger. -> ebenso besteht hier extremes Energieeffizienzpotential, wenn durch Teillast nicht die ganze CPU voll aufdreht, sondern das pro Core geregelt wird.
Nur mal angenommen, der Phenom kommt mit seinen 140W oder als C3 Version mit etwas weniger unter absoluter Volllast. Wie viel werden es dann wohl bei nur einem Thread Last sein? -> ein Phenom X2 liegt schon im Gesamtsystemverbrauch >50W drunter. Lass es also in Summe 40-50W sein... Dann steht es 15W zu 50W, eher sogar weniger. Das kommt dann schon eher hin ;)

Die Werte beeindrucken da irgendwie (mich zumindest) nicht wirklich. Wie gesagt, der Vergleich zu ner alten Kamelle in 45nm, die am technischen Limit tuckert (damals) ggü. ner neuen Notebook Stromsparausführung... Ich weis nicht, wäre für mich kein direkter Vergleich.
 
Btw gibt ein paar Benchs zum neuen Excavator auf laptop Basis.
Demnach ist der mit 1,7 ghz schon schneller als ein Phenom II X4 @3,4 ghz.

Und zwar im Geekbench.

[Integer multicore]
X4 965: 7527
FX-8800P (15W?): 7107 ( -5,6%)
FX-8800P (35W?): 8568 (+13,8%)

[FP multicore]
X4 965: 7433
FX-8800P (15W?): 6071 (-18,3%)
FX-8800P (35W?): 7157 ( -3,7%)

Schön auf Multicore gucken, da wo der Turbo nicht so greift.
 
Schön auf Multicore gucken, da wo der Turbo nicht so greift.

Ok. Und weiter ? Sind ja immernoch 1,7ghz vs 3,4 ghz

edit: hab jetzt den post von fdsonne gelesen. also geht der mit turbo höher als 1,7ghz. das wusste ich nicht. dachte turbo ist bis 1,7ghz.
 
Zuletzt bearbeitet:
Angeblich wohl bis 3,4... Wenn es der 8800p ist.
Ist halt nicht ganz ersichtlich und wird wohl auch nie ganz ersichtlich sein, bevor das mal jemand vollends auseinander nimmt ;)
 
Jo haste recht.
 
Na klar, 20W lassen sich so leicht passiv kühlen...
Würdest du dir ein Mainboard kaufen, dass so einen Monsterkühler nur für den "Chipsatz" drauf hat?
http://geizhals.de/msi-c847ms-e33-7835-001r-a890032.html?hloc=at&hloc=de&hloc=pl&hloc=uk
Vor allem wird immer gerne mal vergessen, dass solche Kühler auf passiv gekühlter HW auch einen bestimmten Luftstrom brauchen, das Board hat ja nicht umsonst 3 Anschlüsse für Lüfter (einen auch noch als CPU-FAN gekennzeichnet) und im Handbuch auf S. 61 den Hinweis, man möge nicht vergessen alle Systemlüfter anzuschliessen und auf Seite 3 steht dick der Hinweis, das Board nicht einmal bei mehr als 60°C zu lagern!

Bei Enterprise-HW gibt es meist auch genaue Angeben zum geforderten Luftstrom, der wird bei Consumer HW gerne vergessen. Ausnahmen sind dann z.B. mal Hinweise bei einigen Boards ohne Kühlkörpern auf den Spannungswandler (zuweilen bei billigen Boards mit AMD 970er Chipsätzen zu finden) doch unbedingt einen Top-Blower CPU Kühler zu verwenden um die Spannungswandler mitzukühlen, zumindest wenn CPUs mit hoher TDP verwendet werden.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh