Erste Benchmarks zu AMDs Bristol Ridge A12-9800 APU

Der APU- Markt im Segment von mittlerer GPU- Leistung ist ein völlig leerer Markt, ...
Nein, der Markt wird doch heute effektiv durch kleine CPU + dGPU Kombos abgedeckt. Die APU ist dort genau dann sinnvoll als Alternative zu betrachten, wenn sie irgendwas besser oder mindestens gleichwertig kann, wie diese heutigen Lösungen. Ein Punkt wäre da der Formfaktor... Dagegen spricht aber halt auch wieder der Energiebedarf. -> das was die Mittelklasse dGPU heute wegsäuft (und das ist schon recht wenig), muss ja irgendwo her kommen.

Im Mobilebereich ist das sicher eine interessante Sache, da zählt einerseits der Formfaktor und andererseits der Energiebedarf/die Effizienz... Die Frage ist eher, ob AMD ihre Linie dort soweit runtergebrochen bekommt, dass man eine sagen wir Intel "U" oder "Y" CPU + energieeffizienze NV Maxwell/Polaris Kombo schlagen kann oder nicht?
Über den Preis allein lässt sich ja nicht alles gewinnen, vor allem wenn technische Limits anstehen.

Durch Produktkombinierung sticht AMD gleichzeitig Intel und Nvidia aus und feiert ein dickes Comeback.

Das Problem ist/bleibt die Software... Solange Software dediziert Anpassungen oder Vorraussetzungen notwendig hat, eben nur unter diesen Bedingungen tut, dann wird das nicht aufgehen. Lass das in 10 Jahren nochmal überdenken, vielleicht hat sich der Markt bis dahin gewandelt. Im Moment ist das noch recht stabil.
Ggf. sorgt MS auch für eine Abkehr des üblichen Geschäftes, wenn es so weiter läuft wie aktuell eingeschlagen (vor allem die Supportgeschichten)... Aber das bleibt abzuwarten.
Wie lange gibts nun schon APUs? Und wie oft wurde das Argument nun durchgekaut, dass es da irgendwann mal vielleicht ggf. unter diesen und welchen Bedingungen Vorteile geben wird?? Eigentlich warten wir bis heute drauf...

Stand jetzt sieht diese erste AM4 APU nach dem aus (wenn die Werte stimmen), wie zu erwarten ist/war. Der CPU Part ist etwas besser/effizienter in Sachen Leistung der Einheiten und klar besser in Sachen Energieeffizienz ggü. dem Kaveri Vorgänger. Die GPU gewinnt wohl primär ihre angegebene Leistungssteigerung durch die steigende Bandbreite und DDR4-2400. Interessant dürfte da im Vergleich werden, wie hoch man den Speicherteiler pushen kann? War bei Kaveri da nicht bei 2400er DDR3 Schluss?
Die Angabe zur Speicherbandbreite von 20% decken sich komischerweise wie Arsch auf Eimer mit der Steigerung der GPU Leistung (trotz deutlich höherem Takt der GPU)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die APU ist dort genau dann sinnvoll als Alternative zu betrachten, wenn sie irgendwas besser oder mindestens gleichwertig kann, wie diese heutigen Lösungen. Ein Punkt wäre da der Formfaktor... Dagegen spricht aber halt auch wieder der Energiebedarf.
Moment - wir reden jetzt von 2 verschiedenen Dingen. Ich habe von Zen + Vega 11- "B-Selektion"@900 - 1000MHz mit HBM2 geschrieben. Da fällt haufenweise SpaWa- Verlust, GDDR- Verbrauch etc. weg und die Kühlungskosten sind stark reduziert. Nicht umsonst kommt nach aktuellem Stand (den Gerüchten nach) genau das auch in die XBox Scorpio rein. Auf dem PC war solch heftige Leistung in Form einer APU bisher nie möglich, weil das SI alles kaputt gemacht hat.

So wie ich Dein Posting lese, schreibst Du hier über Bristol Ridge, um den es in diesem Thread eigentlich geht, aber das, was ich ansprach, war ein Ausblick auf die Zen- APUs.

Edit: Ich sehe gerade wo das Problem lag. Ich habe mein Zitat von Merkors Text mal ergänzt, damit man das besser nachvollziehen kann.
 
Zuletzt bearbeitet:
Nach aktuellem Stand ist nicht bekannt was in die Scorpio kommt.
Es wird aber vermutlich ein eigener SOC für MS.

Wir werden keine Zen-APU mit HBM sehen, das sind alles nur feuchte Träume.
 
Es ist auch noch gar nicht bekannt wie die Zen APUs dann wirklich aussehen werden, ggf. sind dort dann CPU und GPU getrennte Chips die Imposer zwar schnell verbunden sind, aber eben nicht mehr so eng wie bei den aktuellen APUs. Das hat den Vorteil, dass man jeweils optimale Prozesse und Architekturen für die CPU und GPU verwenden kann, die stellen da nämlich unterschiedliche Anforderungen, aber dafür verliert man dann beim Heterogeneous Computing wieder. Da sich das bisher sowieso nicht wirklich durchzusetzen sein, könnte AMD dies durchaus hinnehmen.

Eine wirklich fette GPU mit einer fetten CPU zu einer sehr fetten APU zu verbinden, dürfte auch keine Sinn machen, da sind die Resourcen einfach zu knapp und man würde bei beiden nicht über Mittelklasselösungen hinaus kommen. Dafür dürfte es aber abseits von spezieller HW wie Konsolen, kaum einen Markt geben. Die Enterprisekunden brauchen nicht mehr als schon heute eine einfache iGPU von Intel bietet, die winken eher ab wenn jemand mit einer noch stärkeren GPU Leistung kommt, die Leute sollen an den Kisten ja arbeiten und nicht spielen. Die richtige PC Gamer wird lieber eine fette CPU haben und die mit einer dicken Graka kombinieren wollen, die er bei Bedarf auch getrennt aufrüsten kann. Damit würden nur die Pfennigfuchser bleiben, Leute die wenig ausgeben wollen und keine anspruchsvollen Titel spielen, aber eben etwas mehr als bei den heutigen APUs machen, nur vermutlich auch nicht wirklich mehr dafür bezahlen wollen. Damit lässt sich dann aber kein Geld verdienen.

Das Zen zuerst als Summit Ridge und damit als reine CPU kommt, könnte man durchaus als Hinweis deuten, dass auch bei AMD die CPU mehr Bedeutung bekommt und die iGPUs der APUs dann nur noch so groß gemacht werden, dass sie vor allem für Multimedia taugen, weniger aber als Ersatz eine Graka für Gamer. Das sie das sowieso nie wirklich können werden, macht das auch Sinn und man raubt der CPU dann nicht so viel Resourcen.
 
Zuletzt bearbeitet:
Es ist auch noch gar nicht bekannt wie die Zen APUs dann wirklich aussehen werden, ggf. sind dort dann CPU und GPU getrennte Chips [...] dafür verliert man dann beim Heterogeneous Computing wieder.
Ich denke, dass sich der Verlust in Grenzen halten wird. Das Ziel des HCC ist, soweit ich es verstanden habe, Berechnungen automatisch auf die GPU umzulagern, oder das Umlagern zu vereinfachen, wenn das sinnvoll ist. -> Also im Prinzip nichts anderes als OpenCL(Ich denke mal, wenn Fließkommazahlen berechnet werden sollen), nur dass es mehr oder weniger automatisch hereinkompiliert wird(Wenn ich das falsch verstanden habe, kann man mich gerne berichtigen). Beispielsweise wird auch die Fury X unterstützt, ich denke also nicht, dass es so einen gigantischen Unterschied macht, ob die Hardware nah zusammen ist.

Eine wirklich fette GPU mit einer fetten CPU zu einer sehr fetten APU zu verbinden, dürfte auch keine Sinn machen, da sind die Resourcen einfach zu knapp und man würde bei beiden nicht über Mittelklasselösungen hinaus kommen.
Naja, was heißt schon richtig fette GPU... über 100-150W dürfte die ja nicht verbrauchen. Kommt noch die CPU mit 50 dazu, wird es eng. Viel mehr als eine untertaktete Vega 10 wird sicherlich erst mal nicht zu erwarten sein. Aber es würde immerhin ausreichen, um die RX 480 und alles darunter einzupacken.

Die Enterprisekunden brauchen nicht mehr als schon heute eine einfache iGPU von Intel bietet, die winken eher ab wenn jemand mit einer noch stärkeren GPU Leistung kommt, die Leute sollen an den Kisten ja arbeiten und nicht spielen
Für Workstations für Video- und Bildbearbeitung fände ich den schnellen IGP absolut nicht verkehrt. Jeder, der sich eine 750 Ti oder RX 460 für die Beschleunigung reingebaut hat, hätte so das Teil bereits auf der CPU. Bei entsprechender Stromersparnis und Einsparungen im Kaufpreis sicherlich attraktiv.

Die richtige PC Gamer wird lieber eine fette CPU haben und die mit einer dicken Graka kombinieren wollen, die er bei Bedarf auch getrennt aufrüsten kann.
Auch das wird ihm in Zukunft niemand nehmen, denn mit Vulkan und DX 12 wird die ganze Hardware in einen Pool geschmissen, sodass der IGP und seine dGPU zusammen arbeiten. Gehen wir von einem Zyklus von 4 Jahren vom Beginn der Entwicklung eines Spieles zum Release aus, sind bisher quasi alle DX12 und Vulkan- Spiele nicht von Grund auf für die APIs optimiert. Ich hoffe sehr, dass sich das in den nächsten 2 Jahren ändern wird, und wir auch mal eine gute Umsetzung des Features in der Praxis sehen dürfen.
 
Zuletzt bearbeitet:
Auch das wird ihm in Zukunft niemand nehmen, denn mit Vulkan und DX 12 wird die ganze Hardware in einen Pool geschmissen, sodass der IGP und seine dGPU zusammen arbeiten. Gehen wir von einem Zyklus von 4 Jahren vom Beginn der Entwicklung eines Spieles zum Release aus, sind bisher quasi alle DX12 und Vulkan- Spiele nicht von Grund auf für die APIs optimiert. Ich hoffe sehr, dass sich das in den nächsten 2 Jahren ändern wird, und wir auch mal eine gute Umsetzung des Features in der Praxis sehen dürfen.

Das halte ich mal für eine sehr gewagte These. DirectX 12 erlaubt die Implementierung von Explicit-Multi-Adapter (EMA) durch die Speieleentwickler aber macht das nicht von selbst.
EMA hat deutlich mehr Potential und schient jetzt schon besser zu sein Als Crossfire oder SLI es überhaupt sein könnte, inbesondere die aktuell (noch Fragezeichen Nvidia?) unabhängigkeit von den Herstellern ist ein sehr geniales feature.

Dennoch muss EMA aber von den Spieleentwicklern wie der Name (Explicit) schon sagt, zusätzlich implementiert werden.
 
Und das wird nicht passieren. da sträube sich bestimmt nvidia und amd
Und die Spiele Entwickler werden nen feuchten tun und das zu implementieren.
 
Ich denke, dass sich der Verlust in Grenzen halten wird. Das Ziel des HCC ist, soweit ich es verstanden habe, Berechnungen automatisch auf die GPU umzulagern, oder das Umlagern zu vereinfachen, wenn das sinnvoll ist.
Das funktioniert doch aber nicht so einfach... Vor allem passiert das doch nicht automatisch. Damit die GPU beschleunigen kann (im aktueller Umsetzung) muss diese explizit angesprochen werden. Dazu kommt, die GPU kann so manches vielleicht schnell, aber eben auch nicht alles.
Wir sind bei dem Thema lange schon bei dem Part, dass dedizierte Softwareanpassungen notwendig sind, damit daraus ein Vorteil entsteht. Solange der Markt so bleibt, wie er aktuell aufgestellt ist, dann wird AMD das wohl nicht gelingen.
Die gleiche Diskusion gab es seinerzeit mit HSA und Kaveri -> was ist draus geworden? (das war 2011) Neben ein paar Nieschen ist daraus doch nix für den Endkunden wirklich greifbares entstanden.

Für Workstations für Video- und Bildbearbeitung fände ich den schnellen IGP absolut nicht verkehrt. Jeder, der sich eine 750 Ti oder RX 460 für die Beschleunigung reingebaut hat, hätte so das Teil bereits auf der CPU. Bei entsprechender Stromersparnis und Einsparungen im Kaufpreis sicherlich attraktiv.
Wer baut in eine Workstation so ne Bastelkarten rein?
Keine Ahnung, aber das ist doch wieder unsinn... Um Business wird dort FirePro oder Quadro verbaut. Um OEM Geschäft ebenso... Kein Mensch nutzt bei einer anständigen Workstation Gamerkarten. Nicht weil es damit nicht geht, sondern viel eher, weil es dort um Support mit Software geht.

Auch das wird ihm in Zukunft niemand nehmen, denn mit Vulkan und DX 12 wird die ganze Hardware in einen Pool geschmissen, sodass der IGP und seine dGPU zusammen arbeiten.

Das ist Wunschdenken... Solange die Entwickler für den Part der Umsetzung verantwortlich sind, wird sich das in der Kosten/Nutzen Rechnung nicht tragen. Und mit DX12/Vulcan hat dann auch der Hersteller nicht mehr sooo viel Einfluss drauf, explizit von seiner Seite MGPU Verfahren anzubieten.
Manchmal denke ich, die Erwartungshaltung ggü. DX12 und Vulcan ist einfach übertrieben hoch. Und keiner hat auf dem Schirm, dass die Umsetzung nicht aus der Luft gefallen kommt...
 
Zuletzt bearbeitet:
Wer baut in eine Workstation so ne Bastelkarten rein? [...] Kein Mensch nutzt bei einer anständigen Workstation Gamerkarten. Nicht weil es damit nicht geht, sondern viel eher, weil es dort um Support mit Software geht.
Also ich schaue mir die Features von Hardware immer ziemlich genau an. Und bis auch ein paar minimale Darstellungsfeatures, was so eine FirePro vielleicht im einen oder anderen Programm bietet, der Programmierer aber auch selbst mit der Consumerkarte hinbekommen könnte, sehe ich da eigentlich abseits davon nur, dass die FP64 und FP16- Leistung nicht verkrüppelt ist und man doppelt so viel Speicher haben kann(der dann glaube ich auch ECC hat). Selbst 10bit- Displays können mittlerweile auch Consumer- GPUs ansteuern.
Bei CPUs genauso - wären die AMD- Prozessoren nicht (noch) so langsam, würde ich auch einfach einen FX mit ECC- Support holen, wenn ich den bräuchte. Den Rest, der einen Xeon etc. ausmacht, kann man ja praktisch in der Pfeife rauchen, mal abgesehen davon, dass man extrem im Takt beschränkt wird und der IGP teilweise sogar wegfällt, was dann nochmals Kosten verursacht.
Also ich würde mal sagen, für geschätzt 95% aller Aufgaben hat man gegenüber einer Profikarte keine Nachteile, eher noch Vorteile. Wenn es um Deep Learning geht und wissenschaftliche Zwecke, mag das anders aussehen, doch unnötig Ressourcen zu verbraten verbietet eigentlich die wichtige Kosteneffizienz, die sich mit so einer APU nochmals steigern ließe. Denn man muss sich mal vor Augen halten, dass so eine Radeon Pro WX 7100 knapp unter 1.000€ kosten soll. Dabei kann man mit der RX 480 bei verringertem Takt genau die gleiche FP32- Leistung haben, für um die 250€.
Da zahlt man doch lieber dem Programmhersteller für jede Workstation ein paar hundert Euro, damit er sein Programm umschreibt, falls er seine Hausaufgaben nicht gemacht hat, und spart trotzdem noch.
 
Zuletzt bearbeitet:
Und das wird nicht passieren. da sträube sich bestimmt nvidia und amd
Und die Spiele Entwickler werden nen feuchten tun und das zu implementieren.
AMD wird sich ziemlich sicher nicht streuben. Sie sind neuen Dingen in Aller Regel offener gegenüber als NV.

Es stimmt aber dass es auf die Spieleentwickler ankommt. Mit der Technik schlägt man allerdings gleich mehrere Fliegen auf einmal:
Man kann die brachliegende Leistung einer IGP mit nutzen, man kann CF und SLI (also Karten gleichen Herstellers ) ablösen und als Bonus auch noch unterschiedliche Karten unterschiedlicher Hersteller.
Also ein Anreiz ist da. Es muss nurnoch gezeigt werden dass die Technik gut genug funktioniert.

Wenn dies der Fall ist und jetzt wo die Karten auch wieder stromsparender werden sowie dank PCIe 3.0 selbst 4X kaum ausbremst, könnte es sich in Zukunft wieder lohnen, seine alte Graka einfach noch paralel zur Neuen zu betreiben.
So wie es das früher mal mit PhysX beschleuniger war.

- - - Updated - - -

Also ich schaue mir die Features von Hardware immer ziemlich genau an. Und bis auch ein paar minimale Darstellungsfeatures, was so eine FirePro vielleicht im einen oder anderen Programm bietet, der Programmierer aber auch selbst mit der Consumerkarte hinbekommen könnte, sehe ich da eigentlich abseits davon nur, dass die FP64 und FP16- Leistung nicht verkrüppelt ist und man doppelt so viel Speicher haben kann(der dann glaube ich auch ECC hat). Selbst 10bit- Displays können mittlerweile auch Consumer- GPUs ansteuern.

fdonne hat schon Recht. Der Hauptunterschied zwischen den 600-1000€ gamer karten und den 5000€ Karten sind Treiber und Support.
Sicher, man kann basteln und manche haben z.B. Engines für neuronale Netzwerke so angepasst dass man sie auch auf normalen Grakas nutzen kann. OpenCL hat das zugegeben, vereinfacht, nur in einem Businesscase wird niemand so vorgehen, denn wenn der Mitarbeiter 1-2 Wochen damit beschäftigt ist, die vorhandene Software an die gaming Karte an zu passen, dann kostet das, das Unternehmen bereits so viel geld dass man gleich die richtige Karte hätte nehmen können. Und Support hätte man später immer noch nicht so richtig.
 
Polaris hat eine GDDR5- Anbindung. So verbietet sich der Einsatz dann schon fast direkt. HBM2 kann dagegen problemlos mit unter den Deckel. Irgendwann muss auch mal AMDs Angriff kommen, indem sie so dicke GPUs mit reinpacken, dass Intel nicht mehr hinterher kommt und die Grafikkarten bis ins mittlere Segment aufgefressen werden. Sie haben da so ewig drauf hingearbeitet und große Verluste erlitten...
Der APU- Markt im Segment von mittlerer GPU- Leistung ist ein völlig leerer Markt, wo AMD keine Konkurrenz hat und so können sie die GPU auf 900-1000MHz takten(Wie es bei der PS4 Pro- Polaris sein wird), oder wo auch immer bei Vega der Sweetspot sein wird, wo sie dann auch kaum noch Strom frisst. Der Heterogeneous Compute Compiler, den AMD mittlerweile bereitstellt, wird auch immer mehr Einfluss gewinnen, je mehr PCs mit so starken IGPs ausgestattet sind, dass sich das Nutzen der kompletten Rechenleistung umso mehr lohnt.
Dann wird der Fall eintreten, den ich schon länger vorausgesehen habe: Durch Produktkombinierung sticht AMD gleichzeitig Intel und Nvidia aus und feiert ein dickes Comeback. Die könnten dann mangels Technologie zweckmäßig auch zusammenarbeiten, aber ich halte es für fraglich, ob das so schnell passieren wird, da bekanntlich die Beziehungen erst kürzlich ziemlich auf Eis lagen - aber das kann sich im "Notfall" sicherlich schnell ändern :d Und das wäre auch nicht schlecht, da wir ja in keine Richtung ein Ungleichgewicht provozieren möchten ;) Aber sie dürfen sich da gerne ein bisschen Zeit lassen, damit sich der Kontostand auch jeweils noch ein wenig ausgleicht.

Deine Theorie klingt durchaus Interessant, aber ich denke das so etwas so schnell noch nicht kommen werden, damit würde sich AMD meiner Meinung den eigenen Mainstream Markt berauben. Man sollte Intel und NV auch nicht unterschätzen.

Gesendet von meinem K013 mit der Hardwareluxx App
 
Intels iGPUs sind zumal auch nicht von schlechten Eltern - wenn die wollen oder müssen können die schnell reagieren. Die Architektur ist zumindest vorhanden.

gesendet von unterwegs
 
Intels iGPUs sind zumal auch nicht von schlechten Eltern - wenn die wollen oder müssen können die schnell reagieren. Die Architektur ist zumindest vorhanden.

gesendet von unterwegs
Naja, sie habens mit Broadwell versucht, mussten aber objektiv betrachtet deutlich mehr Aufwand betreiben (L4 Cache entwickeln und mit unter den HS packen) für die Selbe Leistung, als AMD mit den APUs.
 
Genau, sie konnten nur durch den Fertigungsvorteil und eDRAM bei der iGPU mithalten, massentauglich war das aber nie.
AMD hat mit Raven Ridge in 14HP aber keinen großen Nachteil mehr, wenn überhaupt einer vorhanden ist, also kann sich Intel das für die Zukunft abschminken.
 
@cpu / dgpu
auf einem chip -> wesendlich geringere latenzzeiten, + ggf. shared cache (ist halt wieder Anwendungssache)

iGPU bei Intel ist zwar für vieles gut, aber im letzten Urlaub war es z.B. nicht möglich Fifa auf dem Surface 4 mit iris pro zu zocken da es massive Darstellungsfehler gab, selbst die Betatreiber haben kaum Besserung gebracht.
Für "mainstream" Sachen wie Videoplayback (Browser / Player) Photoshop etc... sind die Treiber idr. gut genug bzw. die Programme sauber genug geschrieben (ist ja nicht immer der Grafikkartenhersteller schuld....)
 
Naja, sie habens mit Broadwell versucht, mussten aber objektiv betrachtet deutlich mehr Aufwand betreiben (L4 Cache entwickeln und mit unter den HS packen) für die Selbe Leistung, als AMD mit den APUs.

Nein, eigentlich nicht... Die AMD APUs, Kaveri, Carrizo usw. -> zumindest die großen laufen voll ins Bandbreitenlimit. Das siehst du schön an den quasi gleichwertigen dGPUs, welche im Schnitt trotz gleicher Bestückung in Hardware 40-50% und mehr schneller arbeiten (wenn GDDR5 drauf ist). Dort lässt es sich sogar soweit nachweisen, dass die DDR3 Versionen dieser dGPUs ebenso den Einbruch zeigen.

Der Aufwand ist eigentlich rum wie num... GDDR5 in fixer Größe mit mindestens 128Bit aka zwei Kanälen oder L4 Cache mit geringer Größe als schneller Zwischenspeicher dazwischen und lahmen DDR3/DDR4 Backend dahinter.
Mit DDR4 ändert sich genau NULL -> denn es geht weiterhin nur bis maximal DDR4-2400 -> die Latenzen der Speicher sind dazu noch höher (maximale OC Riegel außen vor -> die gibts/gabs aber bei DDR3 auch schon) als bei DDR3.
Es muss also bei AMD was passieren in dem Bereich -> sonst kommt da nicht mehr Leistung bei rum und all der Aufwand, der in die GPU gesteckt wird, wird verpuffen.

AMD wird sich möglicherweise im Zuge der Optimierungen der 3rd GCN Generation für Speicherzugriffe etwas von der Bandbreitenklammer lösen können. Viel ist das aber nicht.
Der Broadwell mit der Iris Pro 6200 schafft (nach CB Benchmark) ca. 20% mehr als der A10-7870 Kaveri. Die Nachfolger in Form der Skylake CPUs mit GT4e haben 50% mehr Ausführungseinheiten -> geht dem L4 Cache nicht die Puste aus, ist von nochmal mindestens 20-30% mehr Leistung zu rechnen. Bei höherem Takt sogar noch mehr...
Spinn das Ganze mal weiter -> hier spricht man von ca. 20% (ob die immer anliegen ggü. Kaveri ist dazu fraglich). Das reicht gerade so um auf den 5770C Broadwell aufzuschließen. Die GT4e, ggf. irgendwann eine GT5e wird es aber geben. Und dann??

Wie will AMD das Problem lösen? Quadchannel DDR4? -> möglich, aber wohl nicht im AM4. HBM verlötet -> ebenso nicht im AM4. Fix verlötete GDDR5 -> auch nicht im AM4.
Von "sieh habens mit Broadwell versucht" sehe ich da nix... Das Konstrukt bei AMD pfeift aus dem letzten Loch und skaliert seit der ersten Generation Llano CPUs schon nicht mit der GPU Breite... Was bisher mehr Leistung erzeugt hat, war höher spezifizierte Speichermodule zu supporten.

Genau, sie konnten nur durch den Fertigungsvorteil und eDRAM bei der iGPU mithalten, massentauglich war das aber nie.
AMD hat mit Raven Ridge in 14HP aber keinen großen Nachteil mehr, wenn überhaupt einer vorhanden ist, also kann sich Intel das für die Zukunft abschminken.

Haltlose Behauptung...
Die Fertigung hat genau gar nix mit der extremen Bandbreitenabhängigkeit der APUs bei AMD zu tun... Schon Llano war weitestgehend Bandbreitenlimitert. Auch Briston Ridge wird es sein und das nicht zu knapp.
Ohne geänderte Technik bei der Speicheranbindung wird sich das auch nicht ändern. -> und hier ist eher ALLES, was nicht zusätzlicher L4 Cache zu sein scheint "massenuntauglich". Oder erwartest du ernsthaft ne 100€ APU mit 4GB (oder mehr) HBM Speicher? Da kannste noch lange drauf warten... :wink:
 
Zuletzt bearbeitet:
wann wird es die A12-9800er geben?
wenn zen1 kommt, oder zen2 m. völlig anderem Sockel im nächsten Jahr?
..da soll sich noch Einer aus kennen? ....kompletter Irrsinn...
 
Häh? AM4 bleibt... Aber egal. :confused:

gesendet von unterwegs
 
AM4 kommt, für Bristol Ridge wie den A12-9800 ebenso wie für den ersten Zen (Summit Ridge), Ende nächsten Jahres oder 2018 kommt aber wohl PCIe 4.0 und damit sehr wahrscheinlich ein neuer Sockel. FM1 hat auch nur ein Jahr und eine APU/CPU Generation überlebt.
 
wann wird es die A12-9800er geben?
wenn zen1 kommt, oder zen2 m. völlig anderem Sockel im nächsten Jahr?
..da soll sich noch Einer aus kennen? ....kompletter Irrsinn...

Über so einen Post kann man sich nur wundern... hast du dich in irgendeiner Weise mit dem Thema auseinandergesetzt?
PCs mit Bristol Ridge und AM4 kann man sogar in Deutschland schon kaufen:
https://www.amazon.de/dp/B01JOADJHC/ref=twister_B01LZTPWCC?tag=pcgh-21&ascsubtag=article

Bis in den Einzelhandel dürfte es dementsprechend nicht mehr lange dauern.

- - - Updated - - -

AM4 kommt, für Bristol Ridge wie den A12-9800 ebenso wie für den ersten Zen (Summit Ridge), Ende nächsten Jahres oder 2018 kommt aber wohl PCIe 4.0 und damit sehr wahrscheinlich ein neuer Sockel. FM1 hat auch nur ein Jahr und eine APU/CPU Generation überlebt.

Aber ganz sicher kommt für PCIe 4 kein neuer Sockel, so ein Schwachsinn, da gibts neue Chipsätze (unter Umständen nicht mal das) und Zen2, so wie bei LGA1155 mit Sandy/Ivy.
 
Zuletzt bearbeitet:
Hab etwas von einem AM4+ gelesen, der soll dann vermutlich PCIe 4.0 unterstützen.
Was aber nicht bedeutet, daß eine AM4+ CPU/APU nicht in einem AM4-Brett läuft.
 
Er hat auch mit 8GB und W10 gebencht^^
Reicht ja nicht mal bei W7
Noch dazu mit HDD

Und Stromverbrauch mit nem Netzteil messen welches vermutlich nicht mal 80% schafft....

Und dann noch die Sache mit dem kühler
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh