AMD 'Carrizo' mit HDMI 2.0 und Stacked-DRAM

Warum sollte das am Preis nix ändern?
Schau dir mal an, wie "groß" im Vergleich zum CPU/GPU Teil der Speicher bei den Intel Modellen ist. Und da sprechen wir über 128MB -> klar, Speicherzellen sind wohl vergleichsweise einfache Logik und lassen sich auch bequem mit Redundanzen ausstatten um eben die Ausbeute hochzutreiben -> aber Fläche kostet es. Und Waferflache ist (vergleichsweise) teuer.

Noch dazu, um das ganze wirklich adequat zu machen, müsste man schon minimum mit 4GB anfangen. Eher sogar mehr. Denn mit dediziertem RAM würde man ein Stück weit den Systemspeicher ersetzen. Macht man es so wie Intel, sprich als weiteren Zwischenschritt zwischen dem eigentlichen (V)RAM und den Caches, ist wieder Logik notwendig um das ganze auch sinnvoll nutzbar zu machen.
Simples Beispiel, spiel ein Spiel auf ner APU und du wirst feststellen, das der reine VRAM Bedarf durchaus im Bereich mehrerer GB liegen kann... -> passt also nicht in vergleichweise kleine Caches oder dedizierte OnDIE Speicherzellen. Die Logik müsste dann dafür sorgen, das bspw. Texturdaten NICHT in den dedizierten Speicher gelangt und im regulären RAM liegen bleibt, wärend die Bandbreitenlastigen Daten, die bei heutigen APUs die FPS Skalierung behindern, tunlichst in die schnellen dedizierten Speicherzellen verlagert werden müsste. -> demgegenüber steht dann halt auch noch das HSA Konzept von AMD. Wo es nur noch einen großen Speicherpool gibt und sich GPU und CPU Teil simpel daraus bedient. Mit dediziertem Speicher weicht man das Konzept dahingehend wieder ein Stück weit auf.
Dann biste bei ner XB1/PS4 mit richtigem Windows... und zum selbst zusammenstecken. Quasi eine Ikea XB1/PS4
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit der Rechenleistung einer APU rein von der CPU Leistung kommste bei aktuellen Titeln auch nicht weit,selbst wenn man ne dezidierte GPU dazusteckt.

Klar, jeder definiert Spielbar anders und viele Titel laufen über 30fps oder - bei nicht CPU Limitierten Titeln - sogar Vsync auf 60 Hz Monitoren... aber leider kann man nach wie vor AMD APU/CPUs nicht empfehlen. Wenn man zum Gamen ne AMD CPU haben möchte sollte man zum FX 6350/8350 greifen - die sind noch einigermaßen i.o.

Den APUs fehlt imo der L3 Cache, anders kann ich mir die fehlende Performance zu ihren FX Brüdern nicht erklären.



Was die APUs direkt ohne dezidierte GPU angeht: Atm krankts halt extrem an der Speicherbandbreite wie hier schon zigmal geschrieben worden ist... der Stacked Ram könnte nen Teil des Problemes lösen, die Frage ist halt nur was man für Anforderungen stellt. Aktuelle Games kann man auf ner APU afaik vergessen - ich wüsste auf Anhieb kein aktuelles Spiel was auf 1080p flüssig im APU only Betrieb läuft. :shake:
 
Dann biste bei ner XB1/PS4 mit richtigem Windows... und zum selbst zusammenstecken. Quasi eine Ikea XB1/PS4

Jein... Die Chips der Konsolen sind ja Oktacores auf Jaguar Basis mit "dicker" GPU.
Aber ja, so in etwa könnte ich mir das dann schon eher vorstellen... Vor allem, wenn man es bei AMD schafft, ne Kaveri APU im Vollausbau durch dezent gedrückte Taktraten in 65W TDP zu drücken, dann dürfte im Gegenzug bei ner TDP von 125-130W durchaus ne deutlich dickere GPU machbar sein. -> der Speicher oben drauf sollte rein formal nicht sooo riesig viel Energie benötigen geschweige denn in Hitze freisetzen.
 
Wenn am Gerücht mit dem gestabelten RAM was dran sein sollte, dann würde die AMD Lösung mal locker flockig um 30-50% zulegen, ohne das AMD an der "GPU" selbst groß was verbiegen müsste.

Ernsthaft? Wieso baut man den Arbetsspeicher nicht gleich in die cpu? Muss man ja nicht viel verbiegen und die Wege sind dann unheimlich kurz.
Ich halte das für Mumpitz und AMD wohl auch, weshalb es in der Folie auch garnichtmehr auftaucht.
Widerspricht meines Erachtens nach auch dem HSA Gedanken, wonach man doch eigentlich Adressbereiche im gleichen Speicher teilen wollte.
Wenn AMD jedoch diesen Gedanken verwirft und versucht eine "gaming" APU mit aufgebohrter GPU und zusätzlichem GDDR zu bringen, dann schießen sie wieder mal den Vogel ab. Was anderes bedeutet dieser "stacked" RAM doch überhaupt nicht.
 
Mich würden mal die theoretischen Kosten von der Geschichte interessieren. Ob eine 250€ APU so attraktiv wäre, egal bei welcher GPU-Leistung, bin ich mir nicht so ganz sicher.
 
@MadDias
warum man das nicht macht?
Weil man damit nicht mehr flexible ist... Und natürlich auch, weil heutige RAM Ausbauten von 8GB und mehr, was durchaus mittlerweile gängiger Standard ist, eben schwer unter den CPU Deckel zu bekommen ist...
Fest verlötete Baustaune auf dem Board wären potentiell noch eine Optiion. Dann könnte man tendentiel auch auf GDDR5 setzen (Siehe Konsolen) Aber es bleibt halt nicht mehr tauschbar.

Das hat dann so ein wenig den Charm von nem iPhone. Vor Kauf MUSS man sich entscheiden wie viel Speicher man benötigt. Denn das nachrüsten von microSD Cards ist ja bekanntermaßen nicht machbar.
Wer also die 16GB Version kauft und dann im laufe der Nutzung feststellt, das es nicht reicht, hat ein Problem. Kauft entweder neu oder muss damit einfach leben...

Was HSA angeht, ja das steht dem Konzept wohl leicht im Weg. Die Frage ist dabei eher, ob das Konzept nicht ggf. auch mehrstufige Speicherausbauten zulässt.
Das Cachemanagement baut ja ein Stück weit auch darauf auf. Technisch möglich dürfte also eine Art "L4" Cache auf schnellem stagged RAM oder fix verbauten GDDR Modulen durchaus sein. Eben um die Bandbreite zu liefern, die beim "normalen" DDR3 im DualChannel Betrieb irgendwie hintenraus fehlt. Intel machts mit der Iris Pro ja sogar ein Stück weit vor :wink:

Was den gestapelten Speicher angeht. Ich denke, das wird früher oder später kommen. Wie auch immer das am Ende dann aussehen wird... Spätestens wenn NV mit Pascal um die Ecke kommt wird AMD da nachziehen (müssen) und wenn es nur im dGPU Bereich ist ;)

Mich würden mal die theoretischen Kosten von der Geschichte interessieren. Ob eine 250€ APU so attraktiv wäre, egal bei welcher GPU-Leistung, bin ich mir nicht so ganz sicher.

Der Preis selbst ist ja erstmal nebensächlich.
Die Relation muss passen. Wenn das Teil für 250€ schneller ist wie die Konkurenzprodukte für 250€, warum nicht?
Auch hier macht es Intel doch vor mit der Iris Pro... Das Ding ist im Vergleich zu Richland und Kaveri deutlich teurer obwohl bestenfalls gleich schnell (GPU). Einzig der CPU Part streut dank Quadcore + Turbo (und SMT) nach oben.
 
Zuletzt bearbeitet:
Ob eine 250€ APU so attraktiv wäre, egal bei welcher GPU-Leistung, bin ich mir nicht so ganz sicher.
Ne 250€ 100W APU mit kombinierter Leistung einer GTX750 und eines G3220 ist defintiv interessant! Sollte da tatsaechlich sowas bei rauskommen bin ich gern early adopter.
 
Zuletzt bearbeitet:
Dito. Dafür muss man aber erstmal auf diese Leistung kommen...
 
Für die Schrauber hier mag das sein, aber der Rest der Welt? Ich stell mir die Frage ob man das dem Endkunden in solchen Dimensionen vermitteln könnte. Man hätte halt "Intel-Preise" und da würden viele Leien wohl auch eher Intel. Dass die GPU in diesem Fall deutlich schneller wäre ist mir da bewusst. ;)
 
Die Dimensionen sind doch fließend. Es wird dann halt schneller als bisher. Heute kann der unbedarfte User doch auch die APU Power nur bedingt überhaupt einschätzen. Sondern der Preis muss halt attraktiv sein. Wenn man 150€ + Board + RAM zur Verfügung hat (nebst dem üblichen Rest) dann kann man freilich nicht bei 250€ einchecken. Hat man aber 250€ -> und ja, da gibts sicher auch ne Menge Leute, die sich sowas kaufen werden, ist das schon eher Thema.
Gerade in Bezug auf Fusion und die, wenn es nach AMD geht, weiter zusammenwachsende Koexistens des GPU und CPU Parts ist mehr Leistung nicht unbedingt schlecht. Aktuell ist die GPU halt eher nur nutzbar, wenn man Software hat, die das kann... Mittelfristig könnte das ganze aber in Hardware passieren und ggf. die ALUs der "GPU" teile vom normalen "CPU" Workload übernehmen, weil der Hardwarescheduler das so "will/vorsieht"...
 
Technisch ist mir das alles klar. ;) Ich stelle mir wirklich nur die Frage nach dem Preis bzw der Kaufbereitschaft dafür - die Leute geben für Intel bereitwilliger Geld aus als für AMD. Naja mal abwarten...
 
Das ist dann aber ein allgemeines Problem und scheitert nicht am Konzept.
Zudem, wenn AMD was gutes hat, werden die Leute dafür Geld ausgeben, da sist so sicher wie das Amen in der Kirche, Intel kann ihre Blockadehaltung wie Anno 2004 nicht mehr fahren.
 
Ne 250€ 100W APU mit kombinierter Leistung einer GTX750 und eines G3220 ist defintiv interessant!

Hmmh, eine GTX750 gibt es für 93 Euro und den G3220 für 44 Euro - in Summe 137 Euro.

Ich glaube nicht, dass viele über 80% mehr für eine APU mit gleicher Leistung zahlen würden. Zudem der Wertverlust der APU aufgrund der fehlenden seperaten Upgrademöglichkeit von CPU und GPU sehr hoch sein wird.

Gut finde ich aber, dass bereits HDMI 2.0 in der APU drin ist - nur hätte ich mir bei der Gelegenheit auch gleich USB 3.1 gewünscht.
 
Zuletzt bearbeitet:
Das ist dann aber ein allgemeines Problem und scheitert nicht am Konzept.
Zudem, wenn AMD was gutes hat, werden die Leute dafür Geld ausgeben, da sist so sicher wie das Amen in der Kirche, Intel kann ihre Blockadehaltung wie Anno 2004 nicht mehr fahren.

a) redete ich nicht von Konzept sondern nur vom Preis und b) stimmt das letzte schlicht nicht, nicht immer in engen Bahnen denken. Intel ist die weit stärkere und bekanntere Marke. Die Leute geben für eine Intel CPU eher 150€ aus als für eine AMD CPU, man sollte nicht glauben, dass Meschen blind faktisch entscheiden. Intel hat depressive Roboter und die Blue Men Group, wir streiten hier gerne über AMD und Intel bei Produktentwicklung, aber Intel zieht, aufgrund des höheren Budgets, auch im Marketingkreise um AMD. Intel spricht Endkunden in der Breite an und hat eine "Marke" entwickelt.
 
Ernsthaft? Wieso baut man den Arbetsspeicher nicht gleich in die cpu? Muss man ja nicht viel verbiegen und die Wege sind dann unheimlich kurz.
Ich halte das für Mumpitz und AMD wohl auch, weshalb es in der Folie auch garnichtmehr auftaucht.
Widerspricht meines Erachtens nach auch dem HSA Gedanken, wonach man doch eigentlich Adressbereiche im gleichen Speicher teilen wollte.
Wenn AMD jedoch diesen Gedanken verwirft und versucht eine "gaming" APU mit aufgebohrter GPU und zusätzlichem GDDR zu bringen, dann schießen sie wieder mal den Vogel ab. Was anderes bedeutet dieser "stacked" RAM doch überhaupt nicht.

Du weist schon, dass stacked RAM nicht bedeutet, dass man verschiedene Adressräume hat. Adressraum heist ja nicht, das du einen anderen Chip nutzst. Sonst würde HSA auch nicht funktionieren, wenn du dual-channel RAM nutzst.
 
Du weist schon, dass stacked RAM nicht bedeutet, dass man verschiedene Adressräume hat. Adressraum heist ja nicht, das du einen anderen Chip nutzst. Sonst würde HSA auch nicht funktionieren, wenn du dual-channel RAM nutzst.
Für den Speichercontroler wirken aber alle RAM-Bänke aber so als ob sie ein großer Pool wären. Auf jeden Fall sind alle Speicherzellen "gleichberechtigt".
Das wäre bei Stacken Ram nicht emhr der Fall da dieser deutlich schneller wäre als der normale RAM und das muss auch so behandelt werden.
Wenn es nach zufall passieren kann das Teile der Texturen doch wieder im normalen RAM landen, hat man ja nichts gewonnen...
 
Ich halte das für Mumpitz und AMD wohl auch, weshalb es in der Folie auch garnichtmehr auftaucht.

Warum sollte AMD "Stacked RAM" für Mumpitz halten? Wenn es jetzt noch nicht kommt, kann das viele Gründe haben.

Widerspricht meines Erachtens nach auch dem HSA Gedanken, wonach man doch eigentlich Adressbereiche im gleichen Speicher teilen wollte.

Von der Funktion her widerspricht das dem HSA Ansatz nicht, man kann nach wievor gleichzeitg auf den Arbeitsspeichr zugreifen.

Wenn AMD jedoch diesen Gedanken verwirft und versucht eine "gaming" APU mit aufgebohrter GPU und zusätzlichem GDDR zu bringen, dann schießen sie wieder mal den Vogel ab.

Wieso schießen sie dan den Vogel ab? Man kann sich sowas eigentlich recht gut vorstellen.

MickFoley schrieb:
a) redete ich nicht von Konzept sondern nur vom Preis und b) stimmt das letzte schlicht nicht, nicht immer in engen Bahnen denken.

Meinte ich auch nicht. Ich meinte, dass Intel bekannter ist wie AMD ist ein allgemeines Problem ist und es scheitert nicht an am Konzept der APU, sondern eben an Intels Markenstärke.
Ich kann man allerdings trotzdem nicht vorstellen, dass AMD davon wenig absetzen kann, wenn es gut ist.

stimmt das letzte schlicht nicht, nicht immer in engen Bahnen denken.

Wieso? Meinst du Intel kann seine Marktbeherschende Stellung nochmal illegal betreiben?

DragonTear schrieb:
Wenn es nach zufall passieren kann das Teile der Texturen doch wieder im normalen RAM landen, hat man ja nichts gewonnen...

Was eine Sache des Schedulings ist. Bei Intel kann man die Texturen auch nicht alle in den ED RAM pressen, bringt trotzdem einiges.
 
Wenn es nach zufall passieren kann das Teile der Texturen doch wieder im normalen RAM landen, hat man ja nichts gewonnen...

Die Texturen müssen auch nicht in den "schnellen" Bereich. Dort zählt nur pure Größe. Sprich alles was im VRAM liegt ist "schnell" verfügbar. Und heutige VRAM Ausbauten (auch bei APUs) sind groß genug um das halbwegs anständig zu packen.
Die Bandbreite in den Texturspeicher wird dann entscheidend, wenn wir über riesige Datenmengen sprechen und die FPS derart hoch sind, dass diese Datenmengen eben aufgrund der Zugriffe pro Sekunde limitiert werden.
Das hat es aber heute so aktuell nicht. Mal ne simple Rechnung. Wenn du 1GB Texturdaten hast, benötigst du ca. 33ms Zeit um dieses eine GB bei ner Bandbreite von 30GB/sec zu laden. 33ms Zeit entsprechen ca. 30FPS. (wenn ich mich nicht verrechnet habe)
Aber 1GB reine Texturdaten PRO SZENE! sind viel zu hoch angesetzt für heute. Schon gleich dann, wenn wir über ne APU sprechen, wo idR eben alles andere als max. Details bei aktuellen Titeln machbar ist... Wenn da 100 oder 200MB reine Texturdaten stehen ist das aus meiner Sicht pro Szene immernoch sehr sehr hoch angesetzt! Bei ~100MB wärst du schon bei Faktor 10 im Speed. Also nur noch ca. 3,3ms oder ~300 FPS.

Klar ist das ganze ne Milchmädchenrechnung, aber es zeigt, was der reine Datentransfer allein für die Texturen an "Zeit" benötigt. Rein formal geht der Zeitfaktor an der Stelle unter... Wohl selbst ne aktuelle HighEnd GPU würde mit Bandbreiten von 30-50GB/sec als reiner Texturspeicher denke ich auskommen. Viel wichtiger ist der Speed, den die GPU selbst bei Rechenarbeiten und Ablage von Daten im VRAM Pool aufruft. Hier belegt Kaveri/Richland und auch ansatzweise die GK104 GPU von NV eindrucksvoll (negativ), was passiert, wenn die Bandbreite zu knapp wird/ist. -> nämlich das die FPS teilweise stark einbrechen. Siehe HD7750 mit GDDR5 und ca. Bandbreite von Kaveri mit DualChannel DDR3 RAM.
 
Und wie flott die Rechenergebnisse abgerufen werden koennen hat Intel mit der Irospro 5200 und den 128MB Embedded Ram vorgemacht bzw. Nvidia mit dem Cache in Maxwell nachgemacht. Wenn AMD daraus nicht lernt sind sie selbst schuld.
 
2k5lexi
Ob es wirklich Nvidia nachgemacht hat halte ich für eine reine Spekulation von deiner Seite. Intel und Nvidia haben auch ein Patent Austauschabkommen. Dafür Zahlt Intel an Nvidia 1,5 Milliarden Dollar innerhalb von 6 Jahren.
 
Doch, mir geht es gerade um die FPS. Was bringt die tolle und problemfreie Grafik, wenn die Leistung derart gering ist,
ok wenn mans auf die fps beschränkt, wäre ein i3/i5 mit HD5200+ ne mögliche alternative. ob intel in letzter zeit so viel aufgeholt hat, kann ich nicht bestätigen. ich hab seit der HD2000 keine intel-grafik mehr benutzt. ich hab aber sehr viele intel-gma (950, 3000, 3100, X4500, HD2000) gehabt und die waren ausnahmslos unbrauchbar.

Schau dir doch aktuelle Benches der APUs an. Entweder wir sprechen über alte Kamellen von Games -> dann geht sicher auch "Mittel bis Hoch" bei gängigen Standard Auflösungen. Oder wir sprechen über aktuelle Titel. Bei letzterem kommst du mit ner APU nicht weit. Egal mit welcher aktuell.

ich hab mir aktuelle testberichte angeschaut, wo die grafiklastigsten blockbuster in full-hd gebencht wurde (z. b. dein link), da kamen tatsächlich nur ~30 fps bei rum. nur ist das imho realitätsfremd. von den leuten denen ich solche rechner gebastelt habe, hatte kein einziger einen full-hd monitor. wäre wohl auch keine kluge kombination, sich einen neuen teuren full-hd monitor zu kaufen und pc für ~400,- €
wenn du natürlich für enthusiastgamer, die nur die grafiklastigsten titel in full-hd spielen wollen, meinst, dann hast du recht, für die ist das nix. ich meine aber normale anwender die sich nicht für pc-technik interessieren. die haben ihren alten 20" monitor da stehen (vereinzelt auch mal der gute alte crt).
 
Zuletzt bearbeitet:
ok wenn mans auf die fps beschränkt, wäre ein i3/i5 mit HD5200+ ne mögliche alternative. ob intel in letzter zeit so viel aufgeholt hat, kann ich nicht bestätigen. ich hab seit der HD2000 keine intel-grafik mehr benutzt. ich hab aber sehr viele intel-gma (950, 3000, 3100, X4500, HD2000) gehabt und die waren ausnahmslos unbrauchbar.

Alte Intel OnBoard Teile waren teilweise wirklich grausig... Aber spätestens seit der HD2000 (also Sandy) geht das in Summe schon ganz brauchbar.
Ich hab hier ne HD4000 von nem Ivy mobile Quad -> da gehen sogar ein paar Titel. Nicht wirklich toll, aber sie gehen.
Von Problemen ließt man zunehmend weniger, zumindest absolut kein Vergleich mehr zu noch vor 5 Jahren bspw. Auch die BQ ist annähernd (nach Reviews) auf Augenhöhe mit der Konkurenz. Es gibt aber weiterhin ein paar Titel/Engines, die den Intel Treibern absolut gar nicht schmecken -> und wo auch teils wirklich Mist rauskommt. Dennoch bessert sich und die Bemühungen sind klar ersichtlich.

ich hab mir aktuelle testberichte angeschaut, wo die grafiklastigsten blockbuster in full-hd gebencht wurde (z. b. dein link), da kamen tatsächlich nur ~30 fps bei rum. nur ist das imho realitätsfremd. von den leuten denen ich solche rechner gebastelt habe, hatte kein einziger einen full-hd monitor. wäre wohl auch keine kluge kombination, sich einen neuen teuren full-hd monitor zu kaufen und pc für ~400,- €

Dann tanzen deine Leute da arg aus dem gängigen Muster.
Schau dir bspw. die Steamumfrage an. Da kommt alles größer 13xx * 7xx auf knappe 60% Verbreitung am Markt. Alles drunter den Rest. Nimmt man es genau, werden bei manchen Tests sogar Auflösungen von 1280x720 verwendet. Gerade wenn die Hardware eben nicht das TopModell wiederspiegelt, dann bleibt ein Anteil laut Steamumfrage von ~4,5%.

Ganz ehrlich, die Tendenz ist doch klar erkennbar... FullHD ist mit etwas Abstand die meist verbreitete Auflösung von über 33%. Gefolgt von 13xxer "kleine HD" Auflösung und ihren verschiedenen Ablegern mit 28,77%. Da brauch man sich aus meiner Sicht nichtmal bei FullHD aufhängen, nimmt man eine APU, die nicht dem TopModell entspricht, dann wirds genau so eng mit kleineren Auflösungen. Das ist der Part, den ich kritisieren. APU Leistung gut und schön, stand heute fehlt es aber noch an ein paar Prozenten um das Stück Hardware aus meiner Sicht als allseits Spieletauglich hinzustellen.
 
2k5lexi
Ob es wirklich Nvidia nachgemacht hat halte ich für eine reine Spekulation von deiner Seite. Intel und Nvidia haben auch ein Patent Austauschabkommen. Dafür Zahlt Intel an Nvidia 1,5 Milliarden Dollar innerhalb von 6 Jahren.

Das ist auch nicht nachgemacht, sondern jeder Hersteller sucht sich seine eigene Lösung.
 
Ich glaube auch nicht, dass man sich eine allgemeine Cache-Orientierung patentieren lassen kann. :fresse:
 
Ich an sich auch nicht, aber Sachverstand ist nicht umbedingt Stärke im Amiland & dessen Patentsystem.
 
Da kommt alles größer 13xx * 7xx auf knappe 60% Verbreitung am Markt.
naja die älteren bildschirme haben 1280*1024, die neueren 1680*1050, also beides in den 60%. die verbleibenden 40% sind allerdings auch ne hausnummer. nun muss man das ganze auch mal etwas differenzierter betrachten: welche auflösung nutzt denn der teil der enthusiastgamer, die einen steam-account haben? full-hd. die darfst du schon mal abziehen, denn die fallen als potentielle nutzer einer igp raus. dann muss man nochmal die zielgruppe von steam berücksichtigen. das sind nicht unbedingt die leute, die ab und zu mal daddeln wollen. aber vermutlich hat nahezu jeder enthusiastgamer einen steamaccount.

ich kann nur aus meinen erfahrungen sprechen. ich hatte zuletzt die damals aktuellen core i5 2500 + gtx560 ti verbaut, bis ein student an mich rangetreten ist und für ganz schmales geld einen pc brauchte. war dann der da aktuelle A8 3850 und er war vom ergebnis begeistert. daraufhin sind die apus bei mir in den fokus gerückt und haben sich tatsächlich mehrfach bewehrt. wenn wer einen richtigen gamingrechner möchte, greife ich auch nach wie vor zum aktuellen i5 + mittelklassekarte. imho sind das die beiden sinnvollsten kombis. alles darüber ist imho nur für enthusiasten interessant. und über den auflösungswahn kann ich nur müde lächeln. als ich angefangen hab, waren alle von 1280*1024 begeistert, aufeinmal musste es unbedingt 1680*1050 sein, dann war full-hd die offenbarung und heute ist das auch müll, weil alles unter 4k ja augenkrebs verursacht... ja nee, is klar.
ich hab total spass an spielen wie minecraft, deponia, edna bricht aus und kerbal. und das sind allesamt keine grafikkracher. bei spielen wie css werden alle überflüssige effekte sogar noch deaktiviert, weil die unnötig stören. ich schau mir auch gerne mal coole grafikeffekte an, aber doch nicht wärend ich spiele. da konzentriere ich mich auf das spiel und die einzeln gerenderten und schattierten grashalme mit 32fach gebrochenen kanten, die sich physikalisch korrekt im wind bewegen gehen mir da doch am popo vorbei. ;)
jedem das seine.
 
welche auflösung nutzt denn der teil der enthusiastgamer, die einen steam-account haben? full-hd. die darfst du schon mal abziehen, denn die fallen als potentielle nutzer einer igp raus. dann muss man nochmal die zielgruppe von steam berücksichtigen. das sind nicht unbedingt die leute, die ab und zu mal daddeln wollen. aber vermutlich hat nahezu jeder enthusiastgamer einen steamaccount.

Hast du dir die Steamumfrage denn mal angesehen?
Wenn ich sehe, das die meist verbreitete GPU in der Steam Statistik die Intel HD4000 (4,41%), gefolgt von der Intel HD3000 (3,40%) und auf Platz vier die Intel HD2000 (2,41%), ist, dann ist das alles andere als Enthusiastenbereich ;) Mal im Vergleich, der damalige Preiskampf zwischen RV770 (HD4870) und G200b (GTX 260) brachte allein fast 15% für die HD4870 in der Steamumfrage. Bilder davon findet man über die Google Bildsuche auch heute noch... Einzig die NV GTX 660 hält sich auf Platz 3 mit 2,53% zwischen den Intel GPUs. Heist also, die Umfrage wurde irgendwie auffallend oft auf Hardware mit Intel GPU ausgeführt.
Ich gehe sogar soweit zu behaupten, das nahezu jeder Gamer, der überhaupt Spielen in Betracht ziehen, so nen Steamaccount hat. Völlig unabhängig dessen, ob das nun ein BQ Fetischist ist oder ein Jeniger, der nur mal ne Runde CS1.6 spielen will... Das macht die Umfrage zumindest ansatzweise repräsentativ. Ich würde auch eher behaupten, will man das Groß der HighEnd Gamer umfassen, dann wird das NICHT über die Steamumfrage funktionieren.

war dann der da aktuelle A8 3850 und er war vom ergebnis begeistert. daraufhin sind die apus bei mir in den fokus gerückt und haben sich tatsächlich mehrfach bewehrt. wenn wer einen richtigen gamingrechner möchte, greife ich auch nach wie vor zum aktuellen i5 + mittelklassekarte. imho sind das die beiden sinnvollsten kombis. alles darüber ist imho nur für enthusiasten interessant. und über den auflösungswahn kann ich nur müde lächeln. als ich angefangen hab, waren alle von 1280*1024 begeistert, aufeinmal musste es unbedingt 1680*1050 sein, dann war full-hd die offenbarung und heute ist das auch müll, weil alles unter 4k ja augenkrebs verursacht... ja nee, is klar.

Das kann ich auch voll und ganz nachvollziehen. Auch gings mir nicht darum, die APUs generell in Frage zu stellen. Sondern eher um den Part der Spieletauglichkeit. Wer zu ner APU greift, weis um den Umstand doch bestens bescheid. Das Ding ist nunmal nur so schnell wie es ist. Nur sollte man dann eben auch nicht den Cut genau unterhalb der derzeit schnellsten APU machen, sondern auch alle anderen ähnlichen Lösungen dort mit einbeziehen. Die Umfrage belegt eindeutig, das die Intel HD Umsetzungen die meist verbreiteten Ansätze in Sachen CPU + GPU in einem Paket sind. Das kaufen die Leute doch nicht grundlos... Indie Titel ala Limbo, Puddle und Co. laufen auch brauchbar auf der Intel Hardware... Wer spielt nur um des Spieles wegen, der kann auch mit nicht AMD "HighEnd" APUs diesen Part befriedigen. Das mein ich damit...

PS: was die Auflösung angeht, sehe ich klar anders. Hohe Auflösungen bringen nicht nur in Spielen einen eklatanten Mehrwert. Ich nutze auf der Arbeit drei FullHD Monitore nebeneinander und spiele mit dem Gedanken, das ganze auf 6 aufzustocken. Warum? Weil ich die Fläche benötige und auch klar nutze. Diese Monitorkonstellation hat bis heute nicht ein einziges Spiel jemals darstellen müssen ;) Mit drei UHD Monitoren wäre das ebenso gegeben. Hätte sogar noch mehr Vorteile, da die Bildpunkte um den Faktor 4 steigen und nicht nur um den Faktor 2.
Aus meiner Sicht kauft heute doch fast niemand mehr Monitore mit unter FullHD. Die Preise sind derart nah beieinander, das es sich überhaupt nicht lohnt... Und diese ganzen als "HD Ready" eingestuften Auflösungen, wie in der Steam Umfrage zu sehen sind, beziehen sich idR doch auf Notebooks bzw. irgendwelche Netbooks. Sprich bei nem Desktop Modell hast du dazu gar nicht die Wahl. Entweder 5:4 mit 1280x1024 oder 16:10 mit 1680x1050. Nieschen ala 1440x900 mal außen vor... Der zusätzliche Leisutngsbedarf zwischen 1680x1050 und FullHD als 1920x1080 dürfte im einstelligen Prozentbereich liegen. Macht den Kohl also nicht Fett. Denn idR skalieren die FPS zur steigenden Auflösung umgekehrt im Faktor von ca. 2:1. Sprich doppelte Bildpunkte = 50% Performanceverlust. Das wären also ca. annähernd 10% benötigte mehr Performance zwischen gängigen 1680x1050 und FullHD. Oder andersrum ausgedrück, wenn die GPU die 1920x1080 nicht anständig packt, dann tut sie sich mit 1680x1050 ebenso schwer. Selbst von 1280x1024 zu FullHD liegen damit im Schnitt "nur" ca. 30% mehr Performancebedarf. Auch das reißt es im Grunde nicht primär raus!!
 
Zuletzt bearbeitet:
Hast du dir die Steamumfrage denn mal angesehen?
tatsächlich nein, denn ich habe da gar keinen account ;)
allerdings bin ich etwas überrascht. diese aussage wiederspricht doch damit völlig deiner these, die amd apus seien unzureichend zum zocken:
Wenn ich sehe, das die meist verbreitete GPU in der Steam Statistik die Intel HD4000 (4,41%), gefolgt von der Intel HD3000 (3,40%) und auf Platz vier die Intel HD2000 (2,41%),
die größeren apus bieten doch allesamt mehr leistung. wenn mehr als 10% der steamnutzer sogar offensichtlich mit weniger auskommen, widerspricht dir das nicht deutlich und stützt meine aussage vom ausreichenden gaming-pc für 400,- €? :confused:

Die Umfrage belegt eindeutig, das die Intel HD Umsetzungen die meist verbreiteten Ansätze in Sachen CPU + GPU in einem Paket sind.
ich denke das ist dem marktanteil intels und dem massiven imageproblem amds geschuldet, meinst du nicht? vor allem mit den FX hat amd viel verbrannte erde hinterlassen. wenn ich mir aber ne 65 watt apu wie den A10 6700 oder A10 7800 anschaue und dagegen einen 65 watt quad von intel, dann sieht die welt schon ganz anders aus. zwar hat intel beim cpu-part die nase vorn, beim gpu-part aber dann hinten. und wo denkst du kommt man beim zocken wohl am ehesten ans limit? ;) erinnert mich grad an einen diablo 3 test auf cb. da war der alte A8 3870K fast dreimal so schnell wie der 3770k jeweils mit ihrer igp. denke das ist schon n starkes statement, oder?
Bericht: Diablo 3 im Benchmark-Test - ComputerBase

Aus meiner Sicht kauft heute doch fast niemand mehr Monitore mit unter FullHD.
also röhre sicher nicht, full-hd hingegen haben wir im büro nirgends. da wird gekauft was am günstigsten ist. für office ist full-hd imho auch sinnfrei. bei den älteren kollegen muss ich die auflösung sogar noch weiter runterschrauben, weil denen sonst alles zu klein ist ^^
aber der springende punkt ist doch, dass man sich meist nen neuen pc kauft, aber monitor, drucker, scanner, maus und tastatur beibehält. und darum hat otto-normaluser was das angeht eben nicht immer tagesaktuelle hardware am start. ein pc wird ersetzt, wenn er zu langsam wird, der rest wenn er defekt ist. das sind einfach die erfahrungen, die ich gemacht habe.

Selbst von 1280x1024 zu FullHD liegen damit im Schnitt "nur" ca. 30% mehr Performancebedarf. Auch das reißt es im Grunde nicht primär raus!!
ein drittel mehrleistung? z. b. von 25 fps auf 33 fps? hmm, find ich schon nen spürbaren unterschied muss ich sagen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh