Neue Konsolen-Generation: AMD baut CPU-Marktanteile kräftig aus

Oh Mann, jetzt ist der eine Thread geschlossen und jetzt macht ihr hier weiter. Ihr habt euch aber ganz arg lieb
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mircrosoft hat einen höheren CPU Takt und wieso soll der Chip schwächer sein?

Die PS4 hat 40 % mehr GPU-Leistung und 150 % mehr Bandbreite, die Xbox 9 % mehr CPU-Leistung. Der ESRAM hilft nur bedingt, da mit 32 MB einfach zu klein (deswegen auch in vielen Fällen reduzierte Auflösungen bei der Xbox). In Summe ist die PS4 zweifelsfrei erheblich stärker.
 
Aber zum Chip der PS4 gehört auch der teure GDDR5 Speicher, der mit 8GB ordentlich zur Buche schlägt Microsoft blecht nicht für den Chip mehr als Sony, da Sony keinen ESRAM hat und den teuren GDDR5 Speicher bezahlen muss, während Microsoft den günstigeren DDR3 nimmt.
Der Esram bläht den Chip auf, dafür profitiert Microsoft bei einer Verkleinerung des Prozesses wieder deutlicher und kann ressourcen in die Cloud legen, wo angeblich Berechnungen ausgelagert werden sollen.

Wenn ich einen Chip mit ESRAM bekomme der nur minimal größer ist wie der PS4 Chip ohne und dafür etwas über 30% an GPU Performance verliere, dann muss man erstmal abwarten wer hier eine dämliche Entscheidung getroffen hat, die Entwickler werden ja nicht dämlich sein.
 
Zuletzt bearbeitet:
Stimmt Schaffe, erst mal abwarten. Microsoft hat sich sicherlich was dabei gedacht (wobei ich nicht viel von denen halte).
 
Zuletzt bearbeitet:
Aber zum Chip der PS4 gehört auch der teure GDDR5 Speicher, der mit 8GB ordentlich zur Buche schlägt Microsoft blecht nicht für den Chip mehr als Sony, da Sony keinen ESRAM hat und den teuren GDDR5 Speicher bezahlen muss, während Microsoft den günstigeren DDR3 nimmt.
Der Esram bläht den Chip auf, dafür profitiert Microsoft bei einer Verkleinerung des Prozesses wieder deutlicher und kann ressourcen in die Cloud legen, wo angeblich Berechnungen ausgelagert werden sollen.

Wenn ich einen Chip mit ESRAM bekomme der nur minimal größer ist wie der PS4 Chip ohne und dafür etwas über 30% an GPU Performance verliere, dann muss man erstmal abwarten wer hier eine dämliche Entscheidung getroffen hat, die Entwickler werden ja nicht dämlich sein.

MS zahlt für den Chip (+ ESRAM) 10$ mehr und spart dafür beim Speicher 28$, macht in Summe also 18$ Ersparnis bei CPU + RAM. Dafür hat man eine schwieriger zu programmierende Konsole, die auch noch eine schwächere GPU hat. Hier sehe ich wenig Vorteile bei MS, abgesehen vom Preis (der wg. Kinect allerdings nicht direkt beim Kunden ankommt). Cloud-Berechnungen sind hingegen kein Hardware-Feature, könnten somit auch von Sony umgesetzt werden, falls es denn wirklich Bereiche geben sollte, wo man sie sinnvoll einsetzen kann.

Quelle: Microsoft's Xbox One Costs $90 More to Build Than Sony's PS4 - Arik Hesseldahl - News - AllThingsD
 
Aber zum Chip der PS4 gehört auch der teure GDDR5 Speicher, der mit 8GB ordentlich zur Buche schlägt Microsoft blecht nicht für den Chip mehr als Sony, da Sony keinen ESRAM hat und den teuren GDDR5 Speicher bezahlen muss, während Microsoft den günstigeren DDR3 nimmt.

jockelb hat den resultierenden Preisunterschied ja schon vorgerechnet: 18$ mehr für die PS4, also für das Paket von SoC + Speicher wohl etwas zwischen 10 - 15 % Aufpreis (habe die genauen Zahlen nicht im Kopf, bei Bedarf nachrechnen). In Anbetracht des Leistungsunterschiedes ist das wohl kein schlechter Deal.

Wenn ich einen Chip mit ESRAM bekomme der nur minimal größer ist wie der PS4 Chip ohne und dafür etwas über 30% an GPU Performance verliere, dann muss man erstmal abwarten wer hier eine dämliche Entscheidung getroffen hat, die Entwickler werden ja nicht dämlich sein.

Letzteres gilt für Sony ja genauso. ;) Eine Seite wird vermutlich also doch etwas schlauer gewesen sein als die andere – derzeit geht das positive Echo eher in Richtung PS4.
 
Eine Seite wird vermutlich also doch etwas schlauer gewesen sein als die andere – derzeit geht das positive Echo eher in Richtung PS4.

Ich find den Artikel leider gerade nicht, aber irgendwo haben die dadrüber spekuliert, dass auf der Xbob One vieles nicht in FullHD laufen wird, wo die PS4 dies wuppt, da soll sich sogar der ESRAM als Flaschenhals erweisen. :d Mal davon ab macht das Gegen rechnen von Speicher etc eher weniger Sinn, oder kaufen Sony und Microsoft das alles von AMD? Am Ende bezahlt Microsoft mehr für weniger Leistung beim Chip, der übrigens aus CPU und GPU besteht, kein Plan warum mich Schaffe mit CPU-Takt voll plappert. Man zahlt für beide Leistungen in einem und die ist beim Microsoft-Chip eindeutig deutlich geringer. Frage: Wie nennt man das wenn man für so einen Chip mehr bezahlt als der Konkurrent?
 
Ich denke, der ESRAM ist ganz einfach teurer. Der wird schon ordentlich Fläche kosten, aber dafür hat die PS4-Variante wieder einen größeren Speichercontroller. Man hat sich ganz einfach bei Microsoft für die schlechtere Variante entschieden bzw. etwas vom Konzept der XBox360 genommen, aber es nicht richtig bedacht. Man war wohl vom kleinen schnellen Zwischenspeicher zu sehr überzeugt.
 
Zuletzt bearbeitet:
Ich find den Artikel leider gerade nicht, aber irgendwo haben die dadrüber spekuliert, dass auf der Xbob One vieles nicht in FullHD laufen wird, wo die PS4 dies wuppt, da soll sich sogar der ESRAM als Flaschenhals erweisen. :d Mal davon ab macht das Gegen rechnen von Speicher etc eher weniger Sinn, oder kaufen Sony und Microsoft das alles von AMD?

Mich wundert allerdings, das die PS4 die Games alle in FullHD schaffen soll, wärend die XBox dies nicht macht...
Laut diversen Skalierungstests dürfte im GPU Limit der Leistungseinbruch zwischen 1280x720 zu 1920x1040 durchaus im Bereich 30-40% liegen. Teilweise aber auch mehr... Und da werden leider oftmals nur HighEnd GPUs verglichen -> wärend die Mittelklasse arg aus dem Raster fällt.
Die PS4 GPU ist zwar schneller, aber eben von der Rohleistung der GPU her auch nur um die 40%... Wobei die Speicherbandbreite ggf. richtig durchlangen könnte von der PS4. Was der ESRAM bringt, lässt sich wohl schwerer beurteilen. Bei 40% weniger GPU Power benötigt die X1 wohl auch weniger Bandbreite.

Wenn man sich mal Tests von Mittelklasse GPUs ansieht, beispielsweise der HD7770 oder 260X kommt man auf "ähnliche" GPU Performancewerte wie die GPU der PS4. Bei deutlich weniger Speicherbandbreite. Berichtigt mich, wenn ich falsch liege, aber ich würde fast behaupten, das die PS4 ihre Bandbreite gar nicht vollständig ausspielen kann. -> die Frage ist, was bleibt hinten noch nötig für die CPU. Mit nem Dualchannel Interface bei Richland und normalem stino RAM kommt deutlich wengier bei rum als das, was die PS4 APU aufbringt -> und der stino RAM bei Richland (deutlich schneller was die CPU angeht) limitiert schon nicht merklich die CPU Module bei der Berechnung allein auf der CPU.
Die Entscheidung von MS finde ich dahingehend gar nicht mal sooo verkehrt... Die X1 bringt es auf unwesentlich weniger Bandbreite als die HD7770 bei minimal mehr Rohperformance der GPU. -> das dürfte sich schon ausgehen. Und der ESRAM kommt noch oben drauf mit massiv mehr Bandbreite...
Unterm Strich bliebt halt das Manko der geringeren Auflösung. Beide im direkten Vergleich dürften aber ähnlich hohe FPS Werte liefern...
 
Ich weiß nicht mehr, wo ich das gelesen habe, aber der ESRAM soll doch zu klein sein bzw. für Programmierer für die höchste Auflösung schwer zu realisieren sein. BF4 soll wiederum auf der PS4 nicht für 1920x1080 freigegeben sein.
 
Zuletzt bearbeitet:
keine Ahnung, ich hab mich nicht damit beschäftigt, was den ESRAM angeht.
Die Frage ist, wie er angebunden ist, und wie man ihn anspricht, bzw. ob man ihn überhaupt dediziert ansprechen muss.
Die APUs haben ja HSA inkludiert in "Hardware" -> sprich GPU und CPU Part nutzen einen gemeinsamen Speicherbereich, ist der ESRAM davon auch betroffen?

Ich bezog mich eher auf die allgemeine Bandbreite. Und hier sind die Werte der XBox nicht sonderlich weit weg von dedizierten GPUs auf ähnlichem Leistungslevel. -> sollte also schon passen. Wärend die PS4, was die GPU angeht deutlich mehr Bandbreite hat, als ihre Mittelklassevertreter im dedizierten GPU Bereich.
 
Wie ich mal gelesen habe, funktioniert die Sache mit HSA aufgrund des ESRAMs nicht. Der DDRIII (auch für keine Mittelklassegrafikkarte) reicht ja nicht aus, um den Grafikteil potent zu füttern & genau dafür ist der ESRAM, um die Datenrate schnell zu beschleunigen. Habe mir mal die Platine kurz angesehen & der ESRAM ist wohl auf der Die des Prozessors. Aber wie gesagt, das hat Programmierursachen, dass das mit der höchsten Auflösung oft nicht klappt.

Habe was gefunden: [Update: Noch mehr Detailbilder] Xbox One: Der superschnelle ESRAM entwickelt sich wohl zum Flaschenhals
 
Der Golem Artikel beschreibt, das auch die XBox auf den gemeinsamen Speicher zugreifen kann ;) Zumindest interprätiere ich das so aus dem letzten Satz der ersten Seite.

Aber sei es drum, ob der Spaß wirklich zu kein ist, hängt wohl massiv davon ab, wie die Szene aufgebaut ist. So sollten wenn ich das recht in Erinnerung habe die Mechanismen "Probleme" mit Transparenz haben, weil eben durch transparente Ebenen Informationen von weiter oben/unten liegenden Ebenen nötig werden -> was die Datenmenge erhöht. Die Frage ist, ob MS das nicht auch bewusst ist/war? Man hätte ja nicht unbedingt gleich auf 64MB oder mehr gehen müssen, sondern hätte wohl auch Zwischenschritte machen können ala 48MB usw.
Wenn man der Tabelle traut, reichen imho bei FullHD und Deferred Rendering bei drei Rendertargets ~24MB Platz -> das passt. BF4 nutzt laut dem Artikel vier Rendertargets -> und belegt somit knappe 32MB -> passt wohl imho nicht.
Der Golemartikel benennt aber ebenso die Tatsache, das das Rendern direkt im ESRAM sowieso untypisch ist/wäre!?

Was die Bandbreite angeht, wie oben schon gesagt, da interessiert wenig ob da GDDR5 oder "nur" DDR3 steht. Da interessiert eher die Bandbreite, die durchrutscht. Und das ganze ist somit auch mit aktueller PC Hardware mehr oder weniger zu vergleichen. 128Bit Interface mit GDDR5 bedeutet gleiche Bandbreite wie 256Bit Interface mit DDR3 (bei gleichem Takt)
Die PS4 hat wenn ich das richtig sehe ein gleich breites Interface -> dafür aber GDDR5 und mehr Takt = ca. 3x der Bandbreite in Summe.
Ne HD7770 kommt imho trotz GDDR5 (aber eben weil nur 128Bit Interface) auf ähnlich hohe Bandbreiten der X1 -> und scheint nicht sonderlich stark limitiert zu sein von dieser... (bei ebenso ähnlicher GPU Rohleistung und GCN Technik)
Mal im Vergleich: Die APU der PS4 hat mit diesem Interface + GDDR5 8x mehr Bandbreite als ne aktuelle Richland APU mit stino DDR3-1333 Speicher... Das erscheint in anbetracht der Tatsache, das sich Mittelklasse GPUs ähnlicher GPU Leistung der PS4 mit Bandbreiten von ~100-120GB/sec (wie auch immer erreicht) aktuell begnügen schon reichlich überdimensioniert ;)

PS: woraus ließt du Programmierursachen?
 
Undertaker1 schrieb:
jockelb hat den resultierenden Preisunterschied ja schon vorgerechnet: 18$ mehr für die PS4, also für das Paket von SoC + Speicher wohl etwas zwischen 10 - 15 % Aufpreis (habe die genauen Zahlen nicht im Kopf, bei Bedarf nachrechnen). In Anbetracht des Leistungsunterschiedes ist das wohl kein schlechter Deal.

DAs stimmt, schlecht ist der Deal auf keinen Fall. Vielleicht war die Entscheidung von Microsoft auch eine Strategische ( GDDR5 Engpässe?)
 
denke ich nicht...
GDDR5 sollte doch zur genüge vorhanden sein, die Speicher werden doch schon seit Äonen produziert. Und auch die Taktung dieser in der PS4 ist alles andere als auf "höhe der Zeit" aktuell...
Da kann man doch quasi blind ins Regal greifen und irgendwas nehmen -> selbst ausrangierte Alteisen wären dazu wohl in der Lage diese Taktraten zu bringen.
 
DAs stimmt, schlecht ist der Deal auf keinen Fall. Vielleicht war die Entscheidung von Microsoft auch eine Strategische ( GDDR5 Engpässe?)

Es kann durchaus sein, dass man zum Zeitpunkt der Festlegung dieser Design-Entscheidung gute Gründe gegen GDDR5 hatte: Vielleicht war der prognostizierte Preisunterschied höher, vielleicht auch die erwartete Taktdifferenz kleiner. Oder man hat nicht erwartet, dass die PS4 so stark wird und dachte, FullHD (wofür der ESRAM eben nicht ganz reicht) wäre nicht notwendig...
 
man hat doch bei MS im Vorfeld sogar angekündigt, das die Titel in nativem FullHD laufen sollen!?
Stand doch zumindest mal so in diversen Meldungen...
Das jetzt schon die ersten Titel nicht native FullHD können, ist schon äußerst mau aus meiner Sicht...
 
jupp, schon klar... Ich hänge mich eher an dem Umstand auf, das es eben heute schon einige Titel zu geben scheint (wenn nicht gar fast der Großteil), die es eben nicht in 1080p packen :(
Das lässt für die Zukunft die Aussichten nicht unbedingt besser werden... Zumal auf FullHD von 720p ausgehend mehr als doppelte Pixel zu berechnen sind. Da dürfte durchaus grob über den Daumen ein Leistungsverlust von ~40%+ Performance auf der Uhr stehen.
Ob man sowas mit Optimierungen auf die Hardware rausquetschen kann?
 
jupp, schon klar... Ich hänge mich eher an dem Umstand auf, das es eben heute schon einige Titel zu geben scheint (wenn nicht gar fast der Großteil), die es eben nicht in 1080p packen :(
Das lässt für die Zukunft die Aussichten nicht unbedingt besser werden... Zumal auf FullHD von 720p ausgehend mehr als doppelte Pixel zu berechnen sind. Da dürfte durchaus grob über den Daumen ein Leistungsverlust von ~40%+ Performance auf der Uhr stehen.
Ob man sowas mit Optimierungen auf die Hardware rausquetschen kann?

Das kann ich dir nicht sagen. Ich bin von den Next Gen Konsolen auch nicht begeistert, Full HD hätte meiner Meinung nach sein müssen.
 
Eventuell gibt es nach 3 oder 4 Jahren ein Update mit mehr CPU Takt und allen Grafikshadern, dann könnte sowas bei der PS4 zumindest viellecht möglich sein.
Man kann aus dem Grafikchip bei dem niedrigen Takt gut und gerne noch 30% Leistung herauskitzeln.
 
Inwiefern sind eigentlich die Ausfälle der PS4 auf AMD zurückzuführen? Wirft ja erstmal kein gutes Licht auf AMD... leider.
 
Nunja, AMD liefert lediglich die Chips - nicht verwechseln.

Mich würde wie schon erwähnt aber auch sehr stark interessieren woran es liegt.
 
jupp, schon klar... Ich hänge mich eher an dem Umstand auf, das es eben heute schon einige Titel zu geben scheint (wenn nicht gar fast der Großteil), die es eben nicht in 1080p packen :(
Das lässt für die Zukunft die Aussichten nicht unbedingt besser werden...

ganz meine Meinung, und da 4k TVs/Monitore in den nächsten 2 Jahren bezahlbar werden - und die NextGen Konsolen wie lange aktuell sein sollen? :fresse:
1080p sollte heute definitiv schon Standard sein, wenn es um Entertainment vorm TV/Monitor geht - kann ja nicht sein dass uns Mobilgeräte den Rang ablaufen was den Augenschmaus angeht.
 
eventuell planen Sony und MS die Konsolen deutlich kürzer leben zu lassen?

Ich mein, wenn man sich dazu entscheidet, die Hardware einfach mal zu tauschen aber bei x86 + "PC GPU" bleibt, steht dem ganzen ja fast nix im Wege... Denn die Titel müssten ohne nennenswerte Anpassung oder Probleme weiter laufen...
 
Mhh OK, wobei 5-6 Jahre ne ziemlich lange Zeit sind...
Ich hätte eher sowas im Bereich 3-4 Jahre gedacht. Dann würde man mit nem Hardwareupgrade auch schon echte Mehrperformance bekommen...
 
Naja die Konsolennutzer würden sich dann unter Umstäden veräppelt vorkommen nach so "kurzer" Zeit veraltete Hardware zu besitzen und es kommt denke ich auch darauf an ob die Hersteller mit den Konsolen Gewinn machen wollen oder sich davon endgültig verabschieden und voll auf die Einnahmen die sie durch jedes Spiel bekommen setzen. Denn es ist ja meistens so, dass die Konsole an sich erst mal ein Verlustgeschäft ist und erst mit der Zeit durch Verbesserungen in der Herstellung und die schiere Masse Gewinne abwirft. Vielleicht auch erst mit einer neuen Revision. Kommt dann aber schon der Nachfolger geht das Spielchen von vorne los ...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh