Xbox One Vs. PlayStation 4

Behauptet ... aufem Blatt stehen aber immer noch 133 & 70 und eben nicht 192.
Mein DSL Anschluss kann auch bis 16000 im realen Leben macht er aber wenn es hoch kommt 4000. :fresse2:

Ja und jetzt? Ich bin doch von den 133GB/s ausgegangen, welche im Verbindung mit den 68 GB/s des DDR3s in etwa die selbe Bandbreite wie der GDDR5 der PS4 bietet.
...und nein, ich addiere die Werte nicht, denn das wären: 200 GB/s (der besagte Wert der im Netz herumschwebt).
Ich gehe davon aus das sich die Real-Leistung auch irgendwo bei den 172 GB/s der PS4 befindet.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Microsoft behauptet sogar das 192 GB/s möglich sind... aber du hast recht, das ist nicht so hoch wie die PS4, sondern höher.

Microsoft behauptet...:fresse2:
Wie war das noch mit dem Marketing Opfer? MS hat schon einiges behauptet, die waren sich ja auch sicher das Vista und Win8 mega erfolgreich werden. Und dann gab es da auch noch Zune und das Surface Teil und Windows Mobile ja auch noch.

Und selbst wenn, dann gilt das immer noch nur für den 32MB ESRam und nicht für den kompletten Speicher.
Und 32 MB reichen heute für überhaupt nichts mehr, also ist der DDR3 nicht nur für die Texturen zuständig
 
Microsoft behauptet...:fresse2:
Wie war das noch mit dem Marketing Opfer? MS hat schon einiges behauptet, die waren sich ja auch sicher das Vista und Win8 mega erfolgreich werden. Und dann gab es da auch noch Zune und das Surface Teil und Windows Mobile ja auch noch.

Und selbst wenn, dann gilt das immer noch nur für den 32MB ESRam und nicht für den kompletten Speicher.
Und 32 MB reichen heute für überhaupt nichts mehr, also ist der DDR3 nicht nur für die Texturen zuständig

Ahja... und wie ist das mit Sony? Die behaupten jede Woche was anderes, zuerst braucht das OS nur 500MB... dann sind es auf einmal 5.5GB (tolle Zahl) und dann plötzlich nurnoch 4GB. Jetzt heißt es wieder Spiele können bis zu 7GB nutzen, also 1GB für das OS.

Und 32 MB reichen heute für überhaupt nichts mehr, also ist der DDR3 nicht nur für die Texturen zuständig

Korrektur: 32MB reichen nicht für 1440p, definitiv aber für 1080p.
Der DDR3 in der X1 ist nur für das Laden von Texturen zuständig.
 
Zuletzt bearbeitet:
Sony hat rein garnix behauptet!

P.s. der ESRAM wird auch nicht für Texturen oder shader benutzt das würde auch nicht gehen.
 
Zuletzt bearbeitet:
Zu dem mit Sony will ich eine Quelle sehn, das musst du erstmal beweisen. Man ist immer von 1Gb für das OS ausgegangen, dann hieß es auf einmal 3,5 für das OS und das ganze hat Sony dann mehr oder weniger klar gestellt und ein Entwickler meinte dann das mit den max 4,5 für Texturen wäre völliger Schwachsinn.
Und klar 5GB DDR3 nur für Texturen und alles andere wird in einen 32MB Speicher reingequetscht.
 
Zu dem mit Sony will ich eine Quelle sehn, das musst du erstmal beweisen. Man ist immer von 1Gb für das OS ausgegangen, dann hieß es auf einmal 3,5 für das OS und das ganze hat Sony dann mehr oder weniger klar gestellt und ein Entwickler meinte dann das mit den max 4,5 für Texturen wäre völliger Schwachsinn.
Und klar 5GB DDR3 nur für Texturen und alles andere wird in einen 32MB Speicher reingequetscht.

Für meine Äußerung bezüglich Sony's Behauptungen habe ich keine Quelle, das bezieht sich auf subjektives Empfinden im laufe der letzten Wochen (Monate). In denen die Ressourcen-Werte immer wieder verändert wurden.
In den 32MB Cache passt der 20MB große Framepuffer für 1080p super rein. Hat sogar noch Luft zum atmen. xD
 
Zuletzt bearbeitet:
Die Angaben der Mitarbeiter können doch sogar passen.
Nicht in jeden Zustand benötigt das BS gleich viel RAM, bei BlueRays oder MultiMedia Anwendungen liegt der Verbrauch ja vielleicht bei 3,5GB oder auch höher.
Wenn das System aber nur noch im Hintergrund ein Paar Sachen verwalten muss und ein Spiel läuft, reichen eben vielleicht auch 500MB - 1GB aus.

Der ESRam mag für den Puffer reichen aber das war es dann auch schon. :)
Da sollte man wohl eher warten, bis reale Anwendungen und Spiele drauf laufen. Dann sieht man ob diese davon profitieren oder eben nicht.
Am Anfang wird es durch die sonst sehr ähnliche Hardware eh auf Titel hinaus laufen, die sich dabei nicht viel geben.
Da wird es eher interessant, wie sich die PC/Mac oder Linux Ports verhalten werden.
 
Die Xbox One mag durchaus einen Latenz-Vorteil gegenüber der PS4 haben, aber die GPU-Bandbreite, ein Schlüsselelement bei der Grafik-Performance, ist tatsächlich ein Problem für die Microsoft-Hardware.

Sofern der eSRAM als schneller Videospeicher gedacht wäre, ist dessen Menge von nur 32 MB jedoch eigentlich ungenügend: Darin würde gerade einmal Frontbuffer, Backbuffer und Z-Buffer von 1920x1080 ohne Multisampling Anti-Aliasing Platz finden, im Fall von 2x Multisampling Anti-Aliasing auf 1920x1080 müsste man dann schon auf einen dieser Puffer verzichten!

Mehr braucht man dazu nicht zu sagen da kann MS noch soviel labern wie schnell oder toll etwas ist weil die Tatsachen einfach bestehen bleiben.

Mein subjektives Empfinden ist das du einfach die Tatsachen nicht verstehen will.
 
Zuletzt bearbeitet:
Der ESRam soll für Grafikelemente gedacht sein, die hohe Bandbreite benötigen. Dazu zählen u.a. shadowmaps, lightmaps, depth targets und render targets.
Killzone: Shadowfall soll sich alleine für render targets knapp 800 MB reservieren, wie willst du die also in den 32MB Speicher bringen.

Dein subjektives Empfinden ist dann wohl falsch oder nur pro MS ausgerichtet. Viele Werte standen fest und wurden auch nicht wieder geändert.
Sony hat zudem relativ wenig gesagt, es gab ein paar Videos noch wo MS verarscht wurde, wie man z.B. Spiele einem Freund ausleihen kann, aber sonst hab ich nicht viel mitbekommen.
Warum auch, man wird jetzt sicher zur Gamescom noch einige Sachen ankündigen.
 
Einfach mal die Gamescom abwarten, man kann wohl davon ausgehen das dort nun auch wirklich X1 Hardware genutzt wird und dann kann man sich ein gutes Bild davon machen was technisch mit der Konsole möglich ist.
 
Ja leider kam nicht´s raus Sahee, .... hab mich echt auf deine "Erklärungen" gefreut, nein nicht wegen dem auslachen, sondern ich dachte, das du vieleicht was neues hättest aus der MS Welt.

Leider war nichts neues dabei, 0,0 nix. Daher versteh ich deine Technische MS Pro Meinung nicht. Wäre es der Spielegeschmack, ok, aber so???

Auch behauptest du genau das gegenteil von diesem Artikel: Aber wo ist genau der grund dafür???

Die Antwort geht auf ein spezielles Risiko zurück, das Sony einging und Microsoft nicht: Die Nutzung eines unifizierten Pools an GDDR5 RAM. Zu Beginn der PS4-Entwicklung schienen nur 2 GB dieser Art Speicher machbar. Als Module mit höherer Dichte verfügbar waren, nahm das Unternehmen ein Upgrade auf 4 GB vor. Als die Konsole im Februar enthüllt wurde, war Sony zuversichtlich, sich 512MB-Module sichern zu können und überraschte jeden damit (selbst Entwickler), dass die PS4 mit 8 GB unifiziertem GDDR5 RAM erscheinen wird. Das Design der umliegenden Architektur musste während dieser Entwicklungen nicht verändert werden - ein Satz an 16 GDDR5-Chips wurde einfach gegen einen anderen ausgetauscht.

Microsoft hatte nie den Luxus dieses beweglichen Ziels. Weil Multimedia ein solch zentraler Fokus für die Hardware war, setzte man von Anfang an auf 8 GB RAM (was ihnen zu der Zeit einen großen Vorteil gegenüber der PS4 verschaffte) und weil DDR4-Speicher nicht rechtzeitig verfügbar war, legte man sich auf DDR3 fest und wollte tun, was immer nötig war, es so möglich zu machen. Das Resultat ist eine komplexe Architektur Technik-Analyse: Xbox One • Eurogamer.de
 
Zuletzt bearbeitet:
Der Controller ist Schrott... hat fast die selben Maße wie der alte Controller (der bereits kein optimales Layout hatte) und jetzt hat er noch zusätzlich ein unnötiges Touchpad und eine grelle LED (toll für Plasma TV's).

Ahja ... und du weißt jetzt genau woher, dass er schrott ist ? Hattest du ihn einmal in de Hand ? Ach ich vergaß, du ziehst dein "Wissen" ja aus Kristallkugeln und Tarot-Karten ... seltsam dass dieser "Schrott-Controller" von zig Spieleentwicklern höchst gelobt wurde, aber klar, was wissen die schon im Gegensatz zu dir - ich wette ihre Glaskugeln sind nicht halb so schön wie deine.


Ahja... und wie ist das mit Sony? Die behaupten jede Woche was anderes, zuerst braucht das OS nur 500MB... dann sind es auf einmal 5.5GB (tolle Zahl) und dann plötzlich nurnoch 4GB. Jetzt heißt es wieder Spiele können bis zu 7GB nutzen, also 1GB für das OS.

Sony hat gar nichts behauptet, das waren Gerüchte, Gerüchte die du natürlich für bare Münze nimmst - wären es aber "böse" Gerüchte über MS, dann würden sie deiner Meinung nach nicht stimmen ...


Mit dir zu diskutieren bringt wirklich nichts, du meinst Dinge zu wissen, die du gar nicht wissen kannst, streitest alles Negative über MS ab und glaubst Gerüchte über die PS4 seien alle grundsätzlich wahr.


@Cux1970 : Witzig, solche Leute gehen dir nicht auf den Senkel ? Weil sie ja pro-MS sind, gell ?
Mir persönlich ist ein Basher lieber, der alle fünf Seiten einmal Unfug erzählt, als Leute, die seitenweise Blödsinn von sich geben, alle Fakten anzweifeln und ihren Glauben mit Wissen verwechseln ...
 
btw Die PS4 hat ja auch so einen nebenram, 512 MB glaub ich.

Die Xbox ONE hat ihre stärken im Multimedia. Xbox fans haben die PS3 dafür ausgelacht.
Auch weil die PS3 ja so schwer zu proggen ist usw usw dummes Sony.

Und jetzt sitzen die in der falle, mit einer Konsole die eine beziehung zum TV aufbauen will. Und es ist keine Sony Konsole, sondern das geliebte MS.

Und aufeinmal erscheint die PS4 wie ein xbox360 nachfolger. Einfach zu proggen und dazu mit Power. Die Xbox 360 war "nur" einfach zu proggen.

Die Combo: einfach proggen + starke Hardware ist eine herausforderung für MS.


Erst wollte man einem mit der CLoud Power beschwatzen -> die aufeinmal mit der Cloud, 3 fache xbox ONE Power entfacht.

Dann heißt es: boah ESRAM ist ja doch schneller, geht in und out. Volle 32MB Caching power und speicherspeed erhöherer. Im NeoGAF wurde das so extrem belächelt.

Dann sagte MS, hey die PS4 Hardware ist unwichtig, überhaupt wäre der Hardware vergleich unwichtig, dann war der Hardware vergleich doch Wichtig und man erhöhte um 53Mhz den GPU Takt.

Alles auf der E3 lief auf NV Hardware.



Leute MS Pokert einfach und sie pokern schlecht und dumm. statt sich wie ein toter fisch hin und her zu winden ... hätte man sagen können, Right the xbox ONE will be cost 399,-.

So hätte man für 399,- einen cam vorteil, weils mit geliefert und gut is.

Man ich bin Sony fan, aber schade das ihr nicht erlebt, wie ich abgegangen wäre, hätte Sony eine PS all in One geliefert. Das muss kritisiert werden mMn.
 
Zuletzt bearbeitet:
Was ich etwas komisch finde ist, dass man die One nicht hinstellen kann, wie man möchte ...
Kann sie etwa nicht mehr richtig gekühlt werden, wenn man sie entgegen den Angaben aufstellt?
Irgendwie beschleicht mich da gerade, dass das Kühlsystem der One doch nicht so gut ist wie gedacht.
(Ohne bashing aber dann schraubt man den Takt hoch???)
 
Ich bin weder Sony noch PS4 fan und habe mich damals enorm gegen die PS3 gewehrt weil sie in Multiplatform titeln einfach keinen stich gemacht hat aber nun ist die Playstation in jeder hinsicht besser.

Naja ob die liegt oder steht ist doch wumpe. Soll das ding doch liegen wenn es so besser ist!
 
Hier wird nur über Grafik gelabert und Performance in Spielen usw. Aber was mich als langer Nutzer einer SSD bisher am meisten vor allem bei PS3 aufregt sind die Ladezeiten. Auch vor allem ist das PS-Menü so elend lahm, wenn man inGame ist. Genauso der PSN Store so ein lahmes Schrottding braucht kein Mensch. Mir wäre ein Textlisting viel lieber als langsam ladende Bilder. Ich kann nur hoffen, dass das alles mit der PS4 performanter wird, denn bei der PS3 ist es ein graus :(.

Bei der X360 habe ich nich so viel gezockt, aber das OS machte einen deutlich performanteren Eindruck. Ich hoffe Sony kann nun aufschließen, traue aber MS mehr zu, da sie mit OS proggen mehr Erfahrung haben.
 
Die Xbox One mag durchaus einen Latenz-Vorteil gegenüber der PS4 haben, aber die GPU-Bandbreite, ein Schlüsselelement bei der Grafik-Performance, ist tatsächlich ein Problem für die Microsoft-Hardware.

Sofern der eSRAM als schneller Videospeicher gedacht wäre, ist dessen Menge von nur 32 MB jedoch eigentlich ungenügend: Darin würde gerade einmal Frontbuffer, Backbuffer und Z-Buffer von 1920x1080 ohne Multisampling Anti-Aliasing Platz finden, im Fall von 2x Multisampling Anti-Aliasing auf 1920x1080 müsste man dann schon auf einen dieser Puffer verzichten!

Mehr braucht man dazu nicht zu sagen da kann MS noch soviel labern wie schnell oder toll etwas ist weil die Tatsachen einfach bestehen bleiben.

Mein subjektives Empfinden ist das du einfach die Tatsachen nicht verstehen will.

Ich kann die Tatsachen durchaus verstehen.
Die XB1 hat theoretische 200 GB/s Bandbreite, das habe ich jetzt auch schon mehrfach mit Quellen bewiesen.
Dies wurde auch von Microsoft mehrfach betont, es ist also nicht so als wären sie sich darüber nicht im klaren.

Der 32MB Cache reicht nicht für 1080p @2xAA aus, das ist korrekt. 1600x900@2x AA sind möglich.
Multisampling ist bei Konsolen aber unnötig, in der Regel sitzt man 2.5m+ von seinem TV entfernt. Dementsprechend benötigt man keine Kantenglättung.
Kantenglättung ist bei Desktop-PC's notwendig, wo man gerade mal ~40-50cm vom Bildschirm entfernt ist.
Mein Desktop-Bildschirm hat 1440p... das ist bereits hoch genug um in der Regel auch dort auf Multisampling zu verzichten.

Natürlich hätte Microsoft auch 64MB Cache verbauen können, aber das wäre nicht sinnvoll gewesen.
Die GPU beider Konsolen würde ohnehin Probleme mit zu hohem Multisampling bekommen und wie ich bereits sagte braucht man bei einer Konsole keine Kantenglättung.
Ziel der Konsolen ist 60FPS @1080p, beide GPU's erreichen das bei grafisch intensiven Spielen nur ohne Multisampling.

http://www.eurogamer.net/articles/2013-06-10-next-halo-to-run-at-60-frames-per-second
http://losgezockt.com/fifa-14-ps4-version-mit-1080p-und-60fps/
http://www.play3.de/2013/06/18/driveclub-entwickler-streben-1080p-und-60-fps-an/
 
Zuletzt bearbeitet:
Da haste vollkomend recht. AA werden die beide nicht nutzen. Aber sie werden SMAA, FXAA oder MLAA nutzen wenn nicht sogar ein neueren Post effect welcher die Kanten glättet .
Habe auch gelesen das ganz neue engines kommen werden und da bin ich richtig gespannt was da grafisch noch gezaubert wird.
 
Zu der Sache mit der Bandbreite:
Microsoft claims 200GB/s of bandwidth, gets caught fudging numbers - NeoGAF

Die Xbox 360 ist dann wohl nochmal besser, wurde ja auch von MS betont, die sind sich ja darüber im klaren!

Wie oft willst du noch diese Info aus dem Mai rauskramen?
Zu diesem Zeitpunkt ging man davon aus das ESRAM nur 102GB/s Bandbreite hat, es sind aber mittlerweile 133 GB/s.
102 GB/s + 68 GB/s ist 170 GB/s (das war der alte Wert über den in dem von dir verlinkten Forumpost gesprochen wurde).
68 GB/s (DDR3) + 133 GB/s (ESRAM) = 200 GB/s. Dadurch das beide Speicher unabhängig voneinander arbeiten, kann man die Bandbreite addieren.
Das lächerliche ist eigentlich das die XB1 bereits bei der Produktvorstellung die selbe Bandbreite hatte wie die PS4 (170GB/s)... aber das ESRAM wurde von den meisten Medien komplett ignoriert.
Mit den neuen Modifikationen und Erkenntnissen hat das ESRAM jetzt 200 GB/s... gibt aber auch einige Internetseiten die darüber berichtet haben.

Man kann aber Microsoft in der Tat vorwerfen das deren Aufklärung ungenügend war. Man hätte direkt in der ersten Pressekonferenz klar erläutern müssen was ESRAM ist und was es bedeutet.
Viele Wissen doch nicht mal für was das ESRAM jetzt genau genutzt wird (Zitat: "32MB reicht nicht aus für Texturen").
Daran ist ganz klar Microsoft schuld... die müssen ihr Produkt erläutern, nicht die Internetmedien.

Die erste Pressekonferenz war wirklich ein riesen Reinfall, man hat fast nur über die Multimedia-Features geredet und die eigentliche Hardware wurde nicht betrachtet.
Für mich absolut unerklärlich... nach dieser Konferenz war ich mir auch fast sicher keine Xbox zu kaufen, so schlecht war die Produktvorstellung.
 
Zuletzt bearbeitet:
Deine Rechnung funktioniert dennoch nicht so wie du dir das erhoffst. Darauf gehe ich jetzt aber nicht ein, wurde zur Genüge hier behandelt.


Sent from my Girlfriend's iPad
 
Kann mich nicht erinnern hier etwas aus dem Neogaf Forum gepostet zu haben.
Ich glaub auch nicht an die erhöhte Bandbreite, nur weil MS das sagt.
Sie haben auch behauptet das die Leistungsunterschiede nicht so wichtig sind um dann kurze Zeit später die GPU höher zu takten.
Die 192 GB/s sollen im übrigen auch nur hinkommen wenn man vorher um 50 MHz runtergetaktet hat. Es passt alles nicht zusammen.
Und das mit dem ESRam war die ganze Zeit bekannt, es ist wohl nur eher so das die Experten wissen dass das nicht so viel ausmachen wird wie MS behauptet.
Es wurde fast immer auf den ESRam eingegangen, und wenn der wirklich soviel ausmachen würde dann hätte MS das auch besonders betont. Machen sie ja sonst auch mit allem.
Sie werden schon ihren Grund haben warum sie das nicht erklärt haben, so ist jetzt halt noch Spielraum da für Spekulationen über eventuelle Mehrleistung.
Ich kenn ausser dir auch glaube ich keinen der , der Meinung ist die One ist gleich schnell oder schneller bei der Bandbreite.
Und es gibt sicherlich Menschen die davon bedeutend mehr Ahnung haben als du. Macht nur komischerweise keiner, die MS Exclusiventwickler könnten dazu ja ruhig was sagen, hilft denen ja wenn die Konsole oft verkauft wird.

Selbst MS hat ja nicht wirklich was dazu gesagt, ausser dann das sie aufeinmal herausgefunden haben dass das gute Teil doch viel schneller ist.
Jeder erkennt auf den ersten Blick das die PS4 schneller ist alleine anhand der Daten und MS sagt nichts dazu, obwohl sie was das betrifft gleich schnell/schneller sein soll?
Haut aber dafür raus das die Leistung gar nicht so wichtig ist. Macht Marketingtechnisch null Sinn, würde zwar zur deren Pressekonferenz passen, die wie du schon sagst tatsächlich unterirdisch war, aber warum die eigene Konsole schlecht dastehen lassen.

Selbst auf den Xbox Fanseiten wird vermutet das MS hier nur versucht die Konsole noch zu pushen und dass das nicht der Wahrheit enspricht.
Bei der Sache mit der Bandbreite wird auch fast nur von "theoretisch" und"maximal" gesprochen. Die tatsächliche Leistung kann in 99% der Anwendungsfällen auch weiterhin nur bei 102 GB/s liegen, dann hatt MS nichtmal was falsches behauptet.
Ich fahr mit dem Fahrrad den Berg runter auch mehr als 50 km/h maximal, aber normalerweise sind es dann halt mehr um die 25 kh/m rum.
 
Die beiden Speicher Arbeiten nicht unabhängig von einander.
Die Daten kommen von der Festplatte und werden in den Arbeitsspeicher geschrieben und genau von da wird mit ca. 60GB/s in den ESRAM geschrieben ;)
Der ESRAM kann aber mit 102GB/s ausgelesen werden und auch beschrieben werden und wenn das lesen und schreiben gleichzeitig passiert sind es kombiniert 133GB/s.
Ist der ESRAM verbraucht kann dieser wieder nur mit ca.60GB/s befüllt werden!


Wegen dem ESRAM wurd auch schon gesagt das dieser nur gewählt wurde weil man billig produzieren wollte!
die XBOX360 hat den deutlich Besseren eDRAM wo man gehofft hatte das auch die XB1 diesen mit 64-256MB bekommen würde aber die kosten wollte MS nicht dafür Zahlen wobei das die deutlich bessere Option gewesen wäre!


Im endeffekt ist das ganze für MS eigentlich dumm gelaufen weil sie damit gerechnet haben das die PS4 nur 4GB RAM bekommt und sie hatten ja 8Gb RAM mit zwar der schlechteren GPU dafür hätte man mit mehr RAM halt viel bessere texturen nutzen können wie es auch schon bei XBOX 360 vs. PS3 der fall war nur das man hier Bei der XB1 deutlich die nase vorn gehabt hätte wenn die PS4 nur 4Gb bekommen hätte.
Sony hat halt alles auf eine karte gesetzt und sehr gut gepokert was ihnen halt zum siegt geholfen hat und MS quasi überrannt wurde.
Der Chip von MS ist durch den ESRAM sogar angeblich schwieriger zu produzieren (womöglich teurer ---> XB1 CPU 3Milliarden, PS4-->???) als der der PS4.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh