• Hallo Gast, aktuell stehen geplante Wartungsarbeiten am Server von Hardwareluxx an. Es könnten ab ca. 0.15 Uhr kurzzeitige Downtimes entstehen.

Xbox One Vs. PlayStation 4

Gilt das für alle BT Standards?

Die meisten Consumer-Geräte haben Bluetooth Verbindungen der Klasse 2, das heißt maximal 10m.
Die einzelnen Bluetooth Versionen (3.0/4.0 etc.) beziehen sich eher auf die vorhanden Software-Features.
Bluetooth 4.0 hat beispielsweise einen besseren Energy-Saving Modus als der Vorgänger.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei The Crew hab ich mich VERTAN (steht doch da) ;)
Und bei Watch_Dogs weiß Ubi noch nicht, was sie zur Auflösung sagen sollen. 720p-1080p. Da ist alles noch möglich. Nur Framerate steht bisher für die Next-Gen Fassung fest. (steht auch im Link).
Ok ich wusste nicht was du bei The Crew mit vertan meintest, über die Auflösung habe ich da jedenfalls noch nichts gehört.
Der WD Artikel geht ja über PS4 und X1, da hätte ich ich auch 720p-1080p geschrieben ... Spaß ;)

Also sind wir beide auf dem Standpunkt dass alle bisher bekannten PS4 Auflösungen 1080p sind und nur BF4 _wahrscheinlich_ nicht?

@Sahee?
Wieso interessiert die die COntroller Reichweite, poste lieber mal was zum InputLag, das wäre viel wichtiger zum zocken mMn
 
Die meisten Consumer-Geräte haben Bluetooth Verbindungen der Klasse 2, das heißt maximal 10m.
Die einzelnen Bluetooth Versionen (3.0/4.0 etc.) beziehen sich eher auf die vorhanden Software-Features.
Bluetooth 4.0 hat beispielsweise einen besseren Energy-Saving Modus als der Vorgänger.

Also reicht das doch für die meisten, was die Reichweite angeht!?
Mein Wohnzimmer ist 6m x 5,5m groß, müsste also reichen, oder spielst du auf einem Fussballfeld?
Die Datenbreite minimiert den InputLag doch nicht, wenn die Eingabe nur wenige KB braucht, oder?
 
Finde diese Reichweiten Diskussion grad auch recht belanglos? Hatte auf der PS3 nie irgendwelche Inputlag Probleme und bei der PS4 kommt ne neuere/bessere Version von BT zum Einsatz.
 
Finde diese Reichweiten Diskussion grad auch recht belanglos? Hatte auf der PS3 nie irgendwelche Inputlag Probleme und bei der PS4 kommt ne neuere/bessere Version von BT zum Einsatz.

Bei der PS4 kommt Bluetooth Typ 2 zum Einsatz, das ist der selbe wie Verbindungstyp wie bei der PS3.
Bitte nicht verwechseln mit den Bluetooth Versionen (2.0, 4.0 etc.).

...und ich zitiere mich mal selbst:
Höherer Abstand wirkt sich abhängig von der maximalen Reichweite negativ auf den Input-Lag aus
 
Zuletzt bearbeitet:
@sahee.
Das sind bisher nur annahmen die du äußerst, die du nicht mal für unkundige mit Quellen belegst. Für mich als hardwarelaien sehe ich zwischen Abstand und Bandbreite keinen Zusammenhang. Beide Signale werden in Lichtgeschwindigkeit über mitteilt.
Die Frage ist wie groß sind die Datenpakete,die vom controller versendet werden und sind diese in der Bandbreite durch BT limitiert. Bitte gehe darauf ein. Solange du dazu keine Daten hast kannst du zum inputlag keine Aussage treffen.

Edit: bzw wären Daten interessant ob es Unterschiede in der Verarbeitungszeit der Protokolle gibt, die einen Einfluss auf den input lag haben könnten.

Gesendet von meinem Nexus 4 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
@sahee.
Das sind bisher nur annahmen die du äußerst, die du nicht mal für unkundige mit Quellen belegst. Für mich als hardwarelaien sehe ich zwischen Abstand und Bandbreite keinen Zusammenhang. Beide Signale werden in Lichtgeschwindigkeit über mitteilt.
Die Frage ist wie groß sind die Datenpakete,die vom controller versendet werden und sind diese in der Bandbreite durch BT limitiert. Bitte gehe darauf ein. Solange du dazu keine Daten hast kannst du zum inputlag keine Aussage treffen.

Gesendet von meinem Nexus 4 mit der Hardwareluxx App

Im Direktvergleich hat WifiDirect einen deutlich höheren Maximalabstand, dementsprechend kann man davon ausgehen das die Signalsstärke bei selben Abstand im Vergleich zu Bluetooth höher ist.
Das heißt dann Höhere Bandbreite + Höhere Signalsstärke dementsprechend ein niedrigerer Input-Lag... ob das ganze ein spürbarer Unterschied ist, das ist die andere Sache.
 
Zuletzt bearbeitet:
Im Direktvergleich hat WifiDirect einen deutlich höheren Maximalabstand, dementsprechend kann man davon ausgehen das die Signalsstärke bei selben Abstand im Vergleich zu Bluetooth höher ist.
Das heißt dann Höhere Bandbreite + Höhere Signalsstärke dementsprechend ein niedrigerer Input-Lag... aber wahrscheinlich bewegt man sich bei beiden Verbindungsarten bei normaler Nutzung irgendwo im Nanosekunden-Bereich.

Erinnert mich direkt an das Video der X1 wo man einen riesigen imputlag hatte.
Bin mir sicher das man da kaum einen Unterschied merken wird zwischen PS4/X1
Aber komisch das du bei solche unwichtigen Detail abgehst aber wenn die X1 erstmal deutlich langsamer ist und schlechtere grafik raushauen kann machst du die Augen zu.
Dann kommste noch mit dem scaler welcher das ausbügelt... Lol ich habe mich seit 4 jahren damit beschäftigt wie man das maximale aus dem Bild herausbekommt durch Postprozessing aber es ist nicht machbar und besonders bei games fällt der Unterschied deutlich stärker auf als bei filmen.
 
Zuletzt bearbeitet:
Das heißt dann Höhere Bandbreite + Höhere Signalsstärke dementsprechend ein niedrigerer Input-Lag... ob das ganze ein spürbarer Unterschied ist, das ist die andere Sache.

Die Reaktionsgeschwindigkeit hat doch nichts mit der Bandbreite und/oder der Signalstärke zu tun, dann hätte ja zu Vor-DSL-Zeiten niemand mit einem Modem online spielen können, weil der Ping soooooo extrem viel höher gewesen wäre.
Dabei wurde gerade ISDN so hoch geschätzt wegen seinen niedrigen Pings - und dort werden gerade einmal 8 Kilobyte pro Sekunde übertragen !

Laut deiner Rechnung hätte ISDN dann gegenüber DSL einen Ping von zig Sekunden !
 
Die Reaktionsgeschwindigkeit hat doch nichts mit der Bandbreite und/oder der Signalstärke zu tun, dann hätte ja zu Vor-DSL-Zeiten niemand mit einem Modem online spielen können, weil der Ping soooooo extrem viel höher gewesen wäre.
Dabei wurde gerade ISDN so hoch geschätzt wegen seinen niedrigen Pings - und dort werden gerade einmal 8 Kilobyte pro Sekunde übertragen !

Laut deiner Rechnung hätte ISDN dann gegenüber DSL einen Ping von zig Sekunden !

Nun, die Signalsstärke einer Verbindung kann auch bei niedriger Bandbreite sehr hoch sein. Es kann aber bei niedriger Signalsstärke zu höheren Latenzen, z.B. aufgrund von Package-Loss kommen.
Ich bin davon ausgegangen das die Angabe der Maximalreichweite von Bluetooth Version 2 gewisse Rückschlüsse auf dessen Signalsstärke zulässt, die aufgrund der 10m maximal Abstand nicht all zu groß zu sein scheint.
Dadurch das die Package-Größe bei der Übertragung eines Controllers-Befehls aber relativ klein ist, hat das warscheinlich kaum eine Wirkung auf die Latenz. Das hatte ich in der Tat nicht beachtet, eine Bluetooth Verbindung hat also bei einem Controller keinen spürbaren Input-Lag.
Das Microsoft WiFi Direct für die Peripherie nutz, liegt also wohl zu großen Anteilen an Kinect 2.0. Beim Controller gibt es dadurch keine wahrnehmbare Verbesserung (Bluetooth und Wifi-Direct sind beide Lagfrei).

Es gibt aber trotzdem einen Vorteil den WiFi Direct gegenüber Bluetooth hat, jedes WLAN fähige Gerät ist Wifi-Direct kompatibel. Theoretisch benötigt man also keinen Adapter um den Controller mit dem PC zu verbinden.
Für das Pairing benötigt man lediglich Software, die von Microsoft zur Verfügung gestellt werden müsste. Ob Microsoft diese Möglichkeit nutzt ist eine andere Sache.
 
Zuletzt bearbeitet:
Wie gehabt - PS3 - keine Probleme - nächstes Thema.. :shot:
 
Also ich find die Input Lag-Thematik ziemlich amüsant, weil großer Quatsch. Genauso wie der AV-Receiver Quatsch. :d
 
Also ich find die Input Lag-Thematik ziemlich amüsant, weil großer Quatsch. Genauso wie der AV-Receiver Quatsch. :d

Naja... irgendwie muss man die Zeit bis zum Release totschlagen, aber in wie fern bezeichnest du das (Up-)scaling eines AV-Receivers als Quatsch?
Ich muss zugeben das ich es noch nicht bei einer PS3/XB360 ausprobieren konnte, habe meine PS3 schon lange verkauft... aber bei Filmen habe ich sehr gute Resultate: Höhere Schärfe, Bildrauschen wird entfernt (konnte selbst 300 ohne Bildrauschen/Filmkörner schauen)... sogar bei nativem 1080p Material habe ich ein sichtbar besseres Bild mit aktiviertem Videoprozessor, sofern es kein Referenz-Bild ist. Wenn ein AV-Receiver dazu in der Lage ist ein 576p Signal ansehnlich auf 1080p hochzurechnen, gehe ich einfach mal davon aus das 900p (XB1) zu 1080p ebenfalls kein Problem ist, denn in diesem Fall muss der Scaler deutlich weniger Pixel reproduzieren, dass sich dadurch nicht die vorhandene Bildinformation erhöht ist klar... das Bild wird lediglich schärfer.
 
Zuletzt bearbeitet:
Weil bei einer Hochrechnung des 576p Bildes du nicht die Qualität eines HD-Bildes bekommst. Vllt mag es besser sein, aber ich seh es selbst. Die HD-Sender sehen bei mir schon sichtbar besser aus als hochskaliertes Bild vom AVR.

Genauso verhält es sich bei Konsolen.
Du magst Vllt eine bessere Qualität erreichen, aber richtiges 1080p sieht besser aus als hochskaliertes 720p oder was weiß ich.
 
@Sahee
Was ist an einem 576p Bild @1080p skaliert bitte ansehnlich im Vergleich zu einem nativen 1080p Bild und nur darum geht es! Du müsstest quasi die die hochskalierte DVD mit einer BluRay vergleichen (mal angenommen beide wären in ihrer Kategorie Referenz)
Und der Unterschied bei Spielen wird wesentlich deutlicher ausfallen als bei Videos, das kann man von der Bildentstehung an sich schon nicht vergleichen.

Wenn es dir egal ist ob du 900p/720p oder 1080p am laufen hast bitte, ich sehe den Unterschied und setze im zweifel lieber auf die native Auflösung.
 
Weil bei einer Hochrechnung des 576p Bildes du nicht die Qualität eines HD-Bildes bekommst. Vllt mag es besser sein, aber ich seh es selbst. Die HD-Sender sehen bei mir schon sichtbar besser aus als hochskaliertes Bild vom AVR.

Genauso verhält es sich bei Konsolen.
Du magst Vllt eine bessere Qualität erreichen, aber richtiges 1080p sieht besser aus als hochskaliertes 720p oder was weiß ich.

Natürlich ist natives Bildmaterial besser als ein hochskaliertes Bild, es geht mir lediglich darum das mit einem guten Scaler der sichtbare Unterschied zwischen beiden Konsolen (900p vs 1080p) geringer ausfällt.
Der Grund warum sogar natives Bildmaterial unter Umständen mit der Verwendung eines Videoprozessors besser ist, liegt an anderen Dingen, wie z.B. dem reduziertem Bildrauschen.

Bei beiden Konsolen laufen einige Spiele unterhalb von nativem 1080p. Aufgrund des ESRAM erzielt man bei der XB1 das beste Resultat mit einer Auflösung 900p (ESRAM = Frame Buffer).
Natives 1080p ist nativem 900p vorzuziehen, der Unterschied wahrscheinlich auch bemerkbar. Wenn man die 900p auf 1080p hochskaliert kann man beides jedoch bei einem guten Videoprozessor nur im Direktvergleich unterscheiden.
Ich finde es also sogar besser das beispielsweise Crytek den 900p-"Weg" eingeschlagen hat, weil es für mich persönlich der bessere Kompromiss ist als natives 1080p mit schlechteren Texturen, weniger Polygonen usw.
 
Zuletzt bearbeitet:
Ich denke wie Ashe, dass der Unterschied bei den Spielen nochmal größer ist. Und Sorry, ich finde hochskaliertes 576p nicht ansehnlich.
 
Ich denke wie Ashe, dass der Unterschied bei den Spielen nochmal größer ist. Und Sorry, ich finde hochskaliertes 576p nicht ansehnlich.

576p@720p vs 720p ist durchaus vergleichbar, das ist auch in etwa das selbe Resultat wie 900p vs 1080p.
Außerdem sollte man bedenken das die sichtbare Erhöhung der Bildschärfe (für das menschliche Auge) proportional mit der Erhöhung der Auflösung abnimmt.
Bei niedriger Pixeldichte (z.B. 576p) ist es deutlich einfacher die Unschärfe zu erkennen. 576p vs 720p ist also für das menschliche Auge leichter zu unterscheiden als 900p vs 1080p.
Wenn das 900p Signal dann auf 1080p hochskaliert wird, werden die wenigsten noch Unterschiede feststellen können.

Es gab mal einen Vergleich auf NeoGAF, zwei Bilder (900p und 1080p). Der Verfasser wollte wissen welches der beiden Bilder das 1080p Bild ist, viele konnten es trotz Direktvergleich nicht unterscheiden.
Ich konnte es nur Unterscheiden in dem ich geschaut habe welches der beiden Bilder an den Kanten mehr Informationen liefert = 1080p, ohne Direktvergleich hätte ich es nicht gewusst.
Man kann sich also denken was passiert wenn man natives 900p auf 1080p hochskaliert.

Die Quintessenz des ganzen ist das man die Konsolen nicht anhand von geringfügig unterschiedlichen Auflösungen beurteilen sollte.
Es gibt deutlich relevantere Unterschiede, denn selbst wenn man keinen externen Scaler hat, scheint die XB1 intern einen (laut Microsoft) guten Scaler zu besitzen.
 
Zuletzt bearbeitet:
Das ist dann deine Ansicht. Ich sehe zwischen 576p@720 p und 720p nen großen Unterschied.
 
Sind bei der Xbox One die man bei der Gamescom gewinnen konnte eigentlich zwei Controller dabei? Bzw. ist das die day One Edition?
 
Zuletzt bearbeitet:

Der QDEO-Videoprozessor ist sicherlich nicht schlecht, ist aber keine Referenz. Der HQV Vida VHD1900 ist derzeit der beste Scaler im Consumer-Segment.
Ich kann natürlich nicht beurteilen wie dein Resultat ist wenn du 576p auf 720p skalierst, bei mir erziele ich ein (für mein Empfinden) sehr gutes Ergebnis.
Eigentlich ist das aber auch egal, ich will nur verdeutlichen das der 900p vs 1080p Vergleich am Ende vielleicht für manche gar nicht bemerkbar sein wird.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Bluetooth:
Max. 2,1 Mbps Bandbreite
Max 10m Reichweite
Höherer Input-Lag.

WifiDirect:
Max 450 Mbps Bandbreite,
Max 150m Reichweite
Niedrigerer Input-Lag.

Es gibt einen einzigen Bereich in dem die PS4 besser ist und das ist die GPU, Exklusive-Spiele lasse ich mal außen vor... die gibt es zu Release bei der PS4 quasi gar nicht.
Die PS4 ist nicht leistungsfähiger als die XB1, eher im Gegenteil. Die GPU kann vielleicht mehr Pixel antreiben, aber die komplette restliche Anbindung ist der XB1 unterlegen.
Wenn ich absoluter Grafik-Fetischist wäre und keinen PC hätte, dann würde ich mir evtl. die PS4 holen... aber nicht für 400€.

...und obwohl ich die Grafik nicht sonderlich hoch bewerte, solange sie gewisse Standards erfüllt, bin ich selbst mit 720p zufrieden.
Das liegt daran das ich einen AV-Receiver habe der aus 720p Signalen ein sehr gutes 1080p rendert, ohne Bildrauschen.
Aufgrund des ESRAM werden die meisten Titel der XB1 ~900p haben, das kann mein AV-Receiver nahezu verlustfrei auf 1080p skalieren.
Ich brauch nichtmal ein HD+ Abo weil ich die SD-Sender in nahezu der selben Qualität schauen kann.
Der Soundprozessor der XB1 ist auch deutlich performanter, da freuen sich meine ELAC's.

YMMD
Hallo Sahee,
ich habe selten in der Mittagspause so laut gelacht.
LOL. "Ich brauch nichtmal ein HD+ Abo weil ich die SD-Sender in nahezu der selben Qualität schauen kann."
Also ...ich bin alt :-) ,habe eine dicke Brille und habe dank Kabel für 1€ im Monat HD+ , mein Plasma hat 42' und ich sitze meistens 4m weit weg. Wenn ich jetzt zappe und auf Pro7HD Abends Stefan Raab läuft (wird in SD produziert) erkenne ich das in 0,5 sec. Kein Witz 0,5 sec und da nützt mir mein AV Receiver garnix weil das Bild unscharf bzw. weich ist, aber null Schärfe hat. Vielleicht hilft es wenn man bei der X1 10 m weit weg dank WiFi sitzt ;-).
Ich habe SKY ,das ist 1080p und wenn ich von ARD etc. umschalte erkenne ich den Unterschied auch bzw. es fällt mir auf ( aus 4m ) aber nicht so schnell. Wenn ich bald einen größeren hab ,klingt schön zweideutig :-) wird es wohl so sein ,wie wenn ich zum zocken nur 2 m weit Weg bin, da erkenne ich 720p zu 1080p auch innerhalb von Sekunden.
"Der Soundprozessor der XB1 ist auch deutlich performanter" Der Sound ist viel stärker, Wärmer ,offener und die Bühne ist ....
YMMD
Peace
 
Zuletzt bearbeitet:
YMMD
Ich habe SKY ,das ist 1080p und wenn ich von ARD etc. umschalte erkenne ich den Unterschied auch bzw. es fällt mir auf ( aus 4m ) aber nicht so schnell.
Wenn ich bald einen größeren hab ,klingt schön zweideutig :-) wird es wohl so sein ,wie wenn ich zum zocken nur 2 m weit Weg bin, da erkenne ich 720p zu 1080p auch innerhalb von Sekunden.

Du erkennst 1080p innerhalb von Sekunden aber weißt nicht das Sky ein 720p/1080i Signal liefert?
Aber gut das ich dich zum lachen gebracht habe... beruht auf Gegenseitigkeit. Wenn du ein 1080p Signal angezeigt bekommst, dann liegt das an einer Einstellung deines AVRs.
Das ist kein natives 1080p, aber schön das du es besser als natives 720p findest... spricht für deinen upscaler und ich sag doch nichts anderes.

Wenn ich jetzt zappe und auf Pro7HD Abends Stefan Raab läuft (wird in SD produziert) erkenne ich das in 0,5 sec. Kein Witz 0,5 sec und da nützt mir mein AV Receiver garnix weil das Bild unscharf bzw. weich ist, aber null Schärfe hat.

...und ansonsten gebe ich dir Recht. Pro7 HD usw. ist nichts anders als ein hochskaliertes SD-Bild, also genau das was ich mit meinem AVR mache.
Evtl. erklärt das auch meine Aussage: "Ich kann mir das HD+ Abo sparen".

Ich glaube wir driften ins OT.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh