Auf 4K/UltraHD folgt nun doch 5K - einer der Trends auf der CES

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.014
<p><img src="/images/stories/logos-2015/5k-logo.jpg" width="100" height="100" alt="5k-logo" style="margin: 10px; float: left;" />Es gibt die kleinen und es gibt die großen Trends der CES. <a href="index.php/news/allgemein/vor-ortmessen/33802-lg-verspricht-mehr-konnektivitaet-und-das-internet-of-things.html" target="_self">"The Internet of Things" und Wareables</a> sind sicherlich die herausragenden Themen auf der diesjährigen Consumer Electronics Show. Doch oftmals sind es die kleinen Trends, die wirklich interessant sind. Im Bereich der Monitore ist dies zum einen die <a href="index.php/news/hardware/monitore/33795-das-sind-die-freesync-modelle-der-ces-2015.html" target="_self">Vorstellung zahlreicher Gaming-Monitore mit FreeSync-Unterstützung</a> und auf der anderen Seite wohl der...<br /><br /><a href="/index.php/news/hardware/monitore/33848-auf-4kultrahd-folgt-nun-doch-5k-einer-der-trends-auf-der-ces.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"Ultra HD" sollte eigentlich ja auch direkt 8K werden...
 
4K, 5K, 8K -- ich sehe schwarz für zukünftige effiziente Gaming-Systeme :fresse:

Für den Arbeitsalltag aber einer gewissen Bilddiagonale aber sicherlich sehr nett.
 
Also ich finde 4K für Gaming Monitore sinnlos. 2K sind absolut in Ordnung. Ab 4 K sollte es dann jedenfalls nicht unter 28" sein. Zudem muss man einen großen Batzen Geld ausgeben, damit 4K überhaupt flüssig in neuen Spielen läuft...
 
Also ich finde 4K für Gaming Monitore sinnlos. 2K sind absolut in Ordnung. Ab 4 K sollte es dann jedenfalls nicht unter 28" sein. Zudem muss man einen großen Batzen Geld ausgeben, damit 4K überhaupt flüssig in neuen Spielen läuft...

yep, und wenn sich 4k noch nicht mal flüssig für Gamer realisieren lassen ohne seine Seele an die Banken zu verpfänden, dann ist 5k und darüber noch Meilenweit weg..
Bin gespannt, wie nVidia und AMD mit den Auflösungen auch nur ansatzweise mithalten können (in Bezug auf flüssige Darstellung aktueller Spiele).
 
Also ich finde 4K für Gaming Monitore sinnlos. 2K sind absolut in Ordnung. Ab 4 K sollte es dann jedenfalls nicht unter 28" sein. Zudem muss man einen großen Batzen Geld ausgeben, damit 4K überhaupt flüssig in neuen Spielen läuft...

Ja, wer noch kein 4K hatte oder hat, der sieht das natürlich alles als sinnlos an.
Ich habe einen 4k-Monitor und nur eine 250 Euro Grafikkarte. Und diese kann sogar einige ältere Spiele flüssig wiedergeben. Klar, die Blockbuster benötigen mehr Power. Aber gegen teuer und preis überzogen gibt es schon lange ein Patentrezept. Nennt sich AMD und diese drehen dank ihrer zukunftsorientierten Bauweise noch ordentlich auf, wenn der Anspruch steigt und brechen nicht weg.

Wer kein 4k besitzt, der weiß natürlich nicht, das man bei 4k keine Bildglättungsverfahren wie Antialaising oder Supersampling oder DSR ect. mehr benötigt. Da läuft alles nativ ab. Treppenstufen sind ab 4k kaum noch wahrnehmbar. Ab 5K dann gar nicht mehr.
Die ganzen Filter, die man einsetzte, um das Bild zu verschönern, haben es eigentlich nur weich gezeichnet und kosteten sehr viel Rechenpower.
Mit 4k ist alles gestochen scharf ! Selbst ältere Spiele wirken wie neu kreiert. ;)

Aber das werdet ihr sicherlich noch irgendwann selber erfahren. :d
 
@Pickebuh

Amen :)
Ich stimme dir in jedem Punkt zu. Zu einer niedrigeren Auflösung werde ich persönlich nie wieder zurück kehren.
 
Ja, wer noch kein 4K hatte oder hat, der sieht das natürlich alles als sinnlos an.
Ich habe einen 4k-Monitor und nur eine 250 Euro Grafikkarte. Und diese kann sogar einige ältere Spiele flüssig wiedergeben. Klar, die Blockbuster benötigen mehr Power. Aber gegen teuer und preis überzogen gibt es schon lange ein Patentrezept. Nennt sich AMD und diese drehen dank ihrer zukunftsorientierten Bauweise noch ordentlich auf, wenn der Anspruch steigt und brechen nicht weg.

Wer kein 4k besitzt, der weiß natürlich nicht, das man bei 4k keine Bildglättungsverfahren wie Antialaising oder Supersampling oder DSR ect. mehr benötigt. Da läuft alles nativ ab. Treppenstufen sind ab 4k kaum noch wahrnehmbar. Ab 5K dann gar nicht mehr.
Die ganzen Filter, die man einsetzte, um das Bild zu verschönern, haben es eigentlich nur weich gezeichnet und kosteten sehr viel Rechenpower.
Mit 4k ist alles gestochen scharf ! Selbst ältere Spiele wirken wie neu kreiert. ;)

Aber das werdet ihr sicherlich noch irgendwann selber erfahren. :d

Und wenn man aktuelle Spielen spielen will, am besten über 40fps?
 
Und wenn man aktuelle Spielen spielen will, am besten über 40fps?

Auflösung auf 1080p stellen, in Spielen, die in 4k nicht laufen. So schwer wird das wohl nicht sein... Sollte ja dann nicht schlechter aussehen als auf einem FullHD Bildschirm.
Und wie schon gesagt wurde, die Spiele sind heute zu detailreich für 1080p. Dass man bei 4k auf 28" keine Kantenglättung braucht ist auch ansitssache. Das sind <160DPI. Natürlich ist es nicht mehr ganz so nötig, wie bei 1080p aber es macht immer noch was aus! Natürlich sieht 4k ohne kantenglättung trotzdem vieeeeel besser aus als 1080p mit Kantenglättung.
Ich persönlich fände 32" mit 5k eine gute Größe, doch das wird wohl noch ein paar Jahre dauern, bis es sowas für einen bezahlbaren Preis gibt.
 
Und wenn man aktuelle Spielen spielen will, am besten über 40fps?

Und was ist wenn man fliegen will ? Braucht man dazu Flügel oder kann man wie ein Stein segeln ?? ... Mann oh mann...

Man kann sich auch eine 2te Grafikkarte kaufen. Kostet nicht viel, wenn man nicht all zu sehr herstellerorientiert ist.
Auch kann man von 4k wieder jederzeit auf 1080p,1440p,1800p runter regeln, wobei 1080p dann wieder nativ ist.
Zudem gibt es so komische Regler in einem Spiel selber, die kann man z.B. von Ultra auf High stellen, wenn es nicht anders geht.
 
Sorry, aber wenn ich mir einen 4K Monitor hinstelle, dann will ich auch die volle Pracht genießen... Und nicht die Regler auf 1080P stellen weil die Karte nicht mit kommt.

Und bei aktuellen spielen reicht es eben bei vollen Details nicht. Da kommen auch meine beiden 290X bei 2560 teilweise an die Grenzen...

4K ist noch lange hin, bis es massentauglich in Spiele-PCs angekommen ist. Aber gut, dass die Entwicklung endlich weiter geht :)

Gesendet von meinem OnePlus One
 
Und was ist wenn man fliegen will ? Braucht man dazu Flügel oder kann man wie ein Stein segeln ?? ... Mann oh mann...

Man kann sich auch eine 2te Grafikkarte kaufen. Kostet nicht viel, wenn man nicht all zu sehr herstellerorientiert ist.
Auch kann man von 4k wieder jederzeit auf 1080p,1440p,1800p runter regeln, wobei 1080p dann wieder nativ ist.
Zudem gibt es so komische Regler in einem Spiel selber, die kann man z.B. von Ultra auf High stellen, wenn es nicht anders geht.

4k läuft selbst im SLI / Crossfire in relativ aktuellen Titeln bescheiden (wenn man auf 30-40fps kommt kann man froh sein, aber dann kommen massive microruckler dazu). Runterregeln auf 1080p ist natürlich möglich, nur ists dann vorbei mit der 4k Pracht.
-> Zum Zocken von anspruchsvollen Titeln ist ein 4k Monitor derzeit einfach Blödsinn. Möchte man ihn für was anderes Benutzen oder spielt gern ältere Sachen ists was anderes!
 
Zuletzt bearbeitet:
Zum Arbeiten sind so hoche Auflösungen schon genial weil man einfach sehr viel Arbeitsfläche gewinnt.
Aber letztendlich hört diese Sinnhaftigkeit bei einem gewissen Verhältnis aus Diagonale und Auflösung auf, ich würde aus eigener Erfahrung behaupten dass 4k auf 32 Zoll an diesem Verhältnis recht nah dran sind.
Das ist bei 100% Skalierung unter Windows schon zu klein und die Pixeldichte ist hoch genug dass man keine Pixel mehr erkennt.
Mit der Diagonale kann man dann aber auch nicht viel weiter rauf, 32 Zoll auf dem Schreibtisch sind schon sehr mächtig.

Die Skalierung muss halt besser werden. Nicht nur die von Windows selbst, einige Anwendungen skalieren da nicht (vernünftig) mit, z.B. die von Adobe.
 
Sorry, aber wenn ich mir einen 4K Monitor hinstelle, dann will ich auch die volle Pracht genießen... Und nicht die Regler auf 1080P stellen weil die Karte nicht mit kommt.

Das kannst du auch !
Mit 2 Karten + OC ist es sehr wohl möglich auch aktuelle Titel in 4k zu genießen.
Warum glaubst, warten alle auf die neue Generation von Grafikkarten ? Sei es der GM200 oder die R9 390er Serie. 4k Wird dann noch mehr zum Alttag gehören.

Du lebst in der Vergangenheit, weil NVIDIA dir Karten für die Vergangenheit als High-End-Karten verkauft. Wach auf und sieh mal etwas weiter in die Zukunft. 4k wird Full-HD komplett verdrängen. Dazu gehören eben Karten für die Zukunft, was du mit er 900er-Serie von NVIDIA nicht bekommst.
Aber dazu musst du deinen eigenen Horizont erweitern...
 
na dann bring mal ne 4k single gpu ran die heute schneller ist als 2x970 gtx :)

das 4k full hd verdrängen wird steht außer frage. leute mit mehr geld können sich das halt früher leisten. wayne^^
 
Zuletzt bearbeitet:
Das kannst du auch !
Mit 2 Karten + OC ist es sehr wohl möglich auch aktuelle Titel in 4k zu genießen.

Ja? Dann SPiel mal Tomb Raider, Crysis 3, Watch Dogs etc egal ob 2x980 780Ti oder 290X, mehr als 25fps gibts da nicht.
Und du glaubst ja nicht das die nächste Gen als Single GPU da mal eben 50fps hinstampfen wirde.
Ja 4k wird FullHD verdrängen, aber noch haben wir zu wenig Power
 
ich find die 4k richtung super,
dann MUSS bei den Grafikkarten und vor allem bei der nächste Konsolengeneration wieder mal RICHTIG FETT was weitergehen !
nicht nur so 5-10% schneller als die letzte Generation MistDreck....
 
Ja? Dann SPiel mal Tomb Raider, Crysis 3, Watch Dogs etc egal ob 2x980 780Ti oder 290X, mehr als 25fps gibts da nicht.
Und du glaubst ja nicht das die nächste Gen als Single GPU da mal eben 50fps hinstampfen wirde.
Übertreib mal nicht :hmm: Watch Dogs ist wirklich problematisch (das Spiel ist auch ein Wrack - Ubisoft halt...), aber Tomb Raider und Crysis 3 habe ich via Downsampling auf 3840x2400 durchgezockt, 2013 schon durchaus machbar mit Kepler SLI. Damit will ich die Situation nicht beschönigen, die aktuelle Hardware ist bei 4K natürlich an der absoluten Leistungsgrenze, aber es GEHT schon und das auch bei modernen Spielen mit mehr als 25fps... BF4 @4K ist durchaus Multiplayer-tauglich, wenn man die Effekte etwas runterdreht (sonst Drops unter 60fps bei Explosionen). Mit Single GPU wird man bei 4K auch in der nächsten Generationen keinen Blumentopf gewinnen, da stimme ich zu.
 
Zuletzt bearbeitet:
Das kannst du auch !
Mit 2 Karten + OC ist es sehr wohl möglich auch aktuelle Titel in 4k zu genießen.
Warum glaubst, warten alle auf die neue Generation von Grafikkarten ? Sei es der GM200 oder die R9 390er Serie. 4k Wird dann noch mehr zum Alttag gehören.

Du lebst in der Vergangenheit, weil NVIDIA dir Karten für die Vergangenheit als High-End-Karten verkauft. Wach auf und sieh mal etwas weiter in die Zukunft. 4k wird Full-HD komplett verdrängen. Dazu gehören eben Karten für die Zukunft, was du mit er 900er-Serie von NVIDIA nicht bekommst.
Aber dazu musst du deinen eigenen Horizont erweitern...

Hmm, doof... Hättest mal richtig gelesen, hättest du gesehen, dass ich derzeit 2 übertaktete 290X im System habe... Und, oh Wunder, auch damit läuft nicht alles auf "High" in 4K.... Klar gehört 4K der Zukunft aber das dauert eben noch ein paar Kartengenerationen bis die Leistung auch dafür ausreicht...

Und zwecks Horizont, wenn es massentauglich sein soll, muss es mit einer Singlekarte laufen. Denn 99% der kaufen kaufen/haben kein SLI/Crossfire...

Gesendet von meinem OnePlus One
 
Übertreib mal nicht :hmm: Watch Dogs ist wirklich problematisch (das Spiel ist auch ein Wrack - Ubisoft halt...), aber Tomb Raider und Crysis 3 habe ich via Downsampling auf 3840x2400 durchgezockt, 2013 schon durchaus machbar mit Kepler SLI. Damit will ich die Situation nicht beschönigen, die aktuelle Hardware ist bei 4K natürlich an der absoluten Leistungsgrenze, aber es GEHT schon und das auch bei modernen Spielen mit mehr als 25fps... BF4 @4K ist durchaus Multiplayer-tauglich, wenn man die Effekte etwas runterdreht (sonst Drops unter 60fps bei Explosionen). Mit Single GPU wird man bei 4K auch in der nächsten Generationen keinen Blumentopf gewinnen, da stimme ich zu.

Laut diversen Benchmarks im Netzt und PCGH liegt bei man Crysis 3 auf UHD bei rund 33fps. Das sind erstens nicht wirklich tolle Frameraten und bei so geringen FPS machen sich Microruckler extremer bemerkbar!
Das hat nichts mit "in 4k genießen" zu tun.
Bis 4k wirklich "genießen" können vergeht nicht nur eine Generation, auch nicht mit SLI
 
8K wird kommen - aber das wird noch lange dauern. Der Grund: Während die Auflösung bisher hinter der Rechenleistung „zurücklag“ (Full-HD gibt es schon seit über 10 Jahren), ist 8K in jeder Hinsicht oversized. 8K kann man auch mit einer High-End-Workstation kaum bis nicht schneiden (geschätzt!), der Speicherbedarf von 8K-Aufnahmen ist gigantisch und letztendlich gibt es auch kein Speichermedium dafür. Selbst bei H.265 müsste man wohl mindestens 100 Mbit/s als Datenrate ansetzen, bei Produktionsformaten wohl eher 500 Mbit/s bis 1Gbit/s.
Zudem gibt es - außer ein paar experimenteller Kameras - keine Hardware, die das aktuell leisten kann. Zum Vergleich: 4K gibt es bereits seit mindestens 2007 mit der Red One, langsam setzt sich 4K aber erst wirklich durch. Also sind hier minimum sieben Jahre vergangen. Eine 8K Kamera gibt es serienreif bei weitem noch nicht. Also dürfte man vor 2022 nicht von einer breiteren Verfügbarkeit von 8K-Medien ausgehen können. Eher noch später. Zudem kommt noch der Trend zu 50 oder 60 Fps dazu, die anfallende Datenmenge wird also nochmals größer.
Tragisch ist das freilich nicht, mit 4K ist man für den Hausgebrauch sehr gut bedient. 8K bringt hier effektiv nicht mehr viel mehr.
Bei Spielen sieht es ähnlich aus. Selbst wenn sich die Leistung der aktuellen Grakas noch zweimal verdoppelt, reicht das bei 8K gerade so für 25 Fps. Durchgängig 60p bei 8K wirds auch theoretisch wohl erst 2020/25 oder später geben.
 
Zuletzt bearbeitet:
Auflösung auf 1080p stellen, in Spielen, die in 4k nicht laufen. So schwer wird das wohl nicht sein... Sollte ja dann nicht schlechter aussehen als auf einem FullHD Bildschirm.

Genau so gut wie 720p@1080p, nämlich beschissen. Die verbauten Scaler sind einfach schlecht. (Eventuell gibt es einige hochpreisige Geräte, welche einen passablen Scaler besitzen, die Masse jedoch nicht)
@Pickebuh

Amen :)
Ich stimme dir in jedem Punkt zu. Zu einer niedrigeren Auflösung werde ich persönlich nie wieder zurück kehren.

+1
 
Genau so gut wie 720p@1080p, nämlich beschissen. Die verbauten Scaler sind einfach schlecht. (Eventuell gibt es einige hochpreisige Geräte, welche einen passablen Scaler besitzen, die Masse jedoch nicht)

1080p@UHD sieht eigentlich recht in Ordnung aus, weil der Scaler nahezu nix zu tun hat, einfach ein Pixel auf 4 Pixel liegen, du bekommst das gleiche Bild wie auf nem FullHD Screen. Trotzdem würde ich mir kein UHD Screen kaufen um dann Mangels Leistung auf FullHD zu spielen
 
1080p@UHD sieht eigentlich recht in Ordnung aus, weil der Scaler nahezu nix zu tun hat, einfach ein Pixel auf 4 Pixel liegen, du bekommst das gleiche Bild wie auf nem FullHD Screen. Trotzdem würde ich mir kein UHD Screen kaufen um dann Mangels Leistung auf FullHD zu spielen

Nein.

Hab ein wenig recherchiert und ich muss meine Aussage bezüglich des Scalers korrigieren. Es ist nicht so, dass die meisten Consumer Monitore schlechte Scaler besitzen sonder gar keinen.

d.h. dass Auflösungen, die kleiner als die native Auflösung sind werden von der GPU skaliert und diese interpoliert das Bild um es auf die Fläche zu skalieren, z.B. durch Bildung des Durchschnitts der Nachbahrpixel. Dadurch entsteht ein verwaschenes Bild. Wenn der Monitor eine Upscaler besitzt dann wäre es theoretisch möglich 4 Pixel auf 1 Pixel zu mappen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh