Was das für eine Aussage ist. Mit 1m unterschreitest du auch deutlich den empfohlenen Mindestabstand, denn dort wird auch 4k empfohlen. Darum sage ich auch das bei geringen Mindestabständen 4k Sinn macht, es sitzen jedoch die wenigsten so dicht vor ihren Geräten. Die meisten die ich kenne sitzen im TV Sektor 3-4m vor ihrer 37-50Zoll Glotze, die haben teilweise nicht mal mehr etwas von 720p.
Außerdem kannst du dich glücklich schätzen ich habe 100% Sehleistung und entspreche damit dem Großteil der Bevölkerung auch wenn viele das nur mit Sehhilfe erreichen und sehe bei 1,6m auf 46Zoll keines der Pixel mehr
ich hab nichtmal 100%
Bin angehalten, eine Brille zu tragen, was ich praktisch nie mache. Dennoch sehe ich auf die Nähe scheinbar sehr gut.
Aber sei es drum, ich beziehe mich auch auf die Aussage wie im Quote zu lesen.
Und da steht: "50Zoll bei einem Meter Distanz bei Fullhd Ideal, bei 4k sollte man schon auf 50cm ran bei 8k sinls d es dann 25cm Abstand um die Augen nicht als begrenzenden Faktor zu haben."
Ich brauch bei 1m keine 50" um die Pixel zu zählen. Sicher man sieht faktisch nicht das Pixel genau, aber man sieht, das es nicht vollständig ineinander überläuft. Weil die Pixel zu "groß" sind auf der kleinen Entfernung. Das Argument mit 4K und 50cm sowie 8K und 25cm kann ich dahingehend also gar nicht nachvollziehen...
Und ja, es ist wohl definitiv die Ausnahme, sowas in der Art einzusetzen. Aber das spielt keine Rolle... Der Unterschied ist auch bei größeren Entfernungen deutlich. Man sieht einen Unterschied bei gleicher Diagonale von sagen wir 40" bei 13xx*768 zu FullHD. Also wird man auch den nächsten Schritt faktisch sehen. -> aus Mangel an Geräten zuhause dürfte nur der Masse schlicht der Vergleich fehlen um das auch klar zu bejahen!
Es geht dabei auch nicht darum, den vollen Nutzen daraus zu ziehen, da reichen doch schon minimal sichtbare Unterschiede, die das ganze besser machen...
Na mal schauen, ob AMD und/oder NVIDIA ihre Partner-Entwicklerstudios dazu bringen können, da etwas früher zu reagieren und bereits in naher Zukunft z.B. über höher aufgelöste Texturen zu liefern.
Das kommt wohl mit den Konsolen...
Das größte Problem im PC Umfeld ist schlicht der VRAM.
4K Vorab-Tests macht man heute am besten mit Downsampling. -> und da kommt man bei aktuellen Blockbustern schnellstens ans Limit und auch weit drüher hinaus.
Ich kenne Bilder von Skyrim mit HD Texturen + HD Texturmods in 4K ohne AA! im VRAM Limit bei nem Titan SLI mit starken Nachladerucklern... Und das ist hier und heute.
Durch dieses ganze FXAA und Weichzeichnerzeugs konnte man sich die letzten Jahre mehr oder weniger da noch gut durchmogeln. Setzt 4K aber irgendwann mal in der Masse ein, wird auch essentiell mehr VRAM benötigt. Immerhin ist der Schritt größer als die eher kleinen Abstände bis jetzt (640x480 -> 800x600 -> 1024x768 -> 1280x1024 -> 1680x1050 -> 1920x1080) Das dürften wohl so die meisten fast vollständig mitgenommen haben (zumindest wenn die Leute schon länger dabei sind im PC Gamerumfeld)
Die Mehrpixel sind eher überschaubar -> mit 4K gehts um den Faktor 4 nach oben. Selbst wenn man noch 2560x1440 zwischen schiebt, ist der Faktor immernoch deutlich über dem damaligen Zuwachs...
Worum es geht ist, dass die entsprechenden Displays in wenigen Monaten schon erschwinglich sind und sich durch die höhere Auflösung vielleicht ein gewissen Vorteil gegenüber z.B. den Konsolen ergibt.
Ich denke, der Durchbruch kommt frühestens mit HDMI 2.0 respektive der neuen DP Standards, wenn es da mal was geben soll.
Problematisch ist aus meiner Sicht aber immernoch, das HDMI 2.0 wenn mich nicht alles täuscht faktisch nicht reicht um 4K@3D@60Hz zu liefern. -> da hat irgendwo irgendwer nicht ganz mitgedacht...