Mr.Wifi
Semiprofi
- Mitglied seit
- 17.04.2008
- Beiträge
- 8.031
Neja wie gesagt, man muss da denke ich einfach den Selbsttest mal machen... Möglicherweise hat der Kontrast durchaus (hohen) Einfluss auf das Bildempfinden allgemein. Mir fällt im direkten Vergleich aber auch die Grobkörnigkeit selbst auf. Das sieht man speziell an den Elementen der Bedienoberfläche, die bei gleicher OS Version und quasi gleichem Skin ja auch gleich aussehen sollten. Dennoch erkennt man den Unterschied, also ich zumindest, wenn ich heute den Vergleich mache.
ich denke es ist hier wichtig auch die darunter liegende technologie zu betrachten, also die Auflösung so weit wie möglich von den anderen Eigenschaften des Displays zu trennen. Der Kontrast wurde ja schon genannt,jedoch können auch verschiedene Strukturen (z.B. Pen-Tile bei Oled) einen grobkörnigeren Eindruck erzeugen. Das ist bei solchen Auflösungsdiskussionen haltimmer die Schwierigkeit diese getrennt voneinander zu betrachten, da man ja eigentlich 2 Geräte vergleichen muss die vor allem in den darunterliegenden technologien die nicht direkt etwas mit der Auflösung zu tun haben, sehr ähnlich aufgebaut sind
Was natürlich richtig ist, sitzt man weiter weg oder ist das Display allgemein weiter entfernt, werden die Feinheiten immer weniger ins Gewicht fallen. Ich denke aber auch, dass dieser Punkt gerade einer der Punkte ist, die extrem subjektiv sind. Also von Mensch zu Mensch natürlich extrem unterschiedlich ausfällt.
Vermutlich sind Brillenträger hier kritischer, denn eigentlich sieht ja kein mensch 100% perfekt, oder so fein wie jemand mit gut justierter Brille
Gerade im PC Monitorbereich sehe ich da noch extrem viel Potential. Vielleicht sehen wir aber irgendwann in Zukunft einfach "rückwertiges Downsampling". Also das die Anwendung einfach mehr Bildpunkte benutzt als eigentlich vorgesehen. Das sollte sich aus meiner Sicht relativ einfach als Zwischenschicht zwischen der eigentlichen Anwendung und dem Hardwaregerät einbauen lassen. Der Vorteil dabei wäre, dass bei jeweils einer Verdopplung der Auflösung zwar nicht primär die Fläche steigt, aber der Detailgrad steigt. Und das völlig ohne Zutun der Anwendung selbst. Zumindest dort, wo man Vectorbasierte Elemente verwendet.
Ich könnte mir sogar vorstellen, dass dies genau der Plan der Softwareindustrie ist. Denn damit braucht man sich dann Softwareseitig nicht um die Skalierung zu kümmern. Für Microsoft dürfte es selbst ein leichtes sein die .NET Elemente Vectorbasiert zu erstellen. Bei Icons und anderen Sachen macht man es ja heute schon... Nur ist heute das Element immernoch an die absolute Pixelanzahl gebunden und diese ist 1:1 mit der Darstellungsgröße gebunden. Mit besagter Zwischenschicht könnte die Größe selbst dann in virtuellen Pixeln angegeben werden, diese werden dann aber auf die Hardware aber über einem Faktor mit 2er Potenzen dargestellt. So lässt sich das Desktop Element zwar nicht Hardwarepixel genau verschieben, aber für 1 virtuelles Pixel werden dann 4 hardware (UHD) Pixel genutzt. Gerade die Darstellung von nicht horizontalen oder nicht vertikalen Formen wird davon stark profitieren... (Rundungen, Kreise, Schriften, whatever)...
Und der zweite Vorteil dabei wäre aus meiner Sicht auch, dass sich die Elemente bei steigender Monitorgröße immernoch gleich verhalten wie sie es heute auch tun Also steigt die Diagonale, steigt auch die Darstellungsgröße im gleichen Maßstab.
Das funktioniert wohl nur mit einem harten Schnitt in sachen legacy Kompatibilität des Compositors. der meist der Teil eines Windowmanagers ist. Apple bekommt es gut hin..
Kannst dir ja mal KDE 5 mit dem von intel entwickelten Wayland Displayserver auf Linux angucken, das skaliert auch sehr gut