Wie funktioniert das mit dem 4K?

@flashbeagle
Aber natürlich besteht der Reiz von UHD darin, mehr -sogar sehr viel mehr- Inhalt zu bekommen. :)
Aber gut, ich bin ein alter Sack; seit Jahrzehnten bedeutet für mich mehr Pixel linear mehr Inhalt. Vielleicht gibt es derzeit einen Umbruch und meine Betrachtungsweise ist antiquiert.

Tja, das wird es dann vielleicht sein.
Denn es hat noch nie jemand davon gesprochen, mit UHD mehr Inhalt darstellen zu wollen.

Es gab einen zaghaften Versuch beim Fernsehen mit Full-HD mal mehr Inhalt zu zeigen.
Gab ein paar tolle Demos damals mit mehr Unterwasserwelt, oder mehr Stadion beim Fussball.
Allerdings konnte da ja immer nur das unwichtige gezeigt werden, da der normale Zuschauer mit maximal HD ja auch das wichtige sehen musste.
Hatte sich aber bekanntlich nie durchgesetzt.

Aber mehr Pixel kamen immer nur mit mehr Zoll.
Alles bewegte sich im Rahmen der 100%igen Windows-Auflösung von 96 dpi.

Und auch: Wenn man mit dem ‚Vorschlaghammer‘ alles verdoppelt, kann man sich UHD sparen, auch wenn das Eine oder Andere ‚trotzdem irgendwie‘ schärfer wirkt.

Wie findest Du denn BluRay-Filme?
Sind die nicht auch schärfer, ohne mehr Inhalt zu zeigen?
Genau das klappt am Computer ja auch in absehbarer Zeit.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mhh, ich habe einen recht modernen Fernseher mit allem schnickschnack.
Und meine erste Maßnahme war es ihn un-smart zu machen. Stichwort: nach Hause telefonieren…
Ich kam noch garnicht auf die Idee den PC/Laptop mit einer BlueRay zu füttern. Werde ich gelegentlich mal machen.
Ich glaube die paar BR, die ich habe, habe ich mir wegen den 3D-Effekten zugelegt.
Ich habe mich in der Tat noch nie gefragt, ob 3D auf Monitoren überhaupt geht.

Mit ‚mehr Inhalt‘ beziehe ich mich natürlich auf ‚seriöse‘ Anwendungen wie Tabellenkalkulation und meinem Broterwerb; dem CAD-zeichnen.
Mit einem kleinen Monitor zu konstruieren, ist wie Rohre unter der Küchenspüle zu montieren.
 
Ich kam noch garnicht auf die Idee den PC/Laptop mit einer BlueRay zu füttern.

Ich meinte eigentlich den Fernseher.
Da hat man ja auch mehr Auflösung bei gleicher Größe.
Da sagt auch jeder, dass es schärfer ist. Genauso funktioniert das ja auch bei den neuen High-DPI-Monitoren.
 
@flashbeagle
Ah, dass Du Dich nun auf Fernseher beziehst, war mir nicht bewusst.
Aber es bleibt die gleiche Argumentationskette: Solange feinere Auflösungen wahrnehmbar sind, wird man auch sagen, das Bild wirkt schärfer.
Die übliche Auflösung von Fernsehprogrammen und DVD-Filmen hat bestenfalls 720×576 Punkte, allgemein PAL genannt.
Zu Röhrenfernseher-Zeiten waren Diagonalen von 60-70cm, umgerechnet 24-28 Zoll, üblich.
Bei heutigen durchschnittlichen Fernseher-Diagonalen zwischen 40 und 50 Zoll ist PAL bei üblichem Betrachtungsabstand bereits recht grob aufgelöst, also subjektiv unscharf. Da sieht ein HD-Fernseher, mit zugespieltem HD-Material, plötzlich in der Tat viel schärfer bei gleichem Inhalt, aus.
Nun geht es in diesem Thread um Monitore, aber mit Blick auf die Fernseher-Entwicklung, haben wir doch genau mein Argument:
Die Dinger werden immer größer, um der gelangweilten Couchpotatoe ein mehrere Meter breites multimediales Mainstream-Hollywood-Spektakel zu liefern.
Und bevor HD, ob immer größerer Diagonalen, wiederum grobkörnig erscheint, kommt 4k in die Läden.
Nur dass beim Fernsehern durch die letzten Jahre zuerst! die großen Diagonalen kamen, und dann! die höheren Auflösungen.
Die ersten großen Flachbildschirme hatten bestenfalls sog. HD-ready, falls sich noch einer daran erinnert. Dann kamen fullHD-Fernseher in die Läden, bevor es überhaupt Inhalte hierzu gab. Als dann BlueRay und HD per Kabel kam, hat man jetzt sein HD-Erlebnis. Nun werden 4k-Fernseher beworben und die Frage nach Inhalten stellt sich erneut.
Und die Diagonalen werden weiter steigen, entweder per Hardware=Panel, oder mittels 4k-Projetoren.
 
Zuletzt bearbeitet:
Also nochmal:

wie ist es nämlich das viele diese Fragen stellen:
1. Wie sieht 1440p oder 1350p auf einem UHD Monitor zum spielen aus
2. Läuft 1440p oder 1350p auch mit 90Hz z.B.

Danke
 
Zuletzt bearbeitet:
@flashbeagle
Ah, dass Du Dich nun auf Fernseher beziehst, war mir nicht bewusst.
Aber es bleibt die gleiche Argumentationskette: Solange feinere Auflösungen wahrnehmbar sind, wird man auch sagen, das Bild wirkt schärfer.

Es ging mir nur darum, Dir aufzuzeigen, dass es auch mehr Schärfe bei gleich großen Inhalt gibt.
Genauso wie bei den 4K-Displays am Monitor.
 
Arhg, flashbeagle, langsam machst Du mich wirklich fertig, mir immer brav zu erklären, was ich gerade genauso ausformuliert habe.
Nur willst Du partout nicht durch den letzten Reifen der Erkenntnis springen:
Es sind die Augen, die Augen, Mann!
Moment: :love: Ich habs mal rot eingefärbt
Mit deren physikalischen Eigenschaften steht und fällt die ganze Argumentationskette. Natürlich kannste Auflösung bis ins n-Stelligste unendlich steigern, und schärfer wird’s auch immer.
Nur hahm Deene Klüsen nischt mehr von.
Siehste, jetzt habe ich auf meinem UHD-Schirm garnicht gesehen, dass es Herzen auf den Augen des Smiley sind :)
 
Zuletzt bearbeitet:
Öhm, nene... Hier geht's nicht um meine Erkenntnis.
Du hattest den Sinn der High-DPI Monitore nicht verstanden und wolltest mehr Inhalt etc.
Ich habe nur versucht, Dir mal zu zeigen, wann sie Sinn machen.
Also wegen mir musst Du da nichts versuchen zu erklären, denn ich bin soweit zufrieden mit der hohen Auflösung.
 
Du hattest den Sinn der High-DPI Monitore nicht verstanden und wolltest mehr Inhalt etc.
Ich habe nur versucht, Dir mal zu zeigen, wann sie Sinn machen.

Deine Argumentation hat aber einen massiven Pferdefuß. Denn du bekommst die "Schärfe" durch höhere DPI nur dann, wenn der Inhalt auch skalierbar ist, den du darstellen willst... Ist er dies nicht, weil der Inhalt nicht in höheren Auflösungen bereit steht, dann wirds auch nicht schärfer.
Und hier unterscheiden sich die Anwendungen eben grundlegend. Insich geschlossene Systeme wie ein Smartphone, ja sogar die Mac OSX Welt sind da ganz andere Baustellen als eine quasi offene Windows Kiste... Denn unter Windows gilt in erster Linie, dass die Programme nicht mit der Größe/Fläche skalieren, sondern absolut an der Pixelzahl ausgerichtet sind.
100 Pixel auf einem FHD Monitor sind nicht schärfer als 100 Pixel auf einem UHD Monitor. Sie sind kleiner und damit wirkt es schärfer. Aber es ist nicht schärfer, da nicht mehr Informationen für ein und das selbe Objekt dargestellt werden! Wärend du also bei nem Smartphone im Vergleich mit wahnwitzigen DPI Zahlen immer gleich große Objekte hast und somit mehr Pixel pro Objekt die Darstellung übernehmen, schrumpft der Spaß in der Windows Welt einfach zusammen. (Mit Ausnahmen von neueren Spielen bspw.)

PS: übrigens stimme ich auch nicht zu, dass der "Sinn" von "High-DPI Monitoren" die Schärfe sein soll. Gerade im PC Umfeld gilt mehr Auflösung eben seit ewig schon für mehr Arbeitsfläche... Was auch durchaus sinnvoll ist. Denn du stellst mehr Objekte dar und kannst somit effektiver arbeiten.
Das Problem hier ist eher, das wir mit dem Sprung von FHD/1440p auf UHD idR die Schmerzgrenze der sichtbaren Pixel überschreiten. So sehen eben die Objekte in UHD auf 27" so winzig aus, das man es fast nicht mehr erkennt, wärend FHD in 27" beinahe noch zu groß ist. (je nach persönlicher Anforderung)
Dazu kommt die Tatsache, das die Windows Skalierungsfunktionen schlicht nicht 100% funktionieren (können)... Da die Anwendungen, wie oben erwähnt auf absolute Pixel setzen anstatt auf relative Prozentangaben zur Größe (Smartphones, Mac OSX). Noch dazu ist der Programmierer in der Erstellung seiner Anwendung völlig frei. Er kann für die visuelle Gestaltung Bilder nutzen, wenn er das will... Er kann auch skalierbare Vectorgrafiken nutzen. Oder die .NET Objekte verwenden. Das Aussehen wird sich aber grundverschieden auf die Skalierungsoptionen ändern. Hier kann ich absolut den Aussagen von fullHDade oben zustimmen, bspw. den Part mit den Schriften. Die Schriftarts sind heute idR Vectorbasiert, sprich du kannst sie quasi beliebig skalieren. Weswegen dein geschriebener Brief in Words oder anderen Tools auch bei 800% Zoomstufe nicht mit ausgefranzter Schrift dargestellt wird... Das war vor Jahren mal noch anders. ;)
 

Das wurde alles schon angesprochen auf den letzten Seiten.
Wenn jemand meint, ein 163 dpi-Monitor wäre unnötig, weil der Inhalt zu winzig wird und mit dem aufblasen wieder nur so scharf ist, wie vorher, der wird nicht dazu gezwungen solche Monitore zu kaufen.
Ich selbst hatte erwartet, dass es auf der Hand liegt, dass ein 27" UHD-Monitor für mehr Schärfe sorgen soll und nicht für mehr Inhalt.
Aber scheinbar sieht das nicht jeder so und ich will auch keinen missionieren.
 
Ich selbst hatte erwartet, dass es auf der Hand liegt, dass ein 27" UHD-Monitor für mehr Schärfe sorgen soll und nicht für mehr Inhalt.
Aber scheinbar sieht das nicht jeder so und ich will auch keinen missionieren.

Wie gesagt, hier gibts nicht nur schwarz und weis... Der Mittelweg ist der entscheidende... Für manche Sachen brauchst du/willst du mehr Fläche und für mache Sachen willst du mehr Schärfe.
Das Beispiel mit der BR oben kam doch von dir. Schnapp dir ne DVD eines Filmes, dazu die BR im Vergleich und wirf das Video auf nem FHD+UHD Screen an. Du wirst feststellen, das sich ausgehend vom Quellmaterial der DVD der Faktor Bildqualität zwischen FHD Monitor und UHD Monitor unwesentlich unterscheiden, wenn überhaupt. Die BR hingegen wirkt bei beiden deutlich schärfer. (weil das Quellmaterial hochauflösender ist) Hättest du nun noch den orginal 4k/UHD Kontent, dann wäre nur auf dem UHD Monitor dieser auch wirklich schärfer als die BR.

Das Problem bleibt aber auf dem PC, das du für gewisse Sachen mehr Fläche willst und die Schärfe gar nicht ausschlaggebend ist. Stell deine Monitorauflösung auf 640x480 und versuch mal mit einem heutigen Tabellenkalkulationsprogramm ala Excel anständigen zu arbeiten. Selbst wenn deine Monitor Diagonale entsprechend klein wäre, hättest du einfach viel zu wenig Fläche. Erhöhst du die Auflösung, wirds da nicht primär schärfer, sondern du gewinnst Fläche. Eben genau diese Fläche wird benötigt. Versuch das im Vergleich mit nem 300+ DPI Smartphone und stelle fest, das dich die mehr Schärfe durch mehr DPI auch hier nicht ans Ziel bringt... Denn die Fläche wird immernoch nicht mehr, aber eben benötigt.


Die Frage ist also, wie den Mittelweg zwischen Schärfe und Fläche schaffen? -> In der Windows Welt aktuell eher schwierig zu realisieren. Denn wie gesagt, aktuell hängt vieles an der absoluten Pixelanzahl. Es wird also eben nicht schärfer bei steigender DPI Zahl. Ob sich daran als Bald was ändert? Abwarten...
 
Zuletzt bearbeitet:
Als ich das erste Mal von UHD hörte, wollte ich das unbedingt sofort haben und ich bin früh auf den UHD-Zug aufgesprungen, weil mir UHD nach all den Jahren an 2.560x1.600 Punkten endlich mal wieder ein Sprung in der Auflösung anbot.

Da gab es Anfang 2014 die Optionen 27‘‘ TN für €700,- oder 31‘‘ IPS für weit über 3 Mille (beispielhaft den asus PQ321QE der sogar nur im ungeliebten MST-Modus läuft).
@flashbeagle: So war ich in der Tat ‚gezwungen‘ -letztlich von meinem Portemonnaie- mir UHD in 27‘‘ zuzulegen, wissend, dass mit fast 160ppi nicht einfach so die 4-fache Pixel-Ausbeute gegenüber FHD machbar ist, weil‘s die Augen nicht mehr schaffen.
Der Acer B326HK (vgl. dortigen Thread) ist der erste und bisher einzig verfügbare 32er UHD unter 1.000Euro.
Der BenQ BL3201PT für voraussichtlich 900Euro ist seit etlichen Wochen angekündigt, aber nicht erhältlich.
Auch der Philips BDM4065 für angekündigte 800Euro (auch hier gibt es einen Thread) kann derzeit nicht erworben werden.
Aber sobald ich mich zwischen den BenQ und den Philips entscheiden kann, einfach weil sie verfügbar sind, bringe ich den 27zölligen Samsung zum Wertstoffhof.
 
Zuletzt bearbeitet:
Ich nutze aktuell en 40" TV als Mainmonitor :fresse: Schön in FHD bei 1-1,5m Sitzabstand.
Was adequates in UHD wäre schon nicht schlecht muss ich sagen... Aber unter 36/37" würde ich ehrlich gesagt heute gar nicht mehr wollen.

Fürs reine Arbeiten ist die Auflösung bei der Größe zwar mau, aber es sieht vergleichsweise gut aus muss ich sagen. (man muss die Settings nur richtig wählen, also diesen ganzen TV Bildverbessererquatsch ausknipsen, Kontrast/Helligkeit anpassen, Farben anpassen und das überschärfen ebenso ausschalten)

Mein Problem ist viel eher, das selbst bei 40" und UHD die Symbole und Schrift auf 100% Skalierung faktisch noch arsch klein sind... Das Fealing beim Spielchen zwischendurch fetzt aber definitiv.

Noch besser kommt da zwar der 55er UHD TV in der Stube. Leider aktuell für mich unbrauchbar aus Mangel an aktiven DP1.2 auf HDMI 2.0 Konvertern... Und meine GPU hat kein HDMI 2.0 Ausgang, da gibts dann nur 30Hz, was nicht wirklich fetzt.
 
Stimmt, man könnte glatt denken, dass sich so ein ultramodernes High-End-UHD-TV-Set doch prima an einen Computer anschließen lassen müsste.
Denn bisher ließen sich Display-Port und HDMI mittels eines simplen Adapterkabels einfach verbinden, dass man meinen konnte, es ist irgendwie das gleiche.
Aber HDMI kann nur die FullHD-Welt zuverlässig versorgen. Bis dahin ist alles schick und schön und macht TV und PC kompatibel.
Aber bei UHD geht HDMI 1.4 nun die Puste aus.
HDMI 2.0 muss her und ist dann wohl nicht mehr ganz so kontaktfreudig.
(Wenn ich fdsonnes Aussage richtig verstehe.)
Stellt sich die Frage, warum so ein sündhaft teurer UHD-TV nicht einfach eine schnöde DP 1.2 Buchse hat, um darüber an die PC-Welt Anschluss zu finden.
Und: Haben überhaupt alle UHD-Fernseher bereits den HDMI 2.0-Standard, oder kommen da welche noch mit HDMI 1.4 daher, oder anderen mit heißer Nadel gestrickten Standards?
 
Der TV hat HDMI 2.0. Mit ner Maxwell GPU, also neuste NVidia Generation soll (angeblich, nach Meldungen im Netz) auch UHD@60Hz funktionieren via HDMI... Denn das sind halt bis jetzt die einzigen Grafikkarten, die nativ einen HDMI 2.0 Port bieten.

Leider gibt es aktuell (oder besser, seit ewig schon nicht) keine aktiven Konverter von DP1.2 auf HDMI2.0. Alles was man heute an Adaptern und Kabeln findet, versteht nur HDMI1.4. Sprich Adapter angesteckt und das TV Gerät erkennt nur ein HDMI 1.4 Device und PC erkennt ebenso nur ein HDMI 1.4 Gerät. Entsprechend das Problem mit der Auflösung. Das liegt aber warscheinlich eher darin, dass für UHD@60Hz via DP1.2 native DisplayPort benötigt wird. Nutzt man DP mit einem Adapter auf HDMI oder DVI, dann fällt der Anschluss in eine Art Fallback Mode und agiert sozusagen als DVI/HDMI Anschluss. Und dieser Fallback Mode scheint dann eben nur HDMI 1.4 im Höchstfall zu können... Daher die Suche nach dem aktiven Konverter von DP1.2 auf HDMI 2.0 -> den es heute nicht gibt :(

Warum kein DP Anschluss dran ist? Keine Ahnung... Müsste man Samsung mal fragen. Abseits von der Anschlussproblematik bin ich mir dem UE55HU8590 aber ziemlich zufrieden. Und der Astra UHD Demo Sender sieht auch ziemlich gewaltig aus. -> Auch wenn man selbst dort bei näherer Betrachtung (also ca. 1m Entfernung und weniger) die Komprimierung stark warnimmt... Echtes natives UHD Material ohne derartige Komprimierung -> also ein Bild vom PC Spiel oder ähnliches, schaut da bei weitem nochmal besser aus.
 
@fdsonne
Tja, da brauchen wir wohl einen, der mehr Ahnung als wir beide hat.
Was ich noch beitragen kann ist, dass Monitore zuweilen keinen HDMI-Eingang haben, weil er sonst bei der Einfuhr nach Deutschland als Fernseher gilt und für diese irgendwie höhere Einfuhrgebühren erhoben werden.
Zu fabulieren wäre, dass die Multimedia-Lobby mal wieder neurotisch reagiert, wenn sich via Computer was raubkopieren lassen könnte, und somit ihre Systeme geschlossen halten.
Ist aber nur ein Schuss ins Blaue.
 
Zuletzt bearbeitet:
Ja in der Tat, da hängen irgendwelche Lizenzgebühren an HDMI, soweit ich weis...

Aber ganz ehrlich, mir als Kunde ist das vollkommen egal ;) Das muss laufen. Und wenn HDMI 2.0 dran ist am TV, dann erwarte ich ehrlich gesagt auch, dass sich da irgendwer was einfallen lässt, wie man das von DP1.2 adaptieren kann. Ich bin ja auch bereit dafür zu zahlen... Und gemessen daran, dass es heute bis auf zwei Grafikkartentypen keine HDMI 2.0 Grafikkarten am Markt gibt, also auch nicht im Notebook oder Mobile Bereich, dann erscheint mir das durchaus als sinnvoller Markt.
Aus meinem Beruf herraus kann ich mit Fug und Recht behaupten, das es "unmöglich" in der IT nicht gibt. Es gibt einzig "zu teuer" ;) Und das zu entscheiden obliegt aus meiner Sicht nicht den Firmen, sondern viel eher den Käufern...

Eventuell wollen die Firmen aber auch UHD gar nicht puschen... Nicht das da wiederum irgendwas Anderes hinten runter fällt. UHD zu pushen würde ja folglich auch ebenso bedeuten, dass die Preise wohl schneller sinken, weil mehr Produkte es können und sich mehr Leute eindecken damit.
 
@fdsonne
Ich musste mir einen ziemlich teuren Adapter von club 3D zulegen, weil ich zu blauäugig war, wie ein DVI-Monitor mit 2.560x1.600 Punkten an Displayport 1.2 des neuen Laptop anzuschließen ist.
Es gibt DP zu DVI-Adapter wie Sand am Meer, aber nur bis fullHD, darüber wurde die Auswahl sehr übersichtlich.
Hier, ich habe folgenden Link gefunden, weil ich mich an die club-Teile erinnert habe:
http://www.club-3d.com/index.php/produkte/leser.de/product/usb-30-to-hdmi-4k-graphics-adapter.html
Das Gerät schickt 4k via HDMI, allerdings per USB 3.0
Ob es echtes HDMI 2.0 ist, muss bezweifelt werden, da ein kleiner Verweis auf die bekannte 30Hz-Einschränkung deutet und damit wohl nur HDMI 1.4 anbietet.
Aber: PC an 4k-Fernseher kann funktionieren.
 
Zuletzt bearbeitet:
Aber: PC an 4k-Fernseher kann funktionieren.

PC an 4K-Fernseher funktioniert, siehe fdsonnes Post. Es müssen nur beide Geräte HDMI 2.0 unterstützen, oder Displayport nutzen, was aber aktuell nur 4K-Fernseher von Panasonic zu haben scheinen.

Bei der ganzen Auflösungsdiskussion wird deutlich, daß es Zeit ist, sich von pixelbasierten user interfaces abzuwenden und endlich auf Vektoren zu gehen, die immer, gleich auf welchem Display gleich groß sind, wie MS beim Modern UI versucht. Nur so lässt sich auf kleinen Displays mit hoher PPI Bildschärfe generieren und gleichzeitig die Lesbarkeit beibehalten und auf großen Displays mit gleicher physischer Pixelanzahl mehr Inhalte darstellen.
 
Ich behaupte aus Programmiersicht, dass das noch ein sehr sehr langer Weg ist ;)
Diese Modern UI Geschichten sind nun aus meiner Sicht nicht unbedingt mit dem zu vergleichen, was dir der "Desktop" bietet... Machbar natürlich schon. Nur muss da wohl erstmal die Infrastruktur für geschaffen werden. Sprich wenn mir das .NET Zeugs von Microsoft nur "Bauteile" mit absoluter Pixelgröße anbietet, wirds halt schwer, das umzubauen. Ist ja nicht so, das es gar nicht gehen würde... Ich sehe halt nur die Problematik darin, dass gerade diese Desktop Anwendungen primär eher von der Flächennutzung profitieren... Simples Beispiel. Per default wird der Windows Explorer im kleinen Window dargestellt. Wer mehr sehen will, zieht das Teil einfach größer. -> mit der Version der Skalierung hätte man bei mehr Fenstergröße aber nicht mehr Fläche, sondern einfach nur größere Objekte. Wo also macht die Anwendung das fest, was der Nutzer gerade will? Das wird defintiv eine Herrausforderung.

Der obige Vergleich mit den Smartphones hinkt da dann doch schon etwas. Wenn ich mein Galaxy S4 via ScreenMirroring auf den Samsung TV klone, habe ich riesige Symbole, die auch aus 5m Entfernung noch nutzbar sind... Mehr Fläche bekomme ich hingegen nicht ;) Oder die Schriftgröße, die sich im Telefon skalieren lässt. Skaliert dann auch 1:1 auf dem TV mit. Da wird dann aus großer Schrift auf dem TV noch viel mehr große Schrift, wenn ich sie höher stelle...

Auch sehe ich potentielle Probleme in Sachen Screen Mirroring allgemein. Es ist ja heute schon nicht wirklich möglich, einen Monitor auf einen anderen zu klonen, wenn die Auflösung unterschiedlich ist... -> einfach aus dem Grund, das die Pixel absolut sind. Gerade im Mischbetrieb bei Monitoren ein Problem... Denn da müsste die Anwendung auf dem einen Monitor in die Fläche gehen wärend sie auf dem anderen womöglich auf die Größe geht.
 
Simples Beispiel. Per default wird der Windows Explorer im kleinen Window dargestellt. Wer mehr sehen will, zieht das Teil einfach größer. -> mit der Version der Skalierung hätte man bei mehr Fenstergröße aber nicht mehr Fläche, sondern einfach nur größere Objekte. Wo also macht die Anwendung das fest, was der Nutzer gerade will? Das wird defintiv eine Herrausforderung.

Du hast mich missverstanden: Die Größe einzelner Objekte soll an der Darstellungsgröße fixiert sein, egal ob ich für eine Linie von 2cm 100 oder 1000px brauche. Dazu muss das Betriebssystem und damit auch die Anwendung eigentlich nur 3 Dinge wissen: Pixel in X und Y-Richtung, Bilddiagonale und Seitenverhältnis. Daraus kann man einfach die PPI berechnen und die Anzeigegröße mit entsprechend vielen Pixeln realisieren. Aber: alle UI-Elemente müssen das unterstützen. Dann bringt dir das größerziehen des Explorers auch wieder mehr Infos.

Apple pixelt ja auch nur Icons mit 64x64px, 128x128px und so weiter.
 
Da haben wir nun hoch-ppi-Smartphones, UHD-Monitore an Windows oder IOx und 4k-Fernseher.
Für alle Gerätetypen ist die Bildschirm-Auflösung ein Verkaufsargument/Qualitätsmerkmal/Must-Have-Feature.
Nach dem Motto:
wenn die so ein tolles Panel einbauen, dann muss alles drumherum auch auf dem neuesten Stand sein und ich habe mir also was vom letzten Schrei zugelegt.

Wer hier nicht gerade als junger Hüpfer unterwegs ist, sollte die Erfahrung gemacht haben, dass Hard- und Software nur selten im Gleichschritt gehen, und Kinderkrankheiten gerade mal ausgeräumt sind, wenn die nächste Technik-Generation bereits in der Tür steht.

Glücklich also, wem die Standardfunktionen der vorletzten Technik die Bedürfnisse befriedigt.
Ein ewiges Hause und Igel Rennen, wer am Puls der Zeit sein möchte.

Persönlich bin ich -
-handymäßig in der Steinzeit
-fernseherseits anspruchslos mit nem FHD auskömmlich ausgestattet
-aber beim PC-Monitor ein Freak, der mit den Monitor-Anschaffungen der vergangenen Jahre mittlerweile ganze Büros ausstatten könnte

Und eins kann ich ganz sicher sagen:
Immer wenn ein Programm eigenmächtig entscheidet, welche Funktion mir den Umgang erleichtern könnte, bin ich geneigt das jeweilige Gerät
-mit einer mir gegebenen Körpermasse als Kontergewicht für den kinetischen Rückstoß der Vorwärtsbewegung meiner Armbewegung-
schwungvoll dem nächsten zuverlässig ausreichend festen Gegenstand meiner Umgebung zuzuführen.

Wenn also ein Programm spürbar in die Auflösung eingreift, und das Ergebnis wirklich meinen Bedürfnissen entspricht…
..dann kann es auch Marienstatuen dazu bringen Blut zu weinen.



@fürDENfall
kriegst‘n ‚like‘ für Dein Logo.:lol:
 
Zuletzt bearbeitet:
Einleitend ein paar Zitate von fdsonne aus diesem Thread, die ich für sehr treffend halte:

-…100 Pixel auf einem FHD Monitor sind nicht schärfer als 100 Pixel auf einem UHD Monitor. Sie sind kleiner und damit wirkt es schärfer. Aber es ist nicht schärfer, da nicht mehr Informationen für ein und dasselbe Objekt dargestellt werden!

-…Gerade im PC Umfeld gilt mehr Auflösung eben seit ewig schon für mehr Arbeitsfläche

-…Für manche Sachen brauchst du/willst du mehr Fläche und für mache Sachen willst du mehr Schärfe.


Aber je länger ich darüber nachdenke, desto weniger halte ich das, sowieso untechnische, Wort ‚Schärfe‘ für geschickt gewählt.
Denn bei den Erklärungsversuchen steht immer ein es ‚wirkt schärfer‘.
Aber auch der unschärfste Bildschirm wird, also ‚wirkt‘, irgendwann scharf, wenn man sich nur weit genug davon entfernt.
Und auch dass die Pixeldichte mittlerweile die menschliche Wahrnehmbarkeit überschreitet, ist Augenwischerei, weil sich im Grenzbereich der Leistungsfähigkeit des Auges, die Sinnhaftigkeit verliert.

Wer meint, sein Auge liefert ein verlässliches (Ab)-Bild seiner Umgebung (bzw. das Gehirn baut aus den visuellen Informationen ein objektives Ganzes zusammen), der steht auf verlorenen Posten, denn es gibt zig-tausend Experimente, die zeigen, dass unser unzuverlässigstes Sinnesorgan ausgerechnet das Auge ist.

Wer also folgert, dass aus einem besser aufgelösten Bild auch mehr Informationen abzulesen sind, dem ist nicht bewusst, dass wir aus unserer Umgebung letztlich nur einen lächerlich kleinen Teil verarbeiten können und wir selbst FHD evolutionsmäßig um Äonen hinterher hinken.

Auch die Vergrößerung eines Inhaltes stellt uns vor eine unlösbare Aufgabe, denn wir können von unserer Umgebung nur erschreckend wenige Informationen eines winzig kleinen Ausschnitts überhaupt wahrnehmen.
Also entweder scannen wir unsere Umgebung mit dem Auge ständig, was das Gehirn in einem stressigen Modus permanenter Aufmerksamkeit hält, oder andere Sinnesorgane liefern Informationen (z.B. das Ohr meldet ein Geräusch, und das Auge sucht dessen Quelle).

Egal ob die Pixel nun in Schärfe oder Fläche investiert werden, das zu bedienende Auge ist so oder so überfordert.
 
Zuletzt bearbeitet:
Aber je länger ich darüber nachdenke, desto weniger halte ich das, sowieso untechnische, Wort ‚Schärfe‘ für geschickt gewählt.
Denn bei den Erklärungsversuchen steht immer ein es ‚wirkt schärfer‘.
Aber auch der unschärfste Bildschirm wird, also ‚wirkt‘, irgendwann scharf, wenn man sich nur weit genug davon entfernt.
Und auch dass die Pixeldichte mittlerweile die menschliche Wahrnehmbarkeit überschreitet, ist Augenwischerei, weil sich im Grenzbereich der Leistungsfähigkeit des Auges, die Sinnhaftigkeit verliert.

Also ich finde schon, das "Schärfe" da durchaus ein treffendes Wort für ist.
Ich habe vor nicht all zu langer Zeit mal gezwungenermaßen mein altes Galaxy S2 wieder rauskramen müssen und ne Weile damit hantiert. Im Vergleich zum S4, was ich eigentlich nutze ist der sichtbare Unterschied schon extrem...
Und wenn ich das richtig sehe, bietet das S2 selbst schon ca. 216 ppi, je nach Rundung der Rechnung, wärend as S4 auf 441 ppi kommt. Dennoch wirkt das Bild einfach grobkörniger und damit eben leidet auch die Schärfe. Selbst auf Armeslänge weggehalten fällt das noch stark auf...

Was ich in dem Zusammenhang eher als problematisch ansehe, man benötigt zwingend den direkten Vergleich um diesen Umstand zu erkennen. Als ich damals vom S2 auf das S4 gewechselt habe, war der sichtbare Unterschied in der ersten Zeit eigentlich gefühlt gar nicht groß. Das Rückblicken hingegen war gewaltig und es hat mich fast von den Socken gehauen, wie "schlecht" das Bild eigentlich ausschaute...
Das kann man aber wohl denke ich eher mit dem Umstand erklären, dass der Mensch ein Gewohnheitstier ist... Gewöhnt er sich an einen Umstand, will er ihn nicht mehr missen. Fehlt der Umstand aber dann mal aus welchen Gründen auch immer, fällt es aber richtig massiv auf!

Ein ähnliches Verhalten ist bspw. bei SSDs zu beobachten. Ich habe auch jahrelang den Gang hin zur SSD ausgesessen. Irgendwann Mitte 2014 hab ich aber dennoch eine besorgt. Mittlerweile sind nahezu alle meine PC/Notebook/Tablet Gerätschaften mit Flashspeicher ausgestattet. Und die paar Systeme, wo das nicht so ist, die "schlafen" gefühlt einfach ein. Und dabei hat sich an diesen absolut gar nix verändert. Selbst bei Hardware, die nichtmal gelaufen ist wärend der Zwischenzeit, sprich auch keine Patches oder sonstwas eingespielt wurden sind gefühlt einfach zu langsam.

Das ist auch klar ein Argument für die Industrie... Selbst bei doppelter UHD Auflösung wird man sicher noch Unterschiede sehen. Und auch dort werden sich die Menschen dann wieder dran gewöhnen -> nimmt man es ihnen, fällt erst richtig auf, dass die Unterschiede gar nicht so klein sind ;)
 
Man sollte nicht vergessen dass HiDPi Smartphone Screens, vor allem die Oled's bei samsung auch kontrasttechnisch auf einem höheren Niveau sind, Kontrast ist essentiellfür den Bildeindruck sowie Schärfewahrnehmung. Möglicherweise ist das schärfere Bild auf Armeslänge (s. fdsonne's post) einfach durch den rundum besseren Screen zustandegekommen, nicht speziell durch die höhere Auflösung. Zahlen lügen nicht, und ab einem gewissen Abstand hat die Auflöung ansich keinen Einfluss mehr..
 
(Man muss beim Schreiben ja immer pauschalisieren, das heißt aber nicht, dass ich unbekehrbar bin oder nicht über den Rand meiner Zeilen schauen kann.)

@Mr.Wifi:
Ich bin ganz bei Dir, dass die anderen Werte wie Kontrast, Wiederholungsrate, Farben etc. ebenfalls einen starken Einfluss auf die Bildqualität haben.
So ist der eine FHD einfach nur mau, ein anderer überzeugt mit einer knackigen Anzeige. …Und so mancher verbastelt seine Anzeigeeinstellungen gräuslich.

Möchte man eine gute Bildqualität loben, lautet ein geflügeltes Wort:
‚Mann, das Bild ist ja ge-sto-chen scharf!‘

Diese Aussage ist grundsätzlich relativ, weil man es mit dem vergleicht, was man zuvor kannte.
Und man beschreibt einen höchst subjektiven Eindruck, der sich oftmals gar nicht von etwas messbarem wie einer höheren Auflösung herleitet.
Beispiel: Als die DVD aufkam schnalzten wir mit der Zunge, weil das Bild nun so ‚scharf‘ war, aber wir saßen immernoch vor den gleichen PAL-Flimmerkisten und das Quellmaterial aller DVDs ist nach wie vor: na? Genau: PAL.
(Da ich via DVB-T fernsehe und ich mir meine paar BRs bestenfalls 2x angeschaut habe, sollte mein HD-Fernseh-Konsum im nachkommalichen Promillebereich liegen, also wäre mir ein PAL-Panel in moderner Fertigungsweise zu 99,99% ausreichend.)

Erstmal muss das Bild des Fernsehers/Monitos/Smartphones ‚brillant‘ wirken, also hell sein, natürliche Farben darstellen, viel Kontrast zeigen ohne zu überstrahlen, es darf nicht flimmern, nicht schlieren, nicht ausfransen, nicht ruckeln, usw, usw…
Wenn jetzt noch Informationsquelle und Quellmaterial jeden einzelnen Bildpunkt sauber ansprechen und von seinen Nachbarpixeln trennen, dann erzeugt dies ein ‚gutes‘, ja sogar ‚scharfes‘ Bild; ach was sag‘ ich: ein brillantes! Bild.
Und dies bereits weit weit unterhalb von FHD.

Also beschreiben wir umgangssprachlich mit ‚Schärfe‘ nicht primär eine höhere Bildschirmauflösung, sondern folgern aus einem diffusen Gesamtpaket heraus.

Drum also meine Aussage, dass ich ‚Schärfe‘ für unglücklich gewählt halte, wenn wir diesen Begriff nur noch strikt für Bildschirmauflösungen verwenden, da wir zuweilen etwas anderes damit meinen.

@fdsonne:
Eine sehr gute Beobachtung!
Der technische Schritt nach vorne wird zuweilen als garnicht so groß empfunden. Erst beim Blick zurück auf die alte Technik, wird der Unterschied deutlich.
(Mein Beispiel hierzu ist immer der elektrische Fensterheber beim Auto.)
 
Zuletzt bearbeitet:
Das steht hier nicht zur Debatte und stellt auch kein Problem des Monitors dar? :hmm:

Wozu gibt es SLI/Crossfire als Hilfsmittel um die grafisch Anspruchsvollen Spiele in UHD zu spielen.
Mal davon abgesehen reicht auch SGPU um 95% der auf dem Markt befindlichen Spiele in nativem UHD + >60FPS darzustellen.
Für aktuelle und grafisch anspruchsvolle AAA-Titel muss halt zum jetzigen zeitpunkt DualGPU her.

4k bei aktuellen grafischen Toptiteln ist auch mit SLI nicht wirklich machbar, außer man steht auf 25-30fps ;)
 
Man sollte nicht vergessen dass HiDPi Smartphone Screens, vor allem die Oled's bei samsung auch kontrasttechnisch auf einem höheren Niveau sind, Kontrast ist essentiellfür den Bildeindruck sowie Schärfewahrnehmung. Möglicherweise ist das schärfere Bild auf Armeslänge (s. fdsonne's post) einfach durch den rundum besseren Screen zustandegekommen, nicht speziell durch die höhere Auflösung. Zahlen lügen nicht, und ab einem gewissen Abstand hat die Auflöung ansich keinen Einfluss mehr..

Neja wie gesagt, man muss da denke ich einfach den Selbsttest mal machen... Möglicherweise hat der Kontrast durchaus (hohen) Einfluss auf das Bildempfinden allgemein. Mir fällt im direkten Vergleich aber auch die Grobkörnigkeit selbst auf. Das sieht man speziell an den Elementen der Bedienoberfläche, die bei gleicher OS Version und quasi gleichem Skin ja auch gleich aussehen sollten. Dennoch erkennt man den Unterschied, also ich zumindest, wenn ich heute den Vergleich mache.

Was natürlich richtig ist, sitzt man weiter weg oder ist das Display allgemein weiter entfernt, werden die Feinheiten immer weniger ins Gewicht fallen. Ich denke aber auch, dass dieser Punkt gerade einer der Punkte ist, die extrem subjektiv sind. Also von Mensch zu Mensch natürlich extrem unterschiedlich ausfällt.


Für mich persönlich aber auch unterm Strich völlig egal, woher das bessere Bildempfinden kommt ;) Solange es besser wird und mir gefällt, bin ich zumindest der Meinung, dass es durchaus Sinn ergibt, auf diesem Trend mitzuschwimmen... Und stand Heute sehe ich zumindest die "Sichtbarkeitskurve" noch nicht so derart abflachen, dass es sich nicht lohnen würde, dies zu tun.

Gerade im PC Monitorbereich sehe ich da noch extrem viel Potential. Vielleicht sehen wir aber irgendwann in Zukunft einfach "rückwertiges Downsampling". Also das die Anwendung einfach mehr Bildpunkte benutzt als eigentlich vorgesehen. Das sollte sich aus meiner Sicht relativ einfach als Zwischenschicht zwischen der eigentlichen Anwendung und dem Hardwaregerät einbauen lassen. Der Vorteil dabei wäre, dass bei jeweils einer Verdopplung der Auflösung zwar nicht primär die Fläche steigt, aber der Detailgrad steigt. Und das völlig ohne Zutun der Anwendung selbst. Zumindest dort, wo man Vectorbasierte Elemente verwendet.
Ich könnte mir sogar vorstellen, dass dies genau der Plan der Softwareindustrie ist. Denn damit braucht man sich dann Softwareseitig nicht um die Skalierung zu kümmern. Für Microsoft dürfte es selbst ein leichtes sein die .NET Elemente Vectorbasiert zu erstellen. Bei Icons und anderen Sachen macht man es ja heute schon... Nur ist heute das Element immernoch an die absolute Pixelanzahl gebunden und diese ist 1:1 mit der Darstellungsgröße gebunden. Mit besagter Zwischenschicht könnte die Größe selbst dann in virtuellen Pixeln angegeben werden, diese werden dann aber auf die Hardware aber über einem Faktor mit 2er Potenzen dargestellt. So lässt sich das Desktop Element zwar nicht Hardwarepixel genau verschieben, aber für 1 virtuelles Pixel werden dann 4 hardware (UHD) Pixel genutzt. Gerade die Darstellung von nicht horizontalen oder nicht vertikalen Formen wird davon stark profitieren... (Rundungen, Kreise, Schriften, whatever)...
Und der zweite Vorteil dabei wäre aus meiner Sicht auch, dass sich die Elemente bei steigender Monitorgröße immernoch gleich verhalten wie sie es heute auch tun ;) Also steigt die Diagonale, steigt auch die Darstellungsgröße im gleichen Maßstab.

Den Part mit mehr Fläche könnte man damit ebenso abfedern. Nämlich genau an dem Punkt, dass wohl oder übel die Schritte in der Auflösung nicht in 2er Potenten weiter laufen werden. Also wie von FHD auf UHD. Die nächste Ankündigung wären ja heute "5k" anstatt "4k"... Ggf. später folgt dann "6k". Diese Zwischenschritte bis zur nächsten vollen 2er Potenz wären die Schritte, die das Bild in der darzustellenden Fläche verbessern... Bis zur nächsten vollen 2er Potenz, wo man dann wiederum entscheidet, macht man es größer oder nimmt man als Basis irgend einen der Zwischenschritte vorrangegangener Auflösungen.
Denn der Punkt Flächenskalierung selbst ist für mich persönlich sehr sehr wichtig... Aber ab einem gewissen Punkt wird mehr Fläche als Darstellungsbereich einfach nicht mehr aufgehen, ohne die Diagonale zu steigern. Ob der Trend in Sachen Monitore jemals mal die 30" Marke so derart übersteigt, dass alle sowas haben wollen? Wäre ich mir nicht so sicher. Das gleiche gilt für TVs weit überhalb der 55" Marke. Denn der Platz muss ja auch irgendwo her kommen... Und die Wohnungen werden ja nicht größer. Also irgend so ne 3m Wand als Monitor ist zwar "geil" aber für viele Leute einfach auch derart unpraktikabel, dass es sich nicht wirklich verkauft...
 
Die Überschrift dieses Threads ist mit ‚Wie funktioniert das mit dem 4k?‘ zwar recht allgemein gehalten (und formal falsch weil es UHD statt 4k heißen müsste), aber ich sehe hier doch die Diskussion über Monitore, wie es auch der Überbegriff anzeigt, im Vordergrund.
Man wird natürlich immer gerne Querverweise mit TV und Smartphone machen, aber Topic ist UHD beim Monitor.

Also, um mal gleich persönlich zu werden:
Mir ist es absolut schnurz-piep-egal, wie fein das Symbol eines Icons bei diesem oder jenem Programm aufgelöst ist.
32x32, 64x64, 128x128, na da habe ich aber andere Sorgen, als denn in welch schickem Gewande sich nun so ein blödes Knöpfchen mir bei vorstellt.
Wegen meiner könnte einfach drauf stehen, was es kann, als sich hinter irgendwelchen Piktogrammen zu verschleiern.

Einzig eine gewisse Fläche muss es haben, um das Ding ohne Scharfschützenzusatzausbildung, mit der Maus zu treffen, mehr nicht.
Und auch die Lesbarkeit des ganzen Textgedöns in der Knöpfchen-Batterie wäre hilfreich, aber das frisst sogleich potentielle Arbeitsfläche, wenn es bei UHD absolut den gleichen Raum einnimmt wie bei FHD, da kann nämlich je nach Anwendung einiges an Werkzeugkisten und Bedienfeldern zusammenkommen.
War also unter FHD der Bildschirm zur Hälfte mit Knöpfchen belegt, muss er bei gleicher Diagonale mit UHD auch wieder zur Hälfte gefüllt sein, um das Zeug weiterhin erkennen zu können.
Wenn ich also im Umkehrschluss Auflösung im Anwendungsbereich aufgeben muss, um per Vorschlaghammermethode die Auflösung zu reduzieren, dass die Icons nett aussehen, na dann brauchs irgendwann auch kein UHD mehr.
Hier also ganz fdsonnes Standpunkt: Das muss funktionieren, Punkt.

Aber…
Das System darf mich nicht bevormunden, da bin ich extrem empfindlich.
(Beispiel: AutoCAD kennt mittlerweile eine Unzahl von ‚Hilfsmitteln‘, mir z.B. vermeintlich nützliche Fangpunkte beim Konstruieren vorzuschlagen. Aber wo ich die Linie hinhaben möchte, habe ich bereits entschieden, als ich den Befehl aufgerufen habe. Mit jeder neuen Version brauche ich Stunden dem Programm zuallererst sein vorlautes Maul zu verbieten. Und ich schüttle immer den Kopf, wenn ich bei Kollegen sehe, wie sie unablässig unnütze Infos an ihren Cursorn mitschleppen.)

Also um erneut aus meinem Anwender-Bunker heraus zu feuern:
Ich möchte möglichst viele von meinen bunten Linien auf einmal sehen und darin rumkonstruieren können, auch wenn dies dann nur auf einem kleinen Ausschnitt des Monitors geschieht.
(Der Tischler kann ja auch nur an einer Stelle seiner Werkstatt arbeiten, aber trotzdem braucht er Platz für seine Geräte und um mit dem Werkstück hantieren zu können. Aber er braucht keine viermal so große Kreissäge wenn sich die Größe seiner Werkstatt vervierfacht.)
Mir ist eigentlich egal wie groß die Pixel sind, wichtig ist den Cursor exakt auf ein Objekt ausrichten zu können und bei Bedarf (der besteht sehr oft) einen Überblick zu haben.
Interpolation sind mir ein Graus, egal ob VGA, UHD oder echtes 8k.
Ich brauche keine tausend fps, keine hundert Hz, kein G-Sync und ich habe keine Ahnung was AA, FXAA oder HBAO macht.
Ich brauche nicht einmal Direct x, OpenGL reicht mir.
Ich brauche nur: Arbeitsfläche, schwarz wie die Nacht und ‘nen Cursor, der knackig an der Maus hängt.
Und ich kann sogar mit nur 256 Monitor-Farben für die bunten Linien auskömmlich arbeiten.

PS: der 32zöllige UHD BenQ BL3201PT wird seit heute bei einigen Onlinehändlern als verfügbar gelistet.
Jetzt fehlt nur noch der 40zöllige Philips….
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh