Das kann ich persönlich nicht so wirklich nachvollziehen. Einerseits enorme Ansprüche haben mit 5K MicroLED, 1000 Nits usw. aber dann reichen 10 Jahre lang Edge-Lit-IPS?
Ist eine Macke von mir, auf der Suche nach Perfektion verpasse ich öfter mal gute Kompromisse. Erscheint mir aber nicht ganz so abwegig wie dir:
Meine >10 Jahre alten Displays nutze ich nur noch als Drittbildschirme und an den homelab Geräten. Primärbildschirme sind zwei WQHD 165Hz IPS aus ~2015.
Ich nutze für Gamepad Spiele wie Witcher ein Fernseher, da hab ich dann tolle Farben. Als Primärdisplay zum Arbeiten funktionieren Fernseher für mich nicht, kein Platz auf dem Schreibtisch. In Shootern bevorzuge ich die schlechtere Bilqualität mit 165Hz gegenüber dem besseren Bild mit weniger Hz auf dem Fernseher. Ich war versucht mir ein 4K miniLED zu holen, aber auf die Zone Halo Effekte käme ich in manchen Spielen nicht klar. Ich hätte schon längst ein WQHD QD-OLED wenn Microsofts ClearType das Subpixel Layout unterstützen würde. Third party text render Lösungen helfen da nicht, ich nutze das auch fürs Homeoffice mit Firmennotebook, da kann ich nicht installieren was ich will. Mit den dieses Jahr erscheinenden 4K QD-OLED/WOLED sollte das endlich gut genug sein. Die QD-OLED haben zwar wieder ihre eigenen Probleme, wie der schlechte Schwarzwert bei zu viel Streulicht und DSC dank fehlendem UHBR20 bei den meisten Modellen, aber das sollte trotzdem ein Upgrade in jeder Hinsicht zu meinem jetzigen Setup sein.
Mag sein, das ich zwischendurch ein sinnvolles Upgrade hätte haben können, aber den größten Teil der Zeit war alles, was es gab nur marginal besser oder hatte neue Nachteile. Und ich war lange Zeit so blöd zu glauben das microLED ja bald kommt, und ich darauf warten könnte -.-
Warum ist das eigentlich so oft Gesetz? Ich wechsle häufiger den Bildschirm als die CPU/GPU, die sind für mich Mittel zum Zweck. Der Bildschirm ist für das Spielerlebnis in meinen Augen viel entscheidender.
Persönliche Präferenz und Prioritäten. Ich konnte das Raytracing in Cyberpunk 2077 auch mit meinem gammel IPS genießen und hätte vermutlich die reine Rasterized version auf einem super Display weniger genossen. Beides zu haben wäre natürlich ideal, aber wenn ich wählen muss, ist mir aktuell Render Qualität wichtiger als Display Qualität. Mit gewissen Mindeststandards für beides je nach Inhalt. Kann mich aber auch irren, hab ja nicht den Vergleich. Ob das jetzt bei den meisten anderen auch so ist, oder sie einfach nicht darüber nachdenken, keine Ahnung. Wäre ja nicht das erste mal das die Masse dumme Entscheidungen trifft, mich eingeschlossen.
Ein Upgrade-Grund wären für mich aktuell (bei gleicher Leistung wie bis jetzt) 240Hz oder 8K 120Hz oder massiv höhere Helligkeit. Gibts aber leider aktuell alles nicht.
Schneller und heller verstehe ich, bis 1000Hz und 100.000Nits gehe ich noch so halbwegs mit, aber was willst du mit 8K? 6K kann ich mir noch vorstellen ein Unterschied sehen zu können, aber für 8K wären meine Augen glaube ich nicht gut genug. Andererseits hab ich das auch noch nicht ausprobiert, ich gehe nur von der Aussage aus, dass das menschliche Sehvermögen in etwa 60 pixels per degree entspreche.
5K auf 32" bei 40cm Abstand finde ich schon absurd nah dran und das wären 62ppd. 6K würde mit 74ppd noch etwas Spielraum für besser als normalsichtig bieten. 8K wären 92ppd, das kommt mir unnötig vor. Hast du andere Zahlen oder das mal ausprobiert?