[Kaufberatung] Frage zu 4k Monitorkauf - Auflösung - für Games interpolieren

Madrox187

Experte
Thread Starter
Mitglied seit
31.03.2017
Beiträge
26
Ort
Tirol
Hi,

ich bin gerade dabei mir ein neues PC System zu erstellen, und die Grafikkarte darin wird eine Nvidia GTX 1080.

Ich habe aktuell 2 Monitore im Einsatz. Ein 22 Zoll mit 1650x1080 und ein 20 Zoll mit 1280x1024 (beide ca. 9 Jahre alt).

Natürlich möchte ich jetzt auch diese Monitore austauschen, und ich habe mich für einen Ultra-HD Monitor entschieden (Modell ist noch offen).

Mein Problem ist nun, dass die GTX 1080 nur bedingt für Spiele in 4k Auflösung geeignet ist, und die Framerate wohl des öfteren unter 30 fps fallen könnte,
je nach Spiel natürlich.

Meiner Meinung habe ich nun 2 Optionen.

1 4k Monitor alleine - und mit den Problemen in Spielen leben ODER
1 4k Monitor und 1 QHD oder Full HD Monitor zusätzlich.

Wer hat so ein Setup?
Funktioniert das einwandfrei?
Muss man mit Burn-in am Zweitmonitor rechnen, da dieser ja viel im Alltag doch viel weniger genützt wird?
Wie gut funktioniert das interpolieren von 4k auf niedrigere Auflösungen?
Gibt es auf 4k Monitoren eine Möglichkeit, ein reduziertes Bildfeld in niedriger Auflösung anzuzeigen, so dass man Spiele mit z.b. QHD Auflösung
spielen kann, mit schwarzen Rändern oben, unten und seitwärts? Dies wäre eine Möglichkeit, in niedrigeren Auflösungen bei kleinerer Bildgröße
zu spielen, ohne zu interpolieren.


Vielen Dank im Voraus!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
interpolieren tut man nicht. warum kauft man sich sonst dne monitor? du kannst es natürlich machen, sieht halt echt mies aus. ^^

Gibt es auf 4k Monitoren eine Möglichkeit, ein reduziertes Bildfeld in niedriger Auflösung anzuzeigen, so dass man Spiele mit z.b. QHD Auflösung

ja.

Muss man mit Burn-in am Zweitmonitor rechnen, da dieser ja viel im Alltag doch viel weniger genützt wird?

sofern du 4k und full hd zusammen nutzen kannst dann benutz doch den 2. monitor einfach mit. wallpaper mit zeitschaltung rein und fertig.
 
Zuletzt bearbeitet:
Ja, das dachte ich mir schon, dass das dann eher schlecht aussehen wird mit interpolieren.

Der 4k macht trotzdem Sinn für mich, weil ich neben Spielen auf viel drauf arbeite, surfe, und Foto + Videobearbeitung mache.

Die Möglichkeit ein verkleinertes Bildfeld anzuzeigen fände ich interessant, da dann - je nach Monitorgröße - wohl zum zocken immer noch genug Bildfläche übrig bleiben würde, und das ohne Qualitätsverlust durch interpolieren.
Stellt man das im Grafiktreiber ein, oder haben 4k Monitore eine solche Menüfunktion?
 
kannst auch einfach die Auflösung auf 1080p stellen. Dann stellen halt 4 native Pixel eins dar. Qualitativ dürftest du da keinen Unterschied zu einem nativen 1080p Monitor selber Diagonale feststellen können. Ggf. sogar etwas bessere Qualität dank geringerem SDE
 
das drüfte natürlich gehen. ist halt für ALT+TAB echt nervig :d
 
War immer der Meinung das interpolieren immer einen starken Qualitätseinbruch bringt, deshalb wollte ich das eben vermeiden.

Meine Idee war einfach, einen größeren 4k Monitor zu kaufen (ca. 32 Zoll), und für Spiele, welche in 4k nicht anständig laufen, auf QHD Auflösung zu wechseln, aber eben nicht interpoliert, sondern mit verkleinertem Bild, das ja dann vermutlich immer noch ca. 24 Zoll Diagonale haben wird, was ja immer noch groß genug wäre für Spiele. Ob das in der Praxis so gut funktionieren würde ist eine andere Frage ^^
 
Bedingt durch die Bandbreite von DP1.2 und HDMI2.0 können UHD-Monis kein Refresh größer 60Hz haben, also um Längen kein 144Hz.
Ein Grundtenor in den anderen Monitor-Threads ist, dass ‚jeder‘ ‚ne 1070/1080 hat, aber ‚keiner‘ die Extraausgabe für G-Sync im Monitor hinlegen möchte.
Ergo: Bei einem UHD-Moni hast Du sowieso nur eine kleine Auswahl von G-Sync-Modelen und definitiv max. 60Hz.
Kein Sync und max. 60Hz sind heutzutage k.o.-Kriterien an einen Moni zum gamen.

Zwar reicht die DP-Bandbreite bei FHD, also 1.920x1.080, locker für 144Hz, aber dadurch macht der UHD-Monitor trotzdem nur max. 60Hz.
Rechnerisch (-> 2x2) ist FHD auf UHD-Auflösung eine saubere Sache, aber irgendwo muss das Ganze ja skaliert werden. Und zwar im internen Scaler des Monis: Er erhält 1.920x1.080 Pixel und ‚pumt‘ sie auf 3.860x2.160 Punkte hoch.
Das ist dann theoretisch genausogut wie ein FHD-Moni mit gleicher Diagonale. Aber bereits ein 27Zoll FHD-Moni wirkt recht grobpixelig.
Und: skalieren kostet Zeit und ist nicht die Stärke von Monis. Im Gegensatz zu TV-Sets, die sind dafür ausgelegt und skalieren ständig. Aber sie können sich getrost etliche Millisekunden Zeit lassen, ohne dass es auffällt.

Ergo: TFT-Monis skalieren ist immer! doof.
Ein interpoliertes Bild ist immer irgendwie ‚matschig‘. Und auch FHD zu UHD ist nicht nebenbei mit Erstklässler-ich-kann-2mal2-rechnen erledigt.
Einzig eine kleinere Auflösung !nativ! darzustellen ist okay. Also beispielhaft FHD mit Trauerrand auf einen UHD-Moni. Ist halt nur die Frage, ob‘s Einem zu mickrig wirkt, denn es macht aus einem 32Zöller@UHD-Moni einen 16Zöller.
Und nach den ganzen Aufwand hast Du immernoch schnöde 60Hz ohne aktuelles G-/Free-Sync-Feature.

Also: Ja, 2 Monitore. 1x Office etc., 1x Gaming.

Wie wäre es denn mit 2.560x1.440 bei 27Zoll?
-> Große Auswahl, alle Gamingfeatures verfügbar, ordentliche Pixeldichte…

Hier noch eine Gebetsmühle: Jeder! kann mit seinem TFT-Moni das mit dem Interpolieren mal ausprobieren: Du hast ‚ne olle FHD-Möhre? Ach, nee, Du frimelst an angeblichen 1.650x1.080 (habe ich noch nie von gehört) und 1.280x1.024 herum. Junge, das ist ja wie Borgward fahren… ;)

Also: Hättest!!! Du einen FHD-Moni, könntest!!! Du beispielhaft an der GraKa ein Viertel FHD = 960x540 Pixel einstellen (bei ein Viertel SXGA würde kaum mehr als die Programm-Menüleiste auf den Moni passen) und das Ergebnis betrachten…
 
Zuletzt bearbeitet:
Danke für die ausführliche Antwort!

Ich denke auch, dass ich bei 2 Monitoren landen werde.

Ich habe mich mit den G-Sync und Freesync usw. bis jetzt nie wirklich befasst, weil ich eben seit vielen Jahren auf stark veralteter Hardware (Monitor und PC) arbeite/spiele,
und auch generell kein Hardcore Zocker bin.

Meine aktuelle Auflösung ist 1680x1050 (habs verkehrt herum geschrieben).

Ich hätte dann an diesen UHD Samsung U28E590D 71,12 cm Monitor: Amazon.de: Computer Zubehör

und diesen QHD Dell P2416D Monitor schwarz: Amazon.de: Computer Zubehör

... gedacht.

Wäre keine schlechte Kombi oder?
 
Wie wäre es wenn Du einfach nicht an Ultra-Settings "krallst"?
Deine Graka wird auch deutlich mehr als 30 FPS schaffen, wenn Du es schaffst die Regler in den Games zu bedienen.

Ich hab keine Ahnung warum das heute scheinbar keiner mehr kann.
Klar, man möchte gerne "Ultra" haben. Aber erstens sieht man es kaum und zweitens kostet der Schritt von High auf Ultra in der Regel am meisten Leistung.
Wenn man den Regler gebacken bekommt, und sich dann noch klar macht dass man mit 4K kaum noch Anti-Aliasing-Filter braucht (MSAA ... Leistungsfresser), dann wird einem vielleicht bewusst, das die Aufgabe der Auflösung in der Regel gar nicht nötig ist.

<-- Vor 10 Jahren 2560x1600 angeschafft ... damals waren GTX8800 aktuell. Und das wird heute als "schaffen die Grakas gut" verkauft? Merkt ihr was? *g*
<-- Vor 6 Jahren aus Daffke ein 3xFHD-Set mit 5760x1080er Auflösung dazugestellt.
<-- Vor 2 Jahren einen 4K 40" hingestellt, und seit dem wird weder der 2560x1600 noch das 5760x1080er Set noch angeschaut.


Ich will damit nur zeigen, das "alles" geht, wenn man es schafft die Regler zu bedienen, die einem die eigene Software bietet. Und lasst euch nicht erzählen dass ihr dann in LOW oder Medium zocken müsst. Nicht mit einer 1080er.

Und falls man wirklich Auflösung aufgeben muss, dann würde ich das nicht so radikal machen und gleich auf 1080p gehen, sondern z.b. eine Custom 21:9-Auflösung einrichten.
Also 3820x1648. Das sind gute 25% Pixel, die nicht berechnet werden müssen, und es wird nativ mit Balken dargestellt, d.h. es wird auch nix unscharf.

Aber es soll ja Leute geben, bei denen auch jeder Pixel leuchten muss, den man bezahlt hat^^
 
Zuletzt bearbeitet:
Da hast du sicher recht mit den Grafikreglern in Spielen. Eigentlich bin ich eh nur Gelegenheitszocker, mir sollte das eh ziemlich egal sein.
Es ist nur halt so, dass mich das ganze Set ziemlich viel Geld kostet - ca. EUR 2.500,00 - und da wollte ich halt das bestmögliche rausholen.
Außerdem brauche ich sowieso zwingend einen 2. Bildschirm, selbst wenn der Hauptmonitor ein 28 Zoll 4k ist.

Ob sich mein aktueller 22er oder gar der 20er mit 1280x1024 als Zweitmonitor neben 4k gut eignet bezweifle ich aber etwas. :haha:
 
Na für was wird denn der 2. Monitor "gebraucht"?
Ich hab den Monitor links und den Monitor rechts vom 4K-Moni abgeschaft.
Bei der Fläche die 4K (ohne Font-Skalierung, Monitor bitte groß kaufen von der Geometrie her) bietet, kann man sehr viel was man früher über einen 2. Monitor gelöst hat, jetzt wieder mit Fenstern managen.
Und solange Du den 4K tatsächlich ohne Font-Skalierung betreibst "passt" fast alles daneben.

Und nicht vergessen: Der Monitor überlebt wahrscheinlich alle Komponenten in Deinem neuen PC.
Nicht dass Du Dich dann in 2 Jahren, wenn die nächste Graka angeschafft wird, über einen klein Aufgelösten Monitor ärgerst.
 
Zuletzt bearbeitet:
40"

Und keine persönliche Erfahrung mit dem Samsung.

Wie gesagt, ich hab normalerweise auf dem 2. Monitor auch immer die Ablage für Grafik/Videobearbeitung gehabt.
Aber Du wirst Dich wundern wie viel Platz Du auf einem 4K-Moni hast. Irgendwann arbeitet man dann halt nicht mehr ausschließlich mit Vollbildangwendungen, sondern fängt wieder mit dem Fensterln an.

Es sei denn Du schaffst Dir einen 24" 4K-Monitor an und skalierst dann auf 200% ... dann bleibt natürlich nix mehr von der Fläche übrig.
 
Zuletzt bearbeitet:
Hmm ja, schwierig schwierig das ganze. 40 Zoll auf dem Schreibtisch geht sich bei mir nicht aus. Ich glaube ich werde jetzt am
ehesten einen 28 Zoll 4k Monitor, und separat einen 24 Zoll Full HD, mit 144hz nehmen. Das sollte gesamt etwas weniger als 600,00 kosten,
und ist mit dem 24er sind sämtliche Spiele gut abgedeckt.
 
G-Sync Nvidia, FreeSync AMD und beiden eine Weiterentwicklung von V-Sync also gegen Tearing aber jetzt mit der Performance von NoSync also kein Input Lag, Stuttering oder Framedrops.
Stimmt nicht ganz. Laut Videos von battlenonsense auf youtube ist der inputlag ähnlich wie bei vsync.

Nur durch die dauerhaft gleichmäßige bildwiedergabe nicht wahrzunehmen.

Gesendet von meinem GT-I9305 mit Tapatalk
 
Hab heute Abend einige Videos und Berichte über G-Sync gelesen. Wäre zwar interessant, aber wirklich den Aufpreis ist es mir irgendwie nicht wert. Wie gesagt, bin hauptsächlich Gelegenheitsspieler.

Ich hab mich nun entschieden, dass der 4k Monitor folgender werden wird:

Samsung U28E590D 71,12 cm Monitor: Amazon.de: Computer Zubehör

Beim Zweitmonitor schwanke ich zwischen einem 24 Zoll QHD:

Dell P2416D Monitor schwarz: Amazon.de: Computer Zubehör

Und einem 24 Zoll Full HD, dafür mit 144hz:

BenQ ZOWIE XL2411 60,69 cm e-Sports Monitor grau: Amazon.de: Computer Zubehör


Schwierige Entscheidung, preislich machts keinen wirklichen Unterschied, und ob für Spiele am Zweitmonitor eine höhere Auflösung oder 144 Hz besser wären, ist Ansichtssache. :d

Natürlich würde ich am Zweitmonitor sowieso nur dann spielen, wenn die Grafikkarte für 4k zu schwach wäre, was dann vom Spiel abhängig ist.
 
Zuletzt bearbeitet:
Nochmal ein wenig Senf von meiner Seite aus.

Zum einen, was das Interpolieren angeht. Wie das aussieht, hängt wirklich sehr vom Monitor ab. Bei manchen klappt das äußerst schön, bei anderen überhaupt nicht. Ich hatte mal einen LG 31MU97, bei dem sah das extrem gut aus, WQHD kam super-sauber rüber, kaum ein Unterschied zu UHD.

Zum anderen, wegen der Größe. Lange Jahre habe ich vor einem Dual-Setup mit 27 / 24 Zoll verbracht. Ich habe es auch mal mit einem 40 Zoller versucht, aber das war nix. Man darf nie vergessen, dass der Abstand stimmen muss. Seit ca. 2 Jahren sitze ich nun an 31.5 / 27 Zoll und bin damit mehr als zufrieden. Der Platzgewinn von 27 auf 31.5 Zoll macht einen starken Unterschied und bringt mir im Alltag einen deutlichen Vorteil. Der Abstand von der Wand zur Schreibtischkante beträgt allerdings 110cm, so viel sollte das schon sein. Ansonsten wird man von so einer Größe irgendwie erschlagen.

Dual Monitor Setup ist für bestimmte Arbeiten, wo man Informationen zwischen Programmfenstern verschiebt, sehr sinnvoll und zeitsparend. Aber wenn man eher selten sowas tut, lohnt es sich vielleicht nicht unbedingt. Kostet schließlich Geld und Platz.

Zum Thema G-Sync: Ich hatte schon verschiedene Panels hier, und kann sagen, meine persönliche Erfahrung ist, dass das zwar schon was bringt, aber es hängt auch sehr vom Monitor ab und perfekt wird es trotzdem nicht. Da G-Sync die Auswahl einschränkt, würde ich mich nur darauf fixieren, wenn ich es kenne und total darauf abfahre.

Ich denke, wenn der Monitor gescheit interpoliert, kannst Du damit auf jeden Fall auch glücklich werden.
Wenn Du genug Platz und Geld hast und davon im Alltag profitierst, würde ich eher 31.5 und 27 / 28 Zoll empfehlen. Ist aus meiner Sicht der "Sweet Spot".








Hi,

ich bin gerade dabei mir ein neues PC System zu erstellen, und die Grafikkarte darin wird eine Nvidia GTX 1080.

Ich habe aktuell 2 Monitore im Einsatz. Ein 22 Zoll mit 1650x1080 und ein 20 Zoll mit 1280x1024 (beide ca. 9 Jahre alt).

Natürlich möchte ich jetzt auch diese Monitore austauschen, und ich habe mich für einen Ultra-HD Monitor entschieden (Modell ist noch offen).

Mein Problem ist nun, dass die GTX 1080 nur bedingt für Spiele in 4k Auflösung geeignet ist, und die Framerate wohl des öfteren unter 30 fps fallen könnte,
je nach Spiel natürlich.

Meiner Meinung habe ich nun 2 Optionen.

1 4k Monitor alleine - und mit den Problemen in Spielen leben ODER
1 4k Monitor und 1 QHD oder Full HD Monitor zusätzlich.

Wer hat so ein Setup?
Funktioniert das einwandfrei?
Muss man mit Burn-in am Zweitmonitor rechnen, da dieser ja viel im Alltag doch viel weniger genützt wird?
Wie gut funktioniert das interpolieren von 4k auf niedrigere Auflösungen?
Gibt es auf 4k Monitoren eine Möglichkeit, ein reduziertes Bildfeld in niedriger Auflösung anzuzeigen, so dass man Spiele mit z.b. QHD Auflösung
spielen kann, mit schwarzen Rändern oben, unten und seitwärts? Dies wäre eine Möglichkeit, in niedrigeren Auflösungen bei kleinerer Bildgröße
zu spielen, ohne zu interpolieren.


Vielen Dank im Voraus!
 
Danke für deine Vorschläge. Problem bei mir ist der Abstand zum Monitor. Bei meinem Schreibtisch komme ich nur auf ca. 70 cm. Alles über 28 Zoll dürfte hier ziemlich schwierig werden. Um dies zu ändern müsste ich einen neuen Tisch kaufen und auch einige weitere Änderungen vornehmen, was mir etwas zu kostspielig und vor allem zu aufwändig wäre.

Trotzdem bin ich immer noch am überlegen, ob ein einzelner 4k Monitor mit ca. 30 Zoll allein nicht doch auch ausreichend wäre für mich, wenn das interpolieren eben gut funktioniert. Zum Interpolieren hört man aber eben so viele verschiedene Meinungen, kann mich dazu irgendwie nicht richtig entscheiden. Vermulich komme ich eh nicht drum rum, es selbst zu testen, und dann zu entscheiden, ob die Qualität dann ausreichend ist.

Der von dir genannte LG 31MU97 schein aktuell nicht mehr erhältlich zu sein. Aber irgendein Monitor im 30 Zoll Bereich wäre schon interessant.
 
Warum schiebt ihr den schwarzen Peter für die Interpolation immer zum Monitor? Die Grafikkarte kann das auch, und zwar immer gleich gut/schlecht. Da müsste man sich gar nicht fragen was der Monitor kann oder nicht kann.


Monitor an die Wand hinter dem Schreibtisch per Vesa, und schon ist der Abstand kein Problem mehr.




Gesendet von meinem A0001 mit Tapatalk
 
Zuletzt bearbeitet:
@Madrox
in #3 erwähnst Du beiläufig den Aspekt der Bild- und Videobearbeitung. In #12 ist es die hauptsächliche Verwendung des ‚2.Monitors‘.
In #6 liebäugelst Du mit einem 32zölligen UHD-Moni, in #19 müsstest Du Dir dafür einen neuen Schreibtisch zulegen und weitere Änderungen vornehmen, was Dir zu aufwändig sei.
Schreibe doch gleich in den TS, dass Deine Hauptanwendung Bild- und Videobearbeitung ist, dann können Dir alle abraten für diese Anwendung ein TN-Panel zu verwenden.

Und wenn es nun ein UHD-Moni sein soll, der aber max. nur 28Zoll sein darf, dann brauchst Du Dich auch nicht mit Vorbehalten bezüglich Skalierungen plagen. Das Ding hat 160ppi. Das sind auf der Fläche vom Nagel des Kleinen Fingers (bei mir 1,2 x 1,5 cm) annähernd 7.500 Bildpunkte.
Es gibt 3 Möglichkeiten:
-Du hast hammergeile Adleraugen, die Dir immerwährend ermüdungsfrei maximale Sehkraft erlauben
-Du kneifst die Augen zusammen, um noch haarscharf das Fitzelzeug lesen zu können
-oder aber Du skalierst. Bei durchschnittlicher Sehkraft sogar erheblich.
Und nur bei der Stellschraube ‚Windows-Skalierung‘ wird es wohl nicht bleiben.
Jede Anwendung hat nochmal eigene Stellschräubchen, die gerne auch mal unerwartete und unerwünschte Ergebnisse liefern. Und hast Du irgendein Oldie-But-Goldie-Programm, ist es mit den skalieren u.U. gleich Essig.

Also:
-UHD auf 27/28“ ist in den meisten Fällen unnötig.
-TN ist für Bild- und Videobearbeitung die 3. und schlechteste Wahl (Bald ist es 4. Wahl, denn die ersten Moni-OLED stehen an.)


madrox
Zum Interpolieren hört man aber eben so viele verschiedene Meinungen, kann mich dazu irgendwie nicht richtig entscheiden. Vermulich komme ich eh nicht drum rum, es selbst zu testen, und dann zu entscheiden, ob die Qualität dann ausreichend ist.

Nein, es sind nicht ‚ viele verschiedene Meinungen‘ es sind einfach mal mehrere Aspekte zu betrachten. Es kommt auf die Bildinhalte an. Je nach dem fällt eine eventuelle Interpolation Deinem Auge auf oder nicht. Das hat wegen meiner was mit Qualität zu tun. Aber nicht mit der des Monis, sondern mit der Deiner Augen.

Testest Du eine Interpolation mit kleiner Schrift an einer Textverarbeitung, kannst Du den Versandhändlern einiges an Arbeit ersparen: Der Moni wird bereits auf den ersten Blick mit Pauken und Trompeten durchfallen.
Testest Du, ob ein interpoliertes Bild in irgendeinem High-Speed-Shooter-Spektakel einen zusätzlichen Lag produziert, möchte ich Deine Messmethode hinterfragen.
 
Zuletzt bearbeitet:
Da der Input Lag mit V-Sync je nach Spiel/Engine und ob mit oder ohne Triple Buffering völlig unterschiedlich ausfällt kann so eine Aussage nicht stimmen.
Mit FreeSync/G-Sync hat man nie spürbaren Input Lag. Gegen die Latenz der Elektronik und eine zu langsame Reaktionszeit des Panels hilft es aber nicht.

- - - Updated - - -


G-Sync läuft immer perfekt und es hat nichts mit dem Panel zu tun. Wenn dir das Bild bei Bewegung zu unscharf ist das brauchst du eine stärkere Grafikkarte für mehr FPS
und ein TN Panel für eine schnellere Reaktionszeit damit das Bild auch bei hohen Frameraten schön scharf wirkt. Je höher die min. FPS und je niedriger die ms desto besser.

Ich hatte hier schon ein saugutes G-Sync TN-Panel und die Wiedergabe war nicht perfekt flüssig, und nein, lag sicher nicht an der Grafikkarte. Von "Unschärfe" rede ich gar nicht. Scharf war´s in jedem Falle.

- - - Updated - - -

Warum schiebt ihr den schwarzen Peter für die Interpolation immer zum Monitor? Die Grafikkarte kann das auch, und zwar immer gleich gut/schlecht. Da müsste man sich gar nicht fragen was der Monitor kann oder nicht kann.


Monitor an die Wand hinter dem Schreibtisch per Vesa, und schon ist der Abstand kein Problem mehr.

Gesendet von meinem A0001 mit Tapatalk

Ich hatte hier in den letzten 2-3 Jahren mindestens 10 unterschiedliche UHD Monitore, die hatten alle ihre ganz eigenen Lösungen zur Interpolation und haben am gleichen Setup ganz unterschiedliche Ergebnisse gebracht, von grottenschlecht bis superplus. Auf PRAD ist das ein Thema, dem stets ein eigener Abschnitt gewidmet wird und am Ende gibt es auch eine Punktevergabe für dieses Merkmal.

Zum Thema VESA: Grundsätzlich kann das in bestimmten Umgebungen und Szenarien die beste Lösung sein. Aber das ist es nicht immer. Ab einem gewissen Gewicht besteht erhöhte Gefahr, das Panel beim Aufsetzen versehentlich mit einem Fingerdruck irreparabel zu beschädigen. Damit meine ich subtile Schäden wie Inhomogenität oder Mängel bei der Farbtreue in dem Bereich. Die Montage ist nicht unbedingt eine Kleinigkeit (für jeden). Und arg viel gewinnt man damit auch nicht.

- - - Updated - - -

Also:
-UHD auf 27/28“ ist in den meisten Fällen unnötig.
-TN ist für Bild- und Videobearbeitung die 3. und schlechteste Wahl (Bald ist es 4. Wahl, denn die ersten Moni-OLED stehen an.)


Testest Du eine Interpolation mit kleiner Schrift an einer Textverarbeitung, kannst Du den Versandhändlern einiges an Arbeit ersparen: Der Moni wird mit dem ersten Blick mit Pauken und Trompeten durchfallen.
Testest Du, ob ein interpoliertes Bild in igendeinem High-Speed-Shooter-Spektakel einen zusätzlichen Lag produziert, möchte ich Deine Messmethode hinterfragen.

Was UHD auf 27/28 Zoll betrifft, sehe ich vollkommen anders. Ich arbeite und spiele seit ca. 2 Jahren an 5k auf 27 Zoll und UHD auf 31.5 Zoll und sehe den Unterschied noch locker aus 50cm Entfernung und mehr. Es ist z.B. ganz deutlich erkennbar, wie das Bild auf dem 27er bei Umstellung von UHD auf 5k profitiert. Meine Augen sind noch ganz in Ordnung, auch wenn es sicher keine "Adleraugen" sind. Für mich ist es eigentlich inakzeptabel, den 27er unter 5k zu betreiben.

Skalierung am Windows Desktop ist eine Sache, die auf UHD in weiten Teilen (mit wenigen Einschränkungen) sehr gut funktioniert - mittlerweile. 5k ist nicht mehr ganz so schön aber immer noch akzeptabel. Man muss freilich immer wieder in den Exe-Eigenschaften die Skalierung bei hohem DPI-Wert deaktiveren und wenn möglich mit Plugins etc. nachbessern. Aber man profitiert da ganz eindeutig von den hohen DPI Werten, keine Frage. Ich kann so deutlich entspannter lesen, schreiben etc. und würde darauf nie mehr verzichten wollen.

Interpolation bei Spielen hingegen ist eine andere Sache. Das wird nun mal nicht immer so schön, wie man sich das wünscht. Wie gesagt, hängt stark vom Monitor bzw. dessen Interpolationsverfahren ab. Und dann natürlich von den Ansprüchen des Users.
 
@Eus
Ja, man merkt auch deutlich den Unterschied zwischen einem Auto mit 100PS und Einem mit 400PS (Allegorie zu FHD -> UHD = 4fache Auflösung) aber…
sind 400PS notwendig? Da reichen die Meinungen von ‚immer doch, aber noch lieber gleich 500PS‘ bis ‚hat vielleicht nicht alleroberste Priorität‘.

5k auf 27Zoll hat 218 ppi, UHD auf 31.5Zoll hat 140 ppi.
Da wird man wohl schon einen Unterschied sehen, wenn sie direkt nebeneinander stehen.
Zumal wenn man mit 50cm Entfernung Auge zu Panel-Oberfläche fast schon mit der Nase am Glas klebt. Ein üblicher Abstand wäre so um die 80cm, selbst 1 Meter ist bei größeren Monitoren durchaus akzeptabel. Da man auf eine ‚Fläche‘ schaut, nimmt die wahrnehmbare Detailschärfe im !Quadrat! zur linearen Entfernung ab. Also 1 Meter Sitzabstand zu 50cm Sitzabstand = ein Viertel wahrnehmbare ‚Schärfe‘.

Ich habe einen 40zölligen UHD-Moni mit ~110ppi bei 90cm Sitzabstand.
Ich (Brillenträger, keine Gleitsichtbrille notwendig, etwas Alterweitsichtig), empfinde das Bild als rattenscharf. Mangels Geräteauswahl kann ich es nicht mit 5k an 40 Zoll vergleichen, aber ich hatte UHD in 27Zoll und in 31.5/32Zoll.
Ich empfand jeden Größensprung als spürbaren Gewinn der ‚Wahrnehmungfläche‘ obwohl alle Monis die gleiche Auflösung hatten.
Ich hatte übrigens mit dem Samsung U28D590D als meinen ersten UHD-Moni den Vorgänger des vom TS vorgeschlagenen Samsung U28E590D. Ich wollte unbedingt UHD haben, aber zu der Zeit kostete UHD@IPS@32 Zoll noch mehrere tausend Eus, drum habe ich mich notgedrungen für UHD@28@TN entschieden. Ja toll, war alles sehr scharf. Aber die Aspekte Farbe/Farbtiefe/Kontrast/ waren unter aller Sau und um Längen mieser als mein uralter IPSler. Ich bin nicht so gut in ‚exe-Eigenschaften deaktivieren‘ , ich weiß ehrlich gesagt nichteinmal was das sein soll. Und in ‚einfach mal mit ‚nem PlugIn nachbessern‘ bin ich auch nicht gut.
Ich weiß nur, dass mich mein AutoCAD auf UHD@27Zoll ziemlich genervt hat (und in diesem Programm kenne ich mich wirklich gut aus) denn mit dem Laptop arbeite ich an verschiedenen Arbeitsplätzen und also auch Monitoren. Und an einem FHD-Moni waren die mühselig für UHD skalierten Begleittexte dann grotesk groß.

Als technisch interessierter/begabter Mensch probiere ich ja an so ziemlich jedem technischen Gerät jede Stellschraube aus, und muss immer alle Zusammenhänge ausprobieren (meine Freundin sieht es sehr ungerne, wenn ich mich im SetUp-Menü des Fernsehers ‚verirre‘, weil ich dann ganz ohne Not gerne mal ‚ne Komplett-Neu-Konfiguration anstrenge.)
Aber es käme mir -als NichtGamer- nie in den Sinn meinen TFT-Moni durch Interpolation zu beschneiden.

Achja: Ich habe den Moni ebenfalls per VESA-Mount an der Wand. Ja, man muss mit dem Teil ein wenig hantieren und in der Lage sein, eine Stahlplatte so an die Wand zu dübeln, dass ein vielleicht 5 Kilo schwerer Moni daran Halt findet. Ich empfinde den Gewinn immens. Der Schreibtisch bietet deutlich mehr Platz ohne den MoniFuss darauf und es gibt keine wirre Kabellage mehr hinter dem Tisch.
Nachteil der Wandmontage: man stellt danach nur noch sehr ungerne seine Möbel um ;)
Naja, wer sowieso nie ein Werkzeug in die Hand nimmt, oder bestenfalls mal einen Feinmechaniker-Schraubendreher um ein paar PC-Eingeweide auszutauschen, wird vielleicht den Aufwand scheuen. Aber da kann ich als gelernter Zimmermann natürlich leicht großkotzen…
 
Zuletzt bearbeitet:
@Eus
Ja, man merkt auch deutlich den Unterschied zwischen einem Auto mit 100PS und Einem mit 400PS (Allegorie zu FHD -> UHD = 4fache Auflösung) aber…
sind 400PS notwendig? Da reichen die Meinungen von ‚immer doch, aber noch lieber gleich 500PS‘ bis ‚hat vielleicht nicht alleroberste Priorität‘.

Ich habe einen 40zölligen UHD-Moni mit ~110ppi bei 90cm Sitzabstand.

Achja: Ich habe den Moni ebenfalls per VESA-Mount an der Wand. Ja, man muss mit dem Teil ein wenig hantieren und in der Lage sein, eine Stahlplatte so an die Wand zu dübeln, dass ein vielleicht 5 Kilo schwerer Moni daran Halt findet. Ich empfinde den Gewinn immens. Der Schreibtisch bietet deutlich mehr Platz ohne den MoniFuss darauf und es gibt keine wirre Kabellage mehr hinter dem Tisch.
Nachteil der Wandmontage: man stellt danach nur noch sehr ungerne seine Möbel um ;)
Naja, wer sowieso nie ein Werkzeug in die Hand nimmt, oder bestenfalls mal einen Feinmechaniker-Schraubendreher um ein paar PC-Eingeweide auszutauschen, wird vielleicht den Aufwand scheuen. Aber da kann ich als gelernter Zimmermann natürlich leicht großkotzen…

VESA: 5kg sind ok, ich dachte da mehr an 10kg und mehr. Mein Monitor wiegt ca. 20kg.

40" UHD: Urks.... Urks.... Urks... Käme ich nicht mit klar... Nicht mehr...

100PS vs. 400PS:

Die Ansprüche wachsen einfach, das ist ganz normal.

Bei Monitoren ist mit 218PPI die obere Grenze noch nicht erreicht. FHD auf 27 Zoll ginge bei mir vielleicht mit 20 oder 30PS durch. Erst 5K auf die Größe würde ich (höchstens) mit 100PS vergleichen. Ich bekomme heute schon Kopfschmerzen, wenn ich vor einem Monitor mit 82PPI sitze. Das sieht einfach scheusslich aus. Ist aber auch kein Wunder, wenn man so viel höhere Schärfe gewohnt ist.

Die Entwicklung ist klar: Wir werden mit den kommenden Jahren und Jahrzehnten sicherlich vor immer schärferen Bildschirmen sitzen. 218PPI werden in vielleicht 10 - 15 Jahren ganz normal sein. Dann wird man sich darum streiten, ob nun 400PPI (8K) oder gar 800PPI (16K) noch Sinn machen. Hingegen dass 5K nicht "notwendig" ist, darüber wird niemand mehr reden, weil es alle haben, genießen und als Standard betrachten.
 
@Eus
Von wegen:
Hingegen dass 5K nicht "notwendig" ist, darüber wird niemand mehr reden, weil es alle haben, genießen und als Standard betrachten.

Grundsätzlich ist mir die ppi ja Banane.
Ich habe nur keine Lust mein gepflegtes Software-Bundle über Bord zu werfen, nur damit ‚das Skalieren‘ von Hoch-ppi-Monitoren besser klappt.
FHD ist für mich nur noch ein schwaches Rauschen in meiner nostalgischen Erinnerungs-Melange.
Aber es sind vor Allem die Gamer -die hier bei HWluxx deutlich in der Mehrheit sind- die sich weiterhin überteuerte FHD@TN-Monis mit Sync und extraviel Hz zulegen, damit deren Games auch mit ordentlich viel ‚Ultra-Einstellungen‘ fluffig laufen. Für diese Fraktion ist UHD, 5k undundund noch lange keine Option.

Desweiteren ist es ja nicht die Panel-Technologie, die die Grenzen setzt, sondern die Bandbreiten-Limits der Übertragungsstandards. Die aktuellen nvidias kommen mit DP 1.3/1.4 daher und AMD wird wohl bald nachziehen. Nun ist es an den Moni-Herstellern ebenfalls die passende Elektronik zusammen zu löten, damit entweder UHD auch mit >60Hz läuft oder aber die notwendige Datenrate für immer höhere Auflösungen durch ein! DP-Kabel passt. Aber damit sind sofort wieder der GraKa-Hersteller im Zugzwang genug Shader zu verbauen, um z.B. UHD mit über 60Hz ruckelfrei darzustellen.
Also: Seit ‚Pong‘ ist es bei Games immer ein Hase-und-Igel-Spiel.
Per heute: Mega aktuelle GraKa an uraltes FHD@TN mit überteuerten Sync- und Hz-Features.
Da ist es noch ein gutes Stück bis ‚5k‘. Denn ein Gamer verzichtet eher auf max. Auflösung, um lieber mehr Hertz, HDR und Grafik-Details durchs Datenkabel zu pressen.

Natürlich steigt die Erwartungshaltung. Und immer verspricht Dir die Werbung mit jedem neuen Teil die ‚Zukunft‘.
Den Textverarbeiter juckt das alles nicht. Meine mittelalte Laptop-Intel HD4600 wuppt 2x UHD parallel inkl. internem Screen im Wachkoma.
Mit UHD kann man all die Pixel -halt in Grenzen- entweder in ‚superscharfe Anzeige‘ investieren oder aber in Diagonale. Und da ist für meine Exceltabellen und CAD-Zeichnungen ein UHD in 40Zoll eine gute Sache, halt mein subjektiver Standpunkt, gemessen an meinen Ansprüchen und meinen Anwendungen, und dies ohne die GraKa auch nur im Geringsten zu fordern.

Man muss sich für die immer höher auflösenden Monitore auch immer die passende Hard- und Software zulegen. Da bin ich ‚Traditionalist‘. Für meine Belange reicht ein älterer I7 und Win7 um Potenzen aus. Ich müsste mein Laptop wegschmeißen und mich künftig dem Win10-Joch beugen, nur um 5k oder 8k zu haben, was ich dann heftig skalieren muss, damit sich auch weiterhin die GraKa langweilt, während ich ein paar Zahlen und Buchstaben über den Schirm schubse, und mir Redmond noch mehr vorschreibt, wie ich den PC zu verwenden habe, während mir irgendeine Wetter-App ein paar lustige Wölckchen zeigt und mich nebenbei ausspioniert.
Ich hatte auch mal einen 27zöllligen FHD-Moni (16:10), einfach weil es zum Kaufzeitpunkt State-Of-The-Art war und garnicht mehr ging (gut, da gab es bereits die von mir nicht bezahlbaren 30Zöller mit 2.560x1.600 von Dell und NEC). Und ich habe den FHD@27“ bereits vor über 4 Jahren komplett ausrangiert. Und zwar genau wegen der wirklich miesen Pixeldichte von etwas über 80 ppi.
Aber deshalb muss ich die Messlatte meiner Anforderungen ja nicht gleich auf 200ppi hieven. Kann ich bei bebrillt durchschnittlicher Sehkraft keine Pixel mehr in meinen Anwendungen erkennen ist es für mich schick und schön.
(Was haben wir damals mit der Zunge geschnalzt, als die DVD rauskam, weils gegenüber VHS so toll scharf war. Was haben wir über FHD via BlueRay gestaunt; so unglaublich scharf und auch noch 3D.)
Mir, also ganz subjektiv, reicht bei Bewegtinhalten, die ich am PC praktisch nicht habe, eine FHD-Auflösung an einem knackigen VA-Panel weiterhin aus.
 
@Eus
Von wegen:


Grundsätzlich ist mir die ppi ja Banane.
Ich habe nur keine Lust mein gepflegtes Software-Bundle über Bord zu werfen, nur damit ‚das Skalieren‘ von Hoch-ppi-Monitoren besser klappt.
FHD ist für mich nur noch ein schwaches Rauschen in meiner nostalgischen Erinnerungs-Melange.
Aber es sind vor Allem die Gamer -die hier bei HWluxx deutlich in der Mehrheit sind- die sich weiterhin überteuerte FHD@TN-Monis mit Sync und extraviel Hz zulegen, damit deren Games auch mit ordentlich viel ‚Ultra-Einstellungen‘ fluffig laufen. Für diese Fraktion ist UHD, 5k undundund noch lange keine Option.

Ja, das sehe ich auch so.

Desweiteren ist es ja nicht die Panel-Technologie, die die Grenzen setzt, sondern die Bandbreiten-Limits der Übertragungsstandards. Die aktuellen nvidias kommen mit DP 1.3/1.4 daher und AMD wird wohl bald nachziehen. Nun ist es an den Moni-Herstellern ebenfalls die passende Elektronik zusammen zu löten, damit entweder UHD auch mit >60Hz läuft oder aber die notwendige Datenrate für immer höhere Auflösungen durch ein! DP-Kabel passt. Aber damit sind sofort wieder der GraKa-Hersteller im Zugzwang genug Shader zu verbauen, um z.B. UHD mit über 60Hz ruckelfrei darzustellen.
Also: Seit ‚Pong‘ ist es bei Games immer ein Hase-und-Igel-Spiel.
Per heute: Mega aktuelle GraKa an uraltes FHD@TN mit überteuerten Sync- und Hz-Features.
Da ist es noch ein gutes Stück bis ‚5k‘. Denn ein Gamer verzichtet eher auf max. Auflösung, um lieber mehr Hertz, HDR und Grafik-Details durchs Datenkabel zu pressen.

Ja, das sieht wohl so aus. Ich gehöre da zur Minderheit, die eine höhere Pixeldichte zu schätzen weiß und dafür bereit ist, in anderen Punkten Abstriche zu machen, sofern es sich im Rahmen hält.

Natürlich steigt die Erwartungshaltung. Und immer verspricht Dir die Werbung mit jedem neuen Teil die ‚Zukunft‘.
Den Textverarbeiter juckt das alles nicht. Meine mittelalte Laptop-Intel HD4600 wuppt 2x UHD parallel inkl. internem Screen im Wachkoma.
Mit UHD kann man all die Pixel -halt in Grenzen- entweder in ‚superscharfe Anzeige‘ investieren oder aber in Diagonale. Und da ist für meine Exceltabellen und CAD-Zeichnungen ein UHD in 40Zoll eine gute Sache, halt mein subjektiver Standpunkt, gemessen an meinen Ansprüchen und meinen Anwendungen, und dies ohne die GraKa auch nur im Geringsten zu fordern.

Das ist nur verständlich. Würde ich vielleicht auch so machen.

Was allerdings das Texten angeht. Ich lese und schreibe wirklich relativ viel. Und gerade dafür ist mir die hohe Pixeldichte eine wahre Wohltat.

Man muss sich für die immer höher auflösenden Monitore auch immer die passende Hard- und Software zulegen. Da bin ich ‚Traditionalist‘. Für meine Belange reicht ein älterer I7 und Win7 um Potenzen aus. Ich müsste mein Laptop wegschmeißen und mich künftig dem Win10-Joch beugen, nur um 5k oder 8k zu haben, was ich dann heftig skalieren muss, damit sich auch weiterhin die GraKa langweilt, während ich ein paar Zahlen und Buchstaben über den Schirm schubse, und mir Redmond noch mehr vorschreibt, wie ich den PC zu verwenden habe, während mir irgendeine Wetter-App ein paar lustige Wölckchen zeigt und mich nebenbei ausspioniert.
Ich hatte auch mal einen 27zöllligen FHD-Moni (16:10), einfach weil es zum Kaufzeitpunkt State-Of-The-Art war und garnicht mehr ging (gut, da gab es bereits die von mir nicht bezahlbaren 30Zöller mit 2.560x1.600 von Dell und NEC). Und ich habe den FHD@27“ bereits vor über 4 Jahren komplett ausrangiert. Und zwar genau wegen der wirklich miesen Pixeldichte von etwas über 80 ppi.
Aber deshalb muss ich die Messlatte meiner Anforderungen ja nicht gleich auf 200ppi hieven. Kann ich bei bebrillt durchschnittlicher Sehkraft keine Pixel mehr in meinen Anwendungen erkennen ist es für mich schick und schön.
(Was haben wir damals mit der Zunge geschnalzt, als die DVD rauskam, weils gegenüber VHS so toll scharf war. Was haben wir über FHD via BlueRay gestaunt; so unglaublich scharf und auch noch 3D.)
Mir, also ganz subjektiv, reicht bei Bewegtinhalten, die ich am PC praktisch nicht habe, eine FHD-Auflösung an einem knackigen VA-Panel weiterhin aus.

Ja, auf jeden Fall verständlich. Du nutzt nun welches Betriebssystem?
Es hat mir auch ne Menge Ärger eingebracht, Wert auf mein spezielles Setup mit UHD + 5K zu legen, was 3x DisplayPort 1.2 erfordert.

Wäre mein PC ein reiner Spieleknecht, sähe es ganz anders aus.

Trotzdem - ich bin glücklich und dankbar, so arbeiten zu können. Und könnte mir vorstellen, dass einige User, wenn sie jetzt nicht in erster Linie daddeln an ihren Kisten, es ähnlich erleben würden. Daher würde ich jedem, der nicht wirklich auf Sync, HDR, maximale Hertz, FPS, Effekte fixiert ist, also kein reiner Zocker sonder eher ein casual oder immer-wieder-mal-Spieler ist, oder es nicht unbedingt so hat mit schnellen Shootern, was auch immer, empfehlen, sich Monitore mit hohen Pixeldichten wenigstens mal anzuschauen und der Sache eine Chance zu geben. Am Windows Arbeitsplatz profitiert man dann u.U. sehr stark davon.

Ich kann an meinen Monitoren eigentlich alle Spiele sehr, sehr genießen und bin mit der Qualität sehr zufrieden, auch wenn diese ganzen speziellen Gaming-Features fehlen. Das Bild ist trotzdem prächtig, die Wiedergabe flüssig und scharf genug.
 
@Eus
Dann sind wir uns einig, dass wir uns beide für unsere Ansprüche in die Materie eingearbeit haben, um aus den Kombinationen von Kosten/Nutzen und vor allem! technischer Machbarkeit für uns taugliche Wege zu finden.

Aber in Deinem Zitat:
Das Bild ist trotzdem prächtig, die Wiedergabe flüssig und scharf genug.
Finden sich die typischen Begriffe ‚prächtig‘ ‚flüssig‘ und vor allem ‚scharf‘, die viele Leuten eher als diffuse Beschreibung für ein wünschenswertes Ergebnis hernehmen, ohne sich mit den jeweiligen Begrifflichkeiten der technischen Hintergründe zu beschäftigen.

Mein mittelaltes TV-Set mit VA-Panel macht ein wirklich ‚prächtiges‘ Bild. Aber es sind halt die guten Farbwerte des vornehmlich für Bewegtinhalte gemachten Panels und weniger die Gesamt-Pixelanzahl, die diese ‚Pracht‘ ausmacht.
Beim Thema ‚flüssig laufen‘ verdrehen Viele die Kausalkette.
Wenns ruckelt, ist der Moni Schuld, denn auf diesem !sieht! man ja den Murks der ansonsten unsichtbaren Hard- und Software.
Die Gedankenkette: ‚Der Moni ist Schuld, er hat zuviel Pixel, ich interpolier mal, denn halb so viel Pixel ich gleich doppelt so flüssig. Ach Mist, Interpoliert ist es ja voll matschig, schon wieder dieser doofe Monitor.‘

Ich sage ‚Nein. Nicht der Moni ist Schuld. Es ist der Käufer, der zuviel wollte/erwartete. Er hat sich von der Werbung überrumpeln lassen und war der Meinung, dass er mit seiner Geizhals-Mentalität und amazon-1-Click-Purchase alles auf einmal kriegen kann, was ihm kreuz und quer irgendwo mal als technisch machbar angepriesen wurde.

Es gibt UHD- und 5k-Auflösung
Es gibt Sync in mehreren Ausführungen
Es gibt bis zu 240Hz Refresh-Rate
Es gibt HDR und QuantumDot
Es gibt die magische 1 Millisekunde für g2g und InputLag
Es gibt Monitore für 150Eus, auf dessen Verpackungen ein gepimtes Muscle-Car aus der Monitorabbildung herausschießt.

Und der Kunde sagt sich:
‚Ja, das will ich. Ja, genau alles davon. Achja, ich mach‘ auch PhotoShop und manchmal ein bißchen was mit Video.‘

2 wahllose Beispiele aus zahllosen Zusammenhängen:
UHD >60HZ geht nicht.
Gründe: DP1.2 kann es schlichtweg nicht übertragen und selbst eine 1080 kriegt in den meisten Games keine 60Hz+ in UHD gebacken.

5k geht nur mit 2x DP1.2 (das gab es bereits vor ein paar Jahren schoneinmal bei den ersten UHD-Monis, damit sie im MST-Modus auch via DP1.1 laufen konnten).
Aber es zeigt, dass der Panel-Bäcker was produzieren kann, wo der Übertragungsstandard, die GraKa und auch die Software nur mit Triscks und Einschränkungen hinterherkommt.
Dein 5k-Moni ist also ein Zwischenschritt (gut, das ist alle Elektronik), pixelmäßig beyond DP1.2, aber bei der Elektronik im Leistungsumfang von DP1.2 gefangen. Nicht zuletzt, damit er auch mit den verbreiteten DP1.2-GraKas kompatibel ist.

Aber Egal.
‚Der Moni ist Schuld, sieht doch jeder, dass der ruckelt, dabei hatta nichmal UHD@120Hz, diese doofen Monitor-Hersteller, kriegen echt nix auf die Kette.‘ wird gefolgert.

Und genau so ein Anspruchssteller kommt dann mit:
‚Das Bild muss prächtig sein und flüssig laufen und alles muss auch ganz scharf sein.‘
Das Ganze dann bei amazon als Schnäppchen-Prime-Deal zum halben Preis mit Cash-Back-Offer und 0%-Finanzierung ohne Schufa-Auskunft.

Also: Eine immer höhere Auflösung, da bin ich gerne dabei.
Aber auch künftig wird man dazu den Blick auf seine Anwendungen haben müssen.
Oder aber, man ist bereits komplett das Opfer der Unterhaltungselektronik geworden und klickt sich schön brav auf den vorgegebenen Pfaden der angesagten Trends entlang.

Zu Deiner Frage: Ich benutze Win7ultimate/64Bit.
Das hat bezüglich Windows-Skalierung einige Nachteile bezüglich Hoch-ppi-Monis, einfach weil es Win7 schon gab, als von Retina-Auflösungen noch keine Rede war.
Und wie immer ist man mit einem Laptop gekniffen, wenn ein Versionswechsel bei irgendeinem (Verbindungs-)Standards ansteht.
-> USB 3.0 oder gar USB-Type-C, DP1.3/1.4, CPU-Sockel oder Direct-X-Engines.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh