4k 32" Monitor IPS

Stell' Dir die Frage, welches Stromverbrauchsdelta da rauskommt. Wahrscheinlich liegt der Stolperstein sowieso bei Deines GraKa des Rechners. Monitorstromverbrauch ist schicht nebensächlich. So wie das gewöhnen an 60Hz (bei HO-Office use).
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich möchte einfach keine 60hz mehr nutzen. Das kann jeder ja gern machen wie er möchte.
Ich mag es absolut nicht mehr sei es nur die Maus bei 60hz oder Fenster schieben etc für mein Auge alles so unangenehm und da es doch so viele Monitore gibt wird schon der eine oder andere passende dabei sein. 2x DP sollte ja dann auch reichen mit USB c auf DP Kabel.
Ich muss mich schon an Macos gewöhnen da mein Arbeitgeber halt nur mit Apple arbeitet, bin nicht so der Freund finde es gegenüber Win11 altbacken und viele Dinge fehlen einfach die gut sind.

Zurück zu den Monitoren 32" 4k und mehr Hz ist ja auch gerade erst so im Kommen sollte ich einfach noch etwas warten? Widescreen ist auch nicht so meins hatte zum testen einen 34" und einen 49" zuhause am 49" ist es schon nicht schlecht ist ja im Grunde wie 2x27" aber gibt halt auch Nachteile wie Videos etc Vollbild einige Spiele machen dort Probleme... ich benötige einen guten Monitor für Gaming und Arbeit.
Der Dell wäre echt was gewesen gibt ja auch einen mit IPS aber irgendwie haben alle immer 2 oder 3 mal HDMI und nur einen DP Port. Bei Oled hat man auch dieses Backlight nicht ist schon angenehm.
 
Normale 16:9-Monitore mit zwei Displayports. Wie wären diese.

 
49" sollte bei entsprechendem Abstand kein Problem sein. Die Auflösung fordert hier allerdings ordentlich GPU Leistung.

Der Bildschirm ist in 32:9. Bei Filmen gibt es riesige ungenutzte Flächen. 21:9 ist immerhin schon etwas etablierter und auch eher für Spiele geeignet.


Hier findest Du die Information mit Blick auf USB und Displayport.
 
Danke erstmal für die Hilfe ja die 4070 schlägt sich schon sehr gut bei 4k muss ich sagen wird nur wirklich laut wenn ich nur Wqhd betriebe ist sie viel ruhiger aber ist ka auch klar Leistung mehr Watt mehr Hitze. Ja die 49" sind nicht verkehrt fürs arbeiten aber beim Filme oder mal Youtube gucken wobei ich da eigentlich nur Musik höre ist das Format nicht schön. Gaming ist so eine Sache wird es unterstützt ist es echt klasse wenn nicht schon echt nervig. Dabei kommt es mir bei meiner Arbeit so vor als wären die 42" mit 16:9 deutlich besser ich habe so viel Platz beim coden kann unten die komplette Fläche nutzen und oben zwei Fenster in 1080p offen haben. Schade das sie die TVs nicht mit DP rausbringen
 
Der hat doch Displayport. Allerdings kein Gsync. Nur Adaptiv Sync, das würde ich mir nicht antun wollen bei so einem Monitor.

Hier mit zwei Display-Port und Nvidia G-Sync.
 
Da ist ist nicht das gleiche. :-) Höre das immer wieder.

Klar funktioniert die Grafikkarte auch mit Adaptive Sync, aber G-Sync ist ne andere Klasse und kann viel reißen -gerade wenn im Limit-Bereich gearbeitet wird.


Adaptive Sync
1731783023817.png


Nvidia G-Sync und AMD FreeSync
1731783099124.png


Und hier auch nochmal.
 
Ist egal, ist das gleiche.
Ja stimme ich zu! Mein neuer Philips (das Austauschgerät ist seit heute im Betrieb) kann auch nur Adpative Sync, läuft und nur in Nvidia Einstellungen wir gemopt der das nicht offiziel kann....... Offiziel heißt da auch nur n Depp hat entschieden das Nvidia gezhalt wird dafür über den Käufer! Ghosting ist mit einem guten Gerät Nebensache! Bilder verdoppeln? Fram Gen much? Kann Lossless Scaling für weniger kosten als Nvidia gierflationiert und AMD ist da besser! Siehe z.b. das in Star Citizen 4090er von 6800XTs aufgewischt werden..... Bildquali ist aber oft so ne Sache dabei!

Obwohl is sagen muss das meine alter AOC Gsync von 0-165Hz kann! Anscheinend kann das kein aktueller Monitor mehr so wirklich!

Achja Ultra Widescreen ist zwar nice! Aber zum zocken oft mit gefuppel erst möglich. Hab mich auch dagegen entschieden!
 
Zuletzt bearbeitet:
Obwohl is sagen muss das meine alter AOC Gsync von 0-165Hz kann! Anscheinend kann das kein aktueller Monitor mehr so wirklich!
Ja genau. Adaptive Sync geht erst ab mindestens 60Hz. Bei ner RTX 4090 nicht so trivial. Aber bei ner 4070 in 4k+ Auflösungen., naja.

Reine G-Sync Monitore sind aber auch sehr selten geworden. Ich würde aber wenigstens auf G-Sync compatible achten, wenn ich eine RTX-Karte habe.
 
Ich weiß von 48Hz.
 
Klar funktioniert die Grafikkarte auch mit Adaptive Sync, aber G-Sync ist ne andere Klasse und kann viel reißen -gerade wenn im Limit-Bereich gearbeitet wird.
Wir reden hier aber nicht von echtem G-Sync, das hat keiner der hier genannten Monitore sondern von G-Sync-Compatible und das ist sehr wohl das gleiche. Echte G-Sync-Monitore gibt es kaum noch welche. Der erwähnte Samsung G9 ist auch nur G-Sync Compatible.
Beitrag automatisch zusammengeführt:

Ich würde aber wenigstens auf G-Sync compatible achten, wenn ich eine RTX-Karte habe.
Ist wie gesagt vollkommen überflüssig, ich nutze nur "inkompatible" Monitore und habe da überhaupt keinen Nachteil. Es ist einfach nur eine Nvidia-Zertifizierung, die zu der Zeit erschaffen wurde, als es noch häufiger Probleme gab mit den ersten VRR-Monitoren (Bildaussetzer usw.)
 
Es hängt vom Monitor ab, üblich sind 48Hz, wenn der Scaler ab 10Hz kann, dann kann er das ja trotzdem als Range angeben an die GPU, es gibt da keine klare Grenze. Es ist halt mehr Aufwand je niedriger die Frequenz, daher macht man sinnvollerweise bei 48Hz Schluss, weil darunter eh LFC greifen kann und die Hz einfach verdoppelt.

Aber ist eigentlich sowieso unerheblich weil sich da VRR und G-Sync Compatible auch nicht unterscheiden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh