[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Musst halt auch bedenken, dass Monitore allgemein im PC-Gaming bis heute ja eher eine untergeordnete Rolle spielen (ich spreche da von den vielen 4090-Nutzer mit WQHD-IPS im 300€-Bereich) und daher die Entwickler da auch logischerweise kein großes Augenmerk drauf legen.

Die gleichen Games kommen ja auch auf der Konsole raus .. siehe Metro Exodus .. Konsolen Version gutes HDR und PC Version Raised Blacks aus der Hölle .. is halt auch seltsam dass das selbe Game Studio
da unterschiedlich das HDR Implimentiert aber es gibt natürlich auch Konsolen Games mit Raised Blacks.

Aber stimmt schon die meisten Gamer nutzen halt noch SDR daher is HDR bei der Game Entwicklung eher 2te Geige .. nur wenn sie es dann schon implimentieren dann sollten sie es schon richtig machen
oder eben ganz weg lassen... glücklicherweise kann man es als Nutzer aber zumindest noch selbst Fixen wenn die Game Entwickler es verbocken.

Hab den erst heute wieder im Fachmarkt gesehen, neben nem C3, muss schon sagen, der Unterschied ist immer wieder beeindruckend zwischen beiden Geräten, was der G3 da in High APL-Szenen raushaut (50%).

War seit G3 Release 2 mal bei Media Markt weil ich was anderes brauchte und hab da auch mal nach den TVs geschaut aber nen G3 hab ich da zwar gesehen aber er war nich an nur andere TVs liefen da
allerdings zumindest mit guten HDR Demo Material was man ja auch auf Youtube findet und nich mit so low Quality ZDF oder sowas.

2025 isses dann ja auch bei der C Serie hoffentlich entlich soweit alzu lange kann LG sich das nich ohne krassen Backlash erlauben geht ja jetzt schon zum teil los das die Leute sauer werden.
Und bin dann auch auch die Phosphor Blue Sache gespannt was auch nochmal für nen guten Push sorgen sollte.

Genau das ist mein Reden! Daher bin ich ja der Meinung, dass die Mini-LEDs näher am HDR sind als die OLEDs, weil, ja, sie haben bei kleinen Sachen mehr oder weniger Blooming, aber wenigstens werden sie nicht zum SDR-Monitor sobald mal ne Tagszene kommt, so wie die ganzen QD-OLEDs. Wie sollte man solche Szenen denn gut auf einem QD-OLED-Monitor mastern?

Stimmt .. da macht dann schon der teure QD-OLED Mastering Monitor mehr sinn der 1000 Nits bei 100 % packt um damit dann das HDR zu Implimentieren.

Man merkt halt auch allgemein dass HDR selten wirklich Thema ist.

Liegt eben daran das viele mit den ollen HDR 400 Kisten ihre erfahrung gemacht haben und dann merkten das es nur Meh is und wieder zurück zu SDR sind .. hatte ja letztens das Thema erst in dem anderen Thread.
Auch sprach das ja John bei der DF Direct Show Heute an. HDR 400 is halt nur meh genau wie HDR 600 ab HDR 1000 fängst an spass zu machen

Klar, im Enthusiastenfilmbereich ja, aber schau mal bei Youtube, da gibts fast gar keine HDR-Videos (ich nehm den Demo-Krempel mal raus, das sind ja keine echten Inhalte).

Das hat sicherlich mehrere Gründe ... zum einen schaut nich jeder mit eingeschalteten HDR Youtube ... mach ich zb auch nich ... daher bermekt man manchmal garnich dass das Video was man grad schaut auch
als HDR verfügbar ist ... auch die Browser Situ is halt doof ... Firefix unterstützt kein HDR ... ausserdem ergibt HDR nich bei jedem Video Sinn und für vieles reicht SDR absolut aus.

Und eben wie schon mehrmals gesagt diese ganze HDR 400 Monitor Welle die es damals über Jahre gab hat vielen halt die Lust auf HDR verdorben weil 400 Nits halt zu schwach sind für HDR.

Hoffe dass es nur ne Zeitfrage ist und nicht wie 8K und 3D wieder fallen gelassen wird.

3D kommt aktuell zumindest wieder ... wirklich ganz weg wars aber nicht es kammen die letzten Jahre weiterhin viele Filme auch als 3D Version raus das Problem bei 3D war dass das 3D bei TVs schlecht war
man brauchte schon ein 3D Beamer um ein gutes 3D zu bekommen ... ich nutze bis Heute einen 3D Beamer und schaue weiterhin 3D Filme.

Aber 8K verschwindet grad aber für 8K isses auch noch viel zu früh und noch zu teuer

Ich denke HDR brauch noch ne Weile bis es groß genug is .. die Geräte müssen besser werden und die Game Entwickler müssen es ernster nehmen dann kommt auch das Interesse der Kunden

Denn die Bildschirme wirklich massiv heller zu bekommen kostet halt sehr viel Entwicklungsgeld.

Auch Stromkosten
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das hat sicherlich mehrere Gründe ... zum einen schaut nich jeder mit eingeschalteten HDR Youtube ... mach ich zb auch nich ... daher bermekt man manchmal garnich dass das Video was man grad schaut auch
als HDR verfügbar ist ... auch die Browser Situ is halt doof ... Firefix unterstützt kein HDR ... ausserdem ergibt HDR nich bei jedem Video Sinn und für vieles reicht SDR absolut aus.
Die wenigsten schauen ja noch mit nem Desktop-PC Youtube, glaube iwie 50% sind Mobile, also Handy und da geht die HDR-Umschaltung automatisch. Am Fernseher übrigens auch.
Schaue ja auch viel am Handy und sehe extrem selten ein HDR-Video.

Klar, bei so Labervideos braucht man jetzt kein HDR aber z.B. so Hochglanz-Autoreviews in 4k 60fps würden schon von HDR profitieren IMO.

HDR 400 is halt nur meh.
Hätte nie als Standard definiert werden dürfen. Es ist einfach Mist und durch das ganze Tone-Mapping (alles wird grau und kontrastarm weil das Panel das nicht darstellen kann und alles komprimieren muss) schlechter als einfach nur SDR zu verwenden.

Denke man hat es gemacht um irgendein Verkaufsargument zu haben, die Leute sind ja besonders bei Monitoren ja extrem Upgrade-unwillig.

Was für mich halt ein großes Problem ist, dass HDR so inkosistent performed. Den SDR-Standard kann man leicht erfüllen, jedes noch so günstige Display übererfüllt ja die Anforderungen mit sRGB und den 80 Nits. Aber HDR sind halt eigentlich alle Displays immer noch viel zu schlecht und zwar jedes auf seine eigene Art.

Aber 8K verschwindet grad aber für 8K isses auch noch viel zu früh und noch zu teuer
Jaein, ich hätte schon Lust auf 8K, für mich ist 4K schon gesättigt, jeder 250€-Fernseher hat das. Gerade als PC-Monitor stell ich mir das super vor, da kannste auch nen 65er haben und wirst trotzdem keine Pixel sehen, weils die gleiche Pixeldichte ist wie 32" 4K. Aber gibts halt bis heute nicht mit 120Hz leider.


ich nutze bis Heute einen 3D Beamer und schaue weiterhin 3D Filme.
Aber die gibts ja nur auf BD und co oder? Die breite Masse mit Fernseher und Streaming-Diensten kommt ja nicht mehr an 3D-Filme.
 
JayzTwoCents gönnt sich ein 42" LG OLED Flex :

Links der 42" Flex und Rechts der 48" C3

Screenshot 2024-02-20 014111.png
Screenshot 2024-02-20 014250.png
Screenshot 2024-02-20 014313.png



Screenshot 2024-02-20 014543.png
Screenshot 2024-02-20 014621.png
Screenshot 2024-02-20 014809.png







Die wenigsten schauen ja noch mit nem Desktop-PC Youtube, glaube iwie 50% sind Mobile, also Handy und da geht die HDR-Umschaltung automatisch. Am Fernseher übrigens auch.
Schaue ja auch viel am Handy und sehe extrem selten ein HDR-Video.

Nunja auf son kleinem Handy Display macht das meiner Meinung nach auch wenig sinn. Aber hey jeder wie er möchte.


Klar, bei so Labervideos braucht man jetzt kein HDR aber z.B. so Hochglanz-Autoreviews in 4k 60fps würden schon von HDR profitieren IMO.

Ja bei sowas könt ich mir HDR auch gut Vorstellen aber ich will nun auch nich bei jedem Video HDR anmachen ... frisst halt dann auch mehr Strom

Youtube schau ich generell in SDR ausser ich suche Speziell nach HDR Demo Videos oder schaue mir Videos an wo Leute HDR Games Reviewen und das Video in HDR Hochgeladen wird
oder eben das Video von DF wo sie das RTX Gaming HDR getestet haben oder eben andere Dinge in HDR .. aber zu 99 % nutz ich SDR bei Youtube.

Hätte nie als Standard definiert werden dürfen. Es ist einfach Mist und durch das ganze Tone-Mapping (alles wird grau und kontrastarm weil das Panel das nicht darstellen kann und alles komprimieren muss) schlechter als einfach nur SDR zu verwenden.

Jepp bin selber Meinung mit HDR 600 hätte ich noch mit mir reden lassen wenn man das als Mindest Einstieg genommen hätte aber HDR 400 is halt misst weil zuwenig Spielraum für Highlights

Denke man hat es gemacht um irgendein Verkaufsargument zu haben, die Leute sind ja besonders bei Monitoren ja extrem Upgrade-unwillig.

Jepp .. die Hersteller packen da das schlechtestet HDR rein mit HDR 400 und die Leute denken oh cool der kann HDR und kaufen das dann und merken das HDR kacke is wissen aber halt nich
das es an den HDR 400 liegt ... das hate John ja auch alles im DF Direct Video gesagt. Is halt echt Kacke gelaufen bzw läuft immernoch teils kacke.

Was für mich halt ein großes Problem ist, dass HDR so inkosistent performed. Den SDR-Standard kann man leicht erfüllen, jedes noch so günstige Display übererfüllt ja die Anforderungen mit sRGB und den 80 Nits. Aber HDR sind halt eigentlich alle Displays immer noch viel zu schlecht und zwar jedes auf seine eigene Art.

Solange Leute diese Schlechten Geräte weiterhin wie wild kaufen wird sich nix drann ändern ud du siehst ja grad was zb bei den 32" QD-OLEDs grad los is wie die Leute scharf drauf sind und das sind halt auch nur
HDR 400 Geräte wenn mans genau nimmt da sie ja nur bei 2 % die 1000 Nits packen aber alles was größer is geht wieder auf 400 Nits und weniger

Jaein, ich hätte schon Lust auf 8K, für mich ist 4K schon gesättigt, jeder 250€-Fernseher hat das.

Zum einen bist du nicht ( sowie ich halt auch nicht ) der Nabel der Welt und zum anderen fehlt halt der Content daher sagte ich das es für 8K noch zu früh is ... schau dir das Deutsche TV an da sind wir noch bei
1080 i also noch nichtmal 1080p. ... auch gibt es halt keine 8K BluRays weil auch teils die Datenmenge zu groß is solange das der Fall is isses noch zu früh für 8K daher verkaufen sich diese Geräte auch nich so gut
und daher nehmen die Hersteller die 8K Geräte auch schon teils wieder aus dem Programm.

Gerade als PC-Monitor stell ich mir das super vor, da kannste auch nen 65er haben und wirst trotzdem keine Pixel sehen, weils die gleiche Pixeldichte ist wie 32" 4K. Aber gibts halt bis heute nicht mit 120Hz leider.

Mag sein aber im PC Bereich haben wir halt mit 8K noch massive Performance Probs .. wir sind ja grad so bei 4K 120 FPS angekommen wenn überhaupt

Aber die gibts ja nur auf BD und co oder? Die breite Masse mit Fernseher und Streaming-Diensten kommt ja nicht mehr an 3D-Filme.

Mal ein kleiner schwenk zu 8K



Und der Rest : ( durch die VR Brille kamm grad n neuer 3D Schub auf aber wie gesagt war 3D über die Jahre nie ganz tot es kammen über die Jahre weiterhin 3D Filme raus )




Screenshot 2024-02-20 020744.png



Ich Persnlich mag aber lieber Bluray da höhere Bitrate.

Screenshot 2024-02-20 021019.png


Das hilft bei 3D halt auch : ( 48 FPS statt nur 24 bzw 23,97 FPS )


Screenshot 2024-02-20 022846.png


 
Zuletzt bearbeitet:
JayzTwoCents gönnt sich ein 42" LG OLED Flex :
Find der sitzt viel zu nah dran, wie siehst du das?

Wäre für mich eher nen Abstand für nen 32er.
Nunja auf son kleinem Handy Display macht das meiner Meinung nach auch wenig sinn. Aber hey jeder wie er möchte.
Mir gings nur darum, dass ich sofort sehe ob ein Video HDR ist oder nicht. Nicht, dass es besonders sinnvoll ist.
Also um deine Aussage, dass du es ja nicht mitbekommen würdest weil man bei Windows ja nur sieht ob ein Video überhaupt HDR ist, wenn man HDR in Windows aktiviert hat, was die wenigsten haben.

Jepp bin selber Meinung mit HDR 600 hätte ich noch mit mir reden lassen
Die find ich durchaus ok, immerhin wirken Tagszenen auf den Geräten recht gut. Klar, hat mit HDR im Sinne der hohen Dynamik noch wenig zu tun, aber ist wenigstens ein Teil davon.

Es ist halt wieder diese Diskrepanz, OLED und Mini-LED sind am TV-Markt in der Mittelklasse ganz normal aber am Monitormarkt ist das absolutes Elite-High-End-Zeug.
Aber war ja schon oft genug Thema.

32" QD-OLEDs grad los is wie die Leute scharf drauf sind und das sind halt auch nur
HDR 400 Geräte.
Wobei die ja auch viele weitere Vorteile haben und nicht nur wegen HDR interessant sind.
- Glossy
- Schaltzeiten
- Endlich echtes Schwarz

Der Ausgangspunkt sind halt leider immer noch matte Edge-Lit-IPS (oder gar TNs...)

schau dir das Deutsche TV an da sind wir noch bei
1080 i also noch nichtmal 1080p.
Na wenn das die Referenz ist, war auch 4K unnötig. Aber ja klar, es bringt den meisten nix, an Content wird da wohl auch nix mehr kommen, ich seh das als reines Gaming-Display und da ist der Content ja in der Auflösung frei wählbar.
Und der Rest : ( durch die VR Brille kamm grad n neuer 3D Schub auf aber wie gesagt war 3D über die Jahre nie ganz tot es kammen über die Jahre weiterhin 3D Filme raus )
Denke allgemein wird die VR-Brille halt eher die Zukunft sein als der klassische 2D-Fernseher. Da sind so Sachen wie hohe Helligkeiten viel einfacher umzusetzen und die Immersion ist deutlich höher.

Es ist schon richtig, 8K ist halt als TV einfach sinnfrei, selbst 4K ist ja bei den meisten Anwendungen als TV eigentlich zuviel (55er auf 4 Meter Entfernung, 1080i TV Zuspielung).
Nur halt als Nische als PC-Monitor eben ganz cool.
 
Find der sitzt viel zu nah dran, wie siehst du das? Wäre für mich eher nen Abstand für nen 32er.

Jepp wäre für mich definitiv zu nah drann aber wir haben hier im Thread ja auch Leute dabei die sehr nah an ihrem 42" sitzen

JayzTwoCents hat ja auch noch nen alten 2020er bzw 2018er 65" Asus BFGD "Monitor" an dem er auch sehr nah drann sitzt .. den 65" Asus sieht man manchmal in manchen Videos von ihm

Da hatte er ihn grad neu .. is 4 Jahre her :

Screenshot 2024-02-20 195012.png
Screenshot 2024-02-20 195257.png


Mir gings nur darum, dass ich sofort sehe ob ein Video HDR ist oder nicht. Nicht, dass es besonders sinnvoll ist.
Also um deine Aussage, dass du es ja nicht mitbekommen würdest weil man bei Windows ja nur sieht ob ein Video überhaupt HDR ist, wenn man HDR in Windows aktiviert hat, was die wenigsten haben.

+ eben ein HDR fähigen Browser nutzt ... ich nutz halt standart mässig Firefox welcher kein HDR unterstützt ... muss dann immer den Browser wechseln wenn ich nach HDR kramm bei Youtube suche.

Aber ih versteh was du meinst .. finds aber wie gesagt nun nich so schlimm das es so wenig HDR Videos auf Youtube gibt ... ich nutzt HDR halt nur fürs Gaming und Filme / Serien aber nich für Youtube
bzw wenn für Youtube dann eben wenn HDR gezeigt werden soll wie eben das RTX HDR Gaming Video von DF oder von Vince die HDR Videos und wenn ich mal bock auf son HDR Demo Video hab.
Aber zu 99 % reicht mir SDR bei Youtube aus ... wie gesagt zieht HDR halt auch mehr Strom das brauch ich daher nun auch nich 24/7

Aber klar manchmal währ es auch cool dieses oder Jenes Video auch mal in HDR zu sehen statt SDR aber dafür hat Nvidia ja nun eine "Lösung" die zumindest ok is.
Kommt zwar nich an Natives HDR ran liefert aber zumindest brauchbare Ergebnisse.


Die find ich durchaus ok, immerhin wirken Tagszenen auf den Geräten recht gut. Klar, hat mit HDR im Sinne der hohen Dynamik noch wenig zu tun, aber ist wenigstens ein Teil davon.

Denke auch mal das die HDR 400 Geräte mit der Zeit auch verschwinden werden und es dann beim Standart eher Richtung HDR 600 geht

Das is halt wie damals mit HD Ready und Full HD

Wobei die ja auch viele weitere Vorteile haben und nicht nur wegen HDR interessant sind.
- Glossy
- Schaltzeiten
- Endlich echtes Schwarz

Der Ausgangspunkt sind halt leider immer noch matte Edge-Lit-IPS (oder gar TNs...)

Mag sein dennoch sinds halt nur HDR 400 Möhren die nix reissen

Das is halt wie ein Porsche der nur für 2 sekunden schnell fahren kann und danach auf 80 kmh abdrosselt .. macht halt kein Sinn.

Na wenn das die Referenz ist, war auch 4K unnötig. Aber ja klar, es bringt den meisten nix, an Content wird da wohl auch nix mehr kommen,

Ich denke schon das da noch 8K Content kommen wird nur brauch das halt ne Weile und kann man nun nich erzwingen das muss sich natürlich entwickeln wie all die Jahre zuvor auch schon.
Aktuell is halt noch die Zeit von 4K ... auch bezüglich Datenträger is noch die Zeit von 4K.

ich seh das als reines Gaming-Display und da ist der Content ja in der Auflösung frei wählbar.

Auch da sind wir weiterhin Perf. Technisch im 4K Bereich besonders halt nun auch wieder durch Ray und Path Tracing ... da werden noch ein paar Gens in Land gehen bevor 8K Gaming als ganzes ( also nun nich nur bei PUBG sondern halt bei Tripple A Games ala Cyberpunk oder Alan Wake ) wirklich Sinn macht

Du bist da halt mit deinen Spielen in einer anderen Posi wo sich 8K halt leichter umsetzen lassen kann aber nich jeder Spielt PUBG :whistle:

Denke allgemein wird die VR-Brille halt eher die Zukunft sein als der klassische 2D-Fernseher. Da sind so Sachen wie hohe Helligkeiten viel einfacher umzusetzen und die Immersion ist deutlich höher.

Ich bin selbst ein VR Fan und hab 2 VR Brillen ( die erste 2014 gekauft das Oculus DK2 ) aber bis VR den Fernseher ablösen wird werden nocch einge TV / Monitor / GPU Gens vorbeiziehen ... das wird in den nächsten 20 Jahren sicherlich noch nich passieren aber irgendwann wird es passieren das Stimmt.

Aber mir ging es da ja nur darum das die Apple Brille eben für ein neuen Aufschwung im 3D Film Bereich gesorgt hat siehe eben die Links die ich gepostet hatte.

Es ist schon richtig, 8K ist halt als TV einfach sinnfrei, selbst 4K ist ja bei den meisten Anwendungen als TV eigentlich zuviel (55er auf 4 Meter Entfernung, 1080i TV Zuspielung).
Nur halt als Nische als PC-Monitor eben ganz cool.

8K ist im TV im Jahre 2024 Sinnfrei ... aber 2035 mag das schon anders sein kein plan ... aber aktuell isses halt für 8K noch zu früh
 
Zuletzt bearbeitet:
Samsung QD-OLED TV Preise 2024 :

Samsungs 42" OLED mit LG Display Panel nicht in Europa erhältlich aber der 48" soll wohl auch nach Europa kommen so kann man zumindest den mal vergleichen .. aber irgendeine Seite im Netz wird
wohl dennoch auch den 42" Samsung OLED mal testen ... bin gespannt obs da Helligkeitsunterschiede gibt bzw ob Samsung nur ein 2023er Panel von LG bekommt oder ein 2024er

Screenshot 2024-02-21 002302.png
--
Screenshot 2024-02-21 002429.png




Als Vergleich hier auch nochmal die Panasonic MLA 2.0 OLED Preise :

Screenshot 2024-02-21 003715.png




Fehlt nur noch LG ... aber das wird sicherlich auch nich mehr lange dauern bis auch LG ihre Preise bekannt gibt.


 
Zuletzt bearbeitet:
Ist eigentlich etwas bekannt ob Sony Etc. Mehr als 144 hz liefern werden ?

Von Sony kommt erstmal kein neuer QD-OLED raus die konzentrieren sich 2024 wie ich ja schonmal berichtete auf ihren 4.000 Nit Mini LED.
Deren Sony A95L QD-OLED TV von 2023 wird also auch in 2024 mit reinlaufen mag aber sein das Sony vielleicht noch ihre aktuelle Strategie anpasst und doch noch n neuen QD-OLED bringt aber
aktuell sieht es nich danach aus


Aber Samsung bietet bei ihren 2024er QD-OLED TVs genau wie LG bei ihren 2024er OLED TVs auch die 144 hz aber eben nich so wie du wohl wünscht mehr als 144hz .. somit währe dann ein
Potenzieller 2024er Sony QD-OLED TV auch bei max 144hz

Screenshot 2024-02-25 213932.png




Man muss halt auch bedenken das es sich hier Primär um TVs handelt ( Deutsches TV 50 FPS x 2 = 100 hz und US TV 60 FPS x 2 = 120hz ) und Konsolen können wenn überhaupt auch nur 120 FPS
da macht 144hz schon nur bedingt sinn is halt der Falsche Bereich .. die 144hz sollen wohl auch nur im Gaming Mode vorhanden sein hatte da zumindest was aufgeschnappt

Willst du mehr als 144 hz musst du zu den kleinen Mini OLED und QD-OLED Monitoren greifen
 
Zuletzt bearbeitet:
Ja gut für mich wären eh nur die 42" Modelle interessant.
Und das Modell von Samsung ist unterm Strich auch ein LG. (Sehr warschrinlich nur schlechter)
Eben wenn sie pc spieler schon ansprechen wollten, dann eben gerne auch ein bisschen mehr Hz.
Wobei 144Hz eigentlich auch vollkommen ausreichen.
 
Ja gut für mich wären eh nur die 42" Modelle interessant. Und das Modell von Samsung ist unterm Strich auch ein LG.

Jepp .. nur eventuell ohne Handschellen ... und was dann passieren kann sieht ja man gut an den Panasonic OLEDs mit LG Panel die nochmal n Stück heller sind als die LG eignen
hatte dazu ja schon hin und wieder die was verlinkt.

2023 : ----------------------------------------------------------------------------------- 2022 :

Screenshot 2024-02-25 220215.png
--
Screenshot 2024-02-25 220335.png


(Sehr warschrinlich nur schlechter)

Oder besser .. muss man halt abwarten ... aber der 42" Samsung OLED mit LG Panel kommt eh nicht in Europa raus wie ich vor ein paar Tagen schon verlinkte .. nur das 48" Modell kommt auch in Europa raus

Screenshot 2024-02-21 002429.png



Wäre dann bei einem Sony wohl genauso

Auch is nich bekannt ob Samsung eben zb nur ein 2023er 42" und 48" Panel von LG bekommt oder halt die neuen verbesserten 2024er

Eben wenn sie pc spieler schon ansprechen wollten, dann eben gerne auch ein bisschen mehr Hz. Wobei 144Hz eigentlich auch vollkommen ausreichen.

Die TVs richten sich halt wie gesagt Primär an TV schauer sowie Konsolen Gamer da macht dann 144hz schon kaum sinn .. einzig PC Gamer profitieren da von mehr Hz
aber für die PC Gamer bringen beiden seiten ja nun die kleinen Mini Monitore raus und die bieten ja dann mehr Hz.

Es gab ja damals den einen Prototypen TV mit 240 hz der auf der CES oder so mal gezeigt wurde aber aus dem wurde bisher nix und ich vermute der wird auch nich mehr kommen da die Monitore
nun dafür da sind und nach der CES 2023 hörte man davon ja auch nix mehr.

Screenshot 2024-02-25 220838.png






Mir Persönlich reichen aber so 90 - 120hz aus da ich bei meinen Games selten FPS mässig dadrüber kommen würde sondern eher dadrunter mir aber auch 90 - 120 FPS ausreichen vom Spielgefühl her
mag aber sein das sich das noch ändert .. vor nich all zu langer Zeit ..... zumindest gefühlt ...war ich sogar mal mit nur 35 FPS zufrieden und das hat sich ja über die Jahre auch bei mir geändert.
Erst reichten mir 30 - 35 FPS dann wollt ich 50 FPS dann 60 und nun brauch ich so 90 FPS um zufrieden zu sein .. mal schauen wie das dann in 5 - 10 Jahren bei mir is
 
Zuletzt bearbeitet:
Wobei 144Hz eigentlich auch vollkommen ausreichen.
Hängt vom Spiel ab, finde in CoD bringen 240Hz ein komplett anderes Spielgefühl, selbst wenn man die FPS nicht komplett erreicht (also nur 180fps oder so hat), es fühlt sich deutlich direkter an.
In Apex bringt es wie ich finde nicht so viel, da reichen mir auch 120Hz.
 
Hängt vom Spiel ab, finde in CoD bringen 240Hz ein komplett anderes Spielgefühl, selbst wenn man die FPS nicht komplett erreicht (also nur 180fps oder so hat), es fühlt sich deutlich direkter an.
In Apex bringt es wie ich finde nicht so viel, da reichen mir auch 120Hz.

Es kommt natürlich überwiegend auf das eigene Können an, was man aus den hohen FPS/Hz rausholen kann.
Natürlich ist es visuell nett abzusehen wie 240Hz wirken, aber wie gesagt die meisten reizen im Schnitt 144 Hz aus.

Ich selbst spiele auch sehr viel cod usw.
Ich freue mich jedes mal über die 240 Hz (Asus 27 oled), aaaber da hängt halt noch ein Rattenschwanz dran wie z.b der ping.
Wenn der nicht in Ordnung ist bringen einem auch die heiss geliebten 360hz nichts.
Beitrag automatisch zusammengeführt:

Zudem die Server von Cod nur mit 30Hz laufen, was ehrlich gesagt eine Schweinerei ist.
 
Ja, wäre einfach cool, wenn die Fernseher auch 240Hz hätten, dann bräuchte ich gar keinen Monitor mehr. Die hinken den Fernsehern dauernd so nach, da hab ich kein Bock mehr drauf.
 
Mich würde hier interessieren, wie sich die niedrigen Latenzen der TV dazu auswirken.

Das muss man aber wohl vor Ort testen um es selbst zu erleben.

Vorausgesetzt die GPU ist stark genug.
 
@Stagefire

Bräuchte mal deine Hilfe. Du kennst ja dieses "Freesync Information" Menü vom LG OLED, was Vincent manchmal bei seinen Videos nutzt.

Kannst du mal probieren was da steht, wenn du 4K 120Hz RGB 8-Bit einstellst?
Und 10 Bit und 12 Bit, falls möglich.
Möchte wissen, welche Link-Geschwindigkeit Nvidia da aufbaut.

Danke dir!
 
Inwiefern? Der Input Lag eines TV ist nicht spürbar höher als der eines Monitors inzwischen. Laut rtings liegen da höchstens 2ms Unterschied dazwischen bei gleicher Frequenz.
Ja klar, aber wer das nicht kennt, kann sich nicht vorstellen, wie das live ist.

Ich habe dann immer meinen 2009er LG TV in Erinnerung :fresse2:
 
@Stagefire
Bräuchte mal deine Hilfe. Du kennst ja dieses "Freesync Information" Menü vom LG OLED, Kannst du mal probieren was da steht, wenn du 4K 120Hz RGB 8-Bit einstellst? Und 10 Bit und 12 Bit, falls möglich.
Möchte wissen, welche Link-Geschwindigkeit Nvidia da aufbaut. Danke dir!

8 Bit : ( 8 bit 4 Lanes mit 10 gbps ) ------------------------------------------------------------- 10 Bit : ( 10 bit 4 Lanes mit 10 gbps )

JGwrWut.jpg
--
JGwrsPj.jpg


Bei 12 Bit musste ich wieder tricksen da mein CX ja auf 40 gbps gedrosselt ist und musste per CRU dann auf 48 gbps stellen : ( 12 bit 4 Lanes mit 12 gbps )

JGw4IiG.jpg
 
Zuletzt bearbeitet:
Super, danke dir! Das hilft mir sehr weiter.

Folgendes: Ich verstehe nicht, warum Nvidia scheinbar bei 8-Bit auch einen 40Gbit Link aufbaut, obwohl 32Gbit ausreichend sind. Vincent hat in seinem Video zur Xbox (Minute 17:13) gezeigt, dass die Xbox bei 8-Bit nur einen 32Gbit Link aufbaut:

Es geht mir nämlich darum, dass ich meine Bildaussetzer (durch meinen HDMI Switch) endlich lösen konnte, indem ich die Bandbreite auf 32Gbit per CRU gesenkt habe und trotzdem noch volles RGB bei 8-Bit nutzen kann (reicht ja laut Vincent auch aus für HDR, habs auch selbst geprüft mit der DisplayHDR Test App, Test Nr. 7 und sehe das auch so).
Hast du das mal selbst getestet mit der App? Wie sieht du das?


Bei 12 Bit musste ich wieder tricksen da mein CX ja auf 40 gbps gedrosselt ist und musste per CRU dann auf 48 gbps stellen : ( 12 bit 4 Lanes mit 12 gbps )
Krass, das geht? Dachte die Hardware deines CX kann es halt einfach nicht, wieso reichen dann ein paar Klicks mit CRU, ist das nur eine Software-Drossel im Fernseher?

Und wen ich das jetzt richtig verstehe: Alle reiten ja rum auf 48Gbits vollem Support bei den Fernsehern aber das ist ja wie ich das sehe nur für 12-Bit notwendig?
 
Und wen ich das jetzt richtig verstehe: Alle reiten ja rum auf 48Gbits vollem Support bei den Fernsehern aber das ist ja wie ich das sehe nur für 12-Bit notwendig?
Ich geb dir ein gutes Beispiel wo 40Gbits nicht ausreichend ist:
Mein neuer Denon 4800 kann auch nur mit 40Gbits umgehen, der LG 83G4 den ich mir dieses Jahr holen will kann ja bekanntlich 144hz ausgeben, mein AVR kann aber kein DSC, 40Gbits reichen nicht aus, 48Gbit hätten aber ausgereicht.

Konsequenz: Ich muss mein PC direkt an den TV anschließen.
 
Ok, ja mir ging es um die bestehenden 120Hz-Fernseher, das war ja immer ein Riesenkritikpunkt, dass die keine vollen 48Gbit können.
In deinem Fall würde ich einfach auf 8-Bit stellen und das Nvidia-Dithering nutzen. Kann man ja in der DisplayHDR-App gut sehen, dass es kein optischer Verlust ist.
 
Super, danke dir! Das hilft mir sehr weiter.

Kein Ding war ja schnell gemacht.

Folgendes: Ich verstehe nicht, warum Nvidia scheinbar bei 8-Bit auch einen 40Gbit Link aufbaut, obwohl 32Gbit ausreichend sind. Vincent hat in seinem Video zur Xbox (Minute 17:13) gezeigt, dass die Xbox bei 8-Bit nur einen 32Gbit Link aufbaut:

Liegt vielleicht an der Xbox und dem Dolby Vision Mode


Screenshot 2024-02-26 155146.png



... als ich mit Dolby Vision rumgetestet hatte 2021 mit meinem CX mit Mass Effect Andromeda mit meiner RTX 3080 damals bekamm ich ja zb auch das TM angezeigt ...
aber ich hab in dem Bereich viel zu wenig plan und kann da halt nur raten.


11.png
---
Screenshot 2024-02-26 150615.png


Es geht mir nämlich darum, dass ich meine Bildaussetzer (durch meinen HDMI Switch) endlich lösen konnte, indem ich die Bandbreite auf 32Gbit per CRU gesenkt habe und trotzdem noch volles RGB bei 8-Bit nutzen kann (reicht ja laut Vincent auch aus für HDR

Jepp da Windows dann wenn du mit 8 Bit auf HDR schaltest ja dann 8 Bit + Dithering macht also Fake 10 Bit was sogar in manchen Fällen bei Color Banding helfen kann.
Aber dat weisst du ja sicher schon alles selber bist da ja sogar teils tiefer in der Materie drinn als ich.

Hast du das mal selbst getestet mit der App? Wie sieht du das?

Was meinst du ? Das mit 8 Bit + Dithering = HDR ? ... wenn ja dann klar seh ich das genauso geht einwandfrei wenn man das bevorzugt .. ich weiss grad zwar nich mehr wer aber einer hier aus dem
Thread nutzt ja nur 8 Bit + Dithering statt 10 Bit für HDR und is damit ja auch total zufrieden.

Ich selbst habe bei meinen Tests auch 0 Negativen Unterschied feststellen können und auch Vincent hatte da keine Negativen Effekte feststellen können

Krass, das geht? Dachte die Hardware deines CX kann es halt einfach nicht, wieso reichen dann ein paar Klicks mit CRU, ist das nur eine Software-Drossel im Fernseher?

Hatte doch dazu damals vor ein paar Jahren hier im Thread sehr viel darüber berichtet .. is ne Art HDMI "Übertaktung" .. das ganze hat damals aber kein Interessiert bzw haben die Leute das angezeweifelt usw.

Hier der Link zu meinem Berichten von damals dazu :


Man bekommt dann aber bei der HDMI Diagnostic PHY Erros und der Error Count bei SCDC ( Rechts oben ) geht bei den jeweiligen Chanels hoch.
Hatte da in dem Link den ich hier grad verlinkt hab ja auch ein Bild dazu eingefügt und füge es hier nochmal mit ein

JGOJgLJ.jpg




Bildausetzer gibt es keine nur der Error Count geht halt hoch... das man in dem Bereich hin und wieder mal ein Error hat is normal .. aber das war da jede sekunde eben zwischen 3 - 7 Errors
daher hab ich das nur für Test Zwecke ausprobiert mir Persönlich reichen aber die 10 Bit bzw 40 gbps aus.


Und wen ich das jetzt richtig verstehe: Alle reiten ja rum auf 48Gbits vollem Support bei den Fernsehern aber das ist ja wie ich das sehe nur für 12-Bit notwendig?

Jepp ... war auch damals 2020 ein Großes Thema als der CX released wurde wo die Leute sich auch hier im Thread darüber aufgeregt haben das er ja nur 40 gbps hat statt die vollen 48 gbps und daraus is dann die Idee
bei mir entstanden damals da mal nachzuschauen ob man diesen umstand ändern kann und ich kamm dann damals zur CRU Methode.

Und die 12 bit der Panels sind halt auch nur 10 Bit + Dithering oder + 2 Bit FRC Dithering so ganz genau weiss ich nich wie er auf die 12 Bit kommt aber das is da halt wie bei den meisten LCD Monitoren
die Sache mit den 10 Bit wo die ja auch "nur" 8 Bit + 2 Bit FRC Dithering haben um auf die 10 Bit zu kommen und die 12 bit bei den OLED Panels sind halt da weil Dolby Vision halt auf 12 Bit setzt
 
Zuletzt bearbeitet:
Liegt vielleicht an der Konsole und dem Dolby Vision Mode ... als ich mit Dolby Vision rumgetestet hatte 2021 mit meinem CX mit Mass Effect Andromeda mit meiner RTX 3080 damals
bekamm ich ja zb auch das TM angezeigt ... aber ich hab in dem Bereich viel zu wenig plan und kann da halt nur raten.
OK, ja das TMDS ist HDMI 2.0, also das alte Format, wenn man nur bis 60Hz übertragen möchte, reicht das aus. HDMI 2.1 hat ja dann FRL mit den Geschwindigkeiten ab 32Gbits

Jepp da Windows dann wenn du mit 8 Bit auf HDR schaltest ja dann 8 Bit + Dithering macht also Fake 10 Bit was sogar in manchen Fällen bei Color Banding helfen kann.
Aber dat weisst du ja sicher schon alles selber bist da ja sogar teils tiefer in der Materie drinn als ich.
Genau und ich muss ehrlich sagen, finde auf dem Testbild der DisplayHDR Test-App, welche auch Vincent nutzt, sieht 8-Bit + Dithering sogar ein Stück besser aus als echtes 10-Bit, evtl. weil die Nvidia besser Dithern kann als der Fernseher, könnte ich mir vorstellen.
Was meinst du ? Das mit 8 Bit + Dithering = HDR ? ... wenn ja dann klar seh ich das genauso geht einwandfrei wenn man das bevorzugt .. ich weiss grad zwar nich mehr wer aber einer hier aus dem
Thread nutzt ja nur 8 Bit + Dithering statt 10 Bit für HDR und is damit ja auch total zufrieden.

Ich selbst habe bei meinen Tests auch 0 Negativen Unterschied feststellen können und auch Vincent hatte da keine Negativen Effekte feststellen können
Genau, so sehe ich das auch.
Klar, wenn man bei 10-Bit nativ keine Aussetzer oder andere Probleme hat, gibt es ja kein Grund, aber bevor man 100x das Kabel wechselt (was ich jetzt schon hinter mir habe, es bringt nix) oder anderswo den Fehler sucht, finde ich das eine gute Lösung.
Man bekommt dann aber bei der HDMI Diagnostic PHY Erros und der Error Count bei SCDC ( Rechts oben ) geht bei den jeweiligen Chanels hoch.
Hatte da in dem Link den ich hier grad verlinkt hab ja auch ein Bild dazu eingefügt und füge es hier nochmal mit ein
Ok, sehr interessant, also können die Chipsätze tlw. mehr als was im CRU reported wird. Ich weiß ja, dass man damit Panels übertakten kann, aber dass man auch die Bittiefe erhöhen kann über die Specs war mir neu.

Ich beneide euch LG-Nutzer echt um dieses Advanced-Menü auf deinem Bild, bei Samsung gibts sowas ja nicht, aber das hätte mir bei der Problemdiagnose sicher gut geholfen. Samsung hat nur so nen Consumer-grade "Fehler überprüfen" und das sagt dir dann nur dass du das Kabel tauschen sollst, na danke.
Und die 12 bit der Panels sind halt auch nur 10 Bit + Dithering oder + 2 Bit FRC Dithering so ganz genau weiss ich nich wie er auf die 12 Bit kommt aber das is da halt wie bei den meisten LCD Monitoren
die Sache mit den 10 Bit wo die ja auch "nur" 8 Bit + 2 Bit FRC Dithering haben um auf die 10 Bit zu kommen und die 12 bit bei den OLED Panels sind halt da weil Dolby Vision halt auf 12 Bit setzt
Frage mich eh, wenn man schon 10-Bit so gut mit 8-Bit mit Dithering simulieren kann, was dann 12-Bit überhaupt bringen soll.
Bin ja sowieso der Meinung das ist alles dann erst nützlich, wenn die 10.000 Nits an Farbabstufungen auch wirklich dargestellt werden können, dass man dann wirklich die Präzision von 10-Bit oder gar 12-Bit braucht, um z.B. einen 5000 Nits blauen Himmel ohne Color Banding darstellen zu können. Solange man effektiv irgendwo bei 500 Nits ist, sieht man die Komprimierung der Farbtiefe gar nicht.
 
OK, ja das TMDS ist HDMI 2.0, also das alte Format, wenn man nur bis 60Hz übertragen möchte, reicht das aus. HDMI 2.1 hat ja dann FRL mit den Geschwindigkeiten ab 32Gbits

Stimmt das hatte ich übersehen ... bei meinem Dolby Test bin ich ja auf 50hz bzw 60hz runter mit 4K + 8 Bit daher dann auch das TM

Genau und ich muss ehrlich sagen, finde auf dem Testbild der DisplayHDR Test-App, welche auch Vincent nutzt, sieht 8-Bit + Dithering sogar ein Stück besser aus als echtes 10-Bit, evtl. weil die Nvidia besser Dithern kann als der Fernseher, könnte ich mir vorstellen.

Liegt halt am Dithering ... es gab noch ein anderes Video von Vincent wo man das auch sah wo er 8 Bit + Dithering getestet hatte in Windows mit nem Farbverlauf Gradient Test wo das Dithering nen besseren Job
machte als das Nativ Bild aber ich weiss nich mehr welches Video das war das müsste nun so 2 Jahre oder so alt sein.

Genau, so sehe ich das auch. Klar, wenn man bei 10-Bit nativ keine Aussetzer oder andere Probleme hat, gibt es ja kein Grund, aber bevor man 100x das Kabel wechselt (was ich jetzt schon hinter mir habe, es bringt nix) oder anderswo den Fehler sucht, finde ich das eine gute Lösung.

Ist es auch für solche Fälle und man hat ja auch keinerlei Nachteile dadurch.

Ok, sehr interessant, also können die Chipsätze tlw. mehr als was im CRU reported wird. Ich weiß ja, dass man damit Panels übertakten kann, aber dass man auch die Bittiefe erhöhen kann über die Specs war mir neu.

Können schon aber es gibt halt die PHY Errors also so ganz sauber läuft das dann nich auch wenn es zumindest keine Sichtbaren Nachteile gibt

Und ich erhöhe ja nich aus dem Nichts die Bittiefe .. mein Panel kann ja auch 12 Bit nur halt eigentlich nicht bei 4K 120hz aber eben bei zb 60hz ... ich wähle halt nur bei CRU statt 40 gbps die er mir standartmässig anzeigt die 48 gbps aus und das ermöglicht mir dann auf 12 Bit zu gehen bei 4K 120hz

Screenshot 2024-02-26 163402.png
Screenshot 2024-02-26 163255.png


Ich beneide euch LG-Nutzer echt um dieses Advanced-Menü auf deinem Bild, bei Samsung gibts sowas ja nicht, aber das hätte mir bei der Problemdiagnose sicher gut geholfen. Samsung hat nur so nen Consumer-grade "Fehler überprüfen" und das sagt dir dann nur dass du das Kabel tauschen sollst, na danke.

Man nutzt das ja nur wenn man Kabel Probs hat ... aber wenn man Kabel Probs hat is die HDMI Diagnostic von den LGs halt echt hilreich .. man sah die HDMI Diagnostic ja auch bei dem Video von Vince
was du verlinkt hattest.

Frage mich eh, wenn man schon 10-Bit so gut mit 8-Bit mit Dithering simulieren kann, was dann 12-Bit überhaupt bringen soll.

Vielleicht sind die 12 Bit halt nur da weil eben Dolby das so vorgibt wenn ein Gerät Dolby Vision unterstützen soll ich weiss es nich ... irgendeinen Grund muss es ja geben warum das die Geräte können
vielleicht weil die Dolby Vision Blurays 12 Bit sind ?? Kein Plan bin da nich so sehr drinn
 
Und ich erhöhe ja nich aus dem Nichts die Bittiefe .
Gibt ja auch sowieso kein Content in 12 Bit, also kann man sich sparen. Zumal, wie @ssj3rd sagt, eh kein Panel gibt.
Achso Dolby Vision soll das ja erfordern aber das ist ja am PC kein Thema, nur bei Filmen.

Vielleicht sind die 12 Bit halt nur da weil eben Dolby das so vorgibt wenn ein Gerät Dolby Vision unterstützen soll ich weiss es nich ... irgendeinen Grund muss es ja geben warum das die Geräte können
vielleicht weil die Dolby Vision Blurays 12 Bit sind ?? Kein Plan bin da nich so sehr drinn
Denke halt der ganze Standard wurde, wie in der TV-Branche üblich, sehr weitblickend entworfen. Also dass man halt nicht für die nächsten paar Jahre an technischem Fortschritt die HDR-Standards festlegt sondern eben jetzt bis 10.000 Nits einen Standard hat und bis man bis dahin kommt dauert es wohl ein paar Jahrzehnte.
Sehr interessant, dein CX kann kein DSC, mein QN90A kann es schon, bis 24Gbit. Schade, dass man bei Nvidia nicht sehen kann, ob es genutzt wird.
 
Achso Dolby Vision soll das ja erfordern aber das ist ja am PC kein Thema, nur bei Filmen.

Die 12 Bit hat LG ja auch nich für uns PCler da rein gemacht sondern aus einem anderen Grund der sicherlich eher im Film Bereich zu finden ist wie du ja schon angemerkt hast

Beim Xbox Dolby Vision Gaming Bereich sowie im PC Dolby Vision Gaming Bereich gehts ja sogar auf 8 Bit runter da brauch man die 12 Bit garnicht daher wird das halt wohl eher für den Film Bereich sein
aber die ganze 12 Bit Nummer is halt schon seit Jahren so ein Fragezeichen ich vermute das es wohl eher ne Auflage von Dolby ist das wenn ein Gerät Dolby Vision unterstützen möchte es dann 12 Bit können muss
und das wird bei den Geräten dann halt durch 10 Bit + Dithering bzw 10 Bit + 2 Bit FRC Dithering realisiert also Fake 12 Bit.

Da steht das auch nochmal mit Dolby Vision und 12 Bit

Screenshot 2024-02-26 165754.png


Denke halt der ganze Standard wurde, wie in der TV-Branche üblich, sehr weitblickend entworfen. Also dass man halt nicht für die nächsten paar Jahre an technischem Fortschritt die HDR-Standards festlegt sondern eben jetzt bis 10.000 Nits einen Standard hat und bis man bis dahin kommt dauert es wohl ein paar Jahrzehnte.

Jepp wie zb bei DirectX ... da fällt mir auf das wir da auch schon nun einige Jahre auf DX12 sind ... damals in den 90gern gabs wesentlich schneller neue DX Versionen als Heute.

Sehr interessant, dein CX kann kein DSC, mein QN90A kann es schon, bis 24Gbit. Schade, dass man bei Nvidia nicht sehen kann, ob es genutzt wird.

Eigentlich sollte er auch DSC können wie alle LGs .. das Problem is eher das die Geräte halt nich zu 100 % erkannt werden von Windows sieht man ja zb auch an der Nit anzeige ( 1499 Nits ) da muss man dann Manuell nachhelfen denke das wird bei der DSC Sache genauso sein.

Leider zeigt Vince in seinem Review Video nicht die EDID wie sonst da steht das ja auch drinn :



Ah wobei der 2021er LG C1 hat wohl auch kein DSC der war ja glaub ich auch noch auf 40 gbps limitiert : ---------------- Der 2023er G3 kanns aber :

Screenshot 2024-02-26 171125.png
--
Screenshot 2024-02-26 171345.jpg



Der 2022er LG C2 auch :

Screenshot 2024-02-26 171926.png



Dann kamm DSC wohl erst in den letzten Jahren zu den LG OLEDs .. dachte bisher eigentlich das sie das schon immer konnten. Dann liegst du mit deiner Aussage schon richtig das mein CX kein DSC kann.
 
Zuletzt bearbeitet:
Dann kamm DSC wohl erst in den letzten Jahren zu den LG OLEDs .. dachte bisher eigentlich das sie das schon immer konnten. Dann liegst du mit deiner Aussage schon richtig das mein CX kein DSC kann.
Gut zu wissen auf jeden Fall, danke fürs nach recherchieren.

Wäre halt echt super, wenn man im Nvidia Control Panel das steuern könnte, ob DSC genutzt werden soll oder nicht.
Hab nämlich den starken Eindruck, bei meinem TV nutzt er ihn nicht, weil ich kein Blackscreen beim raustabben habe, wie es bei DSC über DisplayPort zumindest der Fall wäre.

Hätte ich DSC direkt von Anfang an aktivieren können, hätte ich die ganzen Probleme ja nicht gehabt.

Stattdessen arbeitet Nvidia lieber an einer neuen UI für das Control Panel...
 
Wäre halt echt super, wenn man im Nvidia Control Panel das steuern könnte, ob DSC genutzt werden soll oder nicht.

Zum Teil kann man das doch oder ?

Wenn du mit der Hz soweit runter gehst das kein DSC mehr dafür benötigt wird dürfte er doch dann damit DSC auschalten weil es von der normalen Bandbreite abgedeckt werden kann.

Stattdessen arbeitet Nvidia lieber an einer neuen UI für das Control Panel...

Was aber auch langsam mal nötig war ... nur leider haben sie noch nich alles in die neue App eingefügt sodass man weiterhin beides brauch.

Aber es fügte nun auch das RTX HDR für Games nun offiziell ein nachdem es ja vor einigen Tagen schon von findigen Nutzern per MOD schon vorher nutzbar war hatte ja davon berichtet.

Also ich find das mit der neuen Nvidia APP ne gute Entwicklung nur muss die halt noch umfangreicher werden damit man die alte Nvidia System Steuerung garnich mehr brauch.
 
Zum Teil kann man das doch oder ?

Wenn du mit der Hz soweit runter gehst das kein DSC mehr dafür benötigt wird dürfte er doch dann damit DSC auschalten weil es von der normalen Bandbreite abgedeckt werden kann.
Ja aber das bringt mir ja wenig, ich will ja explizit DSC einschalten können, damit er trotz möglicher Bandbreite die geringere Bandbreite nutzt. Also zB bei mir nur 24Gbits statt der möglichen 40Gbits, die halt zu Bildaussetzern führen.

Also ich find das mit der neuen Nvidia APP ne gute Entwicklung nur muss die halt noch umfangreicher werden damit man die alte Nvidia System Steuerung garnich mehr brauch.
Könnnen sie ja gerne machen aber dann bitte die wirklich grundlegenden Sachen einbauen wie zB ein Toggle für DSC oder zB Dolby Vision usw usw. Das hätte das ganze Dilemma um den Dell 32er ja auch gelöst, wenn man in der Nvidia einfach DV hätte abschalten können. Dafür ist ein Grafiktreiber Control Panel da.

Und nicht iwelche Streaming-Optionen oder Leistungsoverlays, die man auch mit hundert anderen Programmen genauso gut machen kann.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh