[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Inwiefern? Der Input Lag eines TV ist nicht spürbar höher als der eines Monitors inzwischen. Laut rtings liegen da höchstens 2ms Unterschied dazwischen bei gleicher Frequenz.
Ja klar, aber wer das nicht kennt, kann sich nicht vorstellen, wie das live ist.

Ich habe dann immer meinen 2009er LG TV in Erinnerung :fresse2:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Stagefire
Bräuchte mal deine Hilfe. Du kennst ja dieses "Freesync Information" Menü vom LG OLED, Kannst du mal probieren was da steht, wenn du 4K 120Hz RGB 8-Bit einstellst? Und 10 Bit und 12 Bit, falls möglich.
Möchte wissen, welche Link-Geschwindigkeit Nvidia da aufbaut. Danke dir!

8 Bit : ( 8 bit 4 Lanes mit 10 gbps ) ------------------------------------------------------------- 10 Bit : ( 10 bit 4 Lanes mit 10 gbps )

JGwrWut.jpg
--
JGwrsPj.jpg


Bei 12 Bit musste ich wieder tricksen da mein CX ja auf 40 gbps gedrosselt ist und musste per CRU dann auf 48 gbps stellen : ( 12 bit 4 Lanes mit 12 gbps )

JGw4IiG.jpg
 
Zuletzt bearbeitet:
Super, danke dir! Das hilft mir sehr weiter.

Folgendes: Ich verstehe nicht, warum Nvidia scheinbar bei 8-Bit auch einen 40Gbit Link aufbaut, obwohl 32Gbit ausreichend sind. Vincent hat in seinem Video zur Xbox (Minute 17:13) gezeigt, dass die Xbox bei 8-Bit nur einen 32Gbit Link aufbaut:

Es geht mir nämlich darum, dass ich meine Bildaussetzer (durch meinen HDMI Switch) endlich lösen konnte, indem ich die Bandbreite auf 32Gbit per CRU gesenkt habe und trotzdem noch volles RGB bei 8-Bit nutzen kann (reicht ja laut Vincent auch aus für HDR, habs auch selbst geprüft mit der DisplayHDR Test App, Test Nr. 7 und sehe das auch so).
Hast du das mal selbst getestet mit der App? Wie sieht du das?


Bei 12 Bit musste ich wieder tricksen da mein CX ja auf 40 gbps gedrosselt ist und musste per CRU dann auf 48 gbps stellen : ( 12 bit 4 Lanes mit 12 gbps )
Krass, das geht? Dachte die Hardware deines CX kann es halt einfach nicht, wieso reichen dann ein paar Klicks mit CRU, ist das nur eine Software-Drossel im Fernseher?

Und wen ich das jetzt richtig verstehe: Alle reiten ja rum auf 48Gbits vollem Support bei den Fernsehern aber das ist ja wie ich das sehe nur für 12-Bit notwendig?
 
Und wen ich das jetzt richtig verstehe: Alle reiten ja rum auf 48Gbits vollem Support bei den Fernsehern aber das ist ja wie ich das sehe nur für 12-Bit notwendig?
Ich geb dir ein gutes Beispiel wo 40Gbits nicht ausreichend ist:
Mein neuer Denon 4800 kann auch nur mit 40Gbits umgehen, der LG 83G4 den ich mir dieses Jahr holen will kann ja bekanntlich 144hz ausgeben, mein AVR kann aber kein DSC, 40Gbits reichen nicht aus, 48Gbit hätten aber ausgereicht.

Konsequenz: Ich muss mein PC direkt an den TV anschließen.
 
Ok, ja mir ging es um die bestehenden 120Hz-Fernseher, das war ja immer ein Riesenkritikpunkt, dass die keine vollen 48Gbit können.
In deinem Fall würde ich einfach auf 8-Bit stellen und das Nvidia-Dithering nutzen. Kann man ja in der DisplayHDR-App gut sehen, dass es kein optischer Verlust ist.
 
Super, danke dir! Das hilft mir sehr weiter.

Kein Ding war ja schnell gemacht.

Folgendes: Ich verstehe nicht, warum Nvidia scheinbar bei 8-Bit auch einen 40Gbit Link aufbaut, obwohl 32Gbit ausreichend sind. Vincent hat in seinem Video zur Xbox (Minute 17:13) gezeigt, dass die Xbox bei 8-Bit nur einen 32Gbit Link aufbaut:

Liegt vielleicht an der Xbox und dem Dolby Vision Mode


Screenshot 2024-02-26 155146.png



... als ich mit Dolby Vision rumgetestet hatte 2021 mit meinem CX mit Mass Effect Andromeda mit meiner RTX 3080 damals bekamm ich ja zb auch das TM angezeigt ...
aber ich hab in dem Bereich viel zu wenig plan und kann da halt nur raten.


11.png
---
Screenshot 2024-02-26 150615.png


Es geht mir nämlich darum, dass ich meine Bildaussetzer (durch meinen HDMI Switch) endlich lösen konnte, indem ich die Bandbreite auf 32Gbit per CRU gesenkt habe und trotzdem noch volles RGB bei 8-Bit nutzen kann (reicht ja laut Vincent auch aus für HDR

Jepp da Windows dann wenn du mit 8 Bit auf HDR schaltest ja dann 8 Bit + Dithering macht also Fake 10 Bit was sogar in manchen Fällen bei Color Banding helfen kann.
Aber dat weisst du ja sicher schon alles selber bist da ja sogar teils tiefer in der Materie drinn als ich.

Hast du das mal selbst getestet mit der App? Wie sieht du das?

Was meinst du ? Das mit 8 Bit + Dithering = HDR ? ... wenn ja dann klar seh ich das genauso geht einwandfrei wenn man das bevorzugt .. ich weiss grad zwar nich mehr wer aber einer hier aus dem
Thread nutzt ja nur 8 Bit + Dithering statt 10 Bit für HDR und is damit ja auch total zufrieden.

Ich selbst habe bei meinen Tests auch 0 Negativen Unterschied feststellen können und auch Vincent hatte da keine Negativen Effekte feststellen können

Krass, das geht? Dachte die Hardware deines CX kann es halt einfach nicht, wieso reichen dann ein paar Klicks mit CRU, ist das nur eine Software-Drossel im Fernseher?

Hatte doch dazu damals vor ein paar Jahren hier im Thread sehr viel darüber berichtet .. is ne Art HDMI "Übertaktung" .. das ganze hat damals aber kein Interessiert bzw haben die Leute das angezeweifelt usw.

Hier der Link zu meinem Berichten von damals dazu :


Man bekommt dann aber bei der HDMI Diagnostic PHY Erros und der Error Count bei SCDC ( Rechts oben ) geht bei den jeweiligen Chanels hoch.
Hatte da in dem Link den ich hier grad verlinkt hab ja auch ein Bild dazu eingefügt und füge es hier nochmal mit ein

JGOJgLJ.jpg




Bildausetzer gibt es keine nur der Error Count geht halt hoch... das man in dem Bereich hin und wieder mal ein Error hat is normal .. aber das war da jede sekunde eben zwischen 3 - 7 Errors
daher hab ich das nur für Test Zwecke ausprobiert mir Persönlich reichen aber die 10 Bit bzw 40 gbps aus.


Und wen ich das jetzt richtig verstehe: Alle reiten ja rum auf 48Gbits vollem Support bei den Fernsehern aber das ist ja wie ich das sehe nur für 12-Bit notwendig?

Jepp ... war auch damals 2020 ein Großes Thema als der CX released wurde wo die Leute sich auch hier im Thread darüber aufgeregt haben das er ja nur 40 gbps hat statt die vollen 48 gbps und daraus is dann die Idee
bei mir entstanden damals da mal nachzuschauen ob man diesen umstand ändern kann und ich kamm dann damals zur CRU Methode.

Und die 12 bit der Panels sind halt auch nur 10 Bit + Dithering oder + 2 Bit FRC Dithering so ganz genau weiss ich nich wie er auf die 12 Bit kommt aber das is da halt wie bei den meisten LCD Monitoren
die Sache mit den 10 Bit wo die ja auch "nur" 8 Bit + 2 Bit FRC Dithering haben um auf die 10 Bit zu kommen und die 12 bit bei den OLED Panels sind halt da weil Dolby Vision halt auf 12 Bit setzt
 
Zuletzt bearbeitet:
Liegt vielleicht an der Konsole und dem Dolby Vision Mode ... als ich mit Dolby Vision rumgetestet hatte 2021 mit meinem CX mit Mass Effect Andromeda mit meiner RTX 3080 damals
bekamm ich ja zb auch das TM angezeigt ... aber ich hab in dem Bereich viel zu wenig plan und kann da halt nur raten.
OK, ja das TMDS ist HDMI 2.0, also das alte Format, wenn man nur bis 60Hz übertragen möchte, reicht das aus. HDMI 2.1 hat ja dann FRL mit den Geschwindigkeiten ab 32Gbits

Jepp da Windows dann wenn du mit 8 Bit auf HDR schaltest ja dann 8 Bit + Dithering macht also Fake 10 Bit was sogar in manchen Fällen bei Color Banding helfen kann.
Aber dat weisst du ja sicher schon alles selber bist da ja sogar teils tiefer in der Materie drinn als ich.
Genau und ich muss ehrlich sagen, finde auf dem Testbild der DisplayHDR Test-App, welche auch Vincent nutzt, sieht 8-Bit + Dithering sogar ein Stück besser aus als echtes 10-Bit, evtl. weil die Nvidia besser Dithern kann als der Fernseher, könnte ich mir vorstellen.
Was meinst du ? Das mit 8 Bit + Dithering = HDR ? ... wenn ja dann klar seh ich das genauso geht einwandfrei wenn man das bevorzugt .. ich weiss grad zwar nich mehr wer aber einer hier aus dem
Thread nutzt ja nur 8 Bit + Dithering statt 10 Bit für HDR und is damit ja auch total zufrieden.

Ich selbst habe bei meinen Tests auch 0 Negativen Unterschied feststellen können und auch Vincent hatte da keine Negativen Effekte feststellen können
Genau, so sehe ich das auch.
Klar, wenn man bei 10-Bit nativ keine Aussetzer oder andere Probleme hat, gibt es ja kein Grund, aber bevor man 100x das Kabel wechselt (was ich jetzt schon hinter mir habe, es bringt nix) oder anderswo den Fehler sucht, finde ich das eine gute Lösung.
Man bekommt dann aber bei der HDMI Diagnostic PHY Erros und der Error Count bei SCDC ( Rechts oben ) geht bei den jeweiligen Chanels hoch.
Hatte da in dem Link den ich hier grad verlinkt hab ja auch ein Bild dazu eingefügt und füge es hier nochmal mit ein
Ok, sehr interessant, also können die Chipsätze tlw. mehr als was im CRU reported wird. Ich weiß ja, dass man damit Panels übertakten kann, aber dass man auch die Bittiefe erhöhen kann über die Specs war mir neu.

Ich beneide euch LG-Nutzer echt um dieses Advanced-Menü auf deinem Bild, bei Samsung gibts sowas ja nicht, aber das hätte mir bei der Problemdiagnose sicher gut geholfen. Samsung hat nur so nen Consumer-grade "Fehler überprüfen" und das sagt dir dann nur dass du das Kabel tauschen sollst, na danke.
Und die 12 bit der Panels sind halt auch nur 10 Bit + Dithering oder + 2 Bit FRC Dithering so ganz genau weiss ich nich wie er auf die 12 Bit kommt aber das is da halt wie bei den meisten LCD Monitoren
die Sache mit den 10 Bit wo die ja auch "nur" 8 Bit + 2 Bit FRC Dithering haben um auf die 10 Bit zu kommen und die 12 bit bei den OLED Panels sind halt da weil Dolby Vision halt auf 12 Bit setzt
Frage mich eh, wenn man schon 10-Bit so gut mit 8-Bit mit Dithering simulieren kann, was dann 12-Bit überhaupt bringen soll.
Bin ja sowieso der Meinung das ist alles dann erst nützlich, wenn die 10.000 Nits an Farbabstufungen auch wirklich dargestellt werden können, dass man dann wirklich die Präzision von 10-Bit oder gar 12-Bit braucht, um z.B. einen 5000 Nits blauen Himmel ohne Color Banding darstellen zu können. Solange man effektiv irgendwo bei 500 Nits ist, sieht man die Komprimierung der Farbtiefe gar nicht.
 
OK, ja das TMDS ist HDMI 2.0, also das alte Format, wenn man nur bis 60Hz übertragen möchte, reicht das aus. HDMI 2.1 hat ja dann FRL mit den Geschwindigkeiten ab 32Gbits

Stimmt das hatte ich übersehen ... bei meinem Dolby Test bin ich ja auf 50hz bzw 60hz runter mit 4K + 8 Bit daher dann auch das TM

Genau und ich muss ehrlich sagen, finde auf dem Testbild der DisplayHDR Test-App, welche auch Vincent nutzt, sieht 8-Bit + Dithering sogar ein Stück besser aus als echtes 10-Bit, evtl. weil die Nvidia besser Dithern kann als der Fernseher, könnte ich mir vorstellen.

Liegt halt am Dithering ... es gab noch ein anderes Video von Vincent wo man das auch sah wo er 8 Bit + Dithering getestet hatte in Windows mit nem Farbverlauf Gradient Test wo das Dithering nen besseren Job
machte als das Nativ Bild aber ich weiss nich mehr welches Video das war das müsste nun so 2 Jahre oder so alt sein.

Genau, so sehe ich das auch. Klar, wenn man bei 10-Bit nativ keine Aussetzer oder andere Probleme hat, gibt es ja kein Grund, aber bevor man 100x das Kabel wechselt (was ich jetzt schon hinter mir habe, es bringt nix) oder anderswo den Fehler sucht, finde ich das eine gute Lösung.

Ist es auch für solche Fälle und man hat ja auch keinerlei Nachteile dadurch.

Ok, sehr interessant, also können die Chipsätze tlw. mehr als was im CRU reported wird. Ich weiß ja, dass man damit Panels übertakten kann, aber dass man auch die Bittiefe erhöhen kann über die Specs war mir neu.

Können schon aber es gibt halt die PHY Errors also so ganz sauber läuft das dann nich auch wenn es zumindest keine Sichtbaren Nachteile gibt

Und ich erhöhe ja nich aus dem Nichts die Bittiefe .. mein Panel kann ja auch 12 Bit nur halt eigentlich nicht bei 4K 120hz aber eben bei zb 60hz ... ich wähle halt nur bei CRU statt 40 gbps die er mir standartmässig anzeigt die 48 gbps aus und das ermöglicht mir dann auf 12 Bit zu gehen bei 4K 120hz

Screenshot 2024-02-26 163402.png
Screenshot 2024-02-26 163255.png


Ich beneide euch LG-Nutzer echt um dieses Advanced-Menü auf deinem Bild, bei Samsung gibts sowas ja nicht, aber das hätte mir bei der Problemdiagnose sicher gut geholfen. Samsung hat nur so nen Consumer-grade "Fehler überprüfen" und das sagt dir dann nur dass du das Kabel tauschen sollst, na danke.

Man nutzt das ja nur wenn man Kabel Probs hat ... aber wenn man Kabel Probs hat is die HDMI Diagnostic von den LGs halt echt hilreich .. man sah die HDMI Diagnostic ja auch bei dem Video von Vince
was du verlinkt hattest.

Frage mich eh, wenn man schon 10-Bit so gut mit 8-Bit mit Dithering simulieren kann, was dann 12-Bit überhaupt bringen soll.

Vielleicht sind die 12 Bit halt nur da weil eben Dolby das so vorgibt wenn ein Gerät Dolby Vision unterstützen soll ich weiss es nich ... irgendeinen Grund muss es ja geben warum das die Geräte können
vielleicht weil die Dolby Vision Blurays 12 Bit sind ?? Kein Plan bin da nich so sehr drinn
 
Und ich erhöhe ja nich aus dem Nichts die Bittiefe .
Gibt ja auch sowieso kein Content in 12 Bit, also kann man sich sparen. Zumal, wie @ssj3rd sagt, eh kein Panel gibt.
Achso Dolby Vision soll das ja erfordern aber das ist ja am PC kein Thema, nur bei Filmen.

Vielleicht sind die 12 Bit halt nur da weil eben Dolby das so vorgibt wenn ein Gerät Dolby Vision unterstützen soll ich weiss es nich ... irgendeinen Grund muss es ja geben warum das die Geräte können
vielleicht weil die Dolby Vision Blurays 12 Bit sind ?? Kein Plan bin da nich so sehr drinn
Denke halt der ganze Standard wurde, wie in der TV-Branche üblich, sehr weitblickend entworfen. Also dass man halt nicht für die nächsten paar Jahre an technischem Fortschritt die HDR-Standards festlegt sondern eben jetzt bis 10.000 Nits einen Standard hat und bis man bis dahin kommt dauert es wohl ein paar Jahrzehnte.
Sehr interessant, dein CX kann kein DSC, mein QN90A kann es schon, bis 24Gbit. Schade, dass man bei Nvidia nicht sehen kann, ob es genutzt wird.
 
Achso Dolby Vision soll das ja erfordern aber das ist ja am PC kein Thema, nur bei Filmen.

Die 12 Bit hat LG ja auch nich für uns PCler da rein gemacht sondern aus einem anderen Grund der sicherlich eher im Film Bereich zu finden ist wie du ja schon angemerkt hast

Beim Xbox Dolby Vision Gaming Bereich sowie im PC Dolby Vision Gaming Bereich gehts ja sogar auf 8 Bit runter da brauch man die 12 Bit garnicht daher wird das halt wohl eher für den Film Bereich sein
aber die ganze 12 Bit Nummer is halt schon seit Jahren so ein Fragezeichen ich vermute das es wohl eher ne Auflage von Dolby ist das wenn ein Gerät Dolby Vision unterstützen möchte es dann 12 Bit können muss
und das wird bei den Geräten dann halt durch 10 Bit + Dithering bzw 10 Bit + 2 Bit FRC Dithering realisiert also Fake 12 Bit.

Da steht das auch nochmal mit Dolby Vision und 12 Bit

Screenshot 2024-02-26 165754.png


Denke halt der ganze Standard wurde, wie in der TV-Branche üblich, sehr weitblickend entworfen. Also dass man halt nicht für die nächsten paar Jahre an technischem Fortschritt die HDR-Standards festlegt sondern eben jetzt bis 10.000 Nits einen Standard hat und bis man bis dahin kommt dauert es wohl ein paar Jahrzehnte.

Jepp wie zb bei DirectX ... da fällt mir auf das wir da auch schon nun einige Jahre auf DX12 sind ... damals in den 90gern gabs wesentlich schneller neue DX Versionen als Heute.

Sehr interessant, dein CX kann kein DSC, mein QN90A kann es schon, bis 24Gbit. Schade, dass man bei Nvidia nicht sehen kann, ob es genutzt wird.

Eigentlich sollte er auch DSC können wie alle LGs .. das Problem is eher das die Geräte halt nich zu 100 % erkannt werden von Windows sieht man ja zb auch an der Nit anzeige ( 1499 Nits ) da muss man dann Manuell nachhelfen denke das wird bei der DSC Sache genauso sein.

Leider zeigt Vince in seinem Review Video nicht die EDID wie sonst da steht das ja auch drinn :



Ah wobei der 2021er LG C1 hat wohl auch kein DSC der war ja glaub ich auch noch auf 40 gbps limitiert : ---------------- Der 2023er G3 kanns aber :

Screenshot 2024-02-26 171125.png
--
Screenshot 2024-02-26 171345.jpg



Der 2022er LG C2 auch :

Screenshot 2024-02-26 171926.png



Dann kamm DSC wohl erst in den letzten Jahren zu den LG OLEDs .. dachte bisher eigentlich das sie das schon immer konnten. Dann liegst du mit deiner Aussage schon richtig das mein CX kein DSC kann.
 
Zuletzt bearbeitet:
Dann kamm DSC wohl erst in den letzten Jahren zu den LG OLEDs .. dachte bisher eigentlich das sie das schon immer konnten. Dann liegst du mit deiner Aussage schon richtig das mein CX kein DSC kann.
Gut zu wissen auf jeden Fall, danke fürs nach recherchieren.

Wäre halt echt super, wenn man im Nvidia Control Panel das steuern könnte, ob DSC genutzt werden soll oder nicht.
Hab nämlich den starken Eindruck, bei meinem TV nutzt er ihn nicht, weil ich kein Blackscreen beim raustabben habe, wie es bei DSC über DisplayPort zumindest der Fall wäre.

Hätte ich DSC direkt von Anfang an aktivieren können, hätte ich die ganzen Probleme ja nicht gehabt.

Stattdessen arbeitet Nvidia lieber an einer neuen UI für das Control Panel...
 
Wäre halt echt super, wenn man im Nvidia Control Panel das steuern könnte, ob DSC genutzt werden soll oder nicht.

Zum Teil kann man das doch oder ?

Wenn du mit der Hz soweit runter gehst das kein DSC mehr dafür benötigt wird dürfte er doch dann damit DSC auschalten weil es von der normalen Bandbreite abgedeckt werden kann.

Stattdessen arbeitet Nvidia lieber an einer neuen UI für das Control Panel...

Was aber auch langsam mal nötig war ... nur leider haben sie noch nich alles in die neue App eingefügt sodass man weiterhin beides brauch.

Aber es fügte nun auch das RTX HDR für Games nun offiziell ein nachdem es ja vor einigen Tagen schon von findigen Nutzern per MOD schon vorher nutzbar war hatte ja davon berichtet.

Also ich find das mit der neuen Nvidia APP ne gute Entwicklung nur muss die halt noch umfangreicher werden damit man die alte Nvidia System Steuerung garnich mehr brauch.
 
Zum Teil kann man das doch oder ?

Wenn du mit der Hz soweit runter gehst das kein DSC mehr dafür benötigt wird dürfte er doch dann damit DSC auschalten weil es von der normalen Bandbreite abgedeckt werden kann.
Ja aber das bringt mir ja wenig, ich will ja explizit DSC einschalten können, damit er trotz möglicher Bandbreite die geringere Bandbreite nutzt. Also zB bei mir nur 24Gbits statt der möglichen 40Gbits, die halt zu Bildaussetzern führen.

Also ich find das mit der neuen Nvidia APP ne gute Entwicklung nur muss die halt noch umfangreicher werden damit man die alte Nvidia System Steuerung garnich mehr brauch.
Könnnen sie ja gerne machen aber dann bitte die wirklich grundlegenden Sachen einbauen wie zB ein Toggle für DSC oder zB Dolby Vision usw usw. Das hätte das ganze Dilemma um den Dell 32er ja auch gelöst, wenn man in der Nvidia einfach DV hätte abschalten können. Dafür ist ein Grafiktreiber Control Panel da.

Und nicht iwelche Streaming-Optionen oder Leistungsoverlays, die man auch mit hundert anderen Programmen genauso gut machen kann.
 
Ja aber das bringt mir ja wenig, ich will ja explizit DSC einschalten können, damit er trotz möglicher Bandbreite die geringere Bandbreite nutzt. Also zB bei mir nur 24Gbits statt der möglichen 40Gbits, die halt zu Bildaussetzern führen.

Und Jene Bildausetzer kommen halt durch dein HDMI Switcher wie du ja selbst geschrieben hattest.

Könnnen sie ja gerne machen aber dann bitte die wirklich grundlegenden Sachen einbauen wie zB ein Toggle für DSC oder zB Dolby Vision usw usw. Das hätte das ganze Dilemma um den Dell 32er ja auch gelöst, wenn man in der Nvidia einfach DV hätte abschalten können. Dafür ist ein Grafiktreiber Control Panel da.

Is halt die Frage ob das eher Nvidia / AMD / Intel / Microsoft / Linux Gebiet ist oder eher das Gebiet der Monitor / TV Hersteller Software herzustellen für den PC bzw Geräte Menu Optionen im Gerät einzubauen womit man das selbst umstellen kann. Oder eben das Gebiet des HDMI Switcher Herstellers das er bessere Geräte bauen sollte damit es erst zu keinen Bildausetzern kommt die dich ja betreffen.

Da fühlt sich halt grad keiner so richtig verantwortlich denk ich und hat sicherlich auch keine Prio weils nur wenige Nutzer betrifft.
 
Zuletzt bearbeitet:
Und Jene Bildausetzer kommen halt durch dein HDMI Switcher wie du ja selbst geschrieben hattest.
Können aber genauso durch miese Fernseher-Chipsätze, Fehler in der Firmware, in der Signalkette (AVR) oder vorallem miese Kabel kommen.
Mit dem Argument bräuchte man ja auch nicht die 8-Bit-Option oder das Farbformat mit dem Chroma Subsampling 4:2:0 oder auch die niedrigeren Frequenzen. Jeder Monitor würde dann mit voller Frequenz und Farbtiefe laufen, egal obs funzt oder nicht.


Es sollte einfach für alles ein Toggle im Grafiktreiber geben, gibts für G-Sync ja schließlich auch, obwohl viele Monitore im OSD ein Toggle haben.
 
Können aber genauso durch miese Fernseher-Chipsätze, Fehler in der Firmware, in der Signalkette (AVR) oder vorallem miese Kabel kommen.

Wollte damit nur sagen das man für diesen Umstand nun nich allein Nvidia die Schuld geben sollte da sich ja auch andere Firmen nicht darum kümmern

Es sollte einfach für alles ein Toggle im Grafiktreiber geben, gibts für G-Sync ja schließlich auch, obwohl viele Monitore im OSD ein Toggle haben.

Oder im Windows Betriebssystem geben oder im Geräte Menu oder im AMD GPU Treiber oder im Intel GPU Treiber oder ein Physischer Schalter beim HDMI Switcher den man Manuell umlegen muss

Wie gesagt is das nicht Nvidias alleinige Schuld andere machen es ja auch nicht !

Es betrifft wohl aktuell noch zu wenig Leute das es sich für die lohnt sich damit zu befassen aber ich versteh dennoch deinen Frust

Ich kenn mich in dem Bereich auch nich so aus aber hatte bzgl DSC das hier vor ner Zeit gesehen ... vielleicht hilft es dir in irgendeiner weise auch auch wenn es da um die Kombi DSC + DSR geht
habs auch nich durchgelesen hatte nur noch im Kopf das es da auch um DSC ging

 
Zuletzt bearbeitet:
Ja aber ich sehe schon die Aufgabe bei Nvidia, sie sind der Anbieter des Grafikadapters und damit dem Erzeuger des Signals.
Das liegt weder in der Hand des Monitorherstellers, noch der der Zwischengeräte und auch nicht vom Betriebssystemherstellers.
Im Windows gibts eh ein absolutes Chaos, du kannst VRR und sowas ja auch in Windows einstellen, warum? Das solle der Job des Grafiktreibers sein, nicht von dem OS.

Dass man in den Grafiktreibern von AMD und Intel nicht mal mehr die Auflösung einstellen kann, sondern auf das Windows-Menü verwiesen wird, nervt mich schon, weil das Windows-Menü manchmal nur eine skalierte Auflösung einstellt bei Intel am Laptop. Man kann über DP nicht mal die Dynamic Range einstellen (voll oder begrenzt).
 
Zuletzt bearbeitet:
Ja aber ich sehe schon die Aufgabe bei Nvidia, sie sind der Anbieter des Grafikadapters und damit dem Erzeuger des Signals.

Dann isses aber auch Aufgabe vom AMD und von Intel da sie ja auch Erzeuger des Signals sind von denen kommt aber halt auch nix.

Das liegt weder in der Hand des Monitorherstellers, noch der der Zwischengeräte und auch nicht vom Betriebssystemherstellers.

Seh ich anders ... jede einzelne Firma kann dafür sorgen das sich dieser umstand ändert nur macht das halt niemand weil zuwenig Betroffene ... aktuell bist du zb der Erste von dem ich
soweit ich mich erinnern kann erfahre das er da probs mit hat.

Im Windows gibts eh ein absolutes Chaos, du kannst VRR und sowas ja auch in Windows einstellen, warum?

Das Windows VRR is ne andere Geschichte .. dazu hatte ich hier im Thread auch schon hin und wieder was gesagt bei mir isses aus weil brauch ich halt nich

Screenshot 2024-02-26 232533.jpg



Die Windows eigene VRR Option is für Games gedacht die mit Gsync und Freesync Probs haben bzw das nicht unterstützen vornehmlich sind das recht alte Windows Store Games die vorher
XBox Exclusiv wahren zu zeiten wo es noch kein VRR gab auf der Konsole und dannn Jahre später auf den PC Portiert wurden eben auch ohne Gsync / Freesync Support weil schneller Port
wie es damals so üblich war in der Dunklen Port Zeit

Das is also noch ein Relikt aus der Vergangenheit das Heute eigentlich nich mehr benötigt wird ausser man spielt noch diese alten Windows Store Ports


Screenshot 2024-02-26 233304.png


Screenshot 2024-02-26 233418.png



Das solle der Job des Grafiktreibers sein, nicht von dem OS.

Ich sehe da eigentlich jeden in der Pflicht der einen Einfluss darauf hat sich darum zu kümmern nur macht das halt niemand weils zu wenig Betroffene gibt
 
Zuletzt bearbeitet:
Dann isses aber auch Aufgabe vom AMD und von Intel da sie ja auch Erzeuger des Signals sind von denen kommt aber halt auch nix.
Vollkommen richtig. Bei denen ist ja das gleiche Problem.


Ich sehe da eigentlich jeden in der Pflicht der einen Einfluss darauf hat sich darum zu kümmern nur macht das halt niemand weils zu wenig Betroffene gibt
Ja aber wenn ein Monitorhersteller die Toggles einbaut, ist ja dem nächsten Anbieter noch nicht geholfen.
AMD, Intel und Nvidia müssten es einfach einbauen, Thema wäre gegessen. Das sind drei Hersteller und nicht hunderte, wie bei den Monitoren.

Und es müssen sich nicht jeder noch so kleine Monitorhersteller hinsetzen und sowas einbauen. Was ist mit Monitoren ohne OSD oder No-Name-Monitore aus China? Oder per Adapter angeschlossene Monitore usw.

aktuell bist du zb der Erste von dem ich
soweit ich mich erinnern kann erfahre das er da probs mit hat.
Nein, alleine diese Sache mit Dolby Vision oder auch DSC aus bei dem Dell sind Sachen die jeden Käufer eines betroffenen Monitors betreffen und mit Toggles im Grafiktreiber behoben werden können. DSC aus: plötzlich geht DSR und co.
Dolby Vision aus: plötzlich sieht HDR normal aus.
Ganz ohne Warterei auf ein eventuelles Firmware Update.

Es sollte so Sachen wie CRU gar nicht geben müssen, das alles müsste im Grafiktreiber mit drin sein, verstehst du? JEDER Aspekt des Signals sollte in der Hand des Nutzers sein, ohne Zusatztool, dafür sind wir ja am PC und Enthusiasten. Man kann ja auch beim RAM jeden einzelnen Subtimingwert im BIOS einstellen aber DSC kann ich nicht ein/ausschalten, wo ist die Logik?

Die Windows eigene VRR Option is für Games gedacht die mit Gsync und Freesync Probs haben bzw das nicht unterstützen vornehmlich sind das recht alte Windows Store Games die vorher
XBox Exclusiv wahren zu zeiten wo es noch kein VRR gab auf der Konsole und dannn Jahre später auf den PC Portiert wurden eben auch ohne Gsync / Freesync Support weil schneller Port
wie es damals so üblich war in der Dunklen Port Zeit
Ah ok danke, dann ist das ja immerhin erledigt.
 
Vollkommen richtig. Bei denen ist ja das gleiche Problem.

Eben

Ja aber wenn ein Monitorhersteller die Toggles einbaut, ist ja dem nächsten Anbieter noch nicht geholfen

Immerhin wäre es mal ein Anfang !

AMD, Intel und Nvidia müssten es einfach einbauen, Thema wäre gegessen. Das sind drei Hersteller und nicht hunderte, wie bei den Monitoren.

Auch das wäre ein Anfang bzw ein Lösungsweg von einigen

Nein, alleine diese Sache mit Dolby Vision bei dem Dell

Da liegt das Prob aber bei Dell die halt statt zu warten um ihr Gerät zu Polishen ihren Monitor voreilig rausbrachten um schonmal die erste Käuferwelle vor allen anderen abschöpfen zu können
aber so wie ich das mitbekommen habe hat Dell ja nun ein Firmware Fix dafür rausgebracht.

Man sollte halt nich direkt zu Release kaufen und auch nicht Vorbestellen leider machen es weiterhin viele und haben dann diese probleme

sind Sachen die jeden Käufer eines betroffenen Monitors betreffen und mit Toggles im Grafiktreiber behoben werden können. DSC aus: plötzlich geht DSR und co.
Dolby Vision aus: plötzlich sieht HDR normal aus. Ganz ohne Warterei auf ein eventuelles Firmware Update. Es sollte so Sachen wie CRU gar nicht geben müssen, das alles müsste im Grafiktreiber mit drin sein, verstehst du?

Ich versteh dich ja aber die Aktuelle Situ is halt so und die können wir nicht ändern sondern müssen uns damit abfinden das es nunmal so is

Aber CRU is ja auch bei anderen Dingen hilfreich zb um die 4096 x 2160 Auflösung aus der EDID zu löschen die man am PC nich brauch oder um selber Auflösungen zu erstellen
wie eben 3840 x 1900 oder 3840 x 1800 oder auch 3200 x 1800 die das Anzeige Gerät ja nicht von haus aus bietet weil sie dafür nicht gebaut wurden.

JEDER Aspekt des Signals sollte in der Hand des Nutzers sein, ohne Zusatztool, dafür sind wir ja am PC und Enthusiasten. Man kann ja auch beim RAM jeden einzelnen Subtimingwert im BIOS einstellen aber DSC kann ich nicht ein/ausschalten, wo ist die Logik?

Das währe der Idialzustand wen wir Nutzer alles aber wirklich alles einstellen können .. vielleicht kommen wir irgendwannn in ferner zukunft mal dahin.

Also ich Persönlich hab mit all dem bisher nie Probs gehabt aber ich nutze halt auch kein HDMI Spliter und auch kein DSC im Verbund mit DSR

Ah ok danke, dann ist das ja immerhin erledigt.

Kein Thema ... die VRR Funktion in Windows verwirrt immer mal wieder Leute dabei dient sie halt nur dazu was ich da vorhin beschrieben hatte und ist ein Relikt längst vergangener Zeit das man eigentlich nich mehr brauch
 
Zuletzt bearbeitet:
Hi zusammen

Ich hätte mal ne Frage bezüglich neuen 42" OLED TVs. Aktuell nutze ich wie Stagefire einen LG CX48 als Hauptmonitor bei meinem Setup. Das seit gut 3 Jahren. Bin damit eigentlich auch sehr zufrieden.
Was mich aber nervt - und hierzu gab es soweit ich weiss hier auch schon eine Thematik - ist das relativ schnelle Abdunkeln des Bildes im Desktopmodus. Haben die neuen und bald erscheinenden Modelle einen grossen Fortschritt bezüglich der Helligkeit usw. gemacht? Wie sieht das bei den neu erscheinenden C4 Generation aus?
Laut der LG Display Roadmap sollen nächstes Jahr 240Hz TVs anstehen oder habe ich mich da vertan?

Danke euch!
 
LG 2024 OLED TV US Preise : ( Preislich leider ähnlich zu 2023 und nicht zu 2022 ... Release der neuen Gen soll wohl entweder der 5.3 oder 11.3 sein ... nun schwirrt auch der 17.3 rum )

Screenshot 2024-02-27 095259.png
-----
Screenshot 2024-02-27 095348.png
---
Screenshot 2024-02-27 095503.png







Hi zusammen

Ich hätte mal ne Frage bezüglich neuen 42" OLED TVs. Aktuell nutze ich wie Stagefire einen LG CX48 als Hauptmonitor bei meinem Setup. Das seit gut 3 Jahren. Bin damit eigentlich auch sehr zufrieden.
Was mich aber nervt - und hierzu gab es soweit ich weiss hier auch schon eine Thematik - ist das relativ schnelle Abdunkeln des Bildes im Desktopmodus.


Es gibt halt das ASBL Dimming und das ABL Dimming

ASBL :

Dimmt bei einem Standbild also wenn sich nichts auf dem Bild bewegt nach 3 - 5 min langsam stück für stück das Bild runter egal wie hell oder Dunkel das angezeigte Bild grad ist ( lässt sich wie du sicher weisst im Service Menu abschalten )

Denke mal das ASBL meinst du sicherlich

ABL :

Dimmt sofort das Bild ab wenn etwas größeres ( über 10 % des TV Bildschirms ) helles auf dem Bild is ( lässt sich nicht abschalten )


Und bei ABL oder ASBL isses egal ob du im Desktop bist oder beim Gaming oder du ein Film anschaust es reagiert immer gleich.


Haben die neuen und bald erscheinenden Modelle einen grossen Fortschritt bezüglich der Helligkeit usw. gemacht?

Die G4 Serie ja genau wie die 2023 G3 Serie auch schon .... die C Serie allerdings nich so wirklich wobei sie zumindest 2024 nun etwas verbessert worden sein soll aber das müssen wir noch abwarten
wird aber wohl weiterhin zu wenig sein um ein wechsel vom 2020er 48" CX zu rechtfertigen das lohnt halt noch nicht sondern erst wenn die C Serie auch das MLA bekommt was dann hoffentlich
2025 entlich soweit sein wird erst dann kann man ein Wechsel vom CX zu einem neuen mit gutem Gewissen durchführen und auch erst dann wird man ein Merkbaren Helligkeits Schub feststellen.

Laut der LG Display Roadmap sollen nächstes Jahr 240Hz TVs anstehen oder habe ich mich da vertan?

Laut einer geleakten Roadmap von der Firma Dough ehemals EVE die TFTCentral dann veröffentlichte ... die Roadmap muss also nich stimmen ... allerdings bisher stimmt sie soweit

Bei der Neueren Roadmap die TFTCentral uns zeigte kamm der 42" 240hz zb nicht mehr vor der noch in der ersten Roadmap zu sehen war ... möglich also das er gestrichen wurde oder aber er wurde bei
der neuen Roadmap nich mehr geführt weil er kein Monitor is sondern eben ein TV und die Roadmap soll ja nur Monitor Panels zeigen also möglich das er deswegen bei der neueren Roadmap nich mehr auftaucht

Screenshot 2024-02-27 171520.png
--
Screenshot 2024-02-27 171531.png





Ihr wisst ja Philips nutzt auch die LG Display OLED Panels daher kann man sich von den Phlips Werten zumindest etwas ableiten bzgl der G4 und C4 Serie :


Screenshot 2024-02-27 170340.png


Screenshot 2024-02-27 170300.png


Screenshot 2024-02-27 170249.png







TFT Central bringt licht ins QD-OLED Gen wirwar :


Screenshot 2024-02-28 001320.png
---
Screenshot 2024-02-28 001459.png



Den 42" 240hz spricht er am ende auch nochmal kurz an :

Screenshot 2024-02-28 002010.png
--
Screenshot 2024-02-28 002033.png
--
Screenshot 2024-02-28 002233.png



Strange PCGH freut sich :

 
Zuletzt bearbeitet:
Ich habe mir gestern einen LG 42 C3 bestellt für meinen Schreibtisch.
Ich hatte letztens den PC am OLED TV dran und jetzt brauch ich sowas für den Schreibtisch. Und ich sehe es auch nicht ein noch mehr für einen *Gaming* Monitor zu bezahlen der kleiner ist und nicht wirklich mehr bietet.
Die Nachteile sind so gering bei einem OLED TV das ich da drauf gerne verzichten kann und zahle sogar noch weniger für den TV.
 
Ich habe mir gestern einen LG 42 C3 bestellt für meinen Schreibtisch.
Ich hatte letztens den PC am OLED TV dran und jetzt brauch ich sowas für den Schreibtisch. Und ich sehe es auch nicht ein noch mehr für einen *Gaming* Monitor zu bezahlen der kleiner ist und nicht wirklich mehr bietet.
Die Nachteile sind so gering bei einem OLED TV das ich da drauf gerne verzichten kann und zahle sogar noch weniger für den TV.
Willst du nicht auf den C4 144Hz warten?

Kostet zu Release allerdings 1600 Euro
 
Nein,möchte ich nicht :d und schon gar nicht zu dem Preis nur damit ich 24hz mehr habe :d
Ob nun 120 oder 144 spielt für mich keine Rolle.
 
Strange PCGH freut sich :
Uff, also das gibts keinen einzige objektive Aussage...

Da weiß man gar nicht, wo man anfangen soll. Also erstens wirkt ein Bildschirm nicht nur "ausgeschaltet" hochwertiger, sondern auch eingeschaltet ist das Bild kontrastreicher, eben weil das reflektierte Licht nicht gestreut wird, sondern nur lokal stört, aber nicht übers halbe Bild.
Verstehe eh bis heute nicht, wie man darauf kommt, dass sich der Schwarzwert oder das Reflektionsverhalten bei OLED ändern soll, nur weil das Ding eingeschaltet wird.

Usw usw usw, wurde ja schon oft genug wiederholt, was die Nachteile sind.

Hier sieht man das wieder ganz gut. Ja, die Spiegelung ist zu erkennen, ein kreisrundes Licht. Dafür bleibt überall sonst der Kontrast erhalten. Auf dem matten OLED dagegen ist das komplette Waldstück in seinem Kontrast ruiniert.
2.PNG



Das Bild find ich auch schon ironisch, da steht "Perfect Black dank matt".
Durch den fehlenden Polarizer ist davon hier aber exakt nix zu sehen, für mich ist das lila-violett und schlimmer als jeder LCD (egal ob matt oder glossy) in der gleichen Lichtsituation:

1.PNG
 
Wer den 97 zoll c4 schonmal vorbestellen möchte
 

Anhänge

  • Screenshot_20240229_213101_Chrome.jpg
    Screenshot_20240229_213101_Chrome.jpg
    208,2 KB · Aufrufe: 67
Uff, also das gibts keinen einzige objektive Aussage.

Jepp gibt halt weiterhin Leute die lieber Matte wollen aber es werden weniger wie man ja bei der Umfrage sehen konnte von Vince die ich letztens gepostet hatte.

Da weiß man gar nicht, wo man anfangen soll. Usw usw usw, wurde ja schon oft genug wiederholt, was die Nachteile sind.
Hier sieht man das wieder ganz gut. Ja, die Spiegelung ist zu erkennen, ein kreisrundes Licht. Dafür bleibt überall sonst der Kontrast erhalten. Auf dem matten OLED dagegen ist das komplette Waldstück in seinem Kontrast ruiniert.

Auch is das Glossy Bild halt klarer / schärfer als bei Matte

Ich versteh aber dennoch das es Leute gibt die lieber Matte wollen auch wenn es wohl eher daran liegt das sie noch kein Glossy auf ihren Tisch stehen hatten.

Bei mir wars damals ja genauso .. wollte auch nie Glossy haben weil ich dachte das er zu doll spiegelt aber als ich dann den Glossy bei mir stehen hatte und merkte das wenn man ein paar Dinge
beachtet er garnich so doll spiegelt und ausserdem auch eben ein klareres / schärferes Bild hat als Matte sowie die Farben besser durchkommen hat sich das geändert. Und seit dem hat sich das bei mir gedreht
vorher wollte ich kein Glossy und nun will ich kein Matte mehr. :-)

Das Bild find ich auch schon ironisch, da steht "Perfect Black dank matt". Durch den fehlenden Polarizer ist davon hier aber exakt nix zu sehen, für mich ist das lila-violett und schlimmer als jeder LCD (egal ob matt oder glossy) in der gleichen Lichtsituation:

Auch wenn er ein Polarizer hätte währe das "Black" halt nicht "Perfekt" unter gewissen bedingungen weil er eben Matte is

Angeblich hat sich Samsung dazu entscheiden ihre QD-OLEDs Matte zu machen weil Kunden sich das gewünscht haben



Mal ne Interessante Übersicht der letzten 4 Generationen von der G Serie und der C der "Hinke Peter" Serie :

Screenshot 2024-03-01 002217.png





Wie gesagt ... die Schere zwischen G und C Serie geht immer weiter auseinander .. damals war es ein unterschied zwischen 50 - 150 Nits und Heute ist es ein Unterschied von 1000 Nits wenn nicht gar mehr
und erst wenn die C Serie das MLA bekommt und den neuen Prozessor wird sich dieser Umstand dann wieder ändern und sich der Abstand wieder normaliseren was dann hoffentlich entlich 2025 der Fall sein wird.



Dazu passt auch ganz gut dieser Post aus dem AVS Forum :

Screenshot 2024-03-01 002621.png
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh