[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Genau sowas meinte ich mit meinen vorigen Posts, LG hat das Gsync Zertifiakt weil Nvidia die hardware getestet hat, bei den anderen Herstellern die "nur" Freesync offiziell unterstützen können die mehr oder weniger machen was Sie wollen (wie es scheint) da es ein kostenfreier, offener Standard ist.

Es wäre mir aber neu, dass die Auflösung jetzt einen Einfluss darauf hat, ob ein Monitor/TV den Test von NVIDIA besteht. Das beschriebene Problem wäre ja auch nicht auf VRR zurückzuführen, sondern eben auf 4K@120 und die dafür notwendige Rechenleistung. Die Zuspielung in 4K@120 würde ja dennoch gehen und auch VRR sollte wohl ohne zu flackern dargestellt werden. Dass viele Hersteller sich es sparen ihre TVs bei NVIDIA einzureichen wird eher an anderen Punkten liegen.

Die Panasonic Oled vom Vorjahr dürften ja scheinbar auch Fehler bei der Bilddarstellung von Nebel oder Wolken oder so gehabt haben die bis heute nicht gefixt wurden...

Jain, Panasonics HCX Prozessor-Architektur hat seit Jahren einen Fehler, bei dem 24p Content "ruckelig" abgespielt wird. Darauf wird auch der Fehler zurückzuführen sein, der da im HIFI-Forum beschrieben wird.

Außerdem kommt da noch hinzu dass Sony und Panasonic im Vergleich zu LG eben absolut nicht Kundenorientiert arbeiten was Bugfixes etc. betrifft.

Sag das mal den 2019er OLED Besitzern, bei denen LG scheinbar kein Interesse mehr hat DV Gaming nachzurüsten :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es wäre mir aber neu, dass die Auflösung jetzt einen Einfluss darauf hat, ob ein Monitor/TV den Test von NVIDIA besteht. Das beschriebene Problem wäre ja auch nicht auf VRR zurückzuführen, sondern eben auf 4K@120 und die dafür notwendige Rechenleistung. Die Zuspielung in 4K@120 würde ja dennoch gehen und auch VRR sollte wohl ohne zu flackern dargestellt werden. Dass viele Hersteller sich es sparen ihre TVs bei NVIDIA einzureichen wird eher an anderen Punkten liegen.


Wenn Panasonic den TV bei Nvidia Gsync zertifizieren will und die feststellen dass nur mit der halbierten Auflösung Gsync funktioniert, bezweifle ich dass Nvidia eine Freigabe dafür gibt.
Kann natürlich auch eine Kostenfrage sein weil Nvidia zu viel dafür verlangt, aber wird nicht ohne Grund sein warum ein Großteil der am Markt erhältlichen Monitore und TV´s keine Gsync Freigabe haben. welchen Grund genau würden uns nur die Hersteller selben sagen können, alles andere ist spekulieren unsererseits.



Sag das mal den 2019er OLED Besitzern, bei denen LG scheinbar kein Interesse mehr hat DV Gaming nachzurüsten :d

Da wären wir wieder beim Chipsatz Problem. Das DV Gaming kommt ja "angeblich nicht" weil 2019 eben noch ein anderer Chipsatz verwendet wurde, ob es Softwareseitig trotzdem machbar wäre und LG die alten Modelle künstlich beschneidet werden wir vielleicht nie erfahren, wobei ICH sagen muss dass kein DV Gaming mit 4k 120Hz für MICH vernachlässigbar ist da am PC momentan sowieso HDR der Standard ist und wenn man sich diverse HDR, HDR10+ und DV Vergleiche so ansieht wird man außer im direkten AB Vergleich mit freiem Auge sowieso keine gravierenden Unterschiede feststellen da die Content Anbieter halt auch vieles nur so dahin schluddern.
Da wären MIR PERSÖNLICH 12 Bit Aufgrund der 48Gbit Bandbreite wichtiger (und vor allem der noch vorhandene DTS Support).
Bis da wirklich was ins Gewicht fällt optisch werden die C9 eh schon einige Jahre am Buckel haben und dann kann man bei den stetig fallenden Preisen einfach neu kaufen wenn einem DV Gaming so wichtig sein sollte (nur meine Meinung).
 
Sag das mal den 2019er OLED Besitzern, bei denen LG scheinbar kein Interesse mehr hat DV Gaming nachzurüsten :d

Kann denn der C9 DV @ 60HZ bei der Xbox ?

Also mein BX kann bisher nur bis 60 HZ , aber irgendwie finde ich es nicht schlimm , da bei 120 HZ wahrscheinlich die Bildquallität mangels Bandbreite am HDMI Ausgang der Xbox SX
eh beschnitten ist ?
 
Der 32er wird halt ein richtiger Monitor und kein Fernseher ich gehe da von deutlich niedrigerer Helligkeit aus in der Spitze!
Der einzigste wen der den kommt wird wohl der 42Zoll werden der dann auch alls TV kommt und eventuell werden von dem dann auch noch reine Monitore folgen.
 
Naja, der 32EP950-B hat 540nits angegeben und eine HDR400 Zertifizierung, wäre Interessant wieviel Serienstreuung da vorhanden ist, was wieder FÜR MICH gar nicht geht, ist leider das nicht Glossy Coating.
Da merkt man selbst bei Oled dass es sehr wohl auf die Beschichtung ankommt.

Man kann nur hoffen, dass, wenn LG mit den 42" wirklich auf den Monitor Markt kommen, das Glossy Coating beibehalten wird von den TV´s.
 
Wenn Panasonic den TV bei Nvidia Gsync zertifizieren will und die feststellen dass nur mit der halbierten Auflösung Gsync funktioniert, bezweifle ich dass Nvidia eine Freigabe dafür gibt.

Dann guck dir mal die Sachen an die NVIDIA eigentlich nur testet.
Von irgendeiner Mindesauflösung oder einem"Auflösungsverlust" ist da nicht die Rede.


Das DV Gaming kommt ja "angeblich nicht" weil 2019 eben noch ein anderer Chipsatz verwendet wurde, ob es Softwareseitig trotzdem machbar wäre und LG die alten Modelle künstlich beschneidet werden wir vielleicht nie erfahren, wobei ICH sagen muss dass kein DV Gaming mit 4k 120Hz für MICH vernachlässigbar ist da am PC momentan sowieso HDR der Standard ist und wenn man sich diverse HDR, HDR10+ und DV Vergleiche so ansieht wird man außer im direkten AB Vergleich mit freiem Auge sowieso keine gravierenden Unterschiede feststellen da die Content Anbieter halt auch vieles nur so dahin schluddern.

Das sind so oder so alles nur faule Ausreden.
Das gesamte Tone Mapping wird bei "DV Gaming" auf Seiten der Quelle gemacht, da es ja nur die Low Latency Version ist.
Der TV bekommt da also schon ein bereits vorgekautes Signal serviert. Theoretisch kann man DV Low Latency ja auch bei jedem "Nicht-DV-Gerät" nachrüsten. Geht bspw. mit einigen von den HD Fury Boxen. Ist relativ witzig, wenn dann die Beamer plötzlich DV können.
Eine Limitierung der Leistungsfähigkeit können wir abgesehen davon eben auch ausschließen. 4K@120@12Bit@HDR10 geht ja ohne Probleme.

Unterm Strich ist mir DV Gaming tatsächlich auch egal. Bietet halt keinerlei Mehrwert gegenüber HDR10+HGiG. Und wird wahrscheinlich in der Praxis so oder so dunkler sein. Das Problem hatten ja damals auch die Sony TVs, da die ja lange Zeit nur LL unterstützt haben. In diesem Zusammenhang ein weiterer Fun Fact: Die Low Latency Version gibt es ja insbesondere eben deshalb, wenn der TV eben nicht genug Leistung hat/die DV Hardware nicht hat.
In dem Zusammenhang ist es auch irgendwie lachhaft, dass sich andere Hersteller da versuchen rauszureden.

Zumindest LG will sich mittelfristig nur nicht die Blöße geben wegen den 40 Gbps Chipsätzen. Aktuell geht das ja alles noch auf, da die Series X auch nur 40 Gbps hat. Spätestens der Mid-Gen-Refresh wird da aber garantiert 48 Gbps haben. Und dann ist eben auch 4K@120@12Bit@RGB möglich. Und dann ist der TV halt der Flaschenhals. Da wäre es doch peinlich, wenn die TVs aus 2020/2021 etc. auf 422 zurückgreifen müssen, während die 2019er Geräte da ein RGB Signal durchbekommen :d


Kann denn der C9 DV @ 60HZ bei der Xbox ?

Ja, Bis 60 Hz kann er das.
 
Flaschenhals sind meiner Meinung nach schon die Displays selbst wen es um 12 Bit geht !
Allein die Farbraum Abdeckung in Bt 2020 muss erstmal um die 90% erreichen wovon man aktuell noch ne große Ecke entfernt ist!
Das ist doch jetzt schon alles zurecht geschummelt.
 
Heute hatte ich den TV am laufen und habe die PS5 eingeschaltet .
Bin auf den HDMI und Bild blieb Schwarz.

Ton war da und dann zurück auf Live TV und Bild war weiterhin Schwarz.

Einstellungen vom TV wurden angezeigt nur halt kein Bild ob TV oder Quelle HDMI .

TV ausgeschaltet und Stecker gezogen und etwas gewartet .

Wieder eingesteckt und auf HDMI Port 4 gegangen und Bild PS5 war da.

Schonmal Jemand gehabt ?

jup, ein einziges mal... einfach auf TV wechseln und wieder zurück, dann ging es bei mir.
 
Dann guck dir mal die Sachen an die NVIDIA eigentlich nur testet.
Von irgendeiner Mindesauflösung oder einem"Auflösungsverlust" ist da nicht die Rede.


Das Video kannte ich schon, danke trotzdem.
Aber nachdem Nvidia Equipment im Wert von zig Tausend Dollar verwendet um ein Display zu testen glabust du nicht ernsthaft dass Ihnen eine z.b halbierte Auflösung nicht auffallen oder egal sein würde?
Außerdem glaube ich nicht dass wir in einem 15 Minuten LTT Werbevideo ALLE Details erfahren die dort bei Wochenlangen Testungen bewertet werden, aber genug OT.
 
glaubst du nicht ernsthaft dass Ihnen eine z.b halbierte Auflösung nicht auffallen oder egal sein würde?

Auffallen tut das sicherlich. Dennoch ist das aber kein Punkt, der eine Rolle für das Zertifikat spielt spielt. Der Hintergedanke hinter des Tests eben die Prüfung ist, ob VRR ohne Flackern/Ausfälle klappt. Die Auflösung ist dabei halt latte. Als Bonus testen sie für manche Stufen dann eben noch HDR und anderen Kleinkram.
 
obwohl es mich eigentlich nicht gejuckt hat, ob ich mit VRR oder komplett ohne sync shootere, bin ich inzwischen echt froh, dass gsync einfach so funktioniert.. an meinem alten 43 zoll philips war im freesync-betrieb die range so gering, dass es für mich nicht sinnvoll einsetzbar war. zusammen mit HDR hat es erst gar nicht funktioniert und flackerte ständig. damals war die beste option: scheiss drauf, abschalten und ggf. auf fastsync wechseln; eine treiberfunktion, die unabhängig vom verwendeten display angeboten wird und die auch als alternative auf dem OLED nicht grundsätzlich schlecht ist, wenn man gsync nicht nutzen möchte und man mit einer geeigneten framerate unterwegs ist.

mein c9 ist übrigens seit dem grakawechsel auf die 3090 frei von jedem fehlverhalten.. funktioniert einfach.. ausser ihn als monitor für die PS5 und den PC zu verwenden mache ich damit allerdings auch nichts.


(..)

mfg
tobi
 
Dennoch ist das aber kein Punkt, der eine Rolle für das Zertifikat spielt spielt. Der Hintergedanke hinter des Tests eben die Prüfung ist, ob VRR ohne Flackern/Ausfälle klappt. Die Auflösung ist dabei halt latte. Als Bonus testen sie für manche Stufen dann eben noch HDR und anderen Kleinkram.

Worauf stützt sich deine Annahme/Aussage? Quelle?
 
Worauf stützt sich deine Annahme/Aussage? Quelle?

Auf alles was ich, seit es G-Sync compatible gibt, so mitbekommen habe.
NVIDIA beschreibt es auf der eigenen Website zwar kurz, aber dennoch aussagekräftig, was G-Sync compatible eben meint:
"Validiert - keine Artefakte". Das ist in der Summe eben nur der Test, ob das HDMI VRR/Adaptive Sync Signal störungsfrei übertragen wird.

 
Ich sags mal so

Sollte sowas im PC Monitor Bereich passieren das die Auflösung nun halbiert währe wenn man Gsync Nutzt dann gehts glaub ich rund.
Wie damals mit den 3GB bei Nvidia.


Das is ja auch ein Markensschaden der dann entsteht also denk ich mal das wenn die einen Gsync Test machen , werden die da schon genauer hinschauen.
Ob nun Nvidia oder die Marke des Monitors.

Weil im PC Bereich geht ein Shitstorm schnell los.

Und da muss auch nich der Kunde nett bei der Marke ne Mail schreiben oder anrufen ehe was passiert .. das geht durch die Medien durch und dann entsteht der Druck.
 
Zuletzt bearbeitet:
wenn man Gsync Nutzt

Das hat ja immer noch nichts mit G-Sync zu tun, sondern mit 4k@120. Ob nun GSync aktiv ist oder nicht spielt keine Rolle. Sobald du 4k@120 zuspielst halbiert sich die Auflösung.

Beim 60 Hz Limit hast du das Problem grundsätzlich nicht. Sony hat beim XH90 ja auch einen riesen Shitstorm kassiert.
 
Ok das is ja dann noch schlimmer.

Denkst du kaufst ein 4K 120hz Monitor/TV und hast mit 120hz dann aber nur 1440p.
Voll Katastrophe.
 
Jap. Das ist natürlich ein absoluter Witz.
Gibt deswegen auch sau viele XH90 die zurückgegangen sind.
 
Und Panasonic

ratrax berichtete das es dort ja auch so der Fall is.
Sofern man den Berichten in dem Thread den ratrax verlinkt hat glauben schenken darf.

Sind aber 2 Probleme

1. Kein VRR bei 4K 120hz sondern nur bei 4K 60hz
2. Auflösungshalbierung bei 4k 120hz

Sprich gehen dann nur :

4K mit 60hz oder 1440p mit 120hz was dann ja dem HDMI 2.0 Standart entsprich und nich dem HDMI 2.1

1.JPG



Also Teuer und die 48" Version hat die neue Technik nicht sondern erst ab 55" + das Auflösungshalbierungs Problem + VRR Problem

10/10 reingekackt.
 
Zuletzt bearbeitet:
Laut den Tests/Berichten die ich mir von Besitzern/Testern durchgelesen haben, funktioniert 120 Hz + VRR.
Nur die Sache mit halber vertikaler Auflösung halt noch nicht. Dolby Vision 120 Hz ist zu vernachlässigen.
Nicht vergessen dass die Herrschaften bei Panasonic von Anfang an ehrlich waren (bei 2020/2021 Modellen) und gleich gesagt haben was geht und was nicht gehen wird.
G-sync-kompatibel hat ja keinen strikten Anforderungskatalog wie G-sync; ob die fehlende Zertifizierung deswegen nicht erteilt wurde?
Freesync-Zertifizierung ist ja vorhanden.

Sony A90J hat den Mediatek MT5895 SoC, welcher von Haus aus diese Limitierungen mit sich bringt. Da kann Sony nichts machen.
Der Mediatek MT9950 hat diese Limitierungen nicht.
Offiziell heißt es von Panasonic nicht "120 HZ VRR limitiert bei x und daran wird sich nichts ändern".
Gebe den Menschen bei Panasonic somit Vorschusslorbeeren; brauchen vermutlich Zeit zur Fehlerbehebung/Implementierung.
 
G-sync-kompatibel hat ja keinen strikten Anforderungskatalog wie G-sync; ob die fehlende Zertifizierung deswegen nicht erteilt wurde?

Panasonic wird da wohl einfach keinen Sinn drinne gesehen haben. Unterm Strich sind die ja ähnlich wie Sony noch relativ konservativ gegenüber Neuerungen eingestellt. Der Einzige Mehrwert für die wäre halt, dass sie das G-Sync Compatible Logo draufkleben können. Und für den Kunden eben, dass sie G-Sync nicht manuell aktivieren müssen. Zudem ist es ja anders als wie bei FreeSync via HDMI, das etwas anders in den EDID ausgweisen wird und daher explizit unterstützt werden muss. NVIDIA hat sich bei G-Sync via HDMI ja strikt an die Vorgaben seitens des HDMI Forums gehalten.

Ich selber gehe auch davon aus, dass die meisten neuen Geräte der "größerem" Hersteller auch keine Probleme mit NVIDIA Karten machen werden oder nicht. Unabhängig davon, ob sie zertifiziert sind oder nicht. Einfach weil es jetzt entsprechende Quellen gibt, an denen die Hersteller selber sehen können, ob etwas geht oder nicht. Dafür werden ja auch immer wieder Plug-Fests veranstaltet.

Bei Samsung ist es ja recht ähnlich. Deren 2019er TVs haben Bildaussetzer in Kombination mit HDMI VRR und NVIDIA Karten. Aber seit den 2020er Modellen funktioniert es einwandfrei. Auch ohne Zertifizierung. Da fällt halt auf, dass die Geräte noch relativ viele Probleme gemacht haben, die vor NVIDIAs "HDMI VRR Implementierung" auf dem Markt waren. Auf der anderen Seite ist es im Monitormarkt mit Adaptive Sync wohl vergleichbar. Wirkliche Probleme habe ich da eigentlich nur mit Monitoren gesehen, die bereits am Markt waren bzw. kurz nach NVIDIAs Vorstoß gekommen sind. Aber bei neueren Monitoren habe ich es bisher eigentlich nur noch so vernommen, dass Adaptive Sync via DP halt auch problemlos mit den entsprechenden Displays klappt.


Sony A90J hat den Mediatek MT5895 SoC, welcher von Haus aus diese Limitierungen mit sich bringt. Da kann Sony nichts machen.

Ach, der 2021er von Sony hat die Limitierung weiterhin? Spannend. Hatte eigentlich gehofft, dass die bei den 2021ern einen ordentlichen Chipsatz verwenden :d
 
Zuletzt bearbeitet:
Ach, der 2021er von Sony hat die Limitierung weiterhin? Spannend. Hatte eigentlich gehofft, dass die bei den 2021ern einen ordentlichen Chipsatz verwenden :d

Leider nicht (Ab 16:49):

Daher wäre Sony auch für mich nie eine Alternative gewesen. Ich will echtes 4K120Hz + HDR und bitte ohne (color)banding.

Ich bin so sehr auf das JZ2000 review gespannt xD
 
 
166-250nits ist halt schon wirklich extrem wenig.

Und warum wird das Teil dunkler im Spielemodus? War das nicht gerade eine Schwäche der FALD-Fernseher, an der OLED nicht litt?

Aber Rest ist natürlich top, schön, mal vergleichbare Messungen der Schaltzeiten zu haben.

Schade dass das "Glossy-Coating" kritisiert wird, typische Sicht von PC-Monitor-Testern. Dabei ist ein solches AR-Coating nachweislich objektiv einfach besser für die Bildqualität
 
Ja von 10%auf 25% Fläche bricht die Helligkeit schon fast um 400nits ein.
 
Interessant :


1.JPG



Denke die HDR 1000 hat er wohl deswegen bekommen weil er mit 800 - 900 Nits mehr richtung HDR 1000 is als an HDR 600

"While there is a limited 130 – 150 cd/m2 typical brightness spec Gigabyte later also added a “800-900 cd/m2 (@3% peak)” spec which is impressive if achieved."

Ausserdem wohl kein Gsync sondern nur Freesync Premium


 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh