[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Spielt hier jemand schnelle Shooter mit dem 48CX? D.h. Overwatch, Call of Duty ect. ? Mich würde interessieren, wie sich das Panel bei 120Hz und echter 1mx Response Time gegen die üblichen 240Hz-Gaming-Monitore mit realen 3-4ms Response Times in Sachen Bewegungsunschärfe anfühlt, insbesondere mit BFI.
Ich spiele Rainbow Six Siege und bin mit dem Oled jedenfalls nicht schlechter als vorher (hatte aber nur G-Sync Monitor mit 165Hz). Für mich fühlt sich das Spiel auf dem cx48 gut an, ich kann aber nicht beurteilen, ob das auf 240Hz nochmal sichtlich besser wäre. Denke aber, dass es so oder so eher Einbildung als objektive Relevanz wäre.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich spiele Rainbow Six Siege und bin mit dem Oled jedenfalls nicht schlechter als vorher (hatte aber nur G-Sync Monitor mit 165Hz). Für mich fühlt sich das Spiel auf dem cx48 gut an, ich kann aber nicht beurteilen, ob das auf 240Hz nochmal sichtlich besser wäre. Denke aber, dass es so oder so eher Einbildung als objektive Relevanz wäre.

Danke, reicht mir. Ist gekauft. Scheiß Lockdown, sonst wäre er jetzt an der Wand :(
 
Laut der Info kommen die 12 Bit halt schon an sieht man ja auf meinen Bildern.
Und warum packst du die 10 Bit immer dabei ? Hast vorhin ja auch schon gemacht ... die kommen ja aufjedenfall an.

Die Frage is eher warum Gsync damit nich mehr geht und wie man Gsync wieder
Aktiviert bekommt mit 12 Bit am CX
 
In der Info steht das, ja. Aber sehen die Farbverläufe deutlich besser aus? Das sieht man auf jeden Fall zwischen 8 und 12 Bit. Auf Tools kann man sich nicht immer verlassen
 
Nope ... das sehen sie aber auch nich mit 4K 60 hz und 12 Bit oder 8 Bit + 2 Bit Dithering.

Hab nun mit dem 12 Bit Hack aber auch nur kurz mal 2 min Cyberpunk getestet und kann dazu noch
nix sagen. Find es halt Interessant das 12 Bit 4K mit 120hz 4:4:4 am CX halt doch gehen ... aber wie gesagt ... nun müssen
wir rausfinden wie man mit den 12 Bit Gsync Aktiviert bzw warum es deaktviert ist.

Vielleicht liegt es auch an Gsync das man nur 10 Bit hat und wenn man Gsync aus der EDID nimmt
kann man 12 Bit wählen.. also sprich das Gsync einem etwas Bandbreite von 40 Gbit klaut und somit kein
Platz mehr für die 12 Bit sind aber ohne Gsync is die Bandbreite wieder da für 12 Bit .. kein plan .. hab da zu wenig Ahnung von.

Und nochmal .. wo kommt das mit dir und den 10 Bit her ?
Weil du ja schreibst das die 10 Bit bei dir auch nich vorhanden sind.


Hab mir nun die Original EDID Datei mal abgespeichert so kann ich easy hin und her Switchen

Original :

10 Bit 2.JPG


12 Bit Hack

12 Bit 2.JPG


Wie bekomm ich das Ausgegraute "Range Limits: 24-120hz" da weg ?

Habs ... man muss dieses "Include a Slot" Häckchen unten wegmachen wenn man oben auf Edit drück
dann es das Range Limit da aus der Liste weg. Dennoch is Gsync immernoch weg.
 
Zuletzt bearbeitet:
Doch, diese 10Bit könnte ich auch einstellen. Aber ich verlasse mich nicht auf Anzeigen von Tools oder Infos von Geräten. Morgen schaue ich nochmal danach (bin grad nicht zuhause)
 
OK also du denkst also das die 10 Bit ( Mit Hack 12 Bit ) zwar einstellbar sind aber nich wirklich anliegen obwohl dir
die Infoeinblendung das Suggeriert ?

Sprich du vermutest das wir alle nur mit 8 Bit zocken ?
 
@Dwayne_Johnson

Ja gut .. aber dann schreib hier doch nich "Ist bei mir auch auswählbar/einstellbar, aber es kommen halt keine 10/12 Bit an"
wenn du das noch garnicht selbst weisst und es noch selbst testen willst und hier eher eine Vermutung aufstellst.

Und wenn wir alle nur mit 8 Bit zocken würden dann denk ich das sich hier schon der eine oder andere gemeldet hätte
in den ganzen Monaten das eben nur 8 Bit gehen und 10 Bit nich.

@All

Hab nun mit dem Typen in Reddit Kontakt aufgenommen und mal gefragt was da mit Gsync los is bzw warum
man kein Gsync mehr hat wenn man sein Profil am CX nutzt. Und ob er uns nich einfach sagen kann was wir
selbst in der EDID am LG Profil ändern müssen damit wir sein Profil nich nutzen müssen damt wir wiederrum
Gsync weiterhin nutzen können auch mit 12 Bit.
 
Zuletzt bearbeitet:
Wie bekomm ich das Ausgegraute "Range Limits: 24-120hz" da weg ?
Das ist die Range von Freesync, würde mich eher fragen wie du die bei dem 12 Bit hack da hinbekommst. Dann hättest nämlich evtl. wieder Gsync mit 12 bit,^^

Da Gsync mit full RGB und 10 bpc aber verbugt waren und erst nach einem Patch liefen wird das in der Firmeware des Fernsehers mit 12 Bit garnicht gecoded sein und evtl. somit wahrscheinlich auch nicht funktionieren.

Edit: Ok, im Original steht der nicht drin sry;D
 
Das ist die Range von Freesync, würde mich eher fragen wie du die bei dem 12 Bit hack da hinbekommst. Dann hättest nämlich evtl. wieder Gsync mit 12 bit,^^

Da Gsync mit full RGB und 10 bpc aber verbugt waren und erst nach einem Patch liefen wird das in der Firmeware des Fernsehers mit 12 Bit garnicht gecoded sein und evtl. somit wahrscheinlich auch nicht funktionieren.

Edit: Ok, im Original steht der nicht drin sry;D
Was ist den besser RGB und voll oder 4:4:4 und begrenzt? Und wenn es geht auch eine Begründung warum das eine besser ist als das andere. Danke schon mal.
 
Was ist den besser RGB und voll oder 4:4:4 und begrenzt? Und wenn es geht auch eine Begründung warum das eine besser ist als das andere. Danke schon mal.

Wurde hier im Thread auch schon mehrfach beantwortet.

RGB Sendet der PC Automatisch ... wenn man den TV nun auf Ybrc Dingens stellt dann muss erst eine Umrechnung stattfinden.
Is beides auf RGB muss nix umgerechnet werden.

Man kann aber ruhig beides einstellen.

Grundsätzlich :

RGB is eher so PC Format
Ybrc Dingens is eher so Konsolen und Film Format.


@Stefan Alexander

Die Freesync Range hab ich nich hingemacht sondern das Importierte 12 Bit Hack Profil .. dürfte bei dir ja auch so sein .. du hast
ja vorhin auch getestet.

Zumindest weiss ich ja schonmal wie ich das wieder wegbekomme .. hilft aber alles nix da Gsync im Nvidia Control Panel
immernoch fehlt und ich nich weiss wie ich das mit dem 12 Bit hack da wieder hinbekomme.
 
Ist jetzt nicht dein Ernst oder?

Alles dazu hatte ich schon in einem Vorherigen Beitrag geschrieben ... aber nochmal extra für dich
von Evil Boris ( Kein No Name in der Scene ) :

"Max Brightness appears to control the gain, or the contrast setting - I suspect 10,000nits is in fact the default as the game’s output is scaled from it’s base set up to the game’s SDR tuned output.
The problem with then reducing this is that it then brings down the mid tone brightness by the time you move the white point down to a useable 1000nits or so."

"On the LG sets this is DTM OFF - a 4000nit roll off.
On Samsung Sets you can change gamma / ST2084 to -3.

You can then set the games maximum output to 3500-4000
And drop back the mid point value to somewhere between 1-1.8 (depending on if you want a more contrast or more bloom)
This will brighten the image, provide a brightness roll off, an image that is not so dim and a slightly more contrasty image.
Give this a go and let me know what you think!"




@Stefan Alexander

Genau darum geb ich ja nich auf weil ich Gsync wieder haben will
Ob man die 12 Bit letztendlich brauch steht auf einem anderen Blatt
aber ich find die Geschichte Interessant und bleibe drann.
 
Alles dazu hatte ich schon in einem Vorherigen Beitrag geschrieben ... aber nochmal extra für dich
von Evil Boris ( Kein No Name in der Scene ) :

Ich kenne ihn. Seine settings gelten aber für die Xbox.

Er sagt selber auf Twitter nachdem er gefragt wurde ob diese settings auch für PC gelten: "They should do (I’ve not tried) give it a go and let me know how you get on"

Das kann zu 100% nicht für den PC gelten. Ich meine, guck dir das Bild so an?! Ich hatte es eben selber probiert. Das sieht wie auf Stufe 1000 gestelltes Fake-HDR aus. Alles ist völlig übersättigt. Die Rottöne sehen aus als würde man direkt in Lava gucken. WTF.

Hast du mal 500 nits, 1.8 und Helligkeit auf 46/45 + HGIG in den TV-settings ausprobiert?
 
Zuletzt bearbeitet:
@Dwayne_Johnson

Ja gut .. aber dann schreib hier doch nich "Ist bei mir auch auswählbar/einstellbar, aber es kommen halt keine 10/12 Bit an"
wenn du das noch garnicht selbst weisst und es noch selbst testen willst und hier eher eine Vermutung aufstellst.

Und wenn wir alle nur mit 8 Bit zocken würden dann denk ich das sich hier schon der eine oder andere gemeldet hätte
Ich meinte diesen Hack testen...
Bei der anderen Sache bin ich mir sicher (keine Vermutung)
 
@KiLiK

Was ich sagen kann is das Boris sein Setting besser aussieht als das HDR Setting was ich bisher hatte
eben das was man so normalerweise nimmt 700-800 Nits und die 2 bei Mid. Weil das halt bekanntermaßen
nicht passt und worüber in vergangenen Posts hier auch schon gesprochen wurde.

500 Nits und 1.8 bei Mid mit Helligkeit 46 im 48CX hab ich bisher noch nich getestet. Denke aber auch
da wird irgendwas nich passen.

Das ganze is mir auch momentan egal geworden da ich Cyberpunk wohl eh erst in 2 Jahren richtig zocken werde
wenn es dann auf den 4000er Nvidia Karten vernünftig läuft. Auf meiner 3080 bekomm ich das jedenfalls nich mit
den Settings richtig zum laufen mit dennen ich Cyberpunk aber gerne Spielen wollen würde .. somit warte ich nun
2 Jahre .. und bis dahin wird vielleicht auch das verbuggte HDR dort gefixt worden sein. In der Zwischenzeit
is Cyberpunk für mich nur erstmal ein Test Game.


Falls du mit der Lava das Bild ganz unten meinst ... das liegt an meinem Handy .. das sieht in real ganz anders aus.
Nicht perfekt .. das sag ich ja auch nich ... aber anders und besser als die "normalen" HDR Einstellungen die man sonst macht
bei anderen Games die aber eben bei Cyperpunk absolut nicht passen. Und das wurde hier ja wie gesagt schon angesprochen
mit verschiedenen anderen Quellen dazu unteranderem eben der bekannte Vincent.


Bei diesen Bildern ging es mir auch eher um die 4K 120hz 12 Bit Geschichte als um die HDR Probleme von Cyberpunk

@Dwayne_Johnson

"Die andere Sache" ... also du bist dir nun plötzlich doch sicher das wir alle statt den gewählten 10 Bit im Nvidia Control Panel
alle mit 8 Bit zocken ?

Und warum hat sich nach all den Monaten/Jahren kein weiterer ausser dir hier und überall anders im Nets gemeldet das dem so ist ?
 
Falls du mit der Lava das Bild ganz unten meinst ... das liegt an meinem Handy .. das sieht in real ganz anders aus.
Nicht perfekt .. das sag ich ja auch nich ... aber anders und besser als die "normalen" HDR Einstellungen die man sonst macht
bei anderen Games die aber eben bei Cyperpunk absolut nicht passen. Und das wurde hier ja wie gesagt schon angesprochen
mit verschiedenen anderen Quellen dazu unteranderem eben der bekannte Vincent.

Dein Bild meine ich auch nicht. Wie gesagt habe ich die Werte eben selbst mal getestet. Es ist völlig überstrahlt und extrem übersättigt.
 
Dein Bild meine ich auch nicht. Wie gesagt habe ich die Werte eben selbst mal getestet. Es ist völlig überstrahlt und extrem übersättigt.


Vorhin kamm ein neuer Nvidia Treiber ( 460.89 ) raus und unter "Game Ready Driver Important Open Issues" steht :

"[HDR]: With HDR enabled, black levels are incorrect. [200682795]"

Ich schätze mal das hat was damit zu tun warum Cyberpunk nich so gut in HDR aussieht :-)


@All

Die CX 4K 120hz 12 Bit Geschichte wird grad auch im AVS Diskutiert.

Ab Post 7.371


Nebenbei schau ich auch nacher nochmal im CRU Thread vorbei dort is der Ersteller des "12 Bit Hacks" für den CX
und zwar der CRU macher selbst "ToastyX" wie mir der Typ auf Reddit nun geschrieben hat.

 
Zuletzt bearbeitet:
Dadurch hat man halt nochmal etwas Dithering wie es beim C9 auch is
das Panel kann nur 10 Bit aber es gibt dann etwas mehr spielraum die
Farbverläufe besser darzustellen.

Ob man das wirklich sieht steht auf einem anderen Blatt
aber einem Geschenktem Gaul schaut man nicht ins Maul.

Wenn mans genau nimmt reichen sogar 8 Bit aus ... + dann halt die
2 Bit Dithering die Windows automatisch anstellt wenn man 8 Bit
einstellt ( 8 Bit + Dithering steht dann da ). Das is dann so wie bei 95 %
der normalen Gaming PC Monitore wo man 8 Bit + 2 Bit FRC hat ( Fake 10 Bit )

Mit 12 Bit an den OLEDs hat man im Grunde halt auch nur "Fake 12 Bit"
Und man merkt den Unterschied im Grunde auch nich .. dennoch
wenn man es für umsonst mitnehmen kann warum nich ?

Und es war halt ein Großer Kritik Punkt damals hier im Thread und auch im Netz
das die CX nur 10 Bit haben bzw 40 statt 48 Gbit wie die alten C9s

Wie es scheint haben die CX aber eben doch 48 Gbit nur wurden sie
Künstlich "beschnitten" und diese Beschneidung kann man wie es den
anschein hat wieder "entschneiden" und hat damit wieder volle 48 Gbit am CX

Und der CX is dann was das angeht wieder ebenbürtig mit dem C9
 
Zuletzt bearbeitet:
die hoffnung stirbt zuletzt.

gut dass ich mit C9 davon verschont bleibe.. einstellen und läuft.. egal wieviel bit, egal wieviel hertzen und egal ob mit oder ohne gsync.


(..)

mfg
tobi
 
Was heisst hoffnung ?

Das ganze is für mich nur Spielerei und interessant
Mir Persönlich reichen die 10 Bit völlig aus das hab ich schon damals immer geschrieben
als das bekannt wurde mit den 40 Gbit am CX.

Dennoch find ich das Interessant ... und sollte es eben gehen hebelt es die ganzen Kritiker von damals aus.
Ausserdem könnte das auch in einem Zukünftigen Firmware Update zum Standart am CX werden.

Damals hat mich das an die Grabenkriege von AMD und Nvidia erinnert .. die einen waren Team C9 und die
anderen waren Team CX .. dabei gibts da kein besser oder schlechter. Aber man sieht das du eindeutig zu dem Team C9
gehörst während ich eben bei Team Offene Grenzen bin. :ROFLMAO: :-)
 
schraubt doch eure kisten auf und vergleicht die bauteile im bereich der hdmi-platine :)

ich halte es für zeitverschwendung, aber ich habe von letzterer eh zu wenig.


(..)

mfg
tobi
 
die hoffnung stirbt zuletzt.

gut dass ich mit C9 davon verschont bleibe.. einstellen und läuft.. egal wieviel bit, egal wieviel hertzen und egal ob mit oder ohne gsync.
Ernsthaft? :oops:
Ohne G-Sync geht mal garnicht.
60Hz aber auch nicht. 100Hz sollten es schon min. sein. Mit 8Bit könnte ich leben. Aber auch nur bei Gaming. Bei Filmen sollten es 10Bit sein
 
klar geht das. bei 120Hz habe ich schon immer am liebsten sync aus oder vsync schnell** im treiber aktiviert. habe mir gsync nie angewöhnt.. ist nice2have, mehr nicht.

btw,
warum sollte ich irgendwo 60Hz oder 8bit einstellen?


**
Perforamance Fix (Cyberpunk2077)

If we look at the game’s system requirements, they give us the impression that Cyberpunk 2077 is an optimized game for PC. However, PC players are reporting low FPS, stuttering, and random FPS drops issue with high-end systems and PCs that match the recommended requirements. Here is how to fix stuttering and low FPS issue with Cyberpunk 2077.


First, checkout our Cyberpunk 2077 PC Performance Fix to boost FPS without compromising visuals quality.


Make sure you have installed the latest GPU driver and there is no background process using too much CPU, GPU, or HDD.


Open Settings > Gaming > Game Mode. Turn on the game Mode as it might fix the stuttering. Then open Nvidia Control Panel > Manage 3D Settings > Program settings > select Cyberpunk 2077 and make the following changes.


Anti-aliasing-FXAA – “Off”
Anti-aliasing-Gamma Correction – “Off”
CUDA GPUs – “All”
Low Latency Mode – Ultra.
Set Power Management to “Prefer Maximum Performance”
Shader Cache – “On” only if you are using an HDD. Don’t need to enable it for an SSD.
Set Texture filtering – Quality to “High Performance”
Triple Buffering – “Off”
Set Vertical Sync to “Use the 3D application setting”


Apply these settings and not only stuttering will be fixed but, players might also see a boost in performance. In case the performance issues aren’t fixed, set Vertical Sync to “Fast” in Nvidia Control Panel. Launch the game and disable in-game v.sync. This will fix stuttering with Cyberpunk. Also, see our Cyberpunk 2077 PC optimization Guide to boost FPS.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Vorhin kamm ein neuer Nvidia Treiber ( 460.89 ) raus und unter "Game Ready Driver Important Open Issues" steht :

"[HDR]: With HDR enabled, black levels are incorrect. [200682795]"

Ich schätze mal das hat was damit zu tun warum Cyberpunk nich so gut in HDR aussieht :-)

Nicht wirklich. Das kommt vielleicht noch etwas dazu, obwohl ich von den erhöhten Schwarzwerten nach Treiber-Update eigentlich gar nichts bemerkt habe, im Gegensatz zu anderen Usern. Aber gut das Nvidia sich der Sache direkt annimmt.

Cyberpunk hat eher folgendes Problem, wie 4Kfilme.de schreibt:

"So wurde das Spiel wohl rein für die SDR-Wiedergabe entwickelt und nicht gesondert für HDR optimiert. Stattdessen sei das Game einfach in einen HDR-Container gelegt worden, ohne weitere Abstimmungen vorzunehmen. Als Ergebnis erhält man zwar formal ein HDR-Bild, aber keine höhere Dynamik für die Kontraste und die Helligkeit. Stattdessen wird das Bild einfach nur recht stark aufgehellt, was zulasten der Schwarzwerte gehe."

Ich persönlich kann mit meinen Einstellungen aber in Summe ein etwas besseres Bild in HDR feststellen als in SDR. Besonders tagsüber sieht das für mich in HDR stimmiger aus und weniger Überstrahlt. Problem bei HDR ist, dass colorbanding sichtbar wird, sieht man besonders Nachts am Himmel, dagegen hilft aber der ingame Filmgrain, auch wenn ich das eigentlich sonst immer ausstelle. Eigentlich soll jeder das einstellen was er für richtig hält. Ich kann es manchmal nur einfach nicht nachvollziehen.
 
klar geht das. bei 120Hz habe ich schon immer am liebsten sync aus oder vsync schnell** im treiber aktiviert. habe mir gsync nie angewöhnt.. ist nice2have, mehr nicht.

btw,
warum sollte ich irgendwo 60Hz oder 8bit einstellen?
Bei ACO @ 120Hz muss ich V-Sync einstellen, weil es ohne echt sch... aussieht (ruckelt in gleichmäßigen Abständen. Selbst adaptives Sync ist spür-/sichtbar besser als ohne V-Sync.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh