[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

ich sagte nur das der CX eben "nur" 40 unterstützt und er damit nicht sagen kann ob mit seinem HDMI Kabel 48 gehen würden...
der C9 kann eben 48... und da wird man es dann sehen ob die Kabel es packen... oder spacken...

Meine Devise: besser haben und nicht brauchen, als brauchen und nicht haben... ob es was bringt... how knows... 🤷‍♂️
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nochmal die 10bit vs 12bit Sache:
Wenn der Bildschirm nicht 10000Nits macht spielt es keine Rolle.
Alle CX User können sich entspannen.
 
Die lassen sich beheben in dem man die 22Pt Gammakurve kalibriert. Kommt die Tage ein Video von mir dazu.
Und lieber Gsync mit Schwächen als gar nicht.
 
10 vs 12 bit die letzte
Wer dann immer noch auf 12 Bit rumreitet soll es tun.
 
Wie geschrieben,
ich zock seit ein paar Tagen mit G-Sync 4k hdr 10bit bei 110-120fps und hab noch nie solche streifen bemerkt?
aber eben C9 nicht CX

und Kabel hab ich sicher kein Premium (2m)

An der Karte kanns auch nicht liegen, denn ich hatte erst ne 3090 trinity jetzt ne FTW3


von wegen Stottern... macht die FPS Limits raus..
bei FF14 komm ich mit allem ultra max settings auf 100-110fps in etwa... wenn ich den FPS Limiter auf 120 einstelle ruckelt es mit G-Sync... (hackt übrigens auch wenn ich das Limit auf 60 setze und die Grafikkarte sich neben dem zocken ein Wurstbrot machen kann)
wenn ich "ohne Limit" einstelle, dann läuft es genauso mit 100-110 fps und PERFEKT flüssig
 
Beides.
Ich hab nur diese fiesen Stutters im Moment ab 98FPS, aber mir fällt mit und ohne G-Sync kein Unterschied im Bild auf.
Das höre ich öfter. Kann es aber nur glauben wenn ich die Settings und das Bild selbst sehe.
Ich glaube manche meinen mit Gsync zu spielen. Tun es aber nicht weil sie Vsync aus haben oder im Nvidia Panel oder im TV gar nicht Gsync aktiviert haben.
Dieses Problem muss jeder haben.
 
Wie geschrieben,
ich zock seit ein paar Tagen mit G-Sync 4k hdr 10bit bei 110-120fps und hab noch nie solche streifen bemerkt?
aber eben C9 nicht CX

und Kabel hab ich sicher kein Premium (2m)

An der Karte kanns auch nicht liegen, denn ich hatte erst ne 3090 trinity jetzt ne FTW3


von wegen Stottern... macht die FPS Limits raus..
bei FF14 komm ich mit allem ultra max settings auf 100-110fps in etwa... wenn ich den FPS Limiter auf 120 einstelle ruckelt es mit G-Sync...
wenn ich "ohne Limit" einstelle, dann läuft es genauso mit 100-110 fps und PERFEKT flüssig
Ich habe 2 Stück (1,8m) davon und beide verhalten sich identisch :\
 
das ist ja noch billiger als meins :ROFLMAO:
gut meins fühlt sich premium an mit dem Stoff mantel 8-)
 
ja sieht so aus, die Produkt-Zeichnungen sind die selben
hätt ich nochmal 2 Euro sparen können :heul:
 
😭😭😭😭


Oh bitte nicht
Wenn das wahr ist, gibt mir das den Rest,
Wegen VRR ewig den OLED-Kauf verschoben, dann wegen 48Gbps und fehlendem DTS in den 10er Modellen noch auf den letzten Drücker einen überteuerten E9 geangelt,... der nur Probleme macht... und nun noch das.

Argh!
 
Also ich habe eben mit meinem C9 nachgesehen... ich habe bei "Ori and the Will of Wisps" in HDR & SDR, mit WQHD keinerlei flickering... und das Game hat teils viel Schwarz bis Nearblack.
Habe die Frames auf 116 FPS gecappt und bin daher unter den 120HZ wo das Flickering auftreten sollte...

Kennt jemand ein Game bei dem man es reproduzieren kann? Ich teste gerne...
Beitrag automatisch zusammengeführt:

so soll das flickering aussehen:
https://imgur.com/a/Rw2mmHS

Habe ich bis jetzt noch nie bei meinem C9 erlebt...

Habe ja ebenfalls den C9. Die einzigen Spiele wo ich flickering reproduzieren kann sind Star Wars Fallen Order und Division 2.
Bei SW ist das jedoch nur der Fall, wenn ich die Grafiksettings auf Medium stelle. Dann hat das Spiel bei mir seltsamerweise konstant schlechte Frametimes, sogar bei 4K, was zu einem sehr auffälligem flickern führt. Stelle ich die Settings auf hoch, verschwinden die schlechten Frametimes und auch das flickering komplett.

Bei Division 2 sehe ich ein rhythmisches pulsierendes flickering in so gefühlt 1 Sekunden intervallen, wenn ich mich z.B. vor eine Wand stelle in einer dunkleren Ecke. Komischerweise verschwindet das, wenn ich die FPS z.B. auf locked 60 stelle und wird auffälliger je höher ich die FPS einstelle. Tritt jedoch auch nicht überall auf im Spiel, trotz Dunkelheit. Alles so geringfügig das ich meine FPS auch deswegen nicht unter 117FPS cappen würde. Wenn ich normal spiele, fällt mir das im Spiel sonst nirgendswo auf.

Ansonsten sehe ich NIRGENDS etwas von flickering oder dem Gamma-Shift. Das RDR2-Video kann ich bei mir ebenfalls nicht reproduzieren. Kein flickering weit und breit.

Im übirgen habe ich den Verdacht, dass das Problem auf der Xbox one X erheblich schlimmer ist und dort tatsächlich ein Problem darstellt.


@Katzenjoghurt Was macht dein E9 denn für Probleme?
 
Alle die 48 Gbps Ports haben und 4K@120@12-Bit nutzen können und wollen.

Kannst du mir dann bitte einen triftigen Grund nennen oder halt erklären warum man 12Bit auf ein 10Bit Panel zuspielen sollte? Weil man es kann (was offensichtlich nicht der Fall ist weil die Kabel rumspacken?)
Früher hat ja auch niemand 10Bit bei 8Bit Panelen zugespielt?
 
Kannst du mir dann bitte einen triftigen Grund nennen oder halt erklären warum man 12Bit auf ein 10Bit Panel zuspielen sollte? Weil man es kann (was offensichtlich nicht der Fall ist weil die Kabel rumspacken?)
Früher hat ja auch niemand 10Bit bei 8Bit Panelen zugespielt?

Stell es dir wie Supersampling vor.
Dort renderst du das Spiel intern mit einer höheren Auflösung, als dein Display eigentlich unterstützt.
Die Ausgabe erfolgt dann in der nativen Displayauflösung. Und am Ende des Tages ist das Bild eben besser,
als hätte man das Spiel nur in der nativen Displayauflösung gerendert. Aus dem gleichen Grund gibt es auch "Mastered in 4K Blu-Rays" usw..
Der Unterschied ist nicht riesig und Laien wird es wohl auch nie wirklich auffallen. Aber der Unterschied ist da.

Mit 10 Bit vs. 12 Bit ist es jetzt nicht anders. Nur, dass es hier eben die Bittiefe ist und nicht die Auflösung.
Hier hast du dann eher Vorteile bei manchen Farbverläufen.
Der Grund hierfür liegt ganz einfach darin, dass viele Fernseher intern deutlich höhere Bitraten verarbeiten können.
Für das interne Processing des Bildes ist als also dann durchaus von Vorteil eine höhere Bitrate zugespielt zu bekommen
Das war auch ein Grund, wieso man sich bei Dolby Vision jetzt schon dazu entschieden hat auf 12 Bit zu setzen.

Wie groß der Unterschied nun individuell ausfällt, lässt sich pauschal eben nicht sagen. Kommt halt zum einen auch auf den Content
an, zum anderen auch wie der TV diesen Vorteil entsprechend nutzt. Vincent Teoh von HDTVTest hat ansonsten in einigen seiner Videos mal erklärt, wieso es eben von Vorteil sein kann, mit 12 Bit zuzuspielen.

Ein "Must-Have" ist es jetzt natürlich nicht. Es ist nicht so, als würdest du dadurch jetzt ein 100x besseres Bild bekommen. Als als C9 Besitzer hat man halt die Möglichkeit. Also sollte man sie auch nutzen. Du hast halt keinerlei Nachteile dadurch. Wenn irgendwelche Kabel natürlich rumspacken, sind die halt fürs Klo und sollten getauscht werden. Immerhin werden die dann ja auch mit 48 Gbps beworben. Das sollten sie dann natürlich auch leisten.

Dass es in der Vergangenheit so einen großen Aufschrei um 12 Bit gab, lag einzig und allein daran, dass die Consumer NVIDIA Treiber keine Option hatten
10 Bit SDR via HDMI auszugeben. 12 Bit hingegen schon. Da hatten dann viele CX Besitzer natürlich Schiss, dass NVIDIA da nicht reagiert. Aber NVIDIA hat die Option nun freigeschaltet und alles ist auch da gut.

€: Hier bspw. mal ein Video in dem Vincent da drauf eingeht (ab 4:29):

 
Zuletzt bearbeitet:
😭😭😭😭


Oh bitte nicht
Also wie gesagt konnte ich kein Flickering an meinem C9 feststellen und das bei verschiedenen Unreal Engine 4 Games, in 4K 60Hz und WQHD 120Hz... vll bekomme ich die Probleme erst wenn ich eine HDMI 2.1 Graka habe und 4K mit 120Hz G-Sync/Free-Sync zocke.
 
Also wie gesagt konnte ich kein Flickering an meinem C9 feststellen und das bei verschiedenen Unreal Engine 4 Games, in 4K 60Hz und WQHD 120Hz... vll bekomme ich die Probleme erst wenn ich eine HDMI 2.1 Graka habe und 4K mit 120Hz G-Sync/Free-Sync zocke.
Laut Vincent Teoh kann es, je nach Panel, bei dem Gamma Shift Problem auch Unterschiede geben.
Du hast wohl einfach Glück, dass dein Panel davon eben nicht so stark betroffen ist wie Andere.
 
ich hoffe es mal... weil wie gesagt hab ich bisher keine HDMI 2.1 Graka
 
Also wie gesagt konnte ich kein Flickering an meinem C9 feststellen und das bei verschiedenen Unreal Engine 4 Games, in 4K 60Hz und WQHD 120Hz... vll bekomme ich die Probleme erst wenn ich eine HDMI 2.1 Graka habe und 4K mit 120Hz G-Sync/Free-Sync zocke.

Da mach dir mal eher keine Sorgen!
 
Stell es dir wie Supersampling vor.
Dort renderst du das Spiel intern mit einer höheren Auflösung, als dein Display eigentlich unterstützt.
Die Ausgabe erfolgt dann in der nativen Displayauflösung. Und am Ende des Tages ist das Bild eben besser,
als hätte man das Spiel nur in der nativen Displayauflösung gerendert. Aus dem gleichen Grund gibt es auch "Mastered in 4K Blu-Rays" usw..
Der Unterschied ist nicht riesig und Laien wird es wohl auch nie wirklich auffallen. Aber der Unterschied ist da.

Mit 10 Bit vs. 12 Bit ist es jetzt nicht anders. Nur, dass es hier eben die Bittiefe ist und nicht die Auflösung.
Hier hast du dann eher Vorteile bei manchen Farbverläufen.
Der Grund hierfür liegt ganz einfach darin, dass viele Fernseher intern deutlich höhere Bitraten verarbeiten können.
Für das interne Processing des Bildes ist als also dann durchaus von Vorteil eine höhere Bitrate zugespielt zu bekommen
Das war auch ein Grund, wieso man sich bei Dolby Vision jetzt schon dazu entschieden hat auf 12 Bit zu setzen.
[...]

Sorry, aber der Vergleich hinkt etwas und es spielt keine Rolle, an welcher Stelle das Signal auf 10 Bit reduziert wird.

Intern werden Spiele oft mit 14 oder sogar 16 Bit berechnet. Das kostet - im Gegensatz zu einer höheren Auflösung - auch nicht mehr an Performance, was daran liegt, dass es entweder 8, 16, 32 oder 64 Bit Recheneinheiten in der Hardware gibt und man ab 9 Bit eben gleich auf die nächsthöhere Stufe gehen muss, also 16 Bit. Den "Downsampling" Effekt bekommst du also automatisch, wenn deine Grafikkarte aus den 16 Bit Informationen nun ein 10 Bit Signal macht - diese sind also schon "optimiert". Es bringt absolut nichts, dieses mehr an Daten erst noch zum TV zu schleppen, damit dieser das dann macht (es sei denn natürlich, dass der TV das auf magische Weise irgendwie besser macht als die Grafikkarte... aber was soll man beim Runden schon groß falsch machen? In einem berechneten Bild / PC Signal hast du auch kein Rauschen oder dergleichen drin, was ausgeglichen werden könnte...).

Wenn das Spiel aber nur in 8 oder 10 Bit berechnet wird, dann bringt es auch nichts das Signal erst künstlich auf 12 Bit aufzublähen und es dann wieder auf 10 Bit zu reduzieren.

Anders sieht es aus, wenn die Quelle kein "perfektes" / berechnetes Bild liefert. Das ist für unseren Usecase (PC-Gaming) aber uninteressant bzw. zweitrangig.
 

Na toll. :cautious: Hardwareseitig ist immer schlecht. Somit wird es auch mit einer Big Navi nicht laufen, was eigentlich meine Hoffnung war.
Was machen die nur bei der Qualitätskontrolle? Fett mit Gsync und Freesync Gaming-Werbung machen, aber dann funzt es am Ende nicht einmal richtig.
Heißt wieder warten auf die neuere Version nächstes Jahr. . Zum :kotz:
 
und es spielt keine Rolle, an welcher Stelle das Signal auf 10 Bit reduziert wird.

Scheinbar ja eben schon, wenn man sich Aussagen von Vincent Teoh & Co. anhört.

Wenn das Spiel aber nur in 8 oder 10 Bit berechnet wird, dann bringt es auch nichts das Signal erst künstlich auf 12 Bit aufzublähen und es dann wieder auf 10 Bit zu reduzieren.
Ich verweise erneut auf das Video von Vincent.
Genau da erklärt er es, was der Vorteil ist.
 
Vincent Teoh von HDTVTest bezieht seine Aussagen aber auf "normale" TV-Anwendungen und nicht auf ein PC-Signal / PC-Gaming. Bei der von dir genannten Stelle spricht er auch explizit von "12 Bit-'Video'-Signal" und anschließend von "Bluray-Player" und "Video-Processing".

Wenn ein Film in 12 Bit vorliegt, dann ist dies in der Tat besser, da der TV jetzt mit dem mehr an Informationen selbst ein 10 Bit Signal daraus machen kann. Im Falle des PCs übernimmt dies aber bereits die Grafikkarte.

Mathematisch gesehen könnte ein zweimaliges Runden (16 -> 12 -> 10 Bit) sogar zu einem Fehler führen, siehe folgendes Beispiel (zum besseren Verständnis mit reelen Zahlen, aber es lässt sich auch so auf Bits übertragen):
7.4967 => 7.0 (Runden auf Ganzzahl)
7.4967 => 7.50 => 8.0 (Runden auf 2 Stellen, dann auf Ganzzahl)
 
Zuletzt bearbeitet:
Vincent Teoh von HDTVTest bezieht seine Aussagen aber auf "normale" TV-Anwendungen und nicht auf PC / PC-Gaming.
Natürlich bezieht er sich auch auf den PC.
Guck doch mal in welchem Zusammenhang die Aussagen fallen.
Er hat ja auch schon in anderen Videos in dem Zusammenhang immer wieder betont, dass
die Auswahl von 12 Bit nur für "High End PC Users" relevant ist (fällt in dem Video bspw. bei ca. 1:50).
 
@Katzenjoghurt Was macht dein E9 denn für Probleme?
Hey KiLiK. Danke der Nachfrage.
V.a. HDMI Probleme, die ich hier aber auch schon ausgebreitet habe.
Hatte nicht damit gerechnet, dass nach dem TV Wechsel das alte 12m HDMI Kabel nicht mehr gut genug ist, und nun nicht mal mehr 1080p@60p drin sind. (Übergangsweite nach langem Rumärgern mit “geht mal, geht mal nicht” Chroma Subsampling im Grafikkartentreiber reduziert).
An der PS4 krieg ich auch immer mal wieder für einen Augenblick einen schwarzen Bildschirm oder krieg ein rotstichiges Quatschbild... muss dann ein paar mal ein- und ausschalten, bis alles wieder einwandfrei funktioniert. Wohl auch das Kabel.

Ansonsten eher Nervereien.
Das irre hohe Gewicht, das bündige Design des E9 am Boden macht die Umplatzierung und selbst das Drehen schwierig, die Fernbedienung empfinde ich als Graus (grad die Lautstärketasten), die Menüstruktur finde ich wirr, einfach mal die Bildwiederholfrequenz zu ermitteln geht ganz komfortabel über Sender-> “Programmsuche und -einstellungen” markieren und dann 11111... fand ich nach länglicher Suche raus und das stumpf-alphabetische Sortieren der Sender hat mich glaub 3 Stunden beschäftigt.

Nörgelei eines alten Mannes, der sich mit der neuen, dank VRR vermeintlich zukunftssicheren, Feierabend-Gaming-“Traumglotze” eigentlich nicht abmühen und rumärgern wollte. :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh