[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Die Funktion eines Heatsinks is halt Kühlung .. Hat man halt auch am PC die Heatsinks
Die Hitze sinkt in die Pipes bzw Kühlrippen und wird von einem Lüfter abgekühlt und die
wärme geht in die umgebung über ... wärme Tauscher. Daher denk ich das ich da mit meiner
Vermutung schon richtig liege das sie mit Heatsink noch mehr Volt draufgeben können
ohne das es auf die Lebensdauer geht.

Aber genau das hast du auch geschrieben .. grad erst gesehen.

Nur du siehst das mit der Lebenszeit anders als ich ... und du könntest da auch recht haben.

So übrigens Funktioniert das auch mit dem Pixel Refresher ... hab da letztens was im AVS gelesen.
Die OLEDs die älter sind bekommen mehr Spannung drauf um die alte Leuchtkraft zurückzugewinnen.
Das macht der Pixel Rerfresher .. er passt die Spannungen aller OLEDs an um sie dann auf
die selbe Leuchtkraft zu bringen. Anfnags haben alle OLEDs die selbe Spannung ... OLEDs die gealtert
sind brauchen dann aber mehr Spannung um die selbe Leuchtkraft zurück zu erlangen wie sie anfangs haben.

Irgendwas war da auch mit Helligkeit die gespeichert wird und nich genutzt wird bzw erst
genutzt wird wenn die OLEDs gealtert sind um dann den Helligkeitsverlust
durch alterung auszugleichen.

Is schon wieder ne weile her und hab schon wieder die hälfte vergessen

Der Pixel Refresher Checkt Jedes OLED ab wieviel Spannung sie grade benötigen um die geforderte Leuchtkraft
zu erzeugen und passt das dann dementsprechend an ... aber ich wiederhol mich grad merk ich .. hab ich ja nun
schon geschrieben.

Aber das wusstest du sicher auch schon ... hast ja wesentlich mehr plan als ich was OLED angeht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nur du siehst das mit der Lebenszeit anders als ich
Bei den CPUs sorgt der größere Heatsink halt auch nicht, dass
die CPU jetzt länger lebt. Der sorgt in erster Linie nur dafür, dass du halt
einen höheren Takt und höhere Spannungen nutzen kannst und die CPU nicht direkt den Hitzetod stirbt.
Die Lebenszeit selber wirst du durch die höhere Belastung aber halt trotzdem haben (Spannung und Takt sind ja trotzdem hoch). Unterm Strich ist es bei CPUs oder GPUs aber halt auch so, dass die "kürzere Lebensdauer" nicht wirklich relevant ist. Ob die CPU nun 15 Jahre hält ohne OC oder nur 14 Jahre und 364 Tage ist halt irrelevant :d Ist da ja mehr oder weniger Erbsenzählerei.

Was aber wohl durchaus der Fall ist, ist die Reduzierung der thermischen Belastung. Wodurch die HW ggf. nicht so früh abraucht. Aber als Verlängerung würde ich das jetzt nicht unbedingt sehen.


Irgendwas war da auch mit Helligkeit die gespeichert

Die OLEDs haben Reserven. Frag mich nicht genau wie viel. Hatte mal irgendwas von 20% - 40% gelesen.
kP ob das noch so richtig ist. Und das wird halt dazu genutzt, um die Lebenszeit noch weiter zu verlängern,
indem während den großen Algos dann auf diese Reserven zurückgegriffen wird.
 
Bei den CPUs sorgt der größere Heatsink halt auch nicht, dass
die CPU jetzt länger lebt. Der sorgt in erster Linie nur dafür, dass du halt
einen höheren Takt und höhere Spannungen nutzen kannst und die CPU nicht direkt den Hitzetod stirbt.

Punkt für dich

Auch was die Lebenszeit von CPUs angeht ... glaub Intel sagte mal was von @Stock soll ne CPU wohl so 12 -15 Jahre halten
Mit OC Verringert man dann auf so 10 - 13 Jahre was ja bei PC Hardware absolut ausreichend ist.

Abrauchen tut heute beim PC durch OC eigentlich nix mehr auch nich wenn man 0 Kühlung hat... das war nur damals vor etlichen jahren noch der Fall
dafür gibts ja Heute wie auch beim OLED sicherheitsmaßnahmen wo der PC dann halt einfach ausgeht und man dann wieder neustarten kann.
Der Volt Slider bei ner GPU bzw bei OC Tools ala MSI Afterburner hat heute nich mehr die gleiche bedeutung wie noch Anfang 2000.
Glaub nur bei der CPU und beim RAM kann man noch die Hardware Schrotten wenn man zuviel Volt draufgibt.
Aber die GPUs sind heute fast Idioten sicher wenn man OC machen will.

Du hast schon recht .. der Heatsink wird nich dafür sorgen das die OLEDs die höhere Helligkeit genau so lange aushalten
wie bei OLEDs ohne Heatsink mit der jetzigen Helligkeit. Da hab ich nich richtig nachgedacht.
Würde nur Sinn machen wenn sie es schaffen das OLEDs generell mehr Volt abkönnen ( und dadurch heller werden ) und der Heatsink halt dafür
sorgt das die daraus entstehende Abwärme abgeführt werden kann. Hauptfaktor währe dann aber eben das die OLEDs mehr Volt abkönnen
müssten als die Heutigen und das würde dann die Lebenszeit der Zukünftigeren Helleren OLEDs mt Heatsink an die Heutigen dunkleren OLEDs
ohne Heatsink angleichen.

Nits Reserven :

ja .. genau sowas hatte ich auch letztens erst gelesen. Ich mein das war vor 1 oder 2 Monaten im AVS.
 
Zuletzt bearbeitet:
Je nachdem wo dein Augenmerk liegt musst du halt die passende Kombo für dich wählen.
In meinem Fall war das bis November 2020 4K + 60Hz + 10 Bit + RGB ( oder 4:2:2 weiss grad nich mehr genau )
wenn dir aber die 120hz wichtiger sind dann musst du 4K + 120Hz + 8 Bit + 4:2:0 mit deiner jetzigen Graka wählen.
hey ich muss nochmal kurz nachhaken:
ich kann entweder rgb/VOLL dafür aber nur 8bpc einstellen, oder 422/BEGRENZT dafür aber auf 10bpc gehen....

welches der 2 scenarien ist die bessere? 120hz benötige ich nicht, aber das „begrenzt“ hört sich für mich irgendwie falsch an!?
kannst du mir dazu nochmal einen tipp geben :) macht es dabei vielleicht einen unterschied ob ich im konsolen oder pc label bin?

danke schmal im voraus ;)
 
welches der 2 scenarien ist die bessere?

Je nach deinem Geschmack wie gesagt

Voll geht immer nur wenn du RGB auswählst .. Begrenzt is immer wenn du eine 4er Kombo nimmst
also 4:4:4 , 4:2:2 oder 4:2:0

Windows Schrift sieht nur mit 4:4:4 / RGB gut aus .. 4:2:2 geht auch noch aber da fängt schon ein bischen das
Regenbogen Schimmern an ..welches dann mit 4:2:0 ganz schlimm wird.

8 Bit hat halt weniger Farben zur verfügung als 10 Bit ... du kannst aber durch verringern
der Datenrate zb in dem du auf 4:2:0 gehst statt 4:4:4 oder RGB eben mehr Datenrate
freimachen für andere dinge wie eben zb 120hz oder eben 10 Bit oder 12 Bit

An dieser Stelle is das Altbekannte und hier schon X mal verlinkte Übersichts Bild Praktisch :
Dein Limit mit HDMI 2.0 is 18 Gbit .. mit HDMI 2.1 hat man 48 Gbit die beim CX aber auf 40 Gbit beschnitten wurden.

HDMI Bandbreiten Liste.jpg


Begrenst / Voll is halt einfach nur die Farbpalette
RGB ( PC Format ) hat ne Volle Farbpalette 0-255 ( wie bei RGB PC Lüftern ) ( daher Voll )
ddie 4er Kombos ( 4:4:4 , 4:2:2 , 4:2:0 ) ( TV Format ) haben 23-235 oder sowas ... kann mir das nie merken. ( daher Begrenzt )

Du kannst ruhig begrenzt nehmen das fällt nich ins gewicht.
Wichtiger sind die anderen Sachen ... und da kommts halt drauf an was du möchtest.
60 Hz oder 120hz ... wenn dir 60hz erstmal reichen bis zu deiner neuen Graka
kannst du 4K + 60hz + 10 Bit/12 Bit + 4:2:2 oder vielleicht auch 4:4:4 nehmen
mit Begrenzt.

Nur mit dem PC Label hast du die möglichkeit auf Volle 4:4:4/RGB .. mit dem Konsolen Label
rechnet der TV dann deine 4:4:4 oder RGB die du im Treiber eingestellt hast wieder auf 4:2:2 runter.
Aber das weisst du ja

Also dann bei dir :

4K + 60hz + 10 oder 12 Bit + 4:2:2 oder 4:4:4 ( kann sein das nur 4:2:2 gehen .. is aber ok als übergang ) + Begrenzt
Aber stimmt .. RGB waren 8 Bit und mit 4:2:2 ging dann 10 und 12 Bit. ( is bei mir halt schon ne weile her das ich die GTX 1080 hatte
das gerät langsam bei mir in vergessenheit wie das damals war )

Nimm 10 Bit oder 12 Bit und 4:2:2 ... Die Windows Schrifft is vielleicht etwas komisch manchmal mit 4:2:2
aber du hast die vollen 10 bzw 12 Bit für HDR und brauchst dann kein 8 Bit + Dithering

Die Kombi hatte ich damals auch als ich noch die alte GTX 1080 hatte

4K + 60hz + 10 Bit + 4:2:2 Begrenzt da ich mit der 1080 eh bei 4K nie auf 120 FPS kamm ausser bei Halo damals :-)
 
Zuletzt bearbeitet:
mir reichen 60hz, wichtig ist mir dass hdr richtig dargestellt wird, möglichst ohne banding. und auch die schrift in windows ist mir weniger wichtig weil ich wie gesagt mit dem pc nur games spielen will.
neue graka wär halt schon drin wenn die dinger lieferbar wären :/
ich werd mir das heut abend dann nochmal genau ansehen und schauen was ich einstellen kann.
ich danke dir für deine ausgiebige antwort! top :)
 
welches der 2 scenarien ist die bessere? 120hz benötige ich nicht, aber das „begrenzt“ hört sich für mich irgendwie falsch an!?
kannst du mir dazu nochmal einen tipp geben :) macht es dabei vielleicht einen unterschied ob ich im konsolen oder pc label bin?

DAS was DIR besser gefällt...
Nutzen die User nicht mehr Ihre eigenen Augen wenn Sie etwas einstellen? Im Hifi Forum posten Leute Fotos von Ihren Panels um von ANDEREN zu erfahren ob Ihr Panel eh in Ordnung ist, hier wird gefragt was besser ist anstatt sich auf sein persönliches Empfinden zu verlassen.
 
Irgendwas war da auch mit Helligkeit die gespeichert wird und nich genutzt wird bzw erst
genutzt wird wenn die OLEDs gealtert sind um dann den Helligkeitsverlust
durch alterung auszugleichen.

Is schon wieder ne weile her und hab schon wieder die hälfte vergessen

Der Pixel Refresher Checkt Jedes OLED ab wieviel Spannung sie grade benötigen um die geforderte Leuchtkraft
zu erzeugen und passt das dann dementsprechend an ... aber ich wiederhol mich grad merk ich .. hab ich ja nun
schon geschrieben.

Ja, es gibt einen "Headroom" von 40%. Die Bestromung der Subpixel wird einfach nach und nach erhöht um die Leuchtkraft aufrechtzuerhalten.

Kann man hier nachlesen bei Post 14 und 18: https://www.computerbase.de/forum/threads/lg-oled-2020er-modell-leuchtkraft-verlieren.1985733

Wie der FarmerG schreibt, ist ein Helligkeits- bzw. Leuchtkraftverlust im Laufe der Nutzungszeit eher sehr sehr unwahrscheinlich. Und burn-in tritt deswegen auf, wenn das eigene Nutzungsverhalten gegenüber dem hinterlegten angenommenen Nutzungsverhalten so stark abweicht, so dass die "Nach-Bestromung" der Subpixel nicht mehr gleichmäßig erfolgt.

Jetzt könnte man aber vielleicht meinen, dass man von burn-in zu 100% verschont bleibt, wenn man immer ganz genau auf die 4 Stunden für den kleinen Algo achtet (trotz 24/7 Nutzung), aber wie man beim Rtings real life burn-in Test ja sieht, es so dennoch zu burn-in kommt.
Allerdings ist das alles vom Stand aus 2017/2018, da hat sich sicherlich auch eine Menge getan. Ich denke wechselnder Content und der regelmäßige kleine Algo bleiben aber dennoch wichtig.
 
Zuletzt bearbeitet:
Könnte man theoretisch auch "bescheissen"?
Kommt nochmal eine Abfrage, wenn die Taste gedrückt wird (zb versehentliches Drücken)

UTT - 728
OffRS/JB(C,T) - (66,727)/(0,0)

Ist das gut, schlecht oder normal?
Ich konnte den Schnitt seit oben (in 2 Wochen) von 11h auf 10h drücken :-)
mal schauen, wie tief ich komme
 
Zuletzt bearbeitet:
Für mich gibts auch nix besseres. 77C9 auf 2,7m Abstand einfach ein Traum
 
Hab mal einen Shot mit der "Seek Thermal Compact PRO" vom 48CX gemacht (aus geschätzt 2,0-2.5m Entfernung)
(sorry für die Quali, aber für fast 500€ so kompakt bekommt man glaube nichts Besseres)

Die 3 großen, warmen Bereiche verstehe ich ja noch, aber was könnten die vielen, kleineren Spots unten sein?
2EA0A658-35CD-47B1-B478-0EAFE5BEFAEE.JPG
 
Platine, Heatsinks und Netzteil etc...
 
ich tippe auf heatsinks... weiß es aber nicht genau
 
Oder noch auf die neue Serie warten und dann schauen was die preise machen bzw ob die neuen überhaupt soviel besser sind?

Die Preise sind doch bekannt ... und werden bis Oktober , November 2021 Stabil bleiben und eben erst zur
Black Friday Zeit fallen wie es in den vergangenen Jahren auch der Fall war.

1.JPG


und was "neues" angeht wurde das was neu is letztens im G1 Video gezeigt.

Für mich is die C1 Serie gleich zu der CX Serie die eben gleich zur C9 Serie is ... bis auf das die C1 Serie halt das Menu Disign geändert bekommen hat
aber das wars dann auch.

Das einzige was für mich die CX Serie Interessanter gemacht hat als damals die C9 Serie war halt das es bei der CX Serie
48" gab daher wurds der 48CX bei mir. Das Portfolio der C1 Serie is aber Indentisch zur CX Serie.

Ich glaub diesmal is auch der Chip gleich geblieben wenn ich mich nich irre .. der C9 hat ja ne Ältere Version
dieses A9 Chips oder wie der hiess während der CX ne neuere Version bekamm ... glaub diesmal solls aber wieder der A9 werden ... aber kann mich auch irren

Alpha a9 Gen 3 Processor wars beim CX grad mal nachgegoogelt

C9 hat Alpha 9 Gen2

Und der C1 hat doch nen neuen : Alpha 9 Gen 4

Auch solls wohl beim C1 wieder "nur" die 40 Gbits geben .. zumindest hab ich das bisher ab und an mal
in reddit Posts oder Foren aufgeschnappt
Beitrag automatisch zusammengeführt:

Gibt sogar schon nen Unboxing vom 48C1



 
Zuletzt bearbeitet:
Aber wenn du neuen rauskommen sollte doch die alten wieder günstiger werden.
Der G1 wäre halt noch interessant

GIbts auch schon Videos zu


Scheint sich für mich nicht so wirklich zu lohnen
 
Zuletzt bearbeitet:
Der C9 wurde damals auch nur noch bedingt Günstiger ... liegt daran das die alten
Modelle dann auslaufen und nich mehr Produziert werden und dann eher teurer
werden ... war damals beim C9 auch so als der CX langsam fahrt aufnahm.

Der G1 is auch jedenfalls was neues .. da der ein neues EVO Panel drinn hat
was die C1 eben nich haben ... dadurch hat man etwa 100 Nits mehr Helligkeit.
Es sind zwar nur 100 Nits aber eben ein Unterschied.

Für mich aber kein Grund nun vom 48CX auf ein 55G1 zu wechseln weils
halt leider nur 100 Nits mehr sind ... wenn er so 200 - 300 Nits mehr hätte
währe er für mich interessanter.
Zumal der Preiss auch ausserhalb dessen is was ich bereit bin für einen
PC Monitor zu zahlen .. ausserdem gehts erst ab 55" los ... also kacke.

Zum G1 wurde hier letztens schon das Ausführliche Video von Vincent
verlinkt ... und auf genau jenes Bezog sich auch oben meine Aussage
von dem was es so "neues" gibt im Vergleich CX gegen C1


Aber wenn man vorrangig mehr Zockt würde ich Persönlich nun auch eher
die C Reihe empfehlen da soweit mir bekannt die mehr Richtung Gaming
ausgelegt is als die anderen Reihen.

Was ich vergessen hatte sind diese Gaming Presets ... die sind nun bei der 2021 Serie neu
aber die würde ich eh nich nutzen sondern würde selbst mein Bild einstellen
und nich auf Presets zurück greifen.

1.jpg


Das neue Menu find ich Persönlich auch zu schlicht ... das kenn ich so eigentlich nur von PC Monitoren
da gefällt mir das Menu vom C9 und CX besser
 
Zuletzt bearbeitet:
Wird dein Auto durch ein Radiator der gekühlt wird schneller ?

Nich wirklich oder ? 😉 ... sondern das kühlt halt nur dein Wasser im System

Das sind Heatpipes ... sorgt für Kühlung und längere Lebensdauer die man dann
wohl aufkosten der Helligkeit Opfern kann. Damit is man dann bei der Lebensdauer
wie im mom hat dafür aber mehr Nits.

So zumindest hab ich das bisher verstanden


@epsylon84

Versuch mal Voll Zitate zu vermeiden .. so ein Stichpunkt Zitat reicht meistens aus ... nur so als Tipp 8-)
Sorry, hatte mich verschrieben...
Sollte „heller“ heissen. Ich bezog mich auf deinen Beitrag
 
Sitzabstand aufm Sofa 3,5m
Ist doch ganz easy. Größer ist besser :d

Hier 3,20 und gerade im Herbst von 65 auf 77" gewechselt.
Bei PC dann mit 150%, vorher eher 200% ... Man kann auch mit weniger klar kommen. Aber ist schon angenehmer so. Im Browser skaliere ich dann ggf. noch afu 125%.
 
Ist doch ganz easy. Größer ist besser :d
Hier 3,20 und gerade im Herbst von 65 auf 77" gewechselt.

Für mich Persönlich währe das wieder zu weit entfernt.
Darum bin ich auch nich so der Sofa Zocker ... sicher es
is angenehmer auf dieser Entfernung und eben vorallem
auf dem Sofa.

Aber ich brauch den direkten Augenkontakt zu den Texturen beim zocken
ich hab das vor einigen Jahren gemerkt das wenn ich mich zu weit
weg entferne meine Augen die Texturen nich mehr so gut erkennen
können .. also diese klaren kanten usw. das vermauschelt sich dann
wie bei einem Film oder einer Gerenderten Cutscene.

Und ich glaub daher bin ich auch was die PPI angeht etwas Pingeliger
als andere hier bzw eben was Bildschärfe angeht.

Ich brauch schon eine gewisse nähe zum PC Bildschirm um die Bildschärfe
richtig aufnehmen zu können. Zu nah is natürlich auch Kacke ... selbst die
120cm die ich abstand zum TV hab sind mir eigentlich schon zu hoch um
die Bildschärfe richtig geniesen zu können und um das Material besser
aufsaugen zu können. Aber die Entfernung brauch ich halt sonst is mir
der 48" wieder zu nah. Is halt ein Kompromiss aus Bildschärfe
und richtigem Augenabstand

Ich bin da echt eigen.... aber um mich gehts bei deiner Antwort ja auch nich
wollte nur nochmal einen weiteren Versuch der Erklärung machen warum
ich den 48CX mit seinen 92 PPI noch für zu unscharf halte.


Was Filme angeht hab ich aber kein Problem damit mich weiter zu entfernen
hab ja auch ein 3D Beamer mit 100" Leinwand ( Die man manchmal auf meinen Bildern sieht )
wo ich 350cm von weg sitze. Aber da achte ich auch eben nich auf Scharfe Game Texturen und klare
Effekte sondern lass mich vom Film berieseln. Aber beim Zocken is eben genau das wichtig
für mich da brauch ich ein scharfes Bild sodass sich die Texuren nich vermauscheln
 
Zuletzt bearbeitet:
Auf der Couch wird meist gesurft und Video/Netflix u.a. im Fenster.
Gespielt wird Spelunky oder AmongUs. Vielleicht mal Overwatch so for Fun.
Aber FPShooter sind was für den Schreibtisch, deshalb werden die da auch gespielt.
Textur-Fetishist bin ich nicht ... die sind ja immer schlecht. :?
 
Textur-Fetishist bin ich nicht ... die sind ja immer schlecht. :?

Nich immer ... aber es geht dabei ja nich nur um 4K oder gar gemoddete 8K Texturen von NexusMods
sondern einfach um Texturen gut zu erkennen. Ob nun 1K oder 4K oder 8K is da egal.
Das war auch shcon bei meinem 24" 1080p BenQ Monitor so das ich da empfindlich war. ( Auch 92 PPI )
Deswegen hab ich das Beispiel mit dem Film oder der Gerenderten Cutscene genannt.

Eine Gerenderte Cut Scene oder selbst eine In Game Cut Scene mit der Game Engine sieht für mich
immer unschärfer aus als wenn ich dann in das Spiel geschmissen werde und selber rumlaufen kann.
Weil bei den Cut Scenes oder Game Engine Scenes immer noch ein Filter drüber gelegt wird der das etwas
Filmischer macht.

Mir is auch schon oft aufgefallen das In Game Engine Cut Scenes besser aussehen ( mehr effekte haben ) als eben dann der Part wo man
selber spielt obwohl es ja auch die Engine is die man in den Cut Scenes verwendet .. ich erkenne da oftmals
immer einen unterschied. Da eben alles vorgerendert/berechnet is und die Entwickler daher die Effekte
perfomanter unterbekommen.Aber das is wieder was anderes worum es mir nun eigentlich geht.

Jedenfalls is 80cm Abstanbd beim 48CX zu nah .. und 2 Meter zu weit .. und 1,2 Meter eigentlich auch zu weit
aber eben der Abstand den man auf grund der Größe brauch oder den ich halt brauch damit das Große Bild
auf mich nich unangenehm wirkt.

Aber die unschärfe die ich sehe beim 48CX is eben mehr eine PPI Sache in verbindung eben mit der Größe als eine Entfernung Sache.
Mehr PPI = mehr Bildschärfe weil mehr Pixel zur verfügung stehen um das Bild darzustellen weil du eben mehr Pixel ( LEDs / OLEDs )
hast als du für das Bild was berechnet werden soll eigentlich benötigt werden und daher das Bild genauer darstellen kannst.
zumindest für mein Empfinden .. andere können das anders sehen

Und Entfernung sorgt halt aber auch dafür das ich ein Bild als Unschärfer wahrnehme als wenn ich näher drann bin
nur is eben zu nah auch kacke .. deswegen is mein Ziel Bereich eher 38 - 43" .. da kann ich näher ran und hab mehr PPI

Bin aber auch Brillen träger.

Aber wie ich schon sagte ... ich bin da eh etwas eigen .. und jeder legt halt auf etwas anderes wert. ( Stichwort Warm 2 8-) )
 
Zuletzt bearbeitet:
Ich setzte Morgen das System mal komplett neu auf und schaue.
Habe heute meine 6900XT bekommen und habe den LG C9. Stehe aktuell vor dem gleichen Problem. VRR im HDMI 2.1 Modus lässt sich nicht aktivieren und Freesync (beim C9 über das Tool CRU freigeschaltet) funktioniert nicht mehr (eingeschaltet aber ohne Funktion). Wenn man im TV "HDMI UltraHD Deep Colour" abschaltet ist der TV quasi im HDMI 2.0 Modus und damit geht VRR sofort.

Da Xbox Series X und Geforce 3000 aktuell problemlos im VRR laufen und im EDID wohl auch der Status übermittelt wird, muss es am AMD Treiber liegen.
 
Da Xbox Series X und Geforce 3000 aktuell problemlos im VRR laufen und im EDID wohl auch der Status übermittelt wird, muss es am AMD Treiber liegen.

Unterstütz somit das was ich damals zu dem Problem auch schon sagte.

AMD hat wohl Freesync/VRR noch nich bei HDMI 2.1 freigeschaltet .. so lauteten
damals ja auch schon die Berichte als die Karten neu drausen waren .. man kann es
wohl als Option im Treiber finden und wohl auch aktivieren laut den Bildern
von Shariela aber es hat ansonsten halt noch keine Funktion zugewiesen bekommen.

Sprich Schalter is da aber er hat noch keine Funktion und AMD muss die Funktion
erst mit dem Schalter verlinken.

Wofür sie nun schon mehr als 3 Monate gebraucht haben ... man darf gespannt sein.

AMDs Super Resolution ( DLSS Konter ) dauert ja auch noch ... ohne das kann man Ray
auf AMD bei Großen Titeln nich nutzen ausser man steht auf zocken mit 20-30 FPS
 
Habe heute meine 6900XT bekommen und habe den LG C9. Stehe aktuell vor dem gleichen Problem. VRR im HDMI 2.1 Modus lässt sich nicht aktivieren und Freesync (beim C9 über das Tool CRU freigeschaltet) funktioniert nicht mehr (eingeschaltet aber ohne Funktion). Wenn man im TV "HDMI UltraHD Deep Colour" abschaltet ist der TV quasi im HDMI 2.0 Modus und damit geht VRR sofort.

Ich denke meine Überlegung zum CX begrabe ich damit erstmal. Muss ich wohl doch auf einen LG 38" hoffen, irgendwann.
 
Dann kann ich ja meinen 65er CX wieder stornieren
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh