Super, danke dir! Das hilft mir sehr weiter.
Kein Ding war ja schnell gemacht.
Folgendes: Ich verstehe nicht, warum Nvidia scheinbar bei 8-Bit auch einen 40Gbit Link aufbaut, obwohl 32Gbit ausreichend sind. Vincent hat in seinem Video zur Xbox (Minute 17:13) gezeigt, dass die Xbox bei 8-Bit nur einen 32Gbit Link aufbaut:
Liegt vielleicht an der Xbox und dem Dolby Vision Mode
... als ich mit Dolby Vision rumgetestet hatte 2021 mit meinem CX mit Mass Effect Andromeda mit meiner RTX 3080 damals bekamm ich ja zb auch das TM angezeigt ...
aber ich hab in dem Bereich viel zu wenig plan und kann da halt nur raten.
---
Es geht mir nämlich darum, dass ich meine Bildaussetzer (durch meinen HDMI Switch) endlich lösen konnte, indem ich die Bandbreite auf 32Gbit per CRU gesenkt habe und trotzdem noch volles RGB bei 8-Bit nutzen kann (reicht ja laut Vincent auch aus für HDR
Jepp da Windows dann wenn du mit 8 Bit auf HDR schaltest ja dann 8 Bit + Dithering macht also Fake 10 Bit was sogar in manchen Fällen bei Color Banding helfen kann.
Aber dat weisst du ja sicher schon alles selber bist da ja sogar teils tiefer in der Materie drinn als ich.
Hast du das mal selbst getestet mit der App? Wie sieht du das?
Was meinst du ? Das mit 8 Bit + Dithering = HDR ? ... wenn ja dann klar seh ich das genauso geht einwandfrei wenn man das bevorzugt .. ich weiss grad zwar nich mehr wer aber einer hier aus dem
Thread nutzt ja nur 8 Bit + Dithering statt 10 Bit für HDR und is damit ja auch total zufrieden.
Ich selbst habe bei meinen Tests auch 0 Negativen Unterschied feststellen können und auch Vincent hatte da keine Negativen Effekte feststellen können
Krass, das geht? Dachte die Hardware deines CX kann es halt einfach nicht, wieso reichen dann ein paar Klicks mit CRU, ist das nur eine Software-Drossel im Fernseher?
Hatte doch dazu damals vor ein paar Jahren hier im Thread sehr viel darüber berichtet .. is ne Art HDMI "Übertaktung" .. das ganze hat damals aber kein Interessiert bzw haben die Leute das angezeweifelt usw.
Hier der Link zu meinem Berichten von damals dazu :
z.B. warum RAW XYZ und nicht OLED als Mode für den Sensor. Das kann ich dir mittlerweile sogar sagen: Das "OLED" bezieht sich in dieser Einstellung auf RGB-OLEDs. Aber nicht auf WRGB OLEDs. Für WRGB OLEDs gibt es da kein Bild. Entsprechend muss man dort dann RAW XYZ nehmen. Und warum soll man...
www.hardwareluxx.de
Man bekommt dann aber bei der HDMI Diagnostic PHY Erros und der Error Count bei SCDC ( Rechts oben ) geht bei den jeweiligen Chanels hoch.
Hatte da in dem Link den ich hier grad verlinkt hab ja auch ein Bild dazu eingefügt und füge es hier nochmal mit ein
Bildausetzer gibt es keine nur der Error Count geht halt hoch... das man in dem Bereich hin und wieder mal ein Error hat is normal .. aber das war da jede sekunde eben zwischen 3 - 7 Errors
daher hab ich das nur für Test Zwecke ausprobiert mir Persönlich reichen aber die 10 Bit bzw 40 gbps aus.
Und wen ich das jetzt richtig verstehe: Alle reiten ja rum auf 48Gbits vollem Support bei den Fernsehern aber das ist ja wie ich das sehe nur für 12-Bit notwendig?
Jepp ... war auch damals 2020 ein Großes Thema als der CX released wurde wo die Leute sich auch hier im Thread darüber aufgeregt haben das er ja nur 40 gbps hat statt die vollen 48 gbps und daraus is dann die Idee
bei mir entstanden damals da mal nachzuschauen ob man diesen umstand ändern kann und ich kamm dann damals zur CRU Methode.
Und die 12 bit der Panels sind halt auch nur 10 Bit + Dithering oder + 2 Bit FRC Dithering so ganz genau weiss ich nich wie er auf die 12 Bit kommt aber das is da halt wie bei den meisten LCD Monitoren
die Sache mit den 10 Bit wo die ja auch "nur" 8 Bit + 2 Bit FRC Dithering haben um auf die 10 Bit zu kommen und die 12 bit bei den OLED Panels sind halt da weil Dolby Vision halt auf 12 Bit setzt