[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Warum haben sie es beschnitten ?

Na weils kein Content dafür gibt. Blurays haben 10 Bit keine 12 Bit.
Dolby Vision Games gibts wenige und wenn dann laufen diese eh nur mit
60 FPS also 60Hz und damit geht dann wieder 12 Bit weil die Bandbreite reicht.

Was ich halt sagen kann ist das es schon Schlechtes Marketing ist .. grade wenn
sie das erst nach Release raushauen. Aber merken wird das keiner beim Schauen oder Zocken.
Beitrag automatisch zusammengeführt:


@Albundyi06


Jup .. das hatte ich beim PG damals .. fast alles 1080p Content was eine recht Niedriege Bitrate hatte
wie zb Youtube Letz Play oder PoRn Zeug sah scheisse aus. 1080p Youtube Content mit einer
hohen Bitrate sah einigermassen ok aus .. aber halt nicht so gut wie 1080p Content auf einem
1080p Monitor wo auch 1080p Content mit Niedrieger Bitrate zb 2.000 Kb/s noch recht gut aussah.

Daher hatte ich hier damals mal nach diesem Dolby AI oder so gefragt weil ich dachte das es hilft 1080p
Inet Material besser aussehen zulassen auf nem 4K Bildschirm also sozusagen das ein Upscaling Stattfindet.
Das gab ja damals etwas verwirring hier .. mit Skalierung und Upscaling usw.

Eine Lösung hab ich bisher noch nicht gefunden.

Denke das ist halt so als wenn man sich nun auf einen HD TV eine VHS Kasette anschaut .. das Bild ist dann halt
auch kacke .. genauso ist es wohl nun wenn man sich auf einen 4K TV/Monitor 1080p Material anschaut was eine
relativ Niedrige Bitrate hat.

Ein 1080p Film mit 10.000 Kb/s Bitrate war ok ... das fing erst so dadrunter an so ab ab 5.000 Kb/s Bitrate.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn ich z.b. mein Desktop auf 4k habe und ich ein YouTube Video 1k auf Vollbild an mache sieht das dann ultra kacke aus oder wir das Bild hoch skaliert vom TV

Das wird schon auf Seite des PCs entsprechend hochskaliert.

Na weils kein Content dafür gibt. Blurays haben 10 Bit keine 12 Bit.
Das ist doch nur die faule Ausrede.
Die sparen so halt einfach Kohle. Das ist der eigentliche Grund.
 
@TZGamer
Ich habe nur geprüft welche Qualitativen Auswirkungen es hat 4:2:0 zu nutzen !
Und dabei festgestellt das es bei mir auf meinem Sony immer noch besser wie WQHD auf 4:4:4 10 ausieht bei Spielen.

Tatsächlich nutze ich 4:2:2 12bit weil hab ja nur 60HZ also schöpfe ich auch aus den vollen in 4K was der TV halt hergibt.

Hoffe das ist jetzt verständlich.

Mich hat einfach interessiert wie es ausehen würde wen ich den CX48 so betreiben würde wieviel qualität 4:2:0 kostet und ob ich meine 2080Ti dann für 120HZ 4K so benutzen könnte oder ob der Verlust zu gross wäre.


Hoffe du verstehst das jetzt.
Gruss
 
Zuletzt bearbeitet:
Gut, Geschmäcker sind wohl verschieden.
Beim Samsung TV vom Kollegen haben wir Augenkrebs bekommen :d
Vielleicht hat dein Sony da aber noch eine etwas bessere Konvertierung.
 
Also ich schau mir gerade die Harry Potter Teile wieder mal an, gerade 4. Teil "Feuerkelch" fertig... im Prinzip alles was ich so auf der Platte habe... ist ja ein relativ neues Erlebnis mit dem OLED.
Klar ist Harry Potter mit 1080p kein UHD und auch ohne HDR, aber es sieht definitiv viel besser aus, als auf meinem alten 40 Zoll LED und damit mein ich auch eine gute Skalierung beim upscaling.

Wenn man jedoch eine ganz schlechte Version von irgendeinem Film in divx Quali in 500MB ansieht ist es egal was für ein TV man hat... kacke bleibt kacke... was ich damit sagen will: bei gutem 1080p Quellmaterial, sieht es auf dem C9 sehr gut aus. Meine Meinung...
 
Naja was ich nun davon halte das sie auf 40,1 GBits/s gehen hab ich schon gesagt.
Mein Gamer Erlebniss beschneiden sie damit jedenfalls nicht.
Ob nun 10 Bit oder 10 Bit + FRC ( Fake 12 Bit ) macht da kein Sichtbaren Unterschied.
Zumindest ist es das was ich so bisher in den Foren meistens lese .. ich selbst
hab ja bisher noch nicht mit Fake 12 Bit gezockt und dann mal auf 10 Bit
runtergeschaltet.

Aber ich wage mal zu behaupten das es niemand merken würde.
Auch weil HDR mit 10 Bit läuft und sie die 2 Bit FRC soweit ich weiss nur nutzen
um Fehlbilder rauszufiltern oder sowas hab das nicht ganz verstanden was ich da
vorhin gelesen hatte.

Dafür soll der Processor irgendwie besser sein damit es zu keinen Fehlbildern mehr kommt
oder so .. im AVS Forum stand mir da zuviel dazu und ich hab das nur so halbherzig durchgelesen.
Aber das ist so die Essenz daraus was ich da gelesen hab.

@darky1986

Daher sprach ich ja auch die Bitrate an. 1080p mit 10.000 Kb/s ist ok 1080p mit 5.000 Kb/s aber nicht
Bei einem 1080p Monitor sind die 5.000 Kb/s aber auch noch super und auch 2.000 Kb/s.
Eine 1080p Bluray hat zb ne Bitrate von 35.000 Kb/s.

Aber 1080p Porn zb nur 1.000 Kb/s oder so und das sah grütze aus auf dem 4K PG43UQ
 
Wenn es eine HDR Bluray ist brauchst du zumindest 10 Bit aber keine 12 Bit.
Aber bei einer Bluray brauch man auch keine 120Hz sondern da reichen 24 Hz
oder 48hz und 60hz für HFR Content und da gehen dann auch wieder 12 Bit.

12 Bit gehen halt nur nicht in Verbindung mit 120Hz und 100Hz .. alles dadrunter
kann wieder 12 Bit. Ist alles Easy

Und Konsoleroes zocken eh meist nur mit 60hz .. da gehen dann auch die 12 Bit.

Aber egal ob Konsole oder PC ... 12 Bit brauchen wir zumindest in der jetzigen Zeit
im Grunde garnicht bzw Profitieren wir nicht davon.

Die Games sind in 8 Bit erstellt und die 10 Bit brauchen wir halt für den
Erweiterten Farbraum für HDR.

Es mag sein das 12 Bit HDR etwas verbessert bei den Farbübergängen .. aber das sollte
für das Menschliche Auge im Grunde nicht sichtbar sein bei bewegten Content.
 
Zuletzt bearbeitet:
Habe es bei mir mal verglichen.
Getestet am Sony VW270 Beamer und am Philips 43" Momentum Monitor
-RGB Voll- egal welche Auflösung es sieht von der schrift immer super aus.
-YCbCr 4:2:2- egal welche Auflösung ich hier getestet habe ich bekomme sofort Chromatische Aberration bei der Schrift.

Der Sony Beamer sieht da aber etwas besser aus als der Monitor wo es wirklich eine Katastrophe in YCbCr 4:2:2 ist
 
OT:
Ich suche eine Software mit der man nicht nur Auflösung und Hz Profile erstellen kann und per Shortcut dann ändert, sondern auch z.B. von RGB 8 Bit auf 4:2:0 12Bit etc.

Bisher hatte ich das hier: Monitor Profile Switcher - das jedoch nur Profile mit Auflösung und Hz erstellen kann...

Kennt wer zufällig solch eine Software?
 
A higher frame rate, 48Gbps bandwidth, VRR, ALLM, and eARC with the latest version HDMI support. These latest features allow fast-moving content in higher resolution and smooth, synchronized graphics. It's a more lifelike gaming experience.



1.png



Ich will ja nichts sagen, aber das könnte noch böse werden :d
 
Ist doch gut. Dann wird das womöglich dann per firmware update doch auf 48 hochgeschaltet wenn jemand mit klage droht
 
Wenn es denn geht.
Muss man mal schauen.
Im AVS Forum will der erste schon seinen CX zurückgeben ^^
 
LG meinte ja das sie die restliche Bandbreite für AI Zeug nutzen ...
also da sind die 48 schon irgendwie .. nur halt nicht für das Video Signal
da gehts halt nur auf 40,01 und die restlichen 7,99 werden für die AI
genutzt oder halt sonst was.
 
Naja die AI wird doch intern verarbeitet und sind doch unabhängig von der zuspielung
 
So hatte ich das zumindest Gestern in Forbes Artikel rausgelesen mein ich

"In other words, according to LG’s statement, the brand believes it can deliver better performance through its ‘intelligent’ automatic audio and visual adjustment systems if it takes processing capacity away from the HDMI 2.1 inputs and makes it available to the TVs’ AI systems instead. And that it thinks this is OK to do because there’s little evidence of sources arriving that will take advantage of the full 48Gbps HDMI 2.1 data rate capacity. "


Für mich persönlich wird die Sache viel zu sehr aufgeblasen. Für die Gamer und Film schauer ändert sich jedenfalls nix.
 
Das ist halt das, was sie sagen.
Normales Marketing-Geblubber.
Wie hätte sich das dann auch angehört, wenn sie gesagt hätten "Ja, wir haben es reduziert, weil
es sowieso kaum einer brauchen wird und wir so noch 10 ct sparen, weil wir das Hardware-Design so günstiger
machen konnten" :d

Ich würde jetzt aus dem Stehgreif nicht wissen, was der AI Kram und die Bildverbesserer mit
dem HDMI Chipsatz zu tun haben. Für mich ist da kein direkter Zusammenhang, zumal LG ja
extra beim CX beworben hat, wie viel besser der alpha 9 Gen 3 ist. Also kann es ja auch eigentlich nicht daran gelegen haben.
 
Das wichtigste ist ja eh das 4k@120Hz RGB 4:4:4 10Bit HDR+VRR funktioniert und dann ist es ja eigentlich ok ganz gleich wie viel bandbreite das teil hat.

ich glaube aber das ich mir auch mal den sau teuren Asus 4k mit 1152 Zonen anschauen werde weil so was ich bis jetzt gelesen habe macht der 1575nits bis 75% weiß fläche und soll vom HDR alles was es im Consumer markt gibt deutlich schlagen.
da wurde auch ein Vergleich mit nem Oled erwähnt und das der Asus monitor da regelgerecht unglaublich besser sein soll.

ich denke das liegt bestimmt an den krassen peaks, großem Farbraum und den 1152zonen aber bei Feuerwerk sehe ich nen OLED da eher vorne
 
Zuletzt bearbeitet:
Und bis wir zb am PC die 12 Bit bei Games oder auch Gamer Monitore sehen vergehen auch noch Jahre.

Für Grafiker mag das schlimm sein .. aber die nutzen denk ich auch keine OLEDs sondern Profi Geräte.
Aber selbst die könnten dann halt auf 60hz gehen damit sie die 12 Bit wieder haben.

Nun ich denke das die AI Verbesserer halt das Bild analysieren und das verbraucht halt Bandbreite vom HDMI
Anschluss oder so .. kein plan ... ist mir aber auch egal solange ich meine 4k+120hz+4:4:4 ( RGB Voll ) + 10 Bit + HDR + Gsync bekomme.

@Powerplay

Jo der Acer und der Asus haben HDR 1400 .. ist seit dem 6.1.2020 bekannt ... komisch das du das jetzt erst gelesen hast ist
doch schon seit Monaten bekannt und hab ich selbst hier sogar etliche male erwähnt.

ASUS PG32UQX ( 32" , IPS , 4K , 144hz , HDR 1400 , 10 Bit , Mini-LEDs mit 1.152 FALD-Zonen , GSync Ultimate , Q2 2020 , wohl um die 3000 Euro )

Acer Acer Predator X32 ( 32" , IPS , 4K , 144Hz , HDR 1400 , 10 Bit , Mini-LEDs mit 1.152 FALD-Zonen , GSync Ultimate , Q2 2020 , 3300 Euro )
 
Ja ich weiß das die schon lange bekannt sind aber da war ich noch nicht so bala bala im kopf das ich bei dem Preis drüber nachgedacht hatte :fresse2:
 
Das hatte ich ne Zeitlang nach dem ich den PG wieder zurückgeschickt hatte.
Da war ich auch erstmal am Schweben und wusste nicht weiter ... dann hab ich mir meine
Monitor Liste gemacht die ich hier auch schon 2 mal verlinkt hatte.
Und der OLED ist halt mom Nr.1

Über 3000 Euro geb ich jedenfalls ( Noch ) nicht für ein Monitor aus 8-)
 
OLED ist halt auch die beste Technik wie früher Plasma.
der OLED hat halt 8millionen dimming zonen.
 
Das stimmt ... aber er hat halt auch Nachteile .. grade bei PC Nutzung muss man
aufpassen.

Perfekt ist OLED nicht aber für mich im moment die beste Option.
Von daher geh ich da halt auch Neutral ran.
 
Nun ich denke das die AI Verbesserer halt das Bild analysieren und das verbraucht halt Bandbreite vom HDMI
Anschluss oder so .. kein plan ...

Nein, eben nicht :d
Das ist ja gerade das Lustige
an der Aussage. Für die Bildverarbeitung ist einzig und allein der SoC zuständig.
Der HDMI Chipsatz macht da rein gar nichts.

Das wäre ja ungefähr so, als würden Monitor-Hersteller 60 Hz Panels damit rechtfertigen,
da dann die Performance des PCs besser ist.

Ok, der Vergleich war kacke :d Aber die Aussage von LG ist halt auch einfach nur der größte Bullshit :d
 
Gut wenn du das sagst .. ich weiss es nicht .. hab da zuwenig Plan von.
Hab das halt nur da gelesen und halt hier wieder verlinkt.
Aber mich tangiert das ja auch nicht so sehr da ich immernoch genau
das von dem TV Videosignal mässig bekomme was ich erwartet habe
Und was mir auch andere PC Monitore geboten hätten.

Muss wohl son Konsolen Ding sein .. kein plan. Versteh die Aufregung nicht.
Was halt nur nicht schön ist das sowas hinterher rauskommt. Aber da
es keine Nachteile mitsich bringt ist es eh wurscht.
 
Ja natürlich ist der nicht perfekt.
man bräuchte nen oled mit aktiver Kühlung und ohne lImit so das man im Bereich von 1000nits kommt. aber ich vermute der Verbrauch wäre dann astronomisch hoch.
bin mir nicht sicher aber Panasonic hatte glaube ich mal nen 4k Plasma der aber dann schon im bereich von 800watt lag.
wie gesagt ich weiß es aber nicht mehr
 
OLED TV TX-65GZW2004
162 Watt

Quelle: https://www.panasonic.com/de/consum...oled-tv/gzw2004-serie/tx-65gzw2004.specs.html
Beitrag automatisch zusammengeführt:

PC-Magazion sagt: "Im Test kommen mit 800 Nits fast 20% mehr HDR-Brillanz aus diesem Gerät als beim GZW1004. Und schaut man sich in unseren Labormessungen das Lichtspektrum ganz genau an, unterscheidet es sich auch minimal vom auf Seite 32 getesteten LG-TV. "
Beitrag automatisch zusammengeführt:

soweit ich weiß haben die Panasonic keine ABL aber dafür einen kleinen Lüfter...
 
ach Quatsch echt?
dann müsste man mal nen test suchen mit 100% Window und was da an nits bei rum kommt.
 
Wenn man die Aussage von LG auch noch mal genau liest,
könnte man das...:
Based on market situation, LG decided to re-allocate the hardware resources of 2020 chipsets optimizing for AI functions including CPU&GPU and supporting full bandwidth in only 2 ports of 2020 8K TV series [...].

...wohl tatsächlich eher so verstehen dass sie halt beim HDMI Chipsatz Kosten gespart haben, damit sie eben etwas mehr Budget für ihren AI Kram, CPU und GPU haben. Auch wenn natürlich nicht die Rede von Geld ist. Aber das ist dann halt wieder das Marketing Gerede, weswegen ich das "re-allocate hardware resources" nicht so intepretieren würde, dass sie die Leistung von X geklaut haben, damit Y mehr Leistung hat.

Frei nach dem Motto: Auf Grund der Marketing-Situation, haben wir unsere Hardware-Ressourcen so umgestalltet, dass mehr Budget für AI, CPU und GPU da ist und da es beim Chipsatz nicht gebraucht wird, haben wir hier halt gespart.

soweit ich weiß haben die Panasonic keine ABL aber dafür einen kleinen Lüfter...
Wäre mir tatsächlich neu, dass der GZW2004 einen Lüfter hat.
Der hat eigentlich nur eine dickere Platte für bessere Wärmeabfuhr.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh