[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Ich find es klasse das wir uns hier ohne Stress wie in anderen Threads austauschen können .
Das Thema LCD und Oled hat ja Potenzial dazu sieh rot grün Thematik.
Lob an die Leute hier im Thread.(y):-)
Am Ende haben wir ja alle das selbe Interesse und zwar das bestmögliche Visuelle Erlebniss für einen selbst.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bin zwar manchmal etwas engstirnig und vielleicht mal etwas festgefahren
aber reden kann man mit mir immer ganz normal. Ich mach eigentlich nie stress.
Ich mag auch keine Leute die dann beleidigent werden usw. weil man auf so einer
Ebene nicht vernünftig Diskutieren kann. Ausserdem bin ich aus dem Alter raus
mich beweisen zu müssen. Wie du schon schreibst haben wir das selbe Interesse am Ende
und zwar was passendes zu finden. Dazu gehört eben auch die Auflistung der Negativen
Punkte eines Monitors und der abwegung ob das ok für einen ist da die Vorteile
überwiegen oder eben auch nicht wie bei mir mit dem Asus 43" PG43UQ.

Ich lass mich aber auch eines besseren belehren .. ich war erst total gegen den OLED
wegen Burn IN und vorallem wegen der Größe 48" ( War vor ein paar Tagen schon
drüben bei CB Diskussions Thema mit NyxCherry und Blood1988 ) aber durch die Asus PG
Situation ist der LG 48" meine momentan einzigste Option. Die neuen Acer und Asus 32" IPSler
währen auch Interessant ( HDR 1400 ) währe da nicht der Stolze Preis von 3300 Euro.

@TZGamer

Vielleicht ist die HDR Implementierung dort einfacher oder Sony hilft dabei. Ausserdem gibt es dort
ja auch eine Sony eigene Qualitäts Kontrolle die wollen da auch kein Schmu raushauen bei Sony. Aber wie gesagt
ich denke das dann die HGIG der richte Weg ist dort mal etwas aufzuräumen und einen gewissen
Standart zu schaffen.
 
Zuletzt bearbeitet:
Vielleicht ist die HDR Implementierung dort einfacher oder Sony hilft dabei. Ausserdem gibt es dort
ja auch eine Sony eigene Qualitäts Kontrolle die wollen da auch kein Schmu raushauen bei Sony. Aber wie gesagt
ich denke das dann die HGIG der richte Weg ist dort mal etwas aufzuräumen und einen gewissen
Standart zu schaffen.

Ich glaube auch, dass HDR im PC Bereich einfach noch nicht so weit ist.
Was zum einen an der komischen Implementierung in Windows selber ist. Zum anderen aber auch an den Monitoren.
Ein Großteil der PC Monitore ist kommt nicht mit HDR. Und dann gibt es noch einige Monitore, die behaupten HDR zu haben,
haben dann aber auch nur irgendwie 350 Nits Spitzenhelligkeit.

Im TV Bereich ist man da wohl auch einfach schon weiter, als bei Monitoren. Wobei es da ja auch noch genug TVs gibt, die besser nicht mit dem Titel "HDR" werben sollten :d Aber in den meisten Fällen hängt die Konsole wohl einfach am TV. Und spätestens seit der PS4 PRO und der XBoneX ist HDR dann wirklich
ein fester Faktor geworden. Witzigerweise eben auch bei Microsoft. Aber bei Windows selber haben sie da noch nicht im Griff ^__^
Aber im Konsolenmarkt hat sich das halt schon seit 2016 etabliert. Hatte im Monitor-Bereich aber jetzt auch noch nie so das Gefühl, dass HDR so
stark gepushed wird, wie beim TV. Da gibt es dann ja auch sogar noch Sachen wie Dolby Vision oder HDR10+. Da ist im PC Markt ja absolut nichts von zu sehen. Ob es auch jemals kommen wird? Fraglich. Man stelle sich jetzt aber auch mal vor, dass Sony und/oder MS auf dynamische HDR Verfahren setzen.
Die One X kann ja jetzt schon Dolby Vision. Dann wäre das ein weiterer starker Vorteil für den Konsolenbereich. Schauen wir mal, ob dann in nächster Zeit sowas auch auf den PC Markt kommt mit den Next-Gen-GPUs. Theoretisch sind dynamische HDR Verfahren ja nun in den HDMI 2.1 Specs drinne.
Dann könnte man sich HGiG auch fast schenken. Wäre dann ja nur was für TVs ohne HDR10+ und/oder Dolby Vision Unterstützung.

Wirklich schwer sollte die Implementierung bei Games eigentlich nicht sein.
Weswegen es mich auch wundert, wieso R* das so hart verkackt hat bei RDR2 (auch auf den Konsolen). Hatte damals mal ein Interview von jemandem von Guerrilla Games gesehen, der erzählt hat, dass es sogar wirklich einfach ist HDR zu implementieren. Weil die Engine das wohl von sich aus schon beherrscht. Die brauchten wohl nur sowas wie ein Plugin, dass man das auch auf den Monitor bringt.

HGiG selbst wird wirklich eine spannende Sache werden. Ich hoffe nur, dass das ab der PS5 dann wirklich zum Standard wird. Aktuell gibt es ja, soweit ich weiß, nur Modern Warfare (2020) mit HGiG Unterstützung. Tatsächlich würde ich aber wohl Dolby Vision wirklich gerne dort sehen. Aber ob das so verbreitet wird, wegen den Lizenzgebühren? :d

Aber insgesamt wird sich das jetzt auch auf dem PC Markt vielleicht ändern. Wenn der 48" CX Ende 2020/Anfang 2021 wirklich für ~800 Euro zu haben sein soll, wird der da bestimmt den einen oder anderen Käufer von klassischen Monitoren abziehen. Was dann auch ggf. dazu führt, dass Monitore, die aktuell über 500 Euro Kosten, im Preis fallen werden. Wird alles spannend. Wobei man mal schauen muss, wann die TVs denn jetzt wirklich kommen. Corona scheint da ja doch schon seinen Einfluss zu zeigen.
 
HGIG ist weit mehr als nur ein HDR Setting im Monitor. Das ist auch eine Gruppierung von Entwicklern und Herstellern
die zusammen daran Arbeiten HDR besser zu machen. Das ist wie mit OpenGL ist ja auch ein zusammenschluss
von Herstellern und Entwicklern. Die an einem einfacheren Standart als Direct X arbeiten. So hab ich es nun nach ein
paar Tagen des Informations sammeln zumindest verstanden. Und HGIG ist eben auch ein Monitor Setting welches
man einstellen kann sowie eben auch OpenGL. Eine andere HDR Schnittstelle und die einzige soweit ich weiss die
HDR am PC ermöglicht. Dolby Vision usw soll am PC nicht gehen. Und HDR 10+ unterstütz ja auch der LG nicht nur HD 10 normal.
In einem Youtube Video sagt ein Typ von LG auch warum bekomm das aber grad nicht mehr zusammen. Es sind
momentan zuviele Infos die durch mein Kopf fliegen durch das Info suchen was ich grad betreibe zum LG 48".

Dolby Vision war diese AI Geschichte oder ? Wo sich das Bild anpasst oder verwechsel ich das grad ?

Oh und Konsole ist auch einfacher mit HDR weil die Konsole ein geschlossenes System ist. Bis auf den TV natürlich
den man Nutzt aber bei beiden Haupt Konsolen sitzt jeweils eine AMD Karte drinn.

Ja das ist wirklich erst am Anfang wie zb auch Raytracing. Aber beides sehr spannende Sachen die mich beide bisher
überzeugt haben selbst ihn ihrer Unfertigen Art die sie momentan noch haben.

Ja die meisten Monitore dümpeln so wenn überhaupt immer bei HDR 400 oder 600 rum. Aber das wird mit der Zeit
fahrt aufnehmen sowie auch dann die verfügbaren Massen Monitore. Das wird irgendwann zum Standart werden.
Aber momentan sind wir da noch Pioniere und entdecken das Fremde Land :-)

Bei RDR 2 hatte ich was von Filtern gelesen die Rockstar drüber haben wollte für den Generellen Look , weiss aber grad nicht
mehr ob ich das hier im Thread gelesen hatte oder woanders. Das beisst sich wohl mit HDR. Aber wer weiss .. vielleicht wird
da noch nachgepatched oder man kann den Filter irgendwann per MOD oder so entfernen. Läuft RDR 2 nun entlich mal rund ?
Oder ist das immernoch so Buggy wie damals ? An dem Punkt ist ja grad das Game Wolcen auch.

Schlimmer sind nun die Monitore die nun über 3000 Euro kosten .. das ist verrückt. o_O
500 Euro währ da super. Aber ja .. der Monitor Markt muss sich ändern. Da könnte der
LG 48" sicher für aussehen sorgen. Und das tut er ja auch schon wenn man sich mal im
Inet umschaut. Mich hat der ja auch nun auch verändert .. erst nie OLED und auch niemals
so groß und nun doch OLED :-) sofern die Negativ Punkte nicht überhand nehmen.
 
Zuletzt bearbeitet:
HGIG ist weit mehr als nur ein HDR Setting im Monitor.

Kurz gesagt sorgt HGiG einfach dafür, dass die Spieleengine das Tone Mapping speziell auf den Monitor anpasst (bei HDR10).
Aktuell ist es ja eben so, dass mit HDR10 eben ein statisches HDR der Standard ist.
Und unterm Strich muss jeder TV dann halt Tone Mapping betreiben, damit der TV dort eben kein Tone Mapping mehr machen muss. Und das macht jeder TV halt etwas anders. Wodurch, gerade bei schlechteren TVs, dann bspw. Details flöten gehen.
HGiG will genau das eben verhindern, indem der TV das Signal entsprechend vorgekaut bekommt.
Bei dynamischen HDR Verfahren, wie bspw. Dolby Vision oder HDR10+, werden hingegen mittels Metadaten entsprechende Infos an den
TV geliefert, damit er eben genau weiß, wie er etwas darzustellen hat.

Bei HGiG gibt es eben beim Quellgerät dann diese systemweite HDR Konfig. In Zukunft brauchen die Spiele also nicht ihren
eigenen Tone Mapper, sondern sie nutzen eben direkt den von der Konsole. Ansonsten gibt es wohl auch die Variante, dess
der TV sich selber schon bei der Quelle identifiziert und eben Sachen wie die Spitzenhelligkeit übermittelt.
Wofür jetzt die HGiG Option beim LG TV ist weiß wohl noch keiner. Ich würde mal vermuten, dass dem TV dadurch gesagt wird, dass
er am Tone Mapping rein gar nichts mehr machen soll. Wäre ja bspw. unsinnig, wenn der TV das vorgekaute Signal dann wieder bearbeiten würde (z.B. durch Dynamic Tone Mapping).

In einem Youtube Video sagt ein Typ von LG auch warum bekomm das aber grad nicht mehr zusammen.

LG ist, wie auch Sony, vom eigenen Tone Mapping so sehr überzeugt, dass sie keinen Sinn an HDR10+ sehen (das ist die offizielle
Begründung). Und da Dolby Vision sowieso überlegen ist, ist es noch ein Grund weniger HDR10+ zu implementieren.

Zumindest bei LG wird der wahre Grund aber eher daran liegen, dass Samsung hinter HDR10+ steckt.


Dolby Vision war diese AI Geschichte oder ? Wo sich das Bild anpasst oder verwechsel ich das grad ?

Dolby Vision selber ist einfach ein dynamisches HDR Format.
Aktuell auch das Beste was es gibt. Dynamisch heißt hier halt, dass das Bild Szene für Szene bzw. Frame für Frame angepasst
wird (mit der Hilfe von dynamischen Metadaten). Mit AI hat das so erst mal nichts zu tun (wie weiter am Anfang erwähnt).

Jetzt kommt halt in 2020 Dolby Vision IQ. Da wird dann aber einfach der Umgebungssensor genutzt, um dann noch Raumhelligkeit usw. zu berücksichtigen,
damit das Bild auch wirklich "ideal" für den Zuschauer/Raum aufbereitet wird. Unterm Strich ist DV IQ aber auch nur eine weitere Spielerei, die man nicht aktivieren möchte, wenn man ein möglichst akkurates Bild haben will.


Bei RDR 2 hatte ich was von Filtern gelesen die Rockstar drüber haben wollte für den Generellen Look
Jo. Sowas kommt auch noch dazu.
Ist halt der klassische Fall von "Creators Intend". So rechtfertigt Disney ja auch die 400 Nits bei Star Wars I - VI und die 200 Nits bei The Mandalorian. Ist halt ein Witz.

Um Vincent Teoh zu zitieren:
"Ich kann auch ein Portrait der Mona Lisa malen - genau so wie ich es mir vorstelle. Würde aber nichts daran ändern, dess es scheiße aussehen würde".


Aber wer weiss .. vielleicht wird
da noch nachgepatched oder man kann den Filter irgendwann per MOD oder so entfernen.

Da machen die nichts mehr. Der Game Mode war R* Antwort auf die Kritik, die es beim Release gab.
Bleibt nur zu hoffen, dass die es bei GTA VI richtig angehen.
 
Zuletzt bearbeitet:
Okay ... das sind mir noch alles zu spezielle Begriffe ich bin da noch nicht soweit das alles
zu verstehen bin erst seit ein paar Tagen dadrann alles was OLED und auch HDR angeht nachzuholen.
Auch wenn ich Tone Mapping hier und da schonmal gelesen hab.
Aber ich muss mich da noch weiter reinlesen um das zu verstehen was du vorhin geschrieben hast.

Ist Tone Mapping sowas wie eine LOT Datei ? Also Level of Detail wo infos drinn sind wie sich
dann in dem Fall mit Tone Mapping dann HDR bei dem und dem Spiel verhalten soll ? Ich kenn LOT
vom Reshade her wo sich die Farbpalette dann ändert mit einer anderen LOT Datei. Und HGIG sorgt
dafür das jedes Game die Richtige art des Tone Mappings bekommt.

Okay HDR 10 statisches HDR und HDR 10+ ist Variable durch die Metadaten ( wo ich auch noch kein Plan von hab )
Liest sich nun als wenn HDR 10+ selbst lernt und Metadaten erstellt für das Spiel was du grad spielst und
dadurch dann das HDR erlebniss verbessert wie bei Nvidias DSLL dieser Deep Learning Antialaising geschichte.
Da erstellt aber Nvidias Supercomputer die "Metadaten" und DSLL setzt diese bei jedem Spieler zuhause um.
Mit mal gutem und mal schlechtem ergebniss.

Übrigens wenn du von Konsole Sprichst füge ich automatisch den "PC" für mich ein .. bin kein Konsolero :-)

Wegen HGIG schreibst du doch selber warum der LG das drinn hat :
"Bei HGiG gibt es eben beim Quellgerät dann diese systemweite HDR Konfig. In Zukunft brauchen die Spiele also nicht ihren
eigenen Tone Mapper, sondern sie nutzen eben direkt den von der Konsole" ( PC :-) )

HDR 10+ und Samsung macht sinn warum es dann LG nicht einbaut ... wie die kleinen Kinder meins ist besser als deins usw.

Dolby Vision IQ werd ich auch nicht nutzen .. ich passe lieber selber an. Und ich mag es auch im Dunkeln heller als dunkler vom
Bild her. Da soll mir kein Programm reinpfuschen. Ist wie mit der Dynamischen Beleuchtung .. ich mag es nicht wenn mein Bild heller
und Dunkler wird je nach Scene das soll immer gleich eingestellt bleiben zumindest was das angeht.

Aber generell gehst du schön ins Detail .. das Problem ist aber ich bin noch nicht soweit das alles zu verstehen ... und ich weiss
auch nicht ob man da nun so genau ins Detail rein gehen muss als Verbraucher. Ich denke wichtig ist das sich ein gemeinsamer
Standart durchsetzt wo man vielleicht noch hier und da als Entverbraucher selber noch etwas feintunen kann. Wenn jeder sein
eigenes Süppchen kocht kann nur Chaos entstehen und der Kunde ist am ende der gearschte.
 
Welche Kabel könnt ihr denn im Moment empfehlen?

Ich hab leider das Club 3D "CAC-1372" und Kabel Direkt "120hz bei 4k" zu kurz gekauft. Gibt es überhaupt mehr als 3 Meter?
 
Ist Tone Mapping sowas wie eine LOT Datei ? Also Level of Detail wo infos drinn sind wie sich
dann in dem Fall mit Tone Mapping dann HDR bei dem und dem Spiel verhalten soll ? Ich kenn LOT
vom Reshade her wo sich die Farbpalette dann ändert mit einer anderen LOT Datei. Und HGIG sorgt
dafür das jedes Game die Richtige art des Tone Mappings bekommt.

Aktuelle TVs schaffen es alle nicht die HDR Spezifikationen abzudecken.
Damit der TV jetzt aber trotzdem die Details darstellen kann, muss er halt auf Tone Mapping zurückgreifen.
Ist in der Hinsicht halt keine Datei, sondern eine Art Methode den Dynamikumfang des Quellmaterials so anzupassen,
dass er eben von dem TV dargestellt werden kann.

Und HGiG sorgt jetzt eben dafür, dass die TVs selber kein Tone Mapping mehr machen müssen.
Stattdessen liefert die Spieleengine direkt das korrekte Bild. Eben so, wie es von dem Spiel ("Creators Intend") gewollt ist.
Dadurch sollen dann bspw. Sachen wie Detailverlust verhindert werden. TVs die in Sachen Tone Mapping bspw. nicht so gut abliefern,
neigen ggf. zu Detailverlust. D.h. ein Spieler mit solch einem Monitor hat unter Umständen halt Nachteile gegenüber eines Spielers, bei dem
der TV ein besseres Tone Mapping hat.

Liest sich nun als wenn HDR 10+ selbst lernt und Metadaten erstellt für das Spiel was du grad spielst und
dadurch dann das HDR erlebniss verbessert

Nein, bei HDR10+ und DV lernt nichts selber. Ist keine AI.
Bei den dynamischen HDR Verfahren wird die Tone Mapping Kurve halt individuell angepasst.
Wodurch der TV dann eben weiß, wie er etwas darzustellen hat in der jewiligen Szene/Frame.
Die entsprechenden Infos ("Metadaten) sind halt im Stream/BluRay/etc. enthalten. Bei Spielen würde das dann
wohl halt von der Engine mitgeliefert werden. Daraufhin kann der TV dann eben sein Tone Mapping ideal anpassen.
Damit umgehst du dann halt das Problem, welches normales HDR10 hat. Dort hat man ja nur eine Tone Mapping Kurve
für das Spiel/Film etc.. Weswegen du halt in einigen Szenen Probleme bekommen kannst.

Das ist dann auch der Grund, wieso HGiG so interessant ist. Damit kann halt weiter HDR10 eingesetzt werden und
trotzdem bekommen die Leute ein qualitativ hochwertiges HDR Erlebnis. Das ggf. sogar mit HDR10+ mithalten kann (und es
in der Theorie wohl auch sollte).



Übrigens wenn du von Konsole Sprichst füge ich automatisch den "PC" für mich ein .. bin kein Konsolero :-)

Fühl dich frei das zu tun ^^

Wegen HGIG schreibst du doch selber warum der LG das drinn hat :
Das war jetzt eher auf die Option an sich bezogen. Das Spec Sheet von der HGiG liest sich so, dass
es mit jedem TV klappen sollte und es eben unterschiedliche Methoden gibt, dem Quellgerät die Spezifikationen des Displays beizubringen.
Eigentlich sollte HGiG also auch auf TVs klappen, die im Hauptmenü so keine Option haben. Weswegen ich mich dort halt Frage, was
genau die Option bei LG da nun bewirken soll. Meine Theorie ist halt, dass der TV dort dann eben einfach absolut nichts mehr macht im Bereich
des Tone Mappings.
 
Welche Kabel könnt ihr denn im Moment empfehlen?

Ich hab leider das Club 3D "CAC-1372" und Kabel Direkt "120hz bei 4k" zu kurz gekauft. Gibt es überhaupt mehr als 3 Meter?

Kann ja noch keiner wissen für 120Hz@2160p Full RGB HDR.
Habe momentan das hier in 3m
Damit gehts zumindest bis 60Hz wunderbar, die günstigen haben nur geflackert alle paar Minuten.

Gibt aber auch für über 50m bei Amazon klick
 
Alles über 2 Meter wird bei HDMI 2.1 48 GBit (passiv) nicht drinne sein.
Außer man hat wahnsinniges Glück. Aber laut den ersten Infos gehen durch die Tests vom HDMI Forum lediglich 2 Meter durch.
Und die 50 Meter Glasfaser ist so oder so schon unrealistisch.

Aktuell reicht von daher ein HDMI 2.0b Kabel absolut aus. Vorzugsweise sollte man aber darauf achten,
dess es UHD Premium zertifiziert ist. Sowas reicht da aus:

10 Euro pro Meter ist ein guter Richtwert. Man kann es zwar auch mit Billigkabeln von amazon probieren. Aber bei den neueren Kabeln soll
es dort wohl zu relativ vielen Ausfällen kommen.
 
Falls jemand den LG 48" vorbestellen will : 1799 Euro


Lieferung zwischen Do. 09. und Sa. 11. April 2


Der Termin wird sich vielleicht nochmal nach hinten verschieben da der LG ja eigentlich erst im Mai kommen soll.
Ist vielleicht son Kunden anlock Ding. Also Termin mit Vorsicht zu genießen.

4K Upscaler : Gilt das nur für Externe Medien ala Bluray oder kann man den auch für Youtube und sonstige Web Video Inhalte nutzen ?
Da hatte ich nämlich mit dem Asus 43" PG43UQ schon probleme mit das viele 1080p Youtube Videos aussahen wie 480p.
Währe schön wenn der TV dann Youtube Videos auch auf 4K ähnlicher Quali hochpuscht.
 
Zuletzt bearbeitet:
Ich würde die TVs ehrlich gesagt nicht vorbestellen.
Nach 3 - 4 Monaten geht der Preis steil bergab.
Da ärgert man sich doch nur, wenn man jetzt die UVP bezahlt hat.
Außer man heißt Bill Gates :d
 
Ich würde den auch nicht vorbestellen aber es gibt sicher einige die so Scharf drauf sind
das sie es machen wollen. Ausserdem ist es doch cool wenn die ersten Angebote auftauchen.
War beim PG auch eine Spannende Zeit damals :-)

Auf deine Infos zu HDR geh ich später noch drauf ein. Muss mich Heute von dem 43" PG43UQ "Verabschieden"
Morgen bring ich ihn direkt nach der Arbeit zur Post und dann gehts zurück zu Alternate.
 
Viele Leute sich sich halt nicht klar, wie schnell die Preise im TV Bereich fallen.
Ist halt nicht so wie bei Monitoren, die relativ stabil im Preis sind :d

Vor August würde ich nicht kaufen.
Hatte meinen 55 C9 damals für 1400 Euro bei Media Markt bekommen im August.
~4 Wochen vorher hat mir der Mitarbeiter 2100 Euro als Top-Preis angepriesen :d

Wird auch locker wieder Angebote geben, wo man kostenlos eine Garantieverlängerung (wobei das mMn nicht so toll ist), Cashback usw. bekommt.
 
Oder aus irgendwelchen Gründen eine Switch LITE noch im Paket dabei ist. :fresse:
 
Auf jeden Fall etwas Geduld haben lohnt bei TVs richtig!
 
Wie sieht das mit Reviews aus ? Kommen die teils auch erst Monate nach Release oder geht das bei TVs schneller ?

4K Upscaler : Noch niemand probiert ?
 
Wenn die TVs tatsächlich pünktlich im März/April kommen, würde ich im Mai/Juni mit den ersten guten Reviews von Vincent Teoh, Rtings und Digital Trends rechnen.

Unterm Strich wird es da aber keine Überraschungen geben. Das Panel soll wohl baugleich zum 2019er sein.
Spitzenhelligkeit ist gleich. Einzig das Processing vom HDR ist noch etwas besser, da bessere Hardware.

Aber ansonsten reicht es wohl sich die Reviews zum C9 angzugucken. Mehrkanal PCM wird der 2020er auch über eARC können.
Ebenso wie die 2019er ab Juni 2020. Und auch am "internen" Design hat sich wohl kaum was geändert. Außer, dass eben ein neuer Prozessor drauf ist.
Was man wohl daran sehen kann, dass die Verbindung zwischen SoC und HDMI Chipsatz ist auch weiterhin nur eine normale ARC Verbindung ist.
Weswegen auch die 2020er TVs über interne Apps (z.B. Plex) kein lossless Codec über eARC weiterreichen können.

Spannend wird da eigentlich nur sowas wie die BFI werden.

P.S. Was meinst du mit 4K Upscaler genau? Dieses AI Upscaling oder das Normale?
 
Also auch 1 - 2 Monate Nach release erst die richtigen Reviews. Okay diesesmal werd ich da auch
anders als beim PG rangehen.

Testet einer von dennen Speziel auch PC Geschichten oder testen die eher den TV Bereich ab ?
Ich hoffe ja das die Nits noch etwas zulegen.

BFI ist nicht wirklich spannend da es nur ohne GSync läuft.

4K Upscaler .... ich weiss nicht daher frag ich ja .. der LG kann ja dieses 4K Upscaling und ich hatte heute Nachmittag gefragt
ob der auch zb Youtube 1080p auf 4K Upscalen kann oder auch anderen Web Video Content oder ob das nur in Verbindung mit
einer 1080p Bluray geht ? Da ich mit dem 43" PG Probleme damit hatte wie 1080p Youtube Letz Plays auf dem 43" Bildschirm aussahen.
Es sah halt nach 480p aus erst bei etwa 2 Meter abstand konnte man es einigermassen ertragen oder halt im Fenster Modus welcher
von der Größe etwa einem 32" gleicht da konnte man das auch bei normalen Abstand schauen.

Währe also schön wenn der LG auch Youtube Streams auf 4K Upscalen kann.
 
Testet einer von dennen Speziel auch PC Geschichten oder testen die eher den TV Bereich ab ?

Rtings testet halt so Sachen wie Inputlag, VRR/FreeSync/G-Sync.
Viel mehr würde mir da jetzt auch nicht einfallen, was man für den PC testen kann :d


Ich hoffe ja das die Nits noch etwas zulegen.
Werden sie nicht. Ist auch schon bestätigt. Wird dieses Jahr auch wohl nicht weniger werden, wie bei 2018 => 2019.

4K Upscaler .... ich weiss nicht daher frag ich ja .. der LG kann ja dieses 4K Upscaling und ich hatte heute Nachmittag gefragt
ob der auch zb Youtube 1080p auf 4K Upscalen kann oder auch anderen Web Video Content oder ob das nur in Verbindung mit
einer 1080p Bluray geht ?

Jeder 4K TV skaliert ggf. hoch. Sonst würde 1080p ja nur 1/4 des Bildes einnehmen :d
Bei YouTube Videos usw. kommt es halt auch immer auf die Qualität des Videos selber an.
Schlechte Qualität fällt da natürlich auf einem größeren Bildschirm deutlich eher auf, als auf einem kleinen Monitor.
V.a. wenn der große Bildschirm noch ein OLED ist :d

Aber mit dem Upscaler von LG habe ich so kein großes Problem. 1080p bekommt der gut hoch.
Das komische AI Picture habe ich nur im Sat Betrieb an. Erkenne da aber Null unterschied, ob das nun an oder aus ist :d
 
Also auch 1 - 2 Monate Nach release erst die richtigen Reviews. Okay diesesmal werd ich da auch
anders als beim PG rangehen.

Testet einer von dennen Speziel auch PC Geschichten oder testen die eher den TV Bereich ab ?
Ich hoffe ja das die Nits noch etwas zulegen.
In Sachen Helligkeit soll laut Interview nix mehr passieren .
Test PC direkt hab ich so noch nicht gesehen .
 
Naja so sachen wo der PG mich zb entäuscht hat. Ghosting , Unschärfe , Black Smearing oder ist
sowas bei OLED nicht möglich ? Ich kenn mich da nich so aus bei OLED.
Reaktionszeiten , Wieviel Nits Peak ( Auch wenn es wohl so wie bei den Alten Modellen sein soll )
Wie gut Text in Windows aussieht :-) ob der Text nachzieht beim Scrollen. Ob HDR bei den Games in PC
umgebung richtig funktioniert. All sowas halt .. da sollte man nicht auf den Vorgänger vertrauen.
Kann sich halt ändern. Vorallem da der 48" ja auch der erste Seiner Art ist und besonders Gamer ansprechen soll
währe es gut wenn man den 48"er auch wirklich auf Herz und Nieren unter Gaming Testet ( PC sowie Konsole )
+ Eben auch die Sachen die du angesprochen hast ( VRR , Gsync Freesync ) Input Lag.

Also 725 Nits Peak Britghtness ... hmpf .. schon etwas doof .. aber wenn der Rest für mich passt dann irgendwie
vertrettbar.

Mich interessiert nun kein Externes Quell Material was er auf 4K Upscaled sondern speziell zb Youtube Content was
man sich anschaut. Nehmen wir mal als beispiel Rocketbeans.TV auf Youtube ... die Senden in 1080p mit ner recht
niedrigen Bitrate. Kann der LG das auf 4K upscalen sodas es bei der Größe etwas besser aussieht ? Oder muss ich
dann wieder 2 Meter vom Monitor / TV weggehen damit ich diese gefühlten 480p wieder wie 1080p wahrnehme ?

Das Upscaling soll ja die Qualität eines 1080p Bildes verbessern so das es aussieht wie ein 4K Bild.
Wie bei der PS4 die soweit ich weiss Intern 4 x 720p rechnet und das dann hochskalliert auf 4K.
 

Die Reaktionszeit bei OLED ist <1 ms. Eigentlich sogar noch geringer.
Quasi sofort. Wird auch bei den neuen Geräten nicht anders sein.

ob der Text nachzieht beim Scrollen.
Nein, hast du nicht, da die Pixel halt sofort umschalten.

Eben auch die Sachen die du angesprochen hast ( VRR , Gsync Freesync ) Input Lag.
VRR Range ist weiterhin 40 - 120.
Inputlag ist bei 4k@60 irgendwo bei 12 - 13 ms.
Bei 120 FPS bei ca. 6 ms.

ehmen wir mal als beispiel Rocketbeans.
Gerade mal getestet. Sieht halt dank der geringen Bitrate kacke aus.
Sieht aber sogar auf einem 1080p Bildschirm kacke aus.
Da kann aber halt auch der Upscaler nichts dafür, wenn das Quellmaterial nicht gut ist.

Das Upscaling soll ja die Qualität eines 1080p Bildes verbessern so das es aussieht wie ein 4K Bild.
Nicht ganz. In erster Linie sorgt das Upscaling halt dafür, dass ein Full HD Bild auf einem UHD Bildschirm
auch wirklich auf dem gesamten Bildschirm angezeigt wird. Würde es kein Upscaling geben, würde das Bild halt nur auf
1/4 des UHD TV Displays angezeigt werden.
Im Regelfall ist das Upscaling bei TVs auch ganz banal. Da wird einfach 1 FHD Pixel auf 4 UHD Pixel gelegt und etwas Edge Enhancement betrieben.
Mehr Details werden dadurch halt nicht sichtbar. Muss halt in Echtzeit gehen.

Mit Tools wie Waifu2x lässt sich das nicht vergleichen. Und selbst dort wird ganz klar gesagt, dass es eben auch auf das Quellmaterial ankommt ^__^

Besser sieht das Bild dadurch nicht wirklich aus. Gerade, wenn das Quellmaterial halt beschissen ist (wie bspw. bei Rocket Beans).

Wie bei der PS4 die soweit ich weiss Intern 4 x 720p rechnet und das dann hochskalliert auf 4K.

Keine Ahnung wo du das aufgeschnappt hast. Aber das riecht nach Unsinn.
¯\_(ツ)_/¯

Es kommt halt immer auf die Spiele an. Bei der Base PS4 ist das meiste natives 1080p. Ab und an gibt es mal 900p oder 720p.
Das wird dort dann ggf. auf 1080p hochskaliert.
Bei der PS4 PRO geht das dann von 1080p über 1440p und 1800p bis zu nativen 2160p. Wobei dort der Output dann ggf. auf 2160p erfolgt.

Ghosting , Unschärfe , Black Smearing oder ist
sowas bei OLED nicht möglich

Ghosting war doch nur bei 3D ein wirkliches Thema, wenn du
diesen komischen Effekt hattest, dass manche Dinge doppelt erschienen sind,
Oder meinst du sowas wie den Nachzieheffekt beim Fußball? Das liegt halt an der Zwischenbildberechnung. Macht man aus und gut (bzw. stellt es runter).

Black Smearing habe ich bei meinem OLED noch nicht gesehen. Generell scheint es eher ein Problem bei Samsungs AMOLED Displays zu sein?
Hab da im TV Bereich noch nicht wirklich was gelesen.

Und Unschärfe liegt auch eher an den eigenen Einstellungen und dem Quellmaterial als am TV selber :d
 
Zuletzt bearbeitet:
Macht das nicht der Nvidia Treiber ? Bei mir kann ich die Skallierung dort einstellen da brauch ich kein Upscaling vom
Monitor für. Man kann auch umstellen im Treiber Monitor oder GPU und entweder auf Seitenverhältniss , Vollbild oder
Keine Skallierirung wählen.

Sicher das die Range 40 - 120 ist und nicht 48 - 120 FPS ?

Auf meinem 24" 1080p 120hz Monitor sieht der Rocketbeans Stream um ein vielfaches besser aus
als auf dem PG 43" .. Selbiges auch zb bei Pietsmiet in 1080p ... wenn die mal ein Video haben was sie
in 1440p hochladen dann sieht das auf dem 43" auch noch gut aus.

Sprich ist das 4K Upscaling dann für mich fürn Popo. Denn das was du beschreibst kann ich ja mit dem Nvidia Treiber auch machen.

Okay bei den Reaktionszeiten des Panels brauch ich mir also keine Sorgen machen und beim Input Lag wohl auch nicht sollte das beim
48" auch so sein.

Text Scrollen auch gut okay ... Text lesbarkeit soll ja daran liegen das manche den OLED auf 4:20 oder 4:2:2 laufen haben
statt 4:4:4. Ist also auch ok sollte das stimmen.

PS4 Upscaling : Unsinn ? https://www.play3.de/2016/09/09/ps4...der-highend-ps4-von-digital-foundry-erklaert/
"Aus diesem Grund werden die Spiele zumeist in geringeren Auflösungen berechnet, dann aber mit dem hardwareseitig implementierten 4×4 Checkerboard Process auf 2160p 4K hochskaliert, was laut Digital Foundry erstaunliche Ergebnisse liefert. "
https://winfuture.de/news,94061.html usw.

ist eigentlich schon ewig bekannt. Wundert mich das grade du das nicht wusstest.

Ne Ghosting gibt es immernoch ... auch bei 2D .. bei schnellen Mausbewegungen sieht man zb dann plötzlich mehrere Berge oder Bäume.
Man merkt das du aus der Konsolen Ecke kommst :-) Hat zb der Asus PG43UQ
Da siehst du mal wie ich in den letzten 2 Wochen gezockt hab am PC und warum der PG nun Morgen zurück geht und nun eingepackt wartet.

Zwischenbildberechnung ? Schwarzbild Einblendung .. das gibts nur am TV hab ich noch nie bei einem PC Monitor gesehen!
Black Smearing ist eher ein VA Panel Problem welches der PG43UQ nutzt und daher zb Schatten Schwarz nachziehen wenn man die Maus bewegt.
Ich möchte nur auf Nummer Sicher gehen das beim OLED all diese Probleme die mich am PG angekotzt haben nicht vorhanden sind.

Ich glaub so langsam das ich dir auch noch was beibringen kann :LOL: Bedenke ich komme aus dem PC Bereich da nutzt man erst seit Kurzem TVs
Ich rede von der PC sicht aus nicht als Konsolero !! Schau dich mal am Monitor Markt um dann siehst du das es all das was ich beschrieben habe immernoch
Gibt. Und grade momentan immer vermehrter wieder auftaucht. Wie auch zb das Backlight Bleeding. Woran die 21:9 Monitore grad oft Leiden.

Hab grad wieder den 24" BenQ 120hz 3D Vision Monitor drann ... man is das klein !!!

Denke der LG AI Upscaler ist eher sowas was ich gesucht hab.
Währe halt schön wenn der das schafft das 1080p auf 48" genauso aussieht wie 1080p auf nem 24".
Denn auf dem Asus 43" sah 1080p aus wie ein 480p Video. Da half es nur sich sehr weit von der Tastatur
( etwa 2 meter ) zu entfernen .. was ja nicht sinn der sache ist. Oder eben den Browser im Fenstermodus
laufen zu lassen und so klein zu ziehen das es aussieht als hätte man ein 32" Monitor vor einem.
Währe also schön wenn es beim LG irgendwas gibt .. wie auch immer das nun heisst ... welches ein
1080p Youtube Video auch wie ein 1080p Youtube video aussehen lässt ohne das es aussieht wie ein
480p Video weil die Fläche ja Größer ist auf dem 48" Das ist halt als wenn man sich nun ne VHS Kasette
auf einem HD Monitor anschaut .. sieht auch nich gut aus.
 
Zuletzt bearbeitet:
Macht das nicht der Nvidia Treiber ? Bei mir kann ich die Skallierung dort einstellen da brauch ich kein Upscaling vom
Monitor für. Man kann auch umstellen im Treiber Monitor oder GPU und entweder auf Seitenverhältniss , Vollbild oder
Keine Skallierirung wählen.

Kommt halt drauf an wie du zuspielst. Lässt du in 1080p auf den TV abspielen, dann skaliert natürlich der TV.
Spielst du aber vom PC aus schon in UHD zu, wird ggf. schon vom PC aus skaliert.
Da muss man schauen, wo das Upscaling dann besser ist.

Sicher das die Range 40 - 120 ist und nicht 48 - 120 FPS ?

Jo:


Auf meinem 24" 1080p 120hz Monitor sieht der Rocketbeans Stream um ein vielfaches besser aus
als auf dem PG 43" .. Selbiges auch zb bei Pietsmiet in 1080p ... wenn die mal ein Video haben was sie
in 1440p hochladen dann sieht das auf dem 43" auch noch gut aus.

Das liegt einfach daran, dass der Bildschirm kleiner ist ^__^
Und natürlich sieht ein 1440p Video dann noch besser aus. Wurde vermutlich auch mit einer wesentlich höheren Bitrate produziert.


PS4 Upscaling : Unsinn ?

Upscaling selber nicht unbedingt. Aber das mit dem 4x720 was du erzählt hast, stimmt halt nicht :d
Hatte eigentlich noch mehr dazu geschrieben. Das ist aber unter einem anderen Zitat gelandet.
Hab das jetzt korrekt eingefügt.

Nur noch als Ergänzung: Wie ggf. hochskaliert wird, ist immer unterschiedlich.
Spiele wie Horizon Zero Dawn nutzen Checkerboard Rendering.
Ratchet and Clank oder Spiderman Temporal Injection, aber die meisten anderen haben
halt ein ganz normalen Upscale. Also ohne irgendwelche zusätzliche Magie. Und dann gibt es halt noch die Spiele die
in nativer Auflösung ausgegeben werden.

Hat zb der Asus PG43UQ

Das ist kein Ghosting was er da im Video beschreibt:

Der ASUS Monitor hat wohl einfach ein extrem langsames VA Panel, wodurch es dann eben zu diesen Verschmierungen kommt.
Ist einfach normaler Blur, der auch bei LCD Displays normal ist. Den hast du halt bei OLEDs nicht. Weswegen viele Leute Low Frame Rate Content
als noch ruckeliger empfinden, da dieser "natürliche Motion Blur" bei OLEDs nicht vorhanden ist.

€: Ok, wenn der Monitor tatsächlich so langsam ist, dass das Bild wirklich noch nachleuchtet, dann wird das wohl auch als Ghosting bezeichnet :d
Aber wie gesagt. Kein Thema bei OLEDs :d
 
Zuletzt bearbeitet:
Das mit der Skalierung lassen wir mal. Ich werd das ja irgendwann einfach selbst sehen
ob das was ich meine nun geht oder nicht. Ist auch kein Beinbruch wenn das nicht geht
währe aber schön um den Qualitäts Verlust eines 1080p Videos bei wiedergabe auf einem
48" 4K Bildschirms/TV zu kompensieren damit es nicht nach einem 480p Video aussieht wenn
man relativ nah am TV sitzt und eben nicht 2 Meter weg auf einem Sofa.

Ich dachte halt oder hab es wohl falsch verstanden bei meinem Informations Marathon gestern
das der LG eine Funktion hat welche Videos in welcher Form auch immer man sie grad Konsumiert
irgendwie verbessert.

PS4 : Wenn das kein Upscaling ist warum schreiben das dann alle ?
Upscaling ist für mich schon immer gewesen dass das Quellmaterial Künstlich
so hochgepuscht wird das es Qualitativ besser aussieht. Und das hat halt nichts
mit der Skallierung der Bildschirmgröße zu tun. Man kann auch ein 720p Video im
Vollbild sehen.

PG : Jup das kommt noch hinzu aber all diese Sachen gibt es immernoch. Auch im
2D Bereich gibt es Ghosting. Hat sich vielleicht auch so eingebürgert obwohl man es
aus dem 3D Bereich kennt wenn die Überlappung der 2 Bilder nicht stimmt. Aber das
ergebniss ist gleich man sieht doppelt oder 3 Fach oder 4 Fach das Object.

Bei Monitoren hilft da dann glaub ich die Option Overdrive Im Monitor Menu was man von 0-5 beim
PG verstellen kann. Aber das half mir da nicht. Aber ist egal .. also Ghosting bei OLED ist kein Thema das ist
Wichtig für mich.

OLED :

Gibt kein Ghosting
Schnelle Reaktionszeit von unter 1ms
Windows Schrift ist Scharf und nicht ausgefranzt
Schrift zieht beim Scrollen auch nicht nach
Man hat immer ein Scharfes Bild ?
Es gibt kein Black Smearing

Okay Check ... das sind alles Punkte wo der PG versagt hat bei mir. Gut das es beim
OLED wohl anders ist.
 
Zuletzt bearbeitet:
Ich dachte halt oder hab es wohl falsch verstanden bei meinem Informations Marathon gestern
das der LG eine Funktion hat welche Videos in welcher Form auch immer man sie grad Konsumiert
irgendwie verbessert.

Das wollen die Hersteller einem halt gerne schmackhaft machen.
Deswegen kommen sie ja jetzt auch mit AI usw. an, um noch überzeugender zu sein :d

Aber mit richtigen AI-Upscalern haben die auch noch nichts zu tun.
Zumal solche AI Upscaler halt auch wesentlich mehr machen, als nur hochzuskalieren und
Kanten zu glätten. Da ist der bloße Upscale wohl auch noch der kleinste Bestandteil.


PS4 : Wenn das kein Upscaling ist warum schreiben das dann alle ?

Ich glaube wir reden hier gerade aneinander vorbei :d
Klar skaliert die PS4 und PS4 in vielen Spielen. Aber sicherlich nicht mit 4x720p.
Was ja 2880p entsprechen würde. Generell kommt es halt aufs Spiel und den Monitor an, ob überhaupt skaliert wird.
Gibt ja genug Spiele die nativ in 1080p laufen. Bei einem 1080p Monitor wird da also nichts skaliert. Und auch Spiele die nativ in 2160p belaufen werden
nicht skaliert.
Und ja, dann gibt es noch Spiele die halt bspw. in 1440p laufen und eben auf 2160p hochskaliert werden bei der PRO ^__^


Upscaling ist für mich schon immer gewesen dass das Quellmaterial Künstlich
so hochgepuscht wird das es Qualitativ besser aussieht.

Upscaling ist halt nichts weiter als die einfache Vergrößerung des Bildes. Dass da etwas qualitativ besser wird,
muss nicht unbedingt sein. Klar versuchen TV Hersteller ihre Algorithmen so zu optimieren, dass als Ergebnis ein möglichst klares Bild entsteht.
Das geht dann aber halt schon eine Stufe weiter als "Upscaling". Aber ich sag mal so. Wenn das Quellmaterial halt schon bescheiden ist, dann bringen diese zusätzlichen "Verbesserungen" halt absolut nichts.

Generell geht es wohl bei Upscaling auch eher darum, dass Bild größer zu bekommen, ohne eben Qualität zu verlieren. Soll halt möglichst gleich bleiben
die Qualität, anstatt schlechter zu werden.
Kannst dir ja mal die 4 Bilder im Anhang angucken.
Original.jpg ist die Originaldatei gewesen.
Die habe ich auf die Hälfte runterskaliert.

Dann 1x mit Paint auf Originalgröße hochskaliert.
Dann 1x mit Waifu2x inkl. Rauschunterdrückung usw. auf Originalgröße hochskaliert (hier sieht man aber bspw. auch, dass Details dann teilweise durch die Rauschreduzierung flöten gehen)
Dann 1x mit Waifu2x ohne irgendwelche Extras auf Originalgröße hochskaliert.

Waifu2x ist dann halt schon der "Next Level Shit", wo wir irgendwann vielleicht mal hinkommen, wenn
es Hardware gibt, die das in Echtzeit kann :d

Aber so müssen wir uns halt mit dem "Paint" Upscale beglücken, der halt absolut bescheiden aussieht/nicht so gute Ergebnisse liefert. Gut, ist natürlich ein extremer Vergleich.
Da sind die normalen Upscaler im TV wohl schon etwas zuverlässiger als der in Paint. Aber um zu zeigen, dass ein Upscale halt nicht besser aussehen muss, passt es wohl :d
Kommt eben dann doch auch immer aufs Quellmaterial an. 1080p bekommt der LG halt, sofern es gut ist, sauber hochskaliert. Sieht dann aber eben nicht unbedingt besser aus, als 1080p
(was ja seitens der TV Hersteller immer gerne behauptet wird...).


Man kann auch ein 720p Video im
Vollbild sehen.


Ja und das ist dann halt skaliert, wenn du es bspw. auf einem 1080p Monitor guckst :d
Entweder schon von Windows/Treiber (wenn der Output auf 1080p gestellt ist) oder spätestens vom Monitor, wenn der PC selber auch nur 720p ausgibt, du aber ein 1080p Monitor hast.
 

Anhänge

  • Original.jpg
    Original.jpg
    46,1 KB · Aufrufe: 97
  • Paint.jpg
    Paint.jpg
    40 KB · Aufrufe: 92
  • Waifu2x mit Extras.png
    Waifu2x mit Extras.png
    111,4 KB · Aufrufe: 103
  • Waifu2x Skalierung.png
    Waifu2x Skalierung.png
    156 KB · Aufrufe: 103
Zuletzt bearbeitet:
Okay dann halt keine 720p X 4 sondern Füge "X" ein wo 720p steht. :-)
Jedenfalls skalliert sie .. so !!! :LOL: Sie macht aus schlechtem EingangsMaterial
"Füge X hier ein" ein besseres Ausgangsmatterial "4K" Was aber wegen der Skallierung kein Echtes 4K
ist denn sonst bräuchte man nicht skallieren sondern dann würde das Eingangsmaterial gleich 4K sein.
Und genau das will ich für Youtube Videos Daher meinte ich Upscaling bei Videos und nicht die Skalierung des Eingang Materials
an die Bildschirmgröße des TV auch bekannt unter dem einfachen Namen " Vollbild ";)
Naja so ganz stimmt das irgendwie auch nicht was ich hier schreibe ... hmpf. Egal.
Währe nen nettes Gimmick aber kann der LG also nicht.

Stimmt wenn man ein 720p Video im Vollbild auf einem 1080p Monitor schaut wird es zum Vollbild
von der Hardware Skalliert. Das ist für mich aber kein Upscaling sondern eine Skalierung an sich und keine
Hochskallierung .. zumindest bisher... egal jetzt ... wird spät und es gibt wichtigeres zu besprechen. :-)
Wollt nur krurz nachfragen ob das geht .. ich weiss nun das es nicht geht was ich dachte das geht wo LG
aber sagte das es geht.

__________________________________________________________________________________________________________________________________

"Sieht dann aber eben nicht unbedingt besser aus, als 1080p"

Das währe zumindest mal ein Fortschritt .. wie gesagt beim Asus 43" PG sahen 1080p aus wie 480p bei 90cm Sitz Abstand und wurde
erst besser ab 2 Meter entfernung. Wenn beim LG 1080p aussieht wie 1080p bin ich zufrieden genau das will ich ja sehen
wenn ich am Schreibtisch sitze und nicht auf dem Sofa 2 Meter entfernt vom TV sondern bei eben vielleicht 1 Meter oder 1,2 Meter
Es soll dann nur nicht aussehen wenn ich 1080p Letz Plays oder Porn Zeugs schaue wie 480p obwohl es 1080p Material ist
und auf 24" auch wie 1080p aussieht aber auf dem Asus 43" eben wie 480p
 
Zuletzt bearbeitet:
Ne Ghosting gibt es immernoch ... auch bei 2D .. bei schnellen Mausbewegungen sieht man zb dann plötzlich mehrere Berge oder Bäume.
Man merkt das du aus der Konsolen Ecke kommst :-) Hat zb der Asus PG43UQ
Da siehst du mal wie ich in den letzten 2 Wochen gezockt hab am PC und warum der PG nun Morgen zurück geht und nun eingepackt wartet.

heilige scheiße ist das krass wie übertrieben das bild Schlieren zieh.
das ist wirklich unglaublich.

ich habe bei mir schonmal ausgemessen wie das mit dem 48er OLED passen würde und freue mich schon auf den TV.
LCD ist einfach abfall wenn man mal nen Plasma oder OLED gesehen hat.
grade wenn das teil echt mit nv zusammen eine G Sync Ultimate Kompatibilität bekommt bei 120hz ist man damit wohl über jahre mit einem der besten Bildschirme unterwegs.
wenn man sich ansieht was die ganzen Monitore hier abliefern ,zu absolut wahnwitzigen Preisen , dann ist das wirklich nur noch lächerlich.
ich hoffe das der LG 48“ das Monitor Preisgefügen komplett zerschlagen wird weil qualitativ wird da kein Monitor mithalten können.
 
Gsync Compatible nicht Ultimate .. gibt 3 Klassen bei Nvidia : Compatible ( Ohne Modul ) , das alte Gsync ( Mit Modul ) , Gsync Ultimate ( Mit modul )
Die LGs nutzen das schlechtere Gsync Compatible wo kein Extra Modul dabei ist aber auch den Preis nicht nach oben Drückt. Daher sind Gsync Monitore
mit Modul auch teurer. Mit Modul fängt die Range auch schon bei 1 FPS an und nicht erst bei 48 FPS wie es auch bei AMD der Fall war bisher.

Ja sieht gut aus der PG nicht wahr ? :ROFLMAO: Bin nun erstmal wieder auf 24" und da hab ich diesen ganzen misst zum glück nicht mehr.
Der hat aber auch 1ms und nicht 4 oder mehr wie der Asus.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh