[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Im Klartext es geht um Gewinnoptimierung :fresse:

habe auch grade mal gegoogelt und der Panasonic hat auch ABL nur eben wegen der besseren Kühlung können bis zu 30% höhere Helligkeit erreicht werden als bei den LG OLEDs
aber ABL ist dabei.
normal bräuchte man da schon ne wakü mit nem Mora damit man da auf ABL verzichten kann.
habt ihr mal geschaut was eure OLEDs bei 100% window verbrauchen?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wahrscheinlich.
Oder zumindest darum, dass sie nicht weniger
Gewinn machen als letztes Jahr. Ich denke mal, dass es bereits letztes Jahr
teuer war den HDMI 2.1 Chipsatz zu verwenden und dann nochmals mit höherer Investition in die Hardware,
für die 2020er Geräte? Hmm.

Dazu muss man bedenken, dass die Preise der OLEDs dieses Jahr auch etwas gefallen sind. Das will halt ausgeglichen werden.
Da ist sowas halt eine gute Sparmaßnahme :d
Aber es ist natürlich auch sehr interessant, dass das erst rauskommt, nachdem im AVS Forum die Leute das herausgefunden haben.
Klingt irgendwie so, als hätte LG drauf gehofft, dass es nie jemandem auffällt.

Bei den LAN Ports ist das ja genau das gleiche Spiel. Da kann mir auch keiner sagen, dass sie kein Gigabit Ethernet verbauen,
weil sie mehr Leistung für die AI Features brauchen. Ein 10/100 MBit Chipsatz wird da halt einfach 2 ct günstiger
sein als ein Gigabit Ethernet Port. Und auch wenn das natürlich wenig klingt, summiert sich das nachher alles.
 
Wäre mir tatsächlich neu, dass der GZW2004 einen Lüfter hat.
Der hat eigentlich nur eine dickere Platte für bessere Wärmeabfuhr.

ganz ehrlich, ich weiß es nicht mehr genau... ich weiß nur noch das ich vor ca. 1-2 Woche gelesen habe das ein Oled von Panasonic, mit eingebautem Lüfter, existieren soll der auch "sehr hohe" Nits-Werte dadurch erreichen soll... vll. war das noch ein Prototyp der erst noch released wird... keine Ahnung mehr...
 
Zuletzt bearbeitet:
Ich hatte in keiner Review etwas zu dem Lüfter gelesen.
Wenn er also einen hat, war er ggf. so leise, dass die Tester den nicht gehört haben.
Oder er geht nur im Extremfall an, den die nicht mitbekommen haben.

Aber ich kann auch nicht auf der Rückseite erkennen, wo da ein Lüfter sein soll.
Zumal aktiv gekühlte TVs auch eigentlich mehr Lüfter haben.
Ein Lüfter wird da ja nicht viel kühlen :d
 
finde auf die schnelle bei google nix bzgl. der Lüfter... bis auf ältere Modelle von Panasonic die mal Lüfter gehabt haben...
Beitrag automatisch zusammengeführt:

vll. verwechsel ich auch etwas und ich habe ein Video gesehen bei dem vll. HDTVTest was dazu gesagt hat...
 
Zur Zeiten von Plasma TVs und den frühen, riesigen LCDs, waren
aktive Lüfter noch in Mode.

Ich meine ansonsten, dass noch ein BFGD einen aktiven Lüfter hat.
Aber bei aktuellen TVs fällt mir da auf die Schnelle nichts ein.
 
Schon allein das man kein blödes matt/halb matt coating am OLED hat,macht die BQ schon deutlich besser als bei Monitore.

Das ist bei mir der größte + Punkt bei den OLEDs.

Das mal ein glossy Gaming Monitor kommt bezweifel ich eh...

Schade das man sich heut zu tage imme noch nicht aussuchen kann was man will...
 
Ja da gebe ich dir auch recht. glossy ist einfach unglaublich brillant
mein Philips 43“ Momentum ist ja auch glossy und ich liebe einfach die Brillianz von glossy aber die tester führen sowas ja immer als negativen punkt auf.

ich habe damals bei meinem CRT Sony sogar extra die matte beschichtung abpolliert :ROFLMAO:
 
Ja leider wird sowas als negativen Punkt bewertet was ich null verstehe.

Meine 90% der TVs sind "glossy " und bei Monitore wird geheult..

Aber laut AOC ist ja für glossy angeblich keine Nachfrage da...
Was ich denen absolut nicht ab kaufe..

Ich erinner nur an die Korea Teile die glossy Monitore wurden regelrecht aus den Händen gerissen..

Die konnten damals schon beides an bieten vom gleichen Monitor glossy oder matt und hier bekommen se es net hin.
 
Zuletzt bearbeitet:
Ja so einen Korea Yamakasi 1440p 100hz S-IPS habe ich hier sogar noch.
 
Ich bin froh, dass TZGamer hier immer noch so gut im Thread teil nimmt. Sonst würde das ganze ins bodenlose fallen mit Vermutungen etc.

Den CX sich jetzt noch schön zu reden finde ich quatsch. Was kommt denn noch? Wartet man bis die TVs sich gut verkauft haben und erzählt dann die wirklichen specs?

Können wir vllt den Threadstarter nochmal anhauen (@Gabriell12), dass er eine FAQ vorne rein stellt? Ich finde den Thread nicht unbedingt Lesenswert wenn innerhalb eines Tages die gleichen Tabellen gepostet werden und man merkt das manche gar keine Lust mehr haben sich die Posts seit der letzten Abwesenheit durchzulesen.

Auch die Ganzen 4.X.X @ xxHZ Tabellen Diskussionen würde das nach vorne bringen, ;)
 
Ich nutze noch Plasmas...
Mein 60" Plasma (LG) hat keine Lüfter... der 46" (Panasonic) auch nicht.
...aber ja es ist warm wenn man direkt davor steht ^^

Ich sagte ja nicht, dass jeder Plasma einen Lüfter hatte ^__^
Die letzten Jahre hat man sowas dort natürlich auch immer weniger gesehen.
 
Den CX sich jetzt noch schön zu reden finde ich quatsch.

Und ihn nun schlecht zu reden ist genauso quatsch

Von den Bits her liefert er genau das was PC Monitore auch liefern
bzw sogar etwas mehr da die meisten PC Monitore "nur" 8 Bit + FRC sind.
Und da wird auch nicht so ein Fass aufgemacht.

Aber hey ... die Trommeln wummern ab geht das Fegefeuer. Es ist mal wieder Zeit seine
Mistgabeln rauszuholen und die Hexen zu verbrennen.

Allerdings wenn ihr es zumindest schafft dadurch den Preis runterzudrücken hab ich da auch nix gegen :LOL:
 
Und ihn nun schlecht zu reden ist genauso quatsch

Fake Vinnie hat ein ganz gutes Video zu dem Thema gemacht:


Er geht auch auf das eigentliche Problem ein.
 
Hab ich schon gesehen und ist halt genau das was ich gestern schon sagte.

Es gehen halt einfach nur keine 12 Bit mit 4K und 120hz .. Wayne!
Und wenn man unbedingt 12 Bit haben will geht man halt auf unter 100hz und dan gehen die 12 Bit wieder.
Und halt das PR Desaster ... aber das wars auch

Oder überseh ich da nun was ?
 
Zuletzt bearbeitet:
Ja, es geht halt ums Prinzip.
Die bewerben Sachen, die sie nicht liefern können und rücken erst mit der Sprache raus, wenn nachgebohrt wird.
Wer weiß, was da noch kommt.
 
Genau .. dann sollte man nun LG blamen aber nicht den CX
der ist noch im Grunde genauso gut wie vorher.

Wenn man unbedingt will gehen 12 Bit halt immernoch nur halt nur unter 100 Hz.
Und im Vergleich mit PC Monitoren sind 10 Bit Nativ immernoch
besser als 8 Bit + FRC was fast alle PC Monitore nur haben. Zb auch der PG43UQ
den NyxCherry und ich hatten

Bei vielen Games merkt man zb auch nicht den unterschied zwischen 8 und 10 bit.
Ganz zu schweigen von 10 zu 12 bit. Wobei die 2 Bit FRC des LGs eh nur genutzt wurden
um irgendwie Fehlberechnungen des Nativen 10 Bit Panels auszugleichen. Sofern es welche gab.

Niemand ausser vielleicht nun Grafiker werden den Unterschied von 10 zu 12 Bit merken.

Also wenn man sich aufregen muss dann über LG .. der CX wird dadurch nicht merktlich schlechter

@LDNV

Gut .. das war aber schlimmer da hat man ja auch Performance verloren sodas Games Teilweise Langsamer liefen
.. war glaub ich bei Maxwell oder ? das ist nun bei den CX nicht der Fall.
 
Jap war bei Maxwell.
Ich fand den Vergleich nur passend weil es genauso eine Kaugummi und "Prinzip" Frage war.
Die Karte hat an sich keine Leistung verloren, und bot prinzipiell ja auch alles was angepriesen war.
Nur in Extrem Situationen (Die mit dem Alter und mit steigernden Anforderungen natürlich öfter vorlagen) verlor sie eben Leistung wenn man sie voll ausnutzen wollte. Und auch da kam man erst mit der Wahrheit raus als diverse Leute aus Foren Stress gemacht haben und gestand es langsam Stück für Stück zu.

Erinnerte mich daher stark daran.
Prinzipiell bietet der CX ja auch alles und kann alles wunderbar.
Möchtest ihn aber komplett ausfahren wie man es erwartet knickt er eben ein, bzw. muss ein gang runter schalten.

Steht natürlich außer Frage das der 48er CX ein toller TV ist.
Aber nun hat er Objektiv betrachtet 2 Nachteile.
1. Ist teuer für seine größe.
2. Bietet nicht das vollwertige Feature Set was der größere und günstigere Bruder bietet.
 
Zuletzt bearbeitet von einem Moderator:
Hat sich das echt nicht bemerktbar in der Performance gemacht ? Hatte da noch was im Kopf
Original sollte sie 4 GB haben glaub ich und 3,5 Gb warns dann am Ende wo das rauskamm.
Ahja ok ... du schreibst es grade.

Aber stimmt ein guter vergleich .. wenn die leistung steigt .. bei 12 Bit haben wir da ja
zum Glück noch etliche Jahre vor uns bis das der Standart wird. Wir sind im Schnitt ja
immernoch bei 8 Bit.

Bei Punkt 1 ( wobei der ja vorher schon da war ) und 2 stimm ich dir auch zu.
Vielleicht schaffen es ja die Leute wenn sie laut genug brüllen das die Preise nun fallen
als ausgleich 8-)

Gabs nicht auch bei Nvidia damals eine Geld Entschädigung für die Käufer als ausgleich ?
 

Die steht heute noch mit falschen Specs auf der Webseite.
Fands echt schade um die Karte. Hab heute noch eine im Keller. Hat gute / leise / sparsame Dienste verrichtet ihrer Zeit, bis ihr halt früher als nötig die Luft ausging. War auch fast die letzte gehobenere Mittelklasse 70iger nV Karte um 3-400€.

Hatte mir als Ersatz weil ich es auch nicht einsah, damals eine 290x mit 8GB besorgt von Sapphire. (Die es nur selten gab, Standard waren bei ihr auch 4)
Leider wurde die Karte mit defekten Lüfter geliefert und gabs keine andere, so hab ich mich dann sehr schwer getan aber schlussendlich doch ausnahmsweise 500€ Ausgegeben für eine GTX 980 ...

Witzig, heute Mittelklasse Preise :d
 
Zuletzt bearbeitet von einem Moderator:
Zu der Zeit hatte ich noch die 780 Ti und nun die 1080 ... und nächstes Jahr die 3080 Ti
Immer nur jede 2te Gen kaufen 8-)

Jup die Preise am PC Markt explodieren leider seit einigen Jahren. Denke die 3080 Ti wird auch wieder 1200 Euro kosten.

30 Dollar haben sie also bekommen .. hmm ... das währ etwas wenig für den CX. Aber die Karte war ja damals auch etwas
günstiger als die CX um die es nun geht.

Also gegen ein Bischen Geld hätte ich nix ... also sag ich mal :

LG !!! How dare you !!! :ROFLMAO:
 
"Offtopic"
1200 :coffee:
Glaube ich erlich gesagt nicht dran!
Custom Designs der 2080ti kosten schon gut 1500
Und
Dadurch das AMD nicht aus den Hufen kommt mit Big Navi und keiner weiß ob die Dinger Konkurrenz fähig sind tippe ich eher so auf :

1500 Startpreis
1800-2000 Custom Designs
Für ne 3080TI

!!!Am 14. Mai wissen wir vielleicht mehr!!!

Is zwar die pure Frechheit aber die Lederjacke weiß das sie keinen Gegner hat auf dem Markt

:wall::wall::wall::wall::wall:

Schau dir Mainboards an hättest du jemanden damals erzählt das es mal Mainboards für 2000 Mark gibt ohne wirkliche Vorteil (Wasserkühlung zum Beispiel) die hätten dich ausgelacht

2020 es gibt sie
 
Fake Vinnie hat ein ganz gutes Video zu dem Thema gemacht:

Er geht auch auf das eigentliche Problem ein.

Das sagt der Original Vinnie :asthanos:

 
Schau mir grad das Video an bin erst am Anfang aber er sagt bei 05:55 min
das man bei HDMI 2.1 8 Bit nicht mehr mit HDR nutzen kann.
Hmm .. warum wurde das gemacht ? Abgesehen davon dass das
HDR Erlebniss mit 8 Bit eh nich so toll ist .. aber das ist ja auch
ein Stück Freiheitsberaubung vom HDMI Forum
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh