[Sammelthread] LCD/OLED-Fernseher *Startpost beachten*

Jetzt hat er wenigstens nen guten Schirm :d B6 rockt!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich beneide ja die Leute die einfach in den roten Markt gehen, sagen "der da" und dann die nächsten 5-6-7 Jahre happy sind. Zum einen will ich immer was neues und zum anderen macht es mich fuchsig im Wissen, jetzt einen TV zu einem höheren Preis zu kaufen, als es durch denen Deal Wahlmöglichkeit vor einem halben Jahr drin gewesen wäre.

Mein letztes Gerät war jetzt auch fünf Jahre alt, ich denke mal der Jetzige wird das auch schaffen wenn sich nicht ein Defekt zeigt oder irgendwas bahnbrechendes auf den Markt kommt, da liegt mein Fokus einfach wo anders. Mit den Preisen ist das bei Technik doch aber immer so, wirklich preisstabil sind ja nur wenige Sachen (z.B. Audio).

Bei den Enthusiasten im HiFi Forum liest man aber recht häufig, dass sich viele gerade jetzt als "Übergangsgerät" bei den guten Deals mit den Samsungs bedienen um eben die nächsten 1-2 Generationen OLED und FALD abzuwarten. In deinen avisierten vier Monaten würde ich aber keine Wunder erwarten. Bei LCD wird sich technisch nicht viel tun außer vlt. im HDR Bereich und die OLEDS werden mindestens auf den jetzigen, wenn nicht gar zur Einführung höher liegen. Wie immer bei Technik gilt also: Kaufen wenn man es braucht
 
ja hab mir auch für 1111€ einen Sams 55KS7090 + Tablet als übergang geholt. Warte auf die nächste OLED Generation. Aktuell gefällt mir bei den LG OLEDs die Bewegtbilddarstellung überhaupt nicht. Ansonsten ist das Bild schon fein und webOS 3.0 ist im Gegensatz zu 2.0 auch eine schöne Weiterentwicklung.
Den Philips OLED hab ich noch nicht gesehen und 3500€ für nen 55 Zoller ist mir auch zu viel. Wobei der laut Userberichte wirklich erstklassig sein soll.


Gesendet von iPhone mit Tapatalk
 
Zuletzt bearbeitet:
Der Philips oled ist ein Traum. Hab ihn im MM live gesehen.

Ich ärgere mich unheimlich, das ich letzte Woche nicht beim Saturn Deal, 7090 plus Tablet für 1199 zugeschlagen habe.. 1100 ist halt ein Knaller.

Jetzt gucke ich vor allem nach dem 60er, aber das wäre für 1600 dann nichts für den Übergang da viel zu viel Wertverlust.

Gesendet von meinem Pixel mit Tapatalk
 
Bewegtbilddarstellung, hmm. Also ich hab gestern kurz den dicken angeworfen, der mit 10m HDMI am TV hängt, hab das wireless Gamepad verbunden und Steep bei Uplay gestartet, den Bürostuhl vor den TV gezogen, mich quasi ins Bild gesetzt und konnte nicht mehr aufhören mit dem Snowboard durch den Schnee zu jagen. Eines der größten Probleme, die ich mit dem Samsung hatte, war die Bewegtbilddarstellung. Das TruMotion im Samsung ist glaube ich nur ein dickes fettes Placebo. Im LG hingegen... ich konnte nicht mehr aufhören zu daddeln auf dem B6D. Das TruMotion im LG sorgt für eine Art G-Sync Effekt. Das Bild wirkt obwohl nur 60FPS so unglaublich flüssig. Wie gesagt, das war eines meiner größten Probleme mit dem LCD von Samsung.

Was richtig übel ist, wenn man nachdem man auf den B6D guckt, den Blick auf einen Asus Swift PG34 schweifen lässt. Der hat zwar eine höhere PPI und mit nativen 100Hz und G-Sync auch ein noch flüssigeres Bild, aber OLED vs. Gaming-LCD im Direktvergleich... :lol:

Gäbe es den PG34 mit OLED, das wäre unbeschreiblich.
 
Kommt in 1-2 Jahren ;)
 
Oled steht ja noch ganz am Anfang. Denke auch, da werden die nächsten Jahre spannned..

Gesendet von meinem Pixel mit Tapatalk
 
OLED für den PC wird noch länger dauern... LG meinte; dass man sowas gerne anbieten würde, auch schon damit experimentiert, aber das Problem mit dem einbrennen zu groß sei am PC.
 
Habe ich als Amazon Prime Kunde die Möglichkeit mir Dolby Vision Inhalte anzusehen? Ich lese mich gerade etwas in das Thema HDR ein und würde nun gerne mal Dolby Vision Inhalte sehen, denn der LG kann das bereits darstellen.
 
OK, Danke!

Anderes Thema, Chroma Subsampling. Nur im PC Modus, also unter Eingänge das Symbol auf PC stellen, ist 4:4:4 möglich (zumindest nach meinem Kenntnisstand). Im PC Modus kann ich aber kein TruMotion mehr aktivieren beim B6D.

Als Zuspieler für den B6D kommt bei mir ausschließlich (neben der Nutzung der Amazon App im TV) ein Windows PC zum Einsatz. Keine Console, keine Blu Ray Player. Filmmaterial liegt auf dem PC in 3820x2160, 24FPS, 10Bit, 4:2:0, HEVC vor. Teilweise sogar in HDR. Wobei man Aufgrund der fehlenden Metadaten Übertragung wohl noch kein HDR in Verbindung mit solchem Material an einem TV nutzen kann, zumindest nicht nativ. Was ich nicht ganz nachvollziehen kann, denn ein "billiger" Blu Ray Player kann es auch...

Verbunden ist der PC mit dem B6D natürlich via HDMI, 3820x2160, 60Hz bei 8Bit an einer RX460. (Welches Chroma Subsampling die AMD Karte hier unterstützt/nutzt habe ich noch nicht rausgefunden)
Muss mal noch gucken, ob ich mit der RX460 auch 10Bit bei 60Hz in 4K übertragen kann. Soll zumindest in 4:2:0 gehen, was ich so lese.

Frage1: Macht es hier überhaupt Sinn, den HDMI Anschluss des B6D auf PC zu stellen? Das Quell-Material liegt ja eh nur in 4:2:0 vor. (Gerade wenn ich auch bei Filmen gerne TruMotion nutzen möchte)
Frage2: Was für Vorteile würde ich durch 4:4:4 abseits von oben angesprochenem Filmmaterial bei der sonstigen Nutzung des B6D mit einem PC erhalten? Evtl. auch in Bezug auf Gaming.

Und zu guter Letzt: In der ein oder anderen Szene beim Filme gucken über den PC habe ich (was auch schon beim Samsung so war) etwas Color Banding in div. Schwarz Abstufungen. Ich bin gerade erst dabei mich einzulesen und Zusammenhänge verstehen zu lernen. Dieses Banding stört aber schon etwas. Bisher habe ich es auch nur beim Abspielen des oben angesprochenen Filmmaterials über den PC gesehen. Bin noch nicht ganz dahinter gekommen, warum das auftritt, da ich mich wie gesagt gerade erst einlese, aber evtl. hat jemand einen Tip. Liegt es evtl. an der Verbindung PC zu B6D, also den 8Bit bei 10Bit Material? Codiert mein MPC-HC da irgendwie Bullcrap oder warum tritt sowas auf?

PS: Falls das hier zu weit in den OT rutscht, nennt mir bitte den passenden Ort für eine solche Fragestellung.
 
Zuletzt bearbeitet:
Bei 8bit lässt sich colourbanding. Nicht zu 100% vermeiden ... 4:4:4 macht nur Sinn wenn es in der original Quelle auch enthalten ist...


Dies könnte bei einigen Spielen der falll sein...


Mei favorit Forca Horizen 3 hdr Gaming von der Xbox sieht Heiko aus :)

Mit freundlichen Grüßen
Daniel
 
Jo, genau das ist quasi mein eigentliches Problem, denn ich nutze weder ein Console noch einen Blu Ray Player, also kein Plug & Play HDR bzw 4K Filmgenuss.

Klar, es macht wenig Sinn, eine Verbindung mit 4:4:4 zu haben, wenn Material eh nur in 4:2:0 vorliegt. Dumme Frage :-)

Mein Material hat also 4k, 24FPS, 10Bit bei 4:2:0. Sinnvoll wäre jetzt natürlich das genau so auch abzuspielen und zu übertragen. Geht das mit 60Hz (PC undso) überhaupt in 4K bei 10Bit über HDMI?

Problem des HDMI Standards:
4K 60FPS samt 4:4:4 und HDR aufgrund von Bandbreite nicht drin.
PS4Pro macht 10Bit, reduziert aber das Chroma Subsampling auf 4:2:2. Ob das Teil aber 4K mit HDR dann auch noch in 60Hz kann, weiß ich nicht.
Beim PC müsste das aber doch ähnlich funktionieren. Also 4K 60FPS mit 10Bit, dafür aber Chroma Subsamplig meinetwegen auf 4:2:0.
Bin mit dem AMD Treiber noch nicht (nicht mehr) so vertraut, also noch nicht ganz dahinter gekommen, wie ich genau so einstellen muss, wenn das überhaupt möglich ist.

Irgendwie steige ich noch nicht so ganz durch, durch diese 4K bei 10Bit Geschichte. Sorry, wenn ihr mir hier solche dummen Fragen beantworten sollt :d
 
Zuletzt bearbeitet:
10 Bit geht mit 60hz 4:2:0 über HDMI 10 Bit heißt zb kein colourbanding mehr :)

Mit freundlichen Grüßen
Daniel
 
Wunderbärchen, im Prinzip hätte ich das ja auch "ausrechnen" bzw. selbst erarbeiten können. Bin aber gerade erst dabei mir das Prinzip und damit die Voraussetzungen von HDR überhaupt verständlich zu machen.

Jetzt muss ich nur noch rausfinden, wie ich das in dem dämlichen AMD Treiber einstelle bzw. das der dämlichen Windows Maschine verständlich mache.
 
AMD neuste graka Treiber können laut Aussage AMD auch mit Dolby Vision umgehen.... man benötigt wohl keine weitere Hardware...
 
Wie soll das denn gehen? Was bedeutet "umgehen" in diesem Fall? Dolby Vision setzt eigentlich 12Bit voraus, ebenso wie HDR eigentlich 10Bit erfordert. Mal davon abgesehen, dass es keinen TV gibt, der 12Bit kann, sondern bestenfalls 10Bit, das also selbst auf dem Dolby Vision zertifizierten LG B6D mit 10Bit schon irgendwie nicht wirklich nativ dargestellt werden kann. Mittels Dithering wahrscheinlich halt.

Ich werd mich später mal mit dem AMD Treiber auseinander setzen und versuchen 2160p60 bei 10Bit einzustellen.
 
Habe im Moment einen Sony W805b mit dem ich sehr zufrieden bin, vor allem mit der Bildqualität.

Würde es Sinn machen stattdessen einen Samsung SUHD z.B. den JS8090 zu kaufen wenn ich eigentlich kein 4k brauche ?

Also nur wegen den Farben und der Bildqualität ?
 
Glaube nicht,dass das Sinn macht wenn Du mit Deinem zufrieden bist.
 
@webmi DV hat nichts direkt mit der Farbtiefe zu tun sondern mit erweiterten Farbraum und peakhelligkeiten, die dynamisch je szene auf dem zertifizierten Fernseher abgestimmt und ausgegeben werden.

ergebnis sind atem beraubene Bilder und nie gesehener inbild kontrast... kuck dir unbedingt marco polo auf netflix über den b6 an, dann weist du was ich meine


erstmal muss das quellmaterial in DV gemastert sein ... die dv software macht je nach erkannten wiedergabegerät besten dynamischen HDR Kontent daraus....
 
Zuletzt bearbeitet:
Jo, der eigentliche Vorteil von DV gegenüber HDR ist, dass eben jede Szene (technisch gesehen sogar jedes Bild) mit einer individuellen Helligkeits Einstellung versehen werden kann, wohingegen HDR diese Einstellung nur statisch für den ganzen Film leistet.

Ich kann nur das wiedergeben, was ich hier in der CT (Ausgabe 19, vom 3.9.16) heute im Bericht "4K, Kamf der Standards, Erklärt und bewertet: HDR-10, Dolby Vision, OLED, BT.2020" lese und versuche zu verstehen.

Ich zitiere mal eben einen etwas größeren Abschnitt:

Kurvendiskussion
Doch wie hell muss HDR sein? Test mit den angesprochenen Glanzlichtern haben ergeben, dass Displays eine Spitzenhelligkeit von mindestesn 10.000 Nits aufweisen müssen, damit über 90 Prozent der Zuschauer mit der Darstellung zufrieden sind. Weiterhin benötigten HDR-Displays einen größeren Farbraum, um die in diesem großem Helligkeits- und Farbbereich fein gezeichneten Farb- und Grauverläufe streifenfrei darzustellen. Die 8Bit von SDR-Displays für 256 Stufen reichen keinesfalls aus. Mit der Frage, wie viele Bits für HDR nötig sind, beschäftigen sich Dolby Labs seit der Übernahme von BrightSide Technologies im Jahre 2007. Die bei SDR verwendete Gammakurve eignet sich jedenfalls kaum: Um statt 100 nun 10.000 Nits zu erfassen, würde man statt 8 satte 14 bis 15 Bitts benötigen. Dolby konzentrierte sich daher auf die gerade noch merklichen Unterschiede zwischen zwei Helligkeitsstufen im quantisierten Signal und drückte so den Wert.

Die dabei enstandene PQ-Kurve (Perceptual Quantisation) wurde später als SMPT ST-2084 standardisiert und ist Basis der MEisten HDR-Standards und Anwendungen - darunter in Ausführung mit 10Bit. Zu denen gehört das "HDR-10" Format, das auf den bislang erhätlichen Ultra HD Blu-rays zum Einsatz kommt. Dolby setzt bei Dolby Vision generell auf 12Bit. Die HDR-10-Verfechter argumentieren, dass dies an der Realität verbeigeht: Immerhin findet man auf dem Consumer-Mark aktuell keine Fernseher mit 12, sondern bestenfalls welche 10Bit. Und selbst dabei handelt es sich teilweise um 8-Bit-Geräte, die nur mittels Dithering auf 10Bit kommen.

So wie ich das verstehe, braucht HDR eben 10 Bit und bei DV wird sogar mit 12 Bit gearbeitet.
 
Zuletzt bearbeitet:
richtig wäre bis zu 12 bit :) dolby vision kann aber mit 8 bit und 10 bit panels arbeiten und das uneingeschränkt nach den eigenschaften des panels...

btw erzählt dort die ct ne menge unausgegorenes :)

Helligkeit ( NITS) hat reingarnix mit Farbtiefe zu tun :)

mfg
daniel
 
Zuletzt bearbeitet:
Nits selbst haben mir der Farbtiefe nichts zu tun, soweit kapiere ich das, ist auch nur ein Ausschnit aus einem seitenlangen Artikel zum Thema, evtl. fehlt da auch Kontext etc. Ist jedenfalls das, was da steht. Hier ein weiterer Ausschnitt:

HDR
....
Um die konstrastreichere Wiedergabe (High Dynamic Range, HDR) am TV zu etablieren, wurd ein neuer STandard entwickelt - oder besser gesagt gleich zwei: HDR10 und Dolby Vision. Für HDR10 wurden minimalePunktleuchtdichten und maximale Schwarzwerte für den Fernsehschirm definiert. So muss ein LCD-TV mindst 1000 cd/m erzielen (bei 10 Prozent Weißinhalt) und darf in schwarzen Bildinhalten mit maximal 0.05 cd/m leuchten. Üblich sind bei LCD-TVs bisher etwa 500 cd/m in der Spitze und ein Schwarzwert um die 0.1 cd/m. Bei den organischen Displays liegen beide Werte überlicherweise darunter, weshalb für sie ein zusätzliches Leuchtdichte-Set definiert wurde: mindestens 540 cd/m für Weiß und maximal 0.0005 cd/m für Schwarz.

Die Anforderungen an Dolby Vision fähige Displays sind noch mal höher: Sie müssen jeden Farbkanal mit 12 Bit auflösen (Bei HDR 10 sind es 10 Bit) und zusätlziche Metadaten im Signal auswerten, um das Display respektive dessen Backlight dynamisch anzusteuern. Der folgende Artikel ab Seite 118 widmet sich den FEinheiten der beiden konkurrierenden HDR-STandards.

Den Zusammenhang zwischen Helligkeit und der Bittiefe habe ich aber noch nicht ganz geschnallt, denn die Helligkeit hat ja mit der Farbtiefe noch nicht wirklich was am Hut.


HDR scheint, wie du sagst, auch mit 8Bit arbeiten zu können, denn im 3D Center steht zu AMD Polaris folgendes:

Heise rollen ein (vorgebliches) Problem von AMDs Grafikkarten aus, welches allerdings im eigentlichen ein Problem des HDMI-Standards darstellt. Denn auch mittels HDMI 2.0a/b steht HDMI zu wenig Bandbreite zur Verfügung, um 4K mit 60 fps samt 4:4:4 Farbabtastung und HDR wirklich normgerecht darzustellen – es fehlt hierfür ein minimales Stück an Bandbreite. AMDs behilft sich bei der Polaris-Serie derzeit damit weiter, HDR nur mit 8 Bit samt einem speziellen Dithering-Verfahren darzustellen, damit reicht die Bandbreite dann für diese hohe Anforderung. Interessanterweise wird jene Problematik bei der (ebenfalls AMD-gepowerten) Playstation 4 Pro anders gelöst – dort gibt es 10 Bit Farbtiefe, zur Reduzierung der Bandbreiten-Last wird aber eine Farb-Unterabtastung von 4:2:2 angesetzt. Laut der PC Games Hardware benutzt nVidia dieselbe Methode bei seinen Grafikchips. Und hier liegt dann auch der Clou der ganzen Meldung begraben: Das Problem ist eben nicht AMD-spezifisch, sondern betrifft alle Hersteller, welche unter 4K dann 60 fps mit 4:4:4 Farbabtastung und HDR über HDMI übertragen wollen.

Quelle:
Hardware- und Nachrichten-Links des 17. November 2016 | 3DCenter.org
 
Zuletzt bearbeitet:
klar weil hdr oderauch DV nur etwas mit dem erweitertem Farbraum und dynamischen Peakhelligkeiten und Schwarzwerten zu tun hat :)
 
Woot?! Joah, ich sag ja, ich schnall es nicht :-)

Was haben Schwarzwert und Peakhelligkeit mit mehr als 8Bit bzw 256Stufen zu tun? Warum steht da was von 10 oder gar 12 Bit?
 
Zuletzt bearbeitet:
Ja so oft wie der inzwischen für 2999€ im Angebot war, ist das schon der Normalpreis.
Fehlt nur noch der 55 Zoller für 1999€.


Gesendet von iPhone mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh