Frage zu LUT - Monitor vs. Graka

nurso

Semiprofi
Thread Starter
Mitglied seit
16.02.2007
Beiträge
4.847
Hallo,
ich bin gerade dabei zu verstehen was es denn mit der LUT eines Monitors auf sich hat. Was mir allerdings noch unklar ist - und ich bei keiner meiner Quellen (z.B. der Wikipedia-Artikel über CLUT) gefunden habe - ist Folgendes:
Auf Prad.de steht,
(e)ine Grafikkarte hat eine Farbdarstellung von 8 bit pro Farbkanal, was 2 hoch 24 Farben (16,77 Mio.) entspricht. Verfügt ein Monitor intern über eine 10 bit LUT, kann er 2 hoch 30 Farben (ca. 1 Milliarde) darstellen, indem er die fehlenden Farbwerte am Bildschirm auf präzise Weise simuliert.
Was bedeutet "auf präzise Weise simuliert"? Und wozu benötigt ein Monitor eine 10 bit LUT wenn die Grafikkarte nur 8 bit liefert?

MfG
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was bedeutet "auf präzise Weise simuliert"? Und wozu benötigt ein Monitor eine 10 bit LUT wenn die Grafikkarte nur 8 bit liefert?
Um Tonwerterluste zu vermeiden, wenn du z.B. das Bildschirmgamma oder die Farbtemperatur veränderst (oder z.B. auch die 6-Achsen-Farbkorrektur bei einigen Bildschirmen nutzt). Da fallen sonst Wertebereiche zusammen bzw. sind nicht nutzbar. Dem entgehst du mit einer hochbittigen LUT und entsprechendem Processing (bei Eizo z.B. meist 12-Bit LUT und 16-Bit Processing). Das Panel wird dann i.d.R. wieder mit 8-Bit pro Kanal angesteuert.

http://www.eizo.de/pool/files/de/EIZO_LCD_Kalibration_Teil3.pdf

Deswegen hat eine Hardwarekalibrierung hier auch ihre Vorteile*, da auch die im Rahmen der Kalibrierung notwendig werdenden Korrekturen (um z.B. wirklich die komplette Grauachse neutral zu bekommen) über die entsprechende Monitor-LUT vorgenommen werden.

Gruß

Denis

*
neben anderen interessanten Features, die damit möglich werden
 
Zuletzt bearbeitet:

Aha, lt. dem PDF-Dokument kommen also zwei LUTs zum Zug...wobei mir die zweite Hälfte des Diagramms recht verständlich erscheint. Mh, welche von diesen LUTs ist nun in den technischen Unterlagen angegeben, wenn es zB heißt "TN-Panel, jedoch mit 10 bit LUT"?

Das Panel wird dann i.d.R. wieder mit 8-Bit pro Kanal angesteuert.

In der Regel? Mh, was ich immer noch nicht verstehe: Zwar werden die 8 bit pro Kanal von der Grafikkarte - lt. Eizo-Diagramm - auf 16 bit pro Kanal(?) "hochgerechnet", aber da ich mit einer Farbe max. 2^8 Abstufungen erreichen kann, sollte das doch egal sein, oder? Denn 2^8 Abstufungen bleiben auch in einem 16 bit-Raum 2^8 Abstufungen.

MfG
 
Zwar werden die 8 bit pro Kanal von der Grafikkarte - lt. Eizo-Diagramm - auf 16 bit pro Kanal(?) "hochgerechnet", aber da ich mit einer Farbe max. 2^8 Abstufungen erreichen kann, sollte das doch egal sein, oder?
Nein. Mit einem 8-Bit Eingangssignal und 8-Bit Processing verlierst du, wie angedeutet, Tonwerte, wenn du dich von den nativen Bildschirmeigenschaften löst. Stell dir vor, was passiert, wenn du das Bildschirmgamma änderst, oder mittels angesprochenener 6-Achsen-Farbkorrektur Primär- oder Sekundärvalenzen beeinflußt:

Nehmen wir an, ich will Rot einfach nur "entsättigen". Entsprechend müssen Grün und Blau zugemischt werden. Aus RGB(255/0/0) wird z.B. RGB(255/50/50). Das wäre jetzt mein "neues, volles Rot". Die Werte dazwischen werden nicht mehr angesprochen und sind "verloren". So ein Verlust an Tonwertumfang geschieht z.B. auch im Rahmen des Farbmanagement, wenn die Tonwerte entsprechend den Profildaten auf das Zielgamut abgebildet werden und das z.B. größer als das Quellgamut ist (davor schützt dann auch eine entsprechende Monitorelektronik nicht; Spezialfälle, wie eine Farbraumemulation im Gerät, mal ausgenommen).

"In der Regel", weil es durchaus Bildschirme gibt, deren Panel auch mit 10-Bit pro Kanal angsteuert werden kann. Im Computer-Display-Bereich sind das Spezialgeräte, bei LCD-TVs wird häufiger damit geworben, was u.a. auch in Verbindung mit DeepColor Sinn macht (einige Blu-ray Player beherrschen heute eine Farbinterpolation) - wobei auch per HDMI < 1.3, also ohne "DeepColor", mit >8-Bit pro Kanal übertragen werden kann, sofern Chroma-Subsampling genutzt wird. Ich kann meinem Samsung LCD-TV so vom Videoprozessor in 10-Bit pro Kanal zuspielen (ob er das wirklich nutzt, wage ich jedoch zu bezweifeln). Letzterer implementiert ein vollständiges CMS (color management system) und arbeitet eben auch mit 10-Bit pro Kanal, um Tonwertverluste zu vermeiden, oder gering zu halten. Quellenseitig geht es aber mit 8-Bit pro Kanal in den Prozessor.

Mh, welche von diesen LUTs ist nun in den technischen Unterlagen angegeben, wenn es zB heißt "TN-Panel, jedoch mit 10 bit LUT"?
Das ist für dich an der Stelle nicht wichtig. Das verlinkte Dokument gehört zu Eizo CG-Reihe (der Test des 22" Modells wird demnächst auf prad veröffentlicht). Das sind spezielle, hardwarekalibrierbare Bildschirme mit extrem umfangreichem Featureset (u.a. auch eine Farbraumemulation) und Kompensationsschaltungen (die es allerdings auch bei anderen Geräten vom Eizo und NEC gibt).

Wenn du sicherstellen möchtest, dass Einstellungen am Gerät möglichst verlustfrei bleiben, achte einfach auf eine LUT >8-Bit. Das Processing ist bei den Geräten entsprechend angepaßt. Generell auf der "sicheren Seite" bist du mit einem aktuellen Eizo, oder einem NEC aus der 90er Reihe.

Gruß

Denis
 
Zuletzt bearbeitet:
Nehmen wir an, ich will Rot einfach nur "entsättigen". Entsprechend müssen Grün und Blau zugemischt werden. Aus RGB(255/0/0) wird z.B. RGB(255/50/50). Das wäre jetzt mein "neues, volles Rot". Die Werte dazwischen werden nicht mehr angesprochen und sind "verloren".

Aha, ich glaube, bei mir ist jetzt der Cent gefallen :) Also, ich stelle mir das jetzt als einen großen Kreis (=2^16) vor, dem ein kleiner Kreis (=2^8) eingeschrieben wird. Den kleineren Kreis kann ich nun verschieben oder flächengleich verformen, ohne dass ich den großen Kreis verlasse. Wären aber die Kreise gleich groß (=2^8), könnte ich den Innenkreises nicht verschieben oder verformen, ohne den "Größeren" zu verlassen. Richtig?

"In der Regel", weil es durchaus Bildschirme gibt, deren Panel auch mit 10-Bit pro Kanal angsteuert werden kann.

Mh, da wird aber eine entsprechende Grafikkarte mit 10 bit pro Kanal benötigt, oder?

MfG
 
Zuletzt bearbeitet:
Als Gedankenmodell sicher in Ordnung (wobei das Kreisbeispiel an sich eher geeignet ist, um Verfahren des Gamut-Mapping zu erläutern). Als Quintessenz können wir festhalten, dass mit größerer Verarbeitungs- als Inputgenauigkeit, eine gewisse Marge für Veränderungen bleibt.

Mh, da wird aber eine entsprechende Grafikkarte mit 10 bit pro Kanal benötigt, oder?
Mein Beispiel bezog sich auf externe Player bzw. einen entsprechenden Videoprozessor. Grafikkartenseitig wird aber z.B. auch schon mit >8-Bit pro Kanal geworben. Freilich können die aktuellen Computerdisplays das nicht verwerten.

Gruß

Denis
 
Grafikkartenseitig wird aber z.B. auch schon mit >8-Bit pro Kanal geworben. Freilich können die aktuellen Computerdisplays das nicht verwerten.

Hallo Denis,

es liegt glaube ich hauptsächlich an XP/Vista, mit Win7 soll es möglich sein GraKas auch mit >8Bit zur Ausgabe zu bewegen. Btw findet man 10Bit (oder höher) Displays mit entsprechender Software heute in der Medizin zum Beispiel wenn es um CTs/Röntgenbilder/etc. geht - hier sind 2^8=256 Grauabstufungen einfach zu wenig und 2^10=1024 sehr gefragt.
 
(E)s liegt glaube ich hauptsächlich an XP/Vista, mit Win7 soll es möglich sein GraKas auch mit >8Bit zur Ausgabe zu bewegen.

Interessant - Weißt du, wie es unter OS X bzw. Linux ausschaut?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh