VESA verabschiedet DisplayPort 1.4 für 8Kp60Hz HDR und 4Kp120Hz HDR

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.060
<p><img src="/images/stories/logos-2013/displayport.jpg" alt="display" style="margin: 10px; float: left;" />Im Sommer werden wir vermutlich die ersten Grafikkarten sehen, die einen DisplayPort-Ausgang nach dem Standard 1.3 unterstützen werden. AMD und NVIDIA werden dazu einen entsprechend aktualisierten Display-Controller in der Polaris- und Pascal-Architektur vorsehen. AMD hat dies im Rahmen seiner bisherigen <a href="index.php/news/hardware/grafikkarten/74-artikel/artikel-hardware/artikel-grafikkarten/37425-amd-radeon-lernt-freesync-ueber-hdmi-und-high-dynamic-range.html?start=3" target="_self">Vorstellung der Polaris-Architektur bereits öffentlich gemacht</a>.</p>
<p>Natürlich aber arbeitet man bei der Video Electronics Standards Association (VESA) bereits an der Standardisierung...<br /><br /><a href="/index.php/news/hardware/monitore/38331-vesa-verabschiedet-display-1-4-fuer-8kp60hz-hdr-und-4kp120hz-hdr.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bin mal gespannt wann es dann die ersten 4K 120Hz FreeSync Monitore mit IPS für unter 1000€ gibt, ich schätze mal so mit in 2 Jahren.

Was ich mich frage ist wo genau liegt der Unterschied zwischen HDR und 10 bit Ansteuerung?
Ist das HDR einfach nur die Marketingbezeichnung für 10 statt 8 bit Panel die es aber schon etwas länger (wenig verbreitet) gibt?
 
Zuletzt bearbeitet:
Was HDR bedeutet ist dir aber schon klar oder? Soweit ich weiß, wird damit der Kontrast extrem erhöht, hat also nix mit 10bit oder 8bit Panel zu tun - wenn ich mich täusche steinigt mich.
 
Bei dem Render-Video von dem Satelit was AMD auf der CES zeigte, da haben sie aber dann von der Farbraumabdeckung gesprochen und man hat gesehen dass das Orange des Satelits deutlich unterschiedlich aussah.

Ich frag mich auch ob man dann Zwischen hohen Kontrasten oder hohem Farbraum wählen kann oder ob das halt beides erreicht wird?
 
Gute Frage, aber für mich bedeutet HDR einfach eine extreme Erhöhung des Kontrastes. *schulterzuck*
 
Displayport 1.4.....
Die Hersteller sollen endlich mal alle neuen Geräte mit DP1.3 bestücken, bevor über DP1.4 gefachsimpelt wird :mad:
 
Polaris bekommt sowohl DP1.3 als auch HDMI2.0a, bei Pascal wird es nicht sehr anders aussehen also denke ich dass auch noch dieses Jahr entsprechende Geräte kommen werden.

Spannend wird ob die DP1.3 Monitore dann alle Free/AdaptiveSync unterstützen, wenn ja ist Nvidia gezwungen nachzugeben und endlich mit zu spielen.
Das Marketing hätte bestimmt tolle Möglichkeiten sich da passend darzustellen...
 
Zuletzt bearbeitet:
Displayport 1.4.....
Die Hersteller sollen endlich mal alle neuen Geräte mit DP1.3 bestücken, bevor über DP1.4 gefachsimpelt wird :mad:

Oh man ich hasse diese Aussagen. Sie sind so dämlich und irgendein Depp muss sie unter jede Nachricht schreiben.

Es ist völlig normal das Standards verabschiedet werden und es dauert immer bis sie dann in finalen Produkten erscheinen. DP 1.3 erscheint ja dann im Sommer in den AMD Grafikkarten.

Ich finds super das jetzt auch 4K mit 120 HZ + HDR geht. Ob da wirklich kein Qualitätsverlust bei der Bildqualität entsteht? Ist immerhin exakt die selbe Bandbreite. Wie realisiert man das eigentlich genau? Wird dann da komprimiert wie bei H.265?
 
Zuletzt bearbeitet:
Naja, es klingt ja durchaus plausibel, sich schonmal über den übernächsten Standard Gedanken zu machen, um mal zu sehen, ob man sich mit dem bevorstehenden irgendwo ins Knie schießen könnte.
Und wenn ich in diesem Zusamenhang was von HDMI2.0a lese, dann unterstelle ich, dass alle Entwickler um den Kropf ‚Kopierschutzmechanismus‘ herumtanzen müssen, was mit technischen Belangen zu Datenübertragungsbandbreiten mal garnix zu tun hat.

Bleibt die Frage, was sich derzeit technisch entweder ausbremst oder aber im Eilschritt voranschreitet.
Als vor 2 Jahren UHD um die Ecke kam, war sog. 5k ‚undenkbar‘.
Heute stehen 5k(x3k)-Monitore in den Regalen.

Es werden also kurioserweise bereits Consumer!-Displays mit Auflösungen angeboten, die nur mit Klimmzügen via aktuellem Bandbreitenprotokoll namens DP1.2 befeuert werden können.
Dies weiter gesponnen, werden in 2, 3 Jahren Displays mit >6k angeboten, bevor DP1.3 den meisten überhaupt flüssig über die Lippen kommt.
(Aber HDMI2.0 wird Mehrstimmig mit Tremolo in Chor gesungen.)

@NasaGTR
Also für mich ist es ja mal überhaupt nicht ‚spannend‘, ob DP1.3 was synct.
Ich fänd‘s schön, wenn es zu den kommenden schön hoch auflösenden Displays einfach auch den passenden DP-Anschluss geben würde.
Aber ihr Gamer wollt immer gleich an allen Performancefronten ein Mehrfaches des derzeit angebotenen.
Und für den gefürchteten Kantenabriss ist es halt gerade irgendein sync-Kram, der Euch als Schlangenöl verkauft wird.
 
Zuletzt bearbeitet:
Oh man ich hasse diese Aussagen. Sie sind so dämlich und irgendein Depp muss sie unter jede Nachricht schreiben.

Es ist völlig normal das Standards verabschiedet werden und es dauert immer bis sie dann in finalen Produkten erscheinen.

Vielen Dank für deine erläuchtende Feststellung, die jedem klar ist, der sich auch nur Ansatzweise mit der Materie beschäftigt.
Btw. Verwarnung incoming. User pauschal als "Depp" zu betiteln, weil sie anderer Meinung sind als du, kannst du hier vergessen. :fp
 
Prinzipiell gute Sache, aber ich wäre schon mit UHD 100Hz mehr als zufrieden, daher wäre ich mit DP 1.3 zufriedenstellend bedient.
 
Warum denn nicht gleich 1.4 verbauen, sobald möglich? Ist ja abwärtskompatibel. Mich würd es überhaupt nicht stören, wenn manche Firmen 1.3 einfach überspringen.

Der Standard 1.3 ist jetzt fertig allerdings ist die dafür notwendige Technik noch so groß dass sie in keinen flachen Bildschirm passt.
Damit Displayport 1.4 in den Bildschirm verbaut werden kann benötigt es erstmal die ganze neue Technik als kleine Chips. Und anfangs wird diese Technik und die Chips für die Hersteller verdammt teuer sein.

Im Bildschirm macht 1.4 eh noch kein sinn weil es abgesehen von unbezahlbaren OLED Panels scheinbar nicht mal die LCD Panels gibt welche UHD@120Hz@HDR schaffen. Es sind noch nicht mal UHD@120Hz Monitore/Panels angekündigt.

@fullHDade Die Synctechnologien als Gamer "Schlangenöl" Kram zu bezeichnen zeugt mMn. von Ignoranz.
FreeSync wurde anfangs von AMD entwickelt um den durch das Panel erzeugt Strombedarf zu senken da das Panel seltener aktualisiert werden muss.

Ich bin mir sicher dass die Synctechnologien auch bald im Professionellen Bereich überall da eingesetzt werden wo konstante Framerates nicht sicher gestellt werden können!



Mich würde es jetzt echt mal interessieren ob die 1.2a Erweiterung fest in Displayport 1.3 verankert ist oder ob es auch da eine Erweiterung bleibt!
 
Vielleicht auch umso besser, dass DP1.3 übersprungen wird, dann würde man unter Umständen nicht in Versuchung kommen einen UHD@100Hz zu kaufen um nur 1-2 Jahre später es zu "bereuen" oder wieder einen über neuen Kauf (€€€) nachzudenken.
 
@KeinNameFrei
Ich finde mit ‚einfach überspringen‘, machst Du es Dir mit Deiner Argumentation etwas zu leicht.
Wenn ich mir da allein nur die Liste der Abkürzel betrachte: USB-C, Thunderbolt, MST, HDR, FEC (was immer das sein mag), HDMI2.0a, DSC,
da bin ich mal der Meinung, dass der eine oder andere Hersteller mit einem gut gefüllten Notizblock in seiner Entwicklungsabteilung aufschlägt, um einen ganzen Batzen Hausaufgaben zu verteilen.
Also wird man für DP1.3 irgendwo mal einen Punkt finden, wo erstmal gut ist.
Und bis hier hin ging‘s noch nichteinmal um höhere Auflösungen oder mehr Hertz.

Aber der Gamer heult: ‚Und syncen, wo ist das syncen?
Ich will syncen, alle meine Kumpels wollen syncen, also will die ganze Welt syncen.‘


Der psychologische Kniff ist wohl, dass der User kein Problem hat, dass seine GraKa ‚mehr‘ kann als sein Moni.
(Beispiel: DisplayPort konnte ‚schon immer‘ UHD -anfänglich allerdings nur mit Klimmzügen-, dies hat aber keinen gejuckt/interessiert, weils meilenweit und auf Jahre hinaus keinen UHD-Moni zu erwerben gab.)
Bietet allerdings sein neuer Monitor mehr als die GraKa, wird der Endkunde, mit einer wohl missmutigen Grundhaltung, mit seinem Dilemma beim nächsten PC-Dealer vorstellig und schließlich mit einer bunt verpackten neuen Platine und einer Ratenzahlungsvereinbarung den Laden verlassen.

@NasaGTR
den Schuh mit der Ignoranz ziehe ich mir an.:)
Ich -der erklärte Nicht-Gamer- fragte mal in einem anderen Thread ganz brav und ernsthaft, obs fürs syncen vielleicht auch außerhalb der Zockerwelt Vorteile/Anwendungen gäbe. Ich erhielt derzeit keine verwertbare Antwort.
Also Frage an Dich: Was wären das für professionelle Bereiche?
Weißt Du, ich arbeite nämlich professionell am Computer….
Sprich: jemand gibt mir Geld dafür, nur damit ich die Maus ein wenig rumschubse.
Und da ich mir seit mittlerweile fast 25 Jahren die Augen an Generationen von Computermonitoren versaue, wäre endlich mal was mit 120Hz sehr nett, ganz ungesynct.
(um hier nicht sogar auch meinen Dornröschenschlaf haltenden OLED-Thread zu verweisen.)
Aber leider finde ich 40-Zoll-UHD mitllerweile geiler als die mickrigen Monis, in denen viel Hertz steckt.

Ich schließe mich also III’s letztem Posting an.
 
Zuletzt bearbeitet:
Gibt es eigentlich einen Grund wieso TV's nicht standardmäßig mit DP ausgestattet werden? Es gibt zwar vereinzelte Panasonic 4k Modelle mit DP aber die haben einen hohen Inpulag!
 
Zuletzt bearbeitet:
Weil es im Multimediabereich/Hifi Geräte auch nur mit HDMI gibt. Würden Geräte mit DP auf den Markt kommen, würde DP auch für TVs interessant sein.
 
Ich -der erklärte Nicht-Gamer- fragte mal in einem anderen Thread ganz brav und ernsthaft, obs fürs syncen vielleicht auch außerhalb der Zockerwelt Vorteile/Anwendungen gäbe. Ich erhielt derzeit keine verwertbare Antwort.

Bis auf den niedrigeren Stromverbrauch bei freesync Monitoren, wüsste ich jetzt auch keinen.
Macht aber mMn. nur bei Notebooks wirklich Sinn.
Wobei, ggf. merkt das ein Unternehmen, wo täglich hunderte Monitore im Einsatz sind, doch an der Stromrechnung.
 
verrichteten die Sync-Technologien auch auf dem Desktop ihre Arbeit?
Ne oder?
Also ich mein so typische Büroanwendungen wo man zwischen Browser, Excel, Mail und anderen Programmen die man braucht (CAD, CANape, Photoshop und sonst was) jongliert
 
In den von dir genannten Szenarien, wird man heut zu Tage mit den FPS nicht unter die Frequenz des Displays fallen.
Von daher wird da auch nichts gesynct.
Zumindest sehe ich das so.
 
@google
Warum‘s nur selten DP an TV-Sets gibt?
Müsste man mal googeln…
Wahrscheinlich weil zwischen dem kleinen, mit einem DP-Symbol geschmückten, Plastik-Loch in der Fernseherrückwand und dem Display wohl mehr! als nur ein Stückchen Flachbandkabel benötigt wird.
Da Du beim TV-Erwerb aber schon für den Kopierschutzmechanismus-Rattenschwanz namens HDCP bezahlen musstest, bleibt den armen Fernseherherstellern kaum noch was von der schmalen Marge übrig, Dir was nützliches ins Gerät zu schrauben.


@NasaGTR
Aha, syncen kann den Energieverbrauch senken.
Wusst ich nicht.
Das hört sich ja ganz freundlich an: AMD als Öko-Truppe mit Verantwortungsbewusstsein für unser aller Klima und die liebe Umwelt.

Oder ist es vielleicht doch eher dem Speichertakt-Rüstungswettlauf mit Nvidia geschuldet, dass AMD, auf der Suche nach immer protzigeren Zahlen, immer noch mehr Strom in ihre Platinen jagte, bis ihnen rotglühend der Hitzetod alle Schaltungen durchbrennen ließ.
Und sie händeringend nach irgendeinem Strohhalm griffen, der Abhilfe versprach, um mit der ‚eingesparten Energie‘ eine weitere Shader-Bank als Heizöfen auf die Platine löten zu können.
(Schlan-gen-öl, Schlan-gen-öl, ja das macht die GraKa schnöhll.):)
(melodie: H. Schneider, lyrics: fullHDade)

Aber es haben sich wohl genug Leute gefunden, die es als Hobby für sich entdeckten, Aquariums-Schläuche in ihre Gehäuse zu schrauben, weil die Lautsprecher am Computer die turbinenartige Lüfter-Geräuschkulisse nicht mehr überbrüllen konnten.

Für mich ein Grund mehr das syncen als Irrweg zu betrachten.
 
Zuletzt bearbeitet:
Es ist mMn. nur logisch, dass Sync endlich grundsätzlich eingesetzt wird, da es mMn. einfach nur sinnig ist, dass die Monitorfrequenz immer mit den ausgegebenen FPS deckungsgleich ist.
 
@brainorg
Bin ich grundsätzlich bei Dir.
Der Münchner sagt: Wenn’s scheeh macht..
Mich drängt es aber, mit meinem Technik-Verständnis nach Hausfrauen-Art, zu orakeln, dass syncen nur ein letztes Aufbäumen ist, der im Grenzbereich werkelnden GraKa-Architektur eine Krücke zu reichen, und bald Schnee von gestern sein wird.

nachträgliche Texterweiterung
Ich finde es nicht hilfreich, dass AMD und Nvidia derzeit ihre Ressourcen darauf verwenden müssen, mächtig auf den Busch zu klopfen, um mit professioneller Marketing-Augenwischerei und halbvergorenen Technik-Häppchen zu versuchen, die eigene sync-Entwicklung als die bessere Technik dazustellen, anstatt kontinuierliche Arbeit abzuliefern.
Als ‚Krönung‘ verbastelt AMD sein Sync nun auch ins HDMI-Protokoll.
Auf der anderen Seite erzählen ihnen die DISPLAY-Hersteller, was ihre Screens alles so könnten, wenns denn nur die passende Elektronik und die entsprechenden Übertragungsprotolle gäbe.
Der Display-Hersteller könnte per heute! 10bit-5k-Displays mit HDR und 144Hz bauen.
Nur die Elektronik kann’s, noch auf Jahre hinaus, nicht befeuern.
Wobei: sie könnte es wohl, wäre aber nicht spieletauglich.
Na, da hätte ich als AMD- oder Nvidia-Boss aber auch keine Lust drauf, dass 6 Milliarden wütende Zocker mit brennenden Fackeln mein Verwaltungsgebäude stürmen und Randale machen: Spie-len, Spie-len! Syn-cen, syn-cen! 10-Bit-Ork-Blut! 10-Bit-Ork-Blut!
Und der Displayhersteller ist schlau genug, seine Fortschritte bei 6k bis 8k-Auflösungen nur in homöopathischen Dosen darzulegen.
Und erst wenn diese Züge irgendwann durch sind und die Kasse klingeln ließen, dann! (aber erst dann) rücken wir damit raus, was man eigentlich!!! mit OLEDs anstellen kann.

(Ja ich weiß: Technik ist ständig im Wandel. Man muss kein Prophet sein, um Ende und Anfang irgendeiner Schaltkreis-Ära vorauszusagen.)

Apropos Schaltkreis-Ära: Was hält eigentlich Intel vom syncen?
Für Office/Internet, selbst an 2 UHD-Monitoren, reicht der interne HD-Chip auf den i-Prozessoren.
(Und erklärt, warum mein Laptop, trotz fetter Nvidia-GraKa, meist völlig geräuschlos seinen Dienst tut.)
 
Zuletzt bearbeitet:
Ach brainorg, was würd‘ ich ohne Dich nur machen?:d
Wiedermal: thx a lot.
Und ich dachte immer Intel und Nvidia sind ganz dicke Kumpels auf ihren Wegen die marktbeherrschenden Anbieter ihrer Sparten zu sein.
Und vor allem zu bleiben!
Du wäscht mir heut‘ mein Patschehändchen, dafür wasch ich morgen auch Dein Patschehändchen.

Oh, ich sehe gerade, dass jetzt noch ein paar Jungs mehr vor mir stramm stehen müssen:
Weil ich mittlerweile nämlich Stabsgefreiter geworden bin.
Ich kann meine Berufung zur Konsekration in den Admiralitäts-Stand bereits schon deutlich spüren.
 
Zuletzt bearbeitet:
Was HDR bedeutet ist dir aber schon klar oder? Soweit ich weiß, wird damit der Kontrast extrem erhöht, hat also nix mit 10bit oder 8bit Panel zu tun - wenn ich mich täusche steinigt mich.
Gute Frage, aber für mich bedeutet HDR einfach eine extreme Erhöhung des Kontrastes. *schulterzuck*

Darüber haben wir auch gerade auf CB gesprochen... Fakt ist, dass für den extrem höheren Kontrast, sei es bei OLED-, QD-Displays oder mittels Local Dimming, auch eine feinere Aufteilung der Tonwerte nötig ist. Da reicht 8bit nicht mehr aus.
Außerdem ist der hohe Dynamikumfang des Displays nicht alles. Es sollen ja auch HDR Inhalte dargestellt werden.
 
Darüber haben wir auch gerade auf CB gesprochen... Fakt ist, dass für den extrem höheren Kontrast, sei es bei OLED-, QD-Displays oder mittels Local Dimming, auch eine feinere Aufteilung der Tonwerte nötig ist. Da reicht 8bit nicht mehr aus.
Außerdem ist der hohe Dynamikumfang des Displays nicht alles. Es sollen ja auch HDR Inhalte dargestellt werden.

So ist es.
Um die neue Bittiefe richtig ausnutzen zu können, benötigt ein LCD-oder OLED-Panel neben mindestens 1.000 candela Leuchtstärke übrigens am besten deutlich mehr als die für die Quelle vorgeschlagenen 12 oder 10 bits.
In der Hardware sind die Abstufungen andere als im Quellsignal, sodass für die Umrechnung mehr Tiefe erforderlich ist.
Um eine perfekte Bildwiedergabe zu erzielen, müssen alle technischen Parameter zusammenpassen. So war die alte Technik, also 8-Bit-Auflösung und eine exponentiale Gammakurve korrekt für Bildröhren mit maximal 200 candela Helligkeit und analogem Grundrauschen.
Da moderne Schirme viel präziser arbeiten und deutlich heller sind, werden die kleinsten Bitstufen (Quantisierung) nun oft aufgezogen, bis das Auge sie als Schlieren differenzieren kann. Das stört vor allem in dunklen Szenen.
Noch schlimmer wird es bei erweitertem Farbraum.
Bei 8 Bit Auflösung beschreiben nur 120 Farbsättigungsstufen den Weg vom Graupunkt zu einer Ecke des Farbdreiecks.
Vergrößert sich der Weg von der aktuellen Norm (BT.709, schwarz) zu dem von Ultra-HD (BT.2020, weiß), werden auch die einzelnen Stufen größer und leichter sichtbar.
Im Ultra-HD-Farbraum sind 8 Bit also inakzeptabel, weshalb 10 Bit (viermal so viele Werte) die Minimalanforderung sind. Die neue EOTF (Elektrooptische Transferfunktion) zeichnet kritische dunkle Bereiche dazu noch erheblich feiner als das klassische Gamma.
 
Zuletzt bearbeitet:
@fullHDade

"Und ich dachte immer Intel und Nvidia sind ganz dicke Kumpels"

Intel ist eine CPU und Nvidia eine GPU :d
 
Zuletzt bearbeitet:
…aber Intel ist auch eine IPG und AMD ist CPU und GPU
Deshalb sind Intel und AMD erbitterte Erzfeinde und gönnen sich nicht den Dreck unter den Fingernägeln.
Also hält Intel mit Nvidia, die ja nicht im CPU-Becken fischen, Händchen und sie sprechen sich exklusiv über ihre Bits&Bytes und Schaltkreise ab, damit‘s gut abgestimmt läuft, Entwicklungsressourcen schont und man sich als jeweils marktführender Anbieter seines Segmentes präsentieren kann. (Nicht zu vernachlässigen ist übrigens, dass Intel auch ein MB ist.)
Und damit Nvidia den IPG-Keks im Intel-Prozessor schluckt, gibt es ein exklusiv-Handshake, was die Intel IPG wuppen kann, und ab wann die gepimpte Geforce ran darf.
Intel und AMD haben sich über Jahrzehnte bis aufs Blut, bis aufs Messer bekriegt. Sie haben Milliardenverluste in Kauf genommen, zu versuchen den anderen auf Nimmerwiedersehen aus dem Markt zu boxen. (Firmen, dessen Fertigungsflächen, die Größe kleinerer Städte haben.)
Ich hätte nie gedacht, dass Intel jemals bei AMD an der Tür scharren würde, ob sie von denen ein Stück Technik haben dürfen.
Und da Intel schonmal versucht hat auch GPU zu sein, und scheiterte, hat AMD bestimmt immer ein Auge auf Intel, ob die GPU-mäßig gerade was aushecken.
Wenn also künftig Freesync in der Intel-IPG steckt, haut der derzeitige Deal mit Nvidia nicht mehr hin. Und Intel ist reich und mächtig genug, jederzeit wieder das GPU-Feld beackern zu können. Und wenn es auch nur darum geht, seinen Mitstreitern in die Suppe zu spucken.
Und alle wollen sie ein Wörtchen mitreden, in hehren Vorhaben DP-Standard. (Thread-Topic)
 
Zuletzt bearbeitet:
Vergrößert sich der Weg von der aktuellen Norm (BT.709, schwarz) zu dem von Ultra-HD (BT.2020, weiß), werden auch die einzelnen Stufen größer und leichter sichtbar.
Eine Ausgabe mit 8bit pro Farbkanal limitiert letztlich schon in den Unbuntfarben (ist aber selbst in professionellen Bereichen der grafischen Industrie weiterhin üblich - im Videobereich sieht es anders aus). Hier ist das Auge ohnehin maximalempfindlich. Große Farbumfänge vergrößern die Problematik darüber hinaus vergleichsweise wenig.


In der Hardware sind die Abstufungen andere als im Quellsignal, sodass für die Umrechnung mehr Tiefe erforderlich ist.
Das ist richtig, wird aber im Prosumer-Segment und aufwärts auch entsprechend berücksichtigt. Der Scaler kann hier immer auf Tabellen mit mindestens 12bit pro Farbkanal zurückgreifen. Das verlustfreie Transformationsergebnis bleibt via Dithering trotz stets deutlich gröber arbeitender Paneltreiber bis zur Anzeige erhalten.

Die neue EOTF (Elektrooptische Transferfunktion) zeichnet kritische dunkle Bereiche dazu noch erheblich feiner als das klassische Gamma.
Eine Gamma 2.2 Tonwertkurve ist dort bereits sehr dicht - perzeptive Ansätze, wie die Helligkeitsverteilung in CIELAB, sind in den absoluten Tiefen linear, lösen hier also deutlich gröber (!) auf. Die Ansätze für HDR unterliegen allerdings anderen Bedingungen und Voraussetzungen (dort drängt sich eher ein Vergleich mit der DICOM Tonwertkurve für den Medizinbereich auf), daher ist das nicht direkt vergleichbar.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh