...Die sogenannten Digital Intermediates der Kinofilme, auf deren Basis die gesamte Post Production durchgeführt wird, liegen nur in 2K-Auflösung vor. Jene Verfahrensweise ist bei vielen Kinofilmen üblich, um Kosten zu sparen – speziell bei Blockbustern mit vielen Spezialeffekten. Wollte man Filme wie eben „Life of Pi“ nun jedoch nativ in Ultra HD anbieten, müsste man die gesamte Post Production im Grunde neu aufrollen...
Das ist nur die halbe Wahrheit, den das größere Problem ist bei den Filmen die VXF.
Noch eine Bemerkung am Rande, mit Spezialeffekten (SFX) sind beim Film eher die analogen Effekte wie Explosionen oder gar Maske gemeint. Alle Effkte die nicht live am Set entstehen sondern nachträglich generiert werden sind VFX, also Visual effects. Eine Stufe darunter wird dann noch mal in CGI, also Computer generierte Bilder/Effekte und nicht Computer genierte Effekte unterteilt. Die Verbindung von VFX und Filmbild nennt man dann Compositing.
Die Digital Intermediates (DI) hat ihren Ursprung aus der Zeit in der Filmmaterial eingescannt/digitalisiert wurde und nach der der Bearbeitung wieder auf Film aus belichtet wurde.
Daher der Name, heutzutage werden aber fast 95% alle Filme schon digital aufgezeichnet und digital als DCP ausgeliefert.
Eine durchgängige 4k DI ohne CGI ist schon seit über 10 Jahren möglich und seit ein zwei Jahren auch mit jedem besseren Gam-PC zu realisieren, die Software "DavinciResolve gibt es sogar kostenlos.
Das große Problem entsteht aber schon viel früher, nur sehr wenige Filme der letzten 10 Jahre wurden auch wirklich mit einer echten 4k Kamera gedreht. Leider schimpfen sich schon seit knapp 8 Jahren Kameras mit 4k, aber hier hat der Sensor einfach nur 4k Pixel horizontal. Mit dem verwendeten Bayer-Muster dieser Bildwandler und der Beachtung der nötigen Abtastrate braucht man aber schon einen Sensor mit 6 bis 8k Auflösung. Dazu muss durchgängig mit sehr hochwertigen Cineoptiken gearbeitet werden, die diese Auflösung auch auf dem Sensor abbilden können.
Eine weiterer Killer von 4k ist Bewegung und die typische Verschlusszeit von 1/48 bzw. 1/50 in Ländern mit 50hz Netz. So bald sich die Kamera nur ein bisschen bewegt fällt die Auflösung wie ein Kartenhaus zusammen und das hat erst mal nichts mit der Komprimierung zu tun, sondern ist ein reines analoges Problem.
Die meisten Gamer werden diesen Effekt schon bei 4k und 30p bemerken und kennen den Unterschied zu 50/60p.
Bei Spielfilmen ist dieser flüssige Computerspieleffekt eher unerwünscht.
Nun komme ich noch mal zu den VFX, hier werden meist recht komplexe Elemente wie zB Wasser berechnet. Als Beispiel nehme ich einfach mal die Anfangssequenz von "Hereafter",
da es hier ein nettes VXF-Breakdown gibt:
https://www.youtube.com/watch?v=YXNi45pWrTU
Wenn man solche aufwendige Physiks und Crowd-Animation, auch noch in echten 4k berechnen lassen würde, dann müsste man dafür die vierfache bis hundertfache Renderzeit einplanen und diese Zeit hat man einfach nicht. Aus diesem Grund werden sie nur in 2k berechnet und dann später beim Compositing hochgerechnet.
Somit ist das eigentliche Problem die immer komplexeren VFX und die fehlende Rechenkapazität und Zeit, die Folgen sind dann das fehlende Budget dafür.
@soth
Echte 4k Aufnahmen sind auch mit modernen Kameras wie der Alexa65, Sony F65 oder Red 6k-Dragon zu realisieren und sehen dazu meist noch deutlich besser aus als das 3perf 35mm Material von Herr der Ringe. Die beiden Kameras sind aber kein Jahr alt und somit müssen wir uns noch etwas gedulden, den Anfang macht die Tage TheRevent.