8K-Kameras: Regisseur von "Guardians of the Galaxy Vol. 2" begrüßt die Technik

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.971
red_8k_w.jpg
James Gunn, seines Zeichens Regisseur des aktuellen Blockbusters„Marvel‘s Guardians of the Galaxy Vol. 2“, hat bereits mit8K-Kameras gearbeitet. Genau genommen wurde das neueSuperhelden-Abenteuer rund um Star-Lord und Co. nämlich mit einerWeapon 8K VV bzw. dem Sensor RED Dragon VV gedreht. Wer sich nun fürdie Zukunft eine native 8K-Auswertung erhofft, sollte aber nicht zueuphorisch werden: Das Digital Intermediate, auf dem die gesamte PostProduction basiert, liegt „nur“ in 4K vor. Selbst das ist imÜbrigen bei aktuellen Filmen immer noch keineSelbstverständlichkeit, da die meisten Filme in der Post Productionin 2K bearbeitet werden, um Zeit und Geld zu sparen. Gerade...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ruckelig wirds eigentlich nur wenn nicht aufgepasst wurde.
Man bleibt bei 24/25p da der gesamte Workflow seit Jahren drauf aufbaut. Für den Europäischen Raum wären eh als nächstes nur 50p möglich. Aber eigentlich geht es der Branche hier um die "Kinoästhetik" welche mit 180° bzw 1/50s Shutter und 25P durch das dementsprechende Motionblur erzeugt wird und auch das Ruckeln unterlässt. Voraussgesetzt wie gesagt es wurde ordentlich aufgepasst und die Kamerabewegungen daran angepasst. ;)
 
4K, 8K, ne Million K...

Die Auflösung ist sowas von egal. Wichtig ist, dass der Inhalt stimmt. Und der ist leider immer öfter einfach nur billiger Mist.
Statt ordentlicher Regie, Story und schauspielerischer Leistung gibts Actiongewitter mit maximalem CGI Einsatz.
Das mag ja mal für einen "Hirn aus" Abend gut sein, aber wirklich gute Unterhaltung ist das einfach nicht.
 
Je besser die Aufnahme umso besser auch das letztendliche Medium Film, selbst wenn es sich dabei nur um eine Standard Bluray handelt, wie die Bluray Baraka welche auf einem 8k Master basiert, beweist, da alles digitalen Sensoren auf das Bayer Demosaicing setzen, bei welchem jede Sensorzelle nur für eine der 3 Grundfarben empfänglich ist, so das der korrekte Farbwert aus den umliegenden Pixeln interpoliert werden muss. Werden nun 8k uaf 4k oder 1080p herunterskaliert, stehen deutlich mehr Farbinformationen pro Pixel zur Verfügung und das Bild gewinnt deutlich, auch wenn die Wiedergabeauflösung deutlich unter der Aufnahmeauflösung liegt. Die meisten Bluray bieten ja nicht einmal ansatzweise das Potential, was 1080p zu leisten imstande ist.
 
Nun der gute Linus hat da mal bissle Geld investiert und sich ja so gefreut XD.
 
Nichts ist schlimmer als der Soap Effekt bei Filmen. Dieses Motionflow bei den TVs zerstört den Film. Bei Dokus und Sportfilmen gern, aber nicht bei richtigen Kinofilmen. Der Hobbit mit HFR war echt nicht schön.
 
Also ich hätte lieber eine höhere Framerate bei 4K statt 8K und ruckelige 24p.
wie gut, das deine Aussage kaum Gewicht hat.
^^ Deine Aussage genau so stussig wie vor 1-2Wochen hier im Forum "alle TFT und ISP sind Schrott, nur oLED zählt" "alle HDDs sind übrigens auch reiner Kernschrott" :haha:


HFR
Kerwin, der an der Universität von Arizona regelmäßig Vorlesungen zum Thema „Wahrnehmung und Bewusstsein“ hält, gibt zwei gravierende Punkte an, die bei der Erfahrung von Film eine entscheidende Rolle spielen:

„Die meisten Wissenschaftler stimmen der Erkenntnis zu, dass wir 40 bewusste Momente pro Sekunde wahrnehmen. In anderen Worten: unsere Augen sehen mehr, aber wir bekommen nur von 40 Momenten etwas mit. Wenn also eine Bildwiederholungsrate 40 oder mehr erreicht, sieht es für uns wie die Realität aus. Wenn sie deutlich darunter liegt, bei 24 oder auch 30 Bildern pro Sekunde, findet eine Unterscheidung statt, dann ist es ein Unterschied - und wir wissen sofort, dass das was wir sehen nicht die Realität ist.“

Dass uns 48 Bilder pro Sekunde also seltsam vorkommen hat zuerst einmal nichts mit Gewöhnung zu tun, sondern lässt sich wissenschaftlich nachweisen. Warum wir Filme im HFR-Format nicht einfach auch als Fiktion ansehen können, hat zusätzlich mit dem so genannten suspension of disbelief, also der Aufhebung des Zweifels an der Wahrheit des Gezeigten zu tun:

„Es ist psychologisch: wir brauchen 'suspension of disbelief' und dieser entsteht durch die niedrige Framerate. Diese niedrige Framerate erlaubt es unserem Gehirn so zu sagen 'Okay, ich nehme keine 40 bewusste Momente pro Sekund mehr wahr, ich nehme nur 24 oder 30 wahr und deshalb ist das nicht real und ich kann die künstlichen Konventionen der Beleuchtung, des Schauspiels und der Requisite akzeptieren'. Dies ist eine inhärente Weise, wie unser Gehirn Dinge wahrnimmt. 24 oder 30 Frames pro Sekunde ist ein inhärenter Teil unserer Kinoerfahrung. Es ist die Art und Weise, wir wir Kino akzeptieren. Es ist die Art und Weise, wie wir unseren Zweifel aufheben.“
 
Nun der gute Linus hat da mal bissle Geld investiert und sich ja so gefreut XD.
Der hat echt nen Traumjob... kann alles mögliche Technikzeug kaufen und verdient damit auch noch mehr Geld!! :d


@REDFROG
Durchaus interessante Ansicht, aber wie Performer schon andeutete. Dass man nicht wirklich ein Problem mit 60 B/s hat, zeigen ja grade Games.
Also ist das aufwendig Erzählte von dem Professor da irgendwie Quatsch.
 
Zuletzt bearbeitet:
wobei die Spiele ja optisch nicht an die Realität anlehnen ... dadurch ergibt sich vielleicht die beschriebene Akzeptanz nicht aus der Bildanzahl sondern aus der grafischen Ansicht :hmm:?
 
Also ich bevorzuge auch 24p und kann das auch relativ simpel umschreiben, ohne von Kohärenzen dystrophober Anomalien zu sinnieren.
Bei einer flüssigen jederzeit scharfen Wiedergabe, wird der Blick nicht auf das vom Regisseur vorgebene Ebene gelenkt, denn die Kameraführung ist darauf ausgelegt, die unwesentlichen Elemente der Handlung im Judder verschwinden zu lassen. So gewinnt das ganze eher den Eindruck einer vermittelten Story und nicht eines livehaftigen Daseins. Höhere Bildraten lassen für mich Filme zu einem Making Off verkommen, alles wirkt auf mich total albern, so als würde ein Laientheather betrachten, man erkennt das Kämpfe gestellt werden usw. Das betrifft ja nun nur native Bildraten wie beim Hobbit. Kommt dann noch die Motion Interpolation dazu, wirds richtig gruselig, da natürliche Bewegungen eben nicht nach dem Schema einer Mittelwertbildung ablaufen. Der dann entstehende Soap Effekt, ist einfach grausig. Wenn ich versuche, so einen Film anzusehen, kommt null Spannung auf, ich finde es einfach nur albern.
 
Schonmal was von Blende, Brennweite, Bildkreis und deren Einfluss auf die Schärfentiefe gehört?
Das sind die Gestaltungsmittel, nicht die Bildrate.
Was glaubts du, warum ein Quentin Tarantino noch analog in 70 mm filmt und nicht auf "superkleinen" digitalen CCD- oder CMOS Sensoren (OK, die Red Weapon kommt ja zumindest schonmal an 35mm ran)

23,976 bzw. 24 Bilder/s ist schlichtweg ein Relikt aus der Analogzeit, als noch jeder Meter Film bezahlt werden mußte - und genau dieses Relikt wird mit Händen, Füsse und Zähnen verteidigt - genauso wie die Unterschiede der Bildwiederholraten bei den Fernsehstandards ins HD Zeitalter mitgeschleppt wurden
 
Die Argumente für 24p sind allerdings interessant, muss ich zugeben.

Tatsache ist es gibt unheimlich viele Mittel die verwendet werden um einen Film von anderen Dingen zu utnerscheiden. "Making offs" sind da in der tat ein perfektes Beispiel, denn man merkt den Unterschied immer extrem. Egal was für ein Film es ist. Nur ob da wirklich die Bildrate das Problem ist?..

Wäre schön wenn man das Vergleichen könnte. Ist allerdings recht schwierig.
Auf einem 60Hz Moni geht das wohl kaum denn 24 B/s gehen da nicht direkt drauf und vorallem muss das dann mit 2 kameras aufgenommen worden sein, denn digital vom einen ins Andere umrechnen (auch von 60 nach 24) wäre nicht das Selbe (selbst wenn es teilbar wäre, denn die Belichtungszeit spielt eine Rolle).
 
Zuletzt bearbeitet:
Vergleichbar wäre es eigentlich recht einfach mit einem 120hz TV bzw. zwei gleichen, wobei der eine das 24p Bild 5x anzeigt, der andere das 60p Bild 2x, beide parallel laufen lassen. Wichtig natürlich das beide Geräte von der Wiederholrate nativ zugespielt werden (kein 3:2 Pulldown) und jegliches Motion Plus deaktiviert ist.
Mit einer Kamera (bzw zweien davon) die sowohl 24p als auch 60p aufnehmen können, müsste man dann gleiche Aufnahmen parallel erstellen.
 
Zuletzt bearbeitet:
zur auflösung:
ich hab mal berechnet, dass bei einer auflösung von ca 27k das auge keine einzelnen pixel mehr wahrnehmen kann. daher denke ich das bei 32k auflösung in vielleicht 20 jahren schluss ist. die werbung wäre dann wohl auch so "schärfer als das auge".
edit: ich gehe dabei von erfekten augen aus mit dem man direkt vor einem 22zoll monitor klebt. vermutlich würde auch eine berechnung in 32k auf 16k downsized reichen. ab dem punkt lohnt es einfach nicht mehr die auflösung zu verbessern. :)

und an den fps muss dringend etwas getan werden. verstehe auch nicht wie man sich 24fps antun kann. es ruckelt ohne ende.
 
Zuletzt bearbeitet:
Na die Rechnung möchte ich sehen ... und wie dicht willst du für 16k am Monitor sitzen? 1/8 der Bildschirmdiagonale? 4k macht schon kein Sinn, wenn man 2x Bildschirmdiagonale entfernt sitzt ....
 
Bei 8k wird in der Praxis wohl schluss sein. Bis dahin dauert es aber auch noch ein Stück. Wir haben ja kaum Spiele am Markt die texturen auf 4k ausreizen. (Ryse, Witcher3 vielleicht?) Ich schätze nach 8K wird man keine Unterschiede mehr ausmachen können. Egal wie hochauflösend die texturen sind.
 
Also ich zocke Spiele auch lieber mit 144hz und fps. Aber Filme in über 24p sehen allesamt nach Soap aus. Deswegen 8k ja, mehr fps in Filmen nein.
 
zur auflösung:
ich hab mal berechnet, dass bei einer auflösung von ca 27k das auge keine einzelnen pixel mehr wahrnehmen kann. daher denke ich das bei 32k auflösung in vielleicht 20 jahren schluss ist. die werbung wäre dann wohl auch

Das soll doch bei 8K schon erreicht sein, hab ich zumindest mal gelesen. Aus dem Fenster gucken und ins TV gucken hat dann keinen Unterschied mehr.
 
Was glaubts du, warum ein Quentin Tarantino noch analog in 70 mm filmt und nicht auf "superkleinen" digitalen CCD- oder CMOS Sensoren (OK, die Red Weapon kommt ja zumindest schonmal an 35mm ran)

weil er wie alle kreativen Menschen einen leichten Hang zum lockeren Schräubchen hat und unbedingt sowas möchte ohne das es nötig ist :d
 
@mapim und Digi-Quick
Die benutzen RED Kameras sind die sehr seltenen Modelle mit VistaVision ähnlichen Weapon-Sensor und nicht die Modelle mit dem 8k S35/APS-C Sensor von dem im oberen Video erzählt wird.
Der VistaVision Sensor ist fast so groß wie der 65mm Film den z. B. Tarantino für H8 benutzt hat.

Noch eine allgemeine Klarstellung, die Kameras haben ein 8k Bayer Sensor, liefern also schon Systembedingt eher 4 bis 6k reale Bildauflösung. Wenn man dann noch das eigentlich nötige Oversampling und den Auflösungsverlust durch OLP-Filter, Bewegungsunschärfe und z. B. der benutzten Optik mit einrechnet landet man schnell bei 3 bis 4k.
Nur mit richtig guten CinePrimes, die Meist so viel kosten wie ein Golf erreicht man die für 4k nötigen Linienpaare pro Millimeter.
Da der Film dazu "nur" in 4k bearbeitet wurde und die 3D-Version gar nicht in 4k vorliegen kann, hat der Zuschauer am Ende nicht viel von einer durchgängigen 4k Produktion. Viel wichtiger ist ein 4k Projektor in den größeren Sälen, damit man im vorderen drittel keine Pixel mehr sieht.

Und so so neu sind Kameras mit 8k Sensor auch nicht, die Sony F65 gibt es schon seit knapp 5 Jahren und die 6k ARRI Alexa65 mit "nur" 6k aber dafür echt großem Sensor seit zwei Jahren.
 
egal ob mir 8k 4k oder 2k das macht den Film auch nicht besser. Da schaue ich mir lieber einen guten alten SW Film an.
 
Das soll doch bei 8K schon erreicht sein, hab ich zumindest mal gelesen. Aus dem Fenster gucken und ins TV gucken hat dann keinen Unterschied mehr.
Wer mir bereits heute sagen will, dass er auf 'nem guten 4K 65"er auf (niedrige) 3m Sitzabstand noch einzelne Pixel sieht hat maximal Probleme mit sich selbst, aber nicht mit dem Gerät.

Grüße
Thomas
 
Ich würde aber selber nicht behaupten wollen, das nur weil man einzelne pixel in diesem beispiel 4k@3meter nicht wirklich wahrnehmen kann, ein 8K Gerät in der gleichen Situation mit guten 8K Material nicht wiederrum doch noch besser aussehen könnte....
Vor allem aber ist es eben abhängig vom Bildmaterial. Und bis wir gutes 8k material haben dauert es.
In der vergangenheit hat man ja immer schon gedacht...noch besser geht es nicht bzw wäre nicht wahrnehmbar. Ein flüssiger 8k hdr Clip wäre dann wohl langsam so, als würde man durch ein fenster schauen.
 
Stimmt, man sieht bei Blu-Ray Filmen wie Lucy, Chappie, Erlöse uns von dem Bösen usw. sofort, dass die von einem echten 4K Master stammen.
Trotzdem nerven bei schnellen Bewegungen die Artefakte der Zwischenbildberechnung. Mit z.B. 48p wäre das kein Thema mehr aber man braucht
Kameras die es können und durch den doppelten Speicherbedarf braucht man schnelleres Internet für Streaming und neue Datenträger für Medien.

Die absolute Blu Ray Bildreferenz stammt aber von einem 2K Master :) => Oblivion
 
Schonmal was von Blende, Brennweite, Bildkreis und deren Einfluss auf die Schärfentiefe gehört?
Das sind die Gestaltungsmittel, nicht die Bildrate.
Was glaubts du, warum ein Quentin Tarantino noch analog in 70 mm filmt und nicht auf "superkleinen" digitalen CCD- oder CMOS Sensoren (OK, die Red Weapon kommt ja zumindest schonmal an 35mm ran)

23,976 bzw. 24 Bilder/s ist schlichtweg ein Relikt aus der Analogzeit, als noch jeder Meter Film bezahlt werden mußte - und genau dieses Relikt wird mit Händen, Füsse und Zähnen verteidigt - genauso wie die Unterschiede der Bildwiederholraten bei den Fernsehstandards ins HD Zeitalter mitgeschleppt wurden

Und trotz Blende und Zerstreuungskreisen finde ich die 48p von The Hobbit grausam, genau wie Motion Interpolation. Auch kann man nicht beliebig mit der Blende spielen, da die Belichtungsspielräume auch begrenzt sind. Ich bevorzuge 24p, die Gründe musst du nicht nachvollziehen können, das tangiert mich nicht. Ich konnte bei Tarantino Filmen bislang auch keinen übermäßigen Einsatz von Schärfentiefeeffekten im Vergleich zu anderen Filmen erkennen, welche auf Kleinbildformat gedreht wurden. Vielmehr dient das ganze wohl eher dem Aspekt der erhöhten Auflösung. In the Dark Knight, bestachen auch die IMAX Szenen besonders durch ihre exzellente Auflösung und nicht durch extrem geringe Schärfentiefe.
 
Wenn es nach mir gehen würde, sollen die lieber echtes 4K / 8K inklusive Post Production mit den flüssigeren Kameraschwenks bei HFR verbinden. Den 3D Effekt (Kino) find ich nicht so gut und nervig aufgrund der Brille. HDR hat mich aufgrund des meist dunkleren Bildes bei bisherigen UHDs auch nicht vom Hocker gehauen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh