Der Dunningprozess fängt damit an, dass man einen Film von der Hintergrundszene macht, vor der alles stattfinden soll. Dieser Film ist zwar schwarzweiß, wird aber komplett mit gelber Farbe im positiv entwickelt. Dieser Film sieht also aus wie eine lange Reihe von gelben Diaphotos der Szene.

Was ist ein gelbes Dia? Das ist ein Dia, bei dem vom weißen Licht an einigen Stellen der Blauanteil fehlt, denn weißes Licht ohne Blau sieht gelblich aus. Es mag also gelb aussehen, aber eigentlich entsteht das ganze Bild nur dadurch, dass mal mehr und mal weniger blaues Licht durch das Dia kommt. Hinter dieses gelbe Dia kommt jetzt ein zweiter Film, der noch nicht entwickelt ist und beides kommt zusammen in die Kamera. Deswegen nennt man das ganze auch Bipack.

Die Schauspieler spielen ihre Szene jetzt vor einem blauen Hintergrund, werden aber selbst mit gelben Licht von vorn angeleuchtet (zum Beispiel aus einer Natriumlampe). Die Schauspieler sehen jetzt komplett gelb aus – ohne jedes Blau. Blau kommt nur vom Hintergrund. Und dadurch passiert dann die Magie. Das gelbe Licht kommt ganz ohne Probleme durch das Dia durch und man wird darin keine Spur vom Hintergrundbild mehr sehen. Ganz im Gegensatz zum blauen Licht vom Hintergrund.

Überall wo die Kamera nur den blauen Hintergrund sieht, muss das blaue Licht erst durch die gelbe Schicht vom Film davor hindurch. Um so gelber diese Schicht an einer Stelle ist, um so weniger blaues Licht kommt durch. Zum Glück ist alles schwarzweiß. Deswegen ist es damit schon getan, denn es ist egal ob so ein Film mit gelben oder blauen Licht beleuchtet wird, das Ergebnis ist immer das gleiche.

Am Ende hat man damit ein Bild vom Hintergrund auf Film – aber nur dort, wo der Bluescreen war. Dort wo die Schauspieler sind, ist kein blaues Licht und so erzeugen die Schauspieler automatisch ihre eigene Maske, ohne dass jemand den Pinsel schwingen muss. Danach ist es nur noch eine Frage des Budgets, der vorhandenen Zeit und des Talents, um durchaus beeindruckende Effekte zu erzielen.

Wenn das eine oder das andere fehlt (und wann ist das schonmal nicht der Fall), sieht es allerdings im Extremfall aus wie Schauspieler vor der Leinwand im Kinosaal. Das passiert vor allem dann, wenn die beiden Filme in der Kamera verrutschen oder sich die Kamera bei der Aufnahme bewegt.

1 / 2

Kommentare (7)

  1. #1 BreitSide
    Beim Deich
    23. November 2015

    Sehr interessant! Hab ich das richtig verstanden, dass mit dem BlueScreen ein SW-Film gedreht wird? Wie wird der dann koloriert? Doch nicht von Hand?

    Oder ist das schon so lange her? Heute kann man doch live vor dem BlueScreen filmen? Und das ist doch auch schon eine Weile her (wird schön gezeigt beim ewig grüßenden Murmeltier)?

    Heute haben die Wetterfrösche ja ein echtes White- (oder Smart-)Board.

  2. #2 BreitSide
    Beim Deich
    23. November 2015

    …Abo… :roll:

  3. #3 Julia
    24. November 2015

    @BreitSide
    Also die alten schwarz-weiß Filme wurden tatsächlich Bild für Bild von Hand koloriert bis noch Mitte der 90er soweit ich weiß.
    Heute nehmen zwar Computerprogramme die Arbeit ab, aber die einzelnen Bilder müssen trotzdem noch nachkorregiert werden, weil Grenzbereiche, z.B. Haare oder durchsichtige Gegenstände noch immer nicht richtig erfasst werden können.

  4. #4 Roland B.
    24. November 2015

    Das beschriebene Verfahren betrifft doch Schwarzweiß-Filme, es geht nicht um nachträgliche Kolorierungen (Ausgangspunkt ist ja die Serie “Raumpatrouille”, die in SW lief, wie viele sich sicher noch erinnern). Die sind völlig unabhängig von vorherigen Trickeffekten.
    Ich denke, bei Farbaufnahmen passiert das mit dem Bluescreen ähnlich, nur daß die Filtertechnik so weit entwickelt ist, daß man nur einen ganz schmalen Streifen aus dem Spektrum ausfiltern muß, um den blauen Hintergrund auszublenden.

  5. #5 Roland B.
    24. November 2015

    Nachtrag: Bei den Liveaufnahmen handelt es sich ja sowieso um Digitalaufnahmen, da ist es ja möglich, auf dem Rechner exakt die Farbe der blauen Hintergrundpixel herauszurechnen. Und wenn bei tausenden von Farben genau dieser eine wert fehlt, merkt das der Zuschauer sicher nicht.
    Gibt aber auch Beispiele, wo das mal schiefgelaufen ist, weil z.B. ein Moderator auf seiner Krawatte Streifen genau dieses Blaus hatte, da sah man dann den eingeblendeten Bildschirmhintergrund streifenweise durch.

  6. #6 JoselB
    24. November 2015

    Eine andere moderne Möglichkeit ist, für die Maske infrarotes Licht zu verwenden. Man kann dann den Hintergrund infrarot ausleuchten und entweder direkt mit einer entsprechenden Kamera (sofern es sowas gibt, würde mich aber nicht wundern) oder mit Umlenkspiegel und Filtern aufnehmen. Der Vorteil ist, dass das ganze Unabhängig von der Farbe der Szene und auch für verschiedene oder schnell wechselnde Beleuchtung funktioniert.

    Hatte mal Paper gelesen, wo das in Kombination mit Highspeedkamera und Blitzlichtern verwendet wurde um in echtzeit die BRDF-Funktionen der einzelnen Bildpunkte zu berechnen und anschließend in verschiedene Lichtverhältnisse umzurechnen.

  7. #7 gedankenknick
    25. November 2015

    Zum Thema TRON – soweit ich weiß, war der Film (aus meiner Sicht leider) trotz des Aufwandes ein finanzieller Flop. Zumindest ohne Merchendising und die erst “kürzlich” inszenierten Fortsetzungen und Animationen und Compi-Spielen.

    Mit dem “per Hand bemalen der einzelnen Negative” wurde das m.W.n nach auch bei den ersten 3 (originalen) Star-Wars-Filmen und dem Lichtschwert-Effekt so gemacht. Ich meine mich an ein Interview mit George Lukas zu erinnern (so um 2010), wo er zu den sich immer weiter verbreiteten Fan-Filmen sagte, dass heutzutage jedermann mit einem handelsüblichen PC die FX-Effekte macht, die bei den Original-Filmen kaum zu bezahlen waren. (Dazu wurde gezeigt, wie eine Einzelperson an einem PC bei einem Fan-Film Bild für Bild die Lichtschwerter anklickte, woraufhin das Programm vollautomatisch eine Maske erstellte und sowohl den “Aura-Effekt” als auch die Farbe der Lichtklinge anpasste.)

    Eine weitere Möglichkeit, die (auch schon) in s/w gefilmt wurde, ist Vorsatzmalerei ( https://de.wikipedia.org/wiki/Matte_Painting ). Früher oft auf (die betreffenden Ausschnitte frei lassende) Glasplatten gemalt, durch die gefilmt wurde, macht man es heute halt meist digital.

    Apropos digital: Ich habe mal einen Filmbericht über “live-digital-Bearbeitung” gesehen, wo gezeigt wurde, wie Live-Bilder mit Verzögerung im Millisekundenbereich bearbeitet wurden. Da wurden z.B. Werbebanner auf den Fußballrasen eingeblendet, unter korrekter Berücksichtung der über die (nicht vorhandene) Werbung laufende Spieler, des Balls, der Schatten der Spieler, der Spielfeldbeleuchtung, der Rasenstruktur usw. Des weiteren wurde gezeigt, wie in das selbe Ausgangsbild unterschiedliche Werbungen simultan (für unterschiedliche Fernsehkanäle) “eingeblendet” wurden. Die Doku ist auch schon wieder Jahre her, und hat damals mein Vertrauen in Fernseh-Live-Übertragungen stark in Mitleidenschaft gezogen. Schließlich und endlich läuft es dann (fast) so wie bei “Wag the dog”, wenn das “Mädchen mit Chipstüte vor der Bluebox” am Computer zur “Kriegsflüchtigen mit Katze im Bombendorf” wird. Beim ersten “Running Man” wars noch SienceFiction…