Lade Inhalt...

Motion Tracking und Compositing

Integration von freigestellten 2-D-Realfilmobjekten durch Motion Tracking in Aufnahmen mit bewegter Kamera

Bachelorarbeit 2008 131 Seiten

Medien / Kommunikation - Film und Fernsehen

Leseprobe

Inhaltsverzeichnis

1 Einleitung
1.1 Abstract
1.2 Problemdefinition
1.3 Zielsetzung & Themenabgrenzung
1.4 Motivation
1.5 Aufbau der Arbeit

2 Grundlagen der Kameratechnik
2.1 Kamera
2.1.1 Allgemeines
2.1.2 Bauteile
2.2 Technische Systeme für Kamerabewegungen (manuell)
2.2.1 Stativ mit Schwenkkopf
2.2.2 Dolly
2.2.3 Kran
2.2.4 Steadicam
2.3 Kamerabewegungen
2.3.1 Allgemeines
2.3.2 Blickrichtungsänderung und Blickdrehung
2.3.3 Brennweitenänderung (Zoom)
2.3.4 Positionsänderung (Fahrt)

3. Wahrnehmung
3.1 Interpretation von Bildern
3.1.1 Allgemeines
3.1.2 Praktische Anwendung
3.2 Wahrnehmung einer Bewegung
3.3 Objekt-Dimensionen
3.3.1 1-Dimensional
3.3.2 2-Dimensional
3.3.3 3-Dimensional
3.4 Tiefen-Wahrnehmung
3.4.1 Allgemeines
3.4.2 Höhe
3.4.3 Größe
3.4.4 Perspektive
3.4.5 Bewegungsparallaxe
3.5 Räumliche Wahrnehmung

4. Compositing
4.1 Allgemeines
4.2 Alpha-Kanal
4.3 Keying
4.4 2-D- & 3-D-Compositing
4.4.1 2-D-Compositing
4.4.2 3-D-Compositing
4.5 Effekte
4.6 Matching

5. Motion Control
5.1 Allgemeines
5.2 Bauweisen
5.2.1 Kamerakopf
5.2.2 XYZ-System
5.2.3 Boom/Swing-System
5.2.4 Dolly-System
5.3 Anwendung
5.4 Anwendungsbereiche
5.5 Wesentlicher Vorteil von Motion Control
5.6 Wesentliche Nachteile von Motion Control

6. Motion Tracking
6.1 Allgemeines
6.2 2-D-Tracking
6.3 3-D-Tracking
6.4 Durchführung eines „Match-Moves“
6.4.1 Software
6.4.2 Aufbau des Programms
6.4.3 Filmmaterial
6.4.4 Drehnotizen
6.4.5 Filmmaterial laden
6.4.6 Markante Punkte (Tracks)
6.4.7 Setzen der Tracks
6.5 Anwendungsbereiche von Motion Tracking
6.5.1 2-D-Tracking
6.5.2 3-D-Tracking
6.6 Probleme
6.7 Wesentliche Vorteile von Motion Tracking
6.7.1 Kosten
6.7.2 Flexibler Einsatz/Nachträglichkeit
6.7.3 Alternative zu Motion Control
6.8 Wesentliche Nachteile von Motion Tracking

7. Problemdefinition
7.1 Literarisches Problem (System)
7.2 Wahrnehmungsproblem

8. Kriterien für ein System
8.1 Allgemeines
8.1.2 System
8.1.3 Analyse von Problem-Faktoren des Systems
8.1.4 Definition von Problem-Faktoren
8.1.5 Anwendungen zur Minderung der Probleme
8.2 Abgrenzung der theoretische Untersuchung
8.3 Abgrenzung der praktische Untersuchung

9 Modellbildung
9.1 System
9.1.1 2-D-Tracking ohne Anpassung der Perspektive
9.1.2 2-D-Tracking mit Anpassung der Perspektive & 3-D-Tracking
9.1.3 Einbindung eines 2-D-Objekts
9.2 Untersuchung der Tiefenhinweise in Verbindung mit Kamerabewegungen
9.2.1 Allgemeines
9.2.2 Blickrichtungsänderung und Blickdrehung
9.2.3 Brennweitenänderung (Zoom)
9.2.4 Positionsänderungen (Fahrt)
9.3 Probleme des Systems
9.4 Minderung der durch Anpassung der gesamten Szene
9.4.1 Blickwinkel
9.4.2 Entfernung des freigestellten Objekts
9.4.3 Änderung der Objekt-Ansicht
9.4.4 Referenzen
9.4.5 Verdeckung kritischer Bereiche
9.5 Minderung der Probleme durch Wahl des Objekts
9.5.1 Flache Objekte
9.5.2 Von allen Seiten gleich aussehende Objekte
9.5.3 Symmetrische Objekte
9.5.4 Bewegte Objekte
9.5.5 Problem der Skalierung
9.6 Minderung der Probleme durch zentrierte Einbindung

10. Praktischer Test
10.1 Praktische Durchführung
10.1.1 Aufzeichnung der Hintergrundsequenz
10.1.2 Aufzeichnung des freizustellenden Objekts
10.1.3 Tracking-Prozess; 2-D- oder 3-D-Tracking
10.1.4 Freistellen des Objekts der Realfilmaufnahme
10.1.5 Tracking-Daten; 2-D- oder 3-D-Tracking
10.1.6 Freigestellte Objekte zur Komposition hinzufügen
10.1.7 Rendern
10.2 Tests
10.2.1 Umfeld
10.2.2 Einstellung 1
10.2.3 Einstellung 2
10.2.4 Einstellung 3
10.2.5 Einstellung 4
10.2.6 Einstellung 5
10.2.7 Einstellung 6
10.2.8 Einstellung 7
10.3 Praxis-Projekt
10.3.1 Beschreibung
10.3.2 Equipment
10.3.3 Kamerabewegungen
10.3.4 Erzeugte Effekte

11. Analyse
11.1 Ergebnisse der Prüfung
11.1.1 Auswertung der Test-Ergebnisse
11.1.2 Auswertung des Musikvideos
11.2 Probleme/Kritik
11.3 Zusammenfassung
11.4 Ausblick
11.4.1 Verbesserungsmöglichkeit des gesamten Systems

12 Literaturverzeichnis

13 Abbildungsverzeichnis

1 Einleitung

1.1 Abstract

Jeder kennt Filme, in denen Doppelgänger oder Riesenbabys zu sehen sind. Diese Motive existieren jedoch nur im Film bzw. in unserer Interpretation der einzelnen Bilder. So können wenige Darsteller vervielfacht werden, um als große Armee interpretiert zu werden.

Dazu werden Realfilmaufnahmen miteinander kombiniert, dass die Wirkung entsteht, als wären sie von einer realen Kamera als Gesamtheit aufgezeichnet wurden. Komplikationen ergeben sich allerdings, wenn sich die Kamera bewegt.

Ziel dieser Arbeit ist, herauszufinden, wie weit Software (Motion Tracking) dieses Problem lösen kann. Für die vorliegende Arbeit konnte ich keine Literatur ausfindig machen, die sich konkret mit diesem Thema befasst. Ebenso existiert aus meiner Sicht bisher nur ein alternativloses Hardware- System (Motion Control).

Diese Arbeit soll beweisen, dass ein softwarebasiertes System bei bestimmten Anwendungsbereichen funktioniert. Gleichzeitig werden jedoch die Grenzen aufgezeigt. Ich bin davon überzeugt, dass sich hier ein lohnendes Thema für die zukünftige Forschung aufmacht.

Mit dieser Arbeit möchte ich einen Weg vorstellen, Filme wirtschaftlicher herzustellen bzw. für den semi-professionellen[1] Einsatz zu ermöglichen.

1.2 Problemdefinition

Beim Composting werden mehrere (unabhängige) Bildelemente zu einem Ganzen kombiniert. Das zusammengesetzte Bild soll so wirken, als wäre es tatsächlich mit einer Kamera aufgezeichnet worden.

Beispiel für ein Compositing-Motiv:

Abbildung in dieser Leseprobe nicht enthalten + Abbildung in dieser Leseprobe nicht enthalten = Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Beispiel Compositing[2]

Die Bildelemente lassen sich besonders harmonisch miteinander kombinieren, wenn schon während der Erstellung auf gleiche Eigenschaften (Perspektive, Farben,…) geachtet wird. Dennoch bleibt dem Produktionsteam eine gewisse Anpassungsarbeit nicht erspart („Matching“).

Besonders kompliziert wird es, wenn sich die gesamte Komposition zu einer Kamerabewegung harmonisch verhalten soll. Denn dazu ist es erforderlich, dass alle Elemente die gleiche Kameracharakteristik aufweisen. Durch das System „Motion Control“ kann eine Kamera eine zuvor programmierte Bewegung beliebig oft wiederholen. Mit diesem System aufgezeichnete Elemente können danach miteinander verknüpft werden, da sie über das gleiche Kameraverhalten verfügen.

Das „Motion Control“-System erfordert allerdings einen hohen Aufwand und ist meist sehr kostenträchtig. Die Anwendungsbereiche von Compositing bewegen sich jedoch auf der großen Schere zwischen Freizeitanwendungen und High-Budget-Projekten. Somit bleibt vielen nur die Wahl Compositing mit unbewegter (statischer) Kamera zu betreiben, wenn sie Realfilmaufnahmen miteinander kombinieren möchten.

„Motion Tracking“ kann für einige Anwendungsbereiche das Gegenstück zu „Motion Control“ sein. Dieses softwarebasierte System ist wesentlich günstiger und mit geringerem Aufwand verbunden. Es ermöglicht, einzelne Punkte eines Films mit bewegter Kamera zu verfolgen. Aus den Daten kann die Kamera nahezu perfekt rekonstruiert werden und danach digitale Bildelemente wie die Original-Kamera aufzeichnen („Match-Move“).

In der Literatur ist Motion Tracking für Anwendungen mit 3-D-Elementen, die sich von „mehreren Seiten“ zeigen können, sowie mit 2-D-Elementen, bei denen der 2-D-Charakter sichtbar werden soll (z.B. Poster), beschrieben.

Bei einem Film mit bewegter Kamera werden die einzelnen 2-D-Bilder in ein bewegtes Bild versetzt, sodass ein Raumeindruck entstehen kann. Die Integration von 2-D-Objekten in einen Realfilm mit bewegter Kamera zu realisieren ist somit problematisch, da die Tiefenwirkungen unterschiedlich sind und sich ein 2-D-Objekt nicht von „mehreren Seiten“ zeigen kann.

1.3 Zielsetzung & Themenabgrenzung

Ziel dieser Arbeit ist, Möglichkeiten des Compositings mit Realfilm-Elementen durch „Motion Tracking“ aufzuzeigen. Freigestellte Objekte, die mit statischer Kamera aufgezeichnet werden, sind dabei in eine Realfilmaufnahme mit bewegter Kamera zu integrieren. Die Elemente sollen zudem so als Einheit wirken, als wäre die gesamte Komposition mit einer realen, bewegten Kamera aufgezeichnet wurden.

Das Ergebnis soll zeigen, ob

- ein derartiges System praktisch möglich ist.
- es Sinn macht, ein derartiges System weiter zu erforschen.
- ein allgemeiner Lösungsansatz definiert werden kann.

Ziel dieser Arbeit ist nicht, eine konkrete Definition von Grenzen des Systems zu formulieren. Denn die Anwendungsbereiche können durch folgende Faktoren sehr unterschiedlich sein:

- Szenenbild
- Kamerabewegungen und -charakteristik
- Art des freigestellten Objekts
- Präsentation (TV, Kino,…)
- Tracking-Methode (2-D, 3-D)
- Qualitätsziel (semi-professionell, professionell)

Es bedarf viel Erfahrung (Empirie), um konkrete Grenzen allgemein bzw. für eine große Anzahl von Anwendungsbereichen und geeignete Anwendungen für unterschiedliche Tracking-Methoden bestimmen zu können.

Daher sollen in dieser Arbeit allgemeine Lösungsansätze gefunden werden, deren Wirkung für einzelne Anwendungsbereiche eher als Richtlinie dienen kann.

1.4 Motivation

Die Entwicklungsgeschichte des Films zeigt, dass Filmeffekte gegenüber Content an Bedeutung gewinnen.[3] Viele Film-Effekte entstehen durch das Compositing mit Realfilmaufnahmen und lassen somit einen Film

„hochwertig“ erscheinen. Bei der Produktion dieser Effekte findet oftmals Motion Control seinen Einsatz.

- Für semi-professionelle, aber auch für professionelle Filmproduzenten, ist diese Technik oft zu kostspielig und aufwändig.

Sollte Motion Tracking einige Anwendungsbereiche von Motion Control ersetzen oder sogar erweitern können, wäre es zukünftig möglich, Filme wirtschaftlicher herzustellen und vielleicht sogar neue kreative Gestaltungen zu ermöglichen:

- In Werbespots wird oftmals durch eine verwackelte Handkamera eine Übersteigerung hervorgerufen.[4] Dieser Trend ist ebenso bei Serien und Filmen bemerkbar und auch so gewollt, denn die Bewegungen sehen bei einer handgeführten Kamera vermutlich realistischer aus, als bei einer programmierten.
- Durch Motion Tracking könnten Archivmaterialien mit bewegter Kamera mit anderen Archiv-Materialien zusammengefügt werden.
- Es gibt Drehorte an denen kein Platz ist, ein Motion-Control-System aufzustellen.[5]
- Es gibt Kamerafahrten, die nicht mit Motion Control durchgeführt werden können, z.B. Flugaufnahmen, Steadicam.

Darüber hinaus motiviert mich dieses Thema, da es derzeit anscheinend keine Literatur bzw. Forschungen zu diesem konkreten Motion-Tracking- Gebiet gibt. Somit stellt diese Arbeit eine erste Forschung auf diesem Teilgebiet des Motion Trackings dar. Je nach Ergebnis könnten weitere folgen, um Grenzen und Anwendungen genauer definieren zu können.

1.5 Aufbau der Arbeit

Diese Bachelor-Thesis beginnt mit der Erklärung technischer Grundlagen einer Kamera, damit jeder interessierte Leser dieser Arbeit die Auswirkungen von Kamerabewegungen technisch nachvollziehen kann.

Die grundlegende Erklärung der Wahrnehmung von Bildern zeigt, wie es dazu kommt, dass Bilder unterschiedlich interpretiert werden können, beispielsweise wie aus Einzelbildern eine fließende Bewegung wahrgenommen werden kann. Mit dem dann beschriebenen Grundwissen kann aufgezeigt werden, wie bei Aufnahmen mit statischer Kamera die Tiefe interpretiert wird. Dadurch wird nachvollziehbar, dass bei Filmaufnahmen mit bewegter Kamera ein räumlicher Eindruck entsteht.

Diese verschiedenen Aspekte des Basiswissens werden nun zusammengeführt: Primär geht es beim Compositing darum, dass Bildelemente als zusammengehörig wahrgenommen werden. Eine Annäherung der mathematisch korrekten Implementierung von Elementen verbessert das Ergebnis. Die grundlegenden Techniken des Compositings werden erklärt, um zur Problemdefinition dieser Arbeit zu kommen: denn das Compositing soll mit Elementen geschehen, die den Kamerabewegungen eines Elements angeglichen werden. Dazu werden die beiden möglichen Techniken vorgestellt: Motion Control und Motion Tracking. Die Unterschiede und Probleme der jeweiligen Systeme werden konkretisiert. Dabei dient die Erklärung des Motion Trackings ebenso als Leitfaden, damit Anwender, die lediglich filmtechnische Grundlagen besitzen, diese Technik nachvollziehen können.

Nach der konkreten Problembeschreibung werden greifbare Ziele eines Systems definiert. Das System selbst wird beschrieben, Problembereiche einzeln betrachtet und durch Nennung von Anwendungsmöglichkeiten Verbesserungen entwickelt. Praktische Beispiele veranschaulichen die theoretischen Ergebnisse. Die dann folgende Auswertung dient dazu, das Gesamtergebnis dieser Arbeit abschließend präsentieren zu können.

2 Grundlagen der Kameratechnik

In diesem Kapitel erfährt der Leser nähere Details über Kamera- bzw. Filmtechnik, um die (technischen) Ursachen der Problembereiche dieser Arbeit definieren zu können.

2.1 Kamera

Die hier vorgestellten Basisinformationen und Begriffe finden sich in weiteren Teilen dieser Arbeit wieder:

2.1.1 Allgemeines

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Innenleben Kamera[6]

Lens: Objektiv Iris: Blende

Licht, das von einem Objekt ausgeht, wird durch das Objektiv gebündelt und trifft danach auf das Aufnahmemedium (z.B. Chip oder analoger Film).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Prinzip wie bei einer Lochkamera[7]

Es werden viele Bilder in Serie aufgezeichnet, um beim Abspielen die Illusion einer Bewegung entstehen zu lassen, z.B. beim analogen Film 24 Bilder pro Sek.[8]

2.1.2 Bauteile

In diesem Abschnitt werden einige Bauteile der Kamera erklärt, um

- technische Grundbegriffe einzuführen.

- die Problemstellung dieser Arbeit definieren zu können.

2.1.2.1 Objektive

Es gibt drei verschiedene Grundtypen von Objektiven:[9]

- „Weitwinkel“-Objektiv (auch „Fischauge“ genannt)
- Brennweite: weniger als 35mm

- „Normal“-Objektiv
- Brennweite: ca. 35-50mm

- „Tele“-Objektiv
- Brennweite: mehr als 50mm

Wie leicht zu erkennen ist, unterscheiden sich die Objektiv-Typen in ihrer Brennweite.

Außerdem gibt es das sogenannte Zoom-Objektiv mit einer Brennweite von ca. 10-100mm. Dadurch kann dieses variabel einstellbare Objektiv die Eigenschaften der 3 Grundtypen einnehmen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Innenleben Objektiv[10]

2.1.2.2 Brennweite

Wie bereits erwähnt, unterscheiden sich die 3 Grundtypen der Objektive durch ihre Brennweite f. Damit ist die Entfernung zwischen dem Mittelpunkt der Linse und dem Zusammentreffen der gebündelten Lichtstrahlen bzw. dem Aufnahmemedium gemeint. Beim Zoomobjektiv kann die Brennweite - wie beschrieben - verändert werden.[11]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Brennweite[12]

2.1.2.3 Blickwinkel

Zu bemerken ist an dieser Stelle, dass James Monaco in seiner Begriffserklärung sehr präzise ist. Daher ziehe ich im Folgenden vorrangig seine Definitionen heran.

Der Begriff Blickwinkel kann aus physikalischer und philosophischer Sicht betrachtet werden. In dieser Arbeit dient er als physikalische Beschreibung des Winkels: Dieser Blickwinkel ergibt sich aus dem Objektiv, der Brennweite und der Größe des Aufnahmemediums, wie die folgende Abbildung veranschaulicht:[13]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Blickwinkel[14]

Anstatt des Blickwinkels findet man in der Literatur auch Begriffe wie Bildwinkel, Sichtwinkel oder Annäherungswinkel meistens mit gleicher Bedeutung.

Wenn das Bild aus zwei unterschiedlich großen Seiten besteht, kann differenziert werden zwischen dem horizontalen Blickwinkel und dem vertikalen Blickwinkel.[15]

2.1.2.4 Tiefenwahrnehmung & lineare Verzerrung

Zur Tiefenwahrnehmung schreibt James Monaco:

„Je kürzer das Objektiv – desto weiter ist der Blickwinkel (und größer das Gesichtsfeld), desto stärker die Tiefenwahrnehmung, desto größer die lineare Verzerrung; je länger das Objektiv – desto enger der Blickwinkel und flacher die Tiefen-Wahrnehmung.“[16]

Die folgende Abbildung macht deutlich, wie sich die Blöcke beim Weitwinkel- Objekt verzerren:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Wirkung unterschiedlicher Objektive[17]

Zu der linearen Verzerrung kommt es, da sich mit zunehmendem Abstand von der optischen Achse die Vergrößerung ändert. Somit ändern sich die Maßstäbe innerhalb des Bildes.[18]

Die Tiefenwahrnehmung wird in Kap. 3 detailliert behandelt.

2.1.2.5 Blende

Die Blende ist eine verstellbare Öffnung zur Kontrolle der eingehenden Lichtmenge. Bei offener Blende oder niedriger Blendenzahl wird mehr Licht durchgelassen als bei einer großen Blendenzahl.[19]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Blende[20]

2.1.2.6 Schärfenbereich (oder „Schärfenebene“)

Die Auswirkung der Blendenöffnung fasst James Monaco präzise zusammen:

„Die Veränderung der Blendeöffnung (‚abblenden’) beeinflusst, da sich der wirksame Durchmesser des Objektivs verringert, auch den Schärfenbereich: Je kleiner der Durchmesser der Öffnung, desto größer die Schärfe. Im Ergebnis ist dann der Schärfenbereich um so größer, je mehr Licht vorhanden ist. Der Ausdruck ‚Schärfenbereich’ bezeichnet die Entfernungsspanne vor dem Objekt, die im Bild genügend scharf erscheint. […]

Anzumerken wäre auch, dass die verschiedenen Objektiv-Typen unterschiedliche Schärfenbereiche besitzen: Eine Weitwinkel-Optik hat einen sehr tiefen Schärfenbereich, ein Tele-Objektiv hingegen nur einen sehr flachen.“[21]

2.2 Technische Systeme für Kamerabewegungen (manuell)

Um Kamerabewegungen auszuführen gibt es einige Systeme, um das Bild ruhig zu halten, z.B. ein Verwackeln zu vermeiden. Hier werden (technische) Geräte vorgestellt, die direkt per Hand gesteuert werden und sich somit fundamental von Motion Control (vgl. Kap. 5) unterscheiden:

2.2.1 Stativ mit Schwenkkopf

„Der Stativ-Schwenkkopf ist eine präzise feinmechanische Konstruktion aus Platten und Kugellagern[…]“[22]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: Stativ mit Schwenkkopf[23]

Das Stativ sollte je nach Kamera eine angemessene Stabilität bzw. Gewicht aufweisen, dass es stabil steht und mit einer Hand bedient werden kann.

2.2.2 Dolly

Der Dolly (oder „Kamerawagen“) fährt auf Schienen, Schläuchen oder Gummireifen. Je nach Ausführung wird der Dolly meistens von 1-3 Personen bedient (Kameramann, Fahrer, Schärfezieher). Bei einfachen Ausführungen wird auf dem Wagen ein übliches Stativ platziert:[24]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10: Dolly auf Schienen[25]

2.2.3 Kran

„[…] der Kamerakran, der die sanfte Aufundabbewegung ermöglicht, ist eine Art Wippe, bei der die Kamera (und die Bedienungsmannschaft) durch Gegengewichte ausbalanciert werden[…]“[26]

Im Gegensatz zum Dolly ermöglicht der Kran somit Fahrten in die Höhe. Auch eine Kombination aus Dolly und Kran ist möglich.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 11: Kamerakran[27]

2.2.4 Steadicam

Die Steadicam wurde Anfang der siebziger Jahre von Kameramann Garrett Brown und den Ingenieuren von Cinema Products Inc. erfunden:

“Durch eine Art Weste wird beim Steadicam-System das Gewicht der Kamera auf die Hüfte des Kameramanns verlagert; ein abgefederter Stativ-Arm dämpft die Bewegungen der Kamera, wodurch eine Ruhe des Bildes erreicht wird, die den viel komplizierteren (und teureren) Schienen- und Dolly- Aufnahmen vergleichbar ist.“[28]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 12: Steadicam[29]

2.3 Kamerabewegungen:

Durch die eingeführten Begriffe und Techniken können unterschiedliche Kamerabewegungen nun näher (technisch) beschrieben werden:

2.3.1 Allgemeines

Kamerabewegungen werden mit unterschiedlichen Begriffen beschrieben. So unterscheidet Pierre Kandorfer:[30]

- Kameraschwenk
- Langsamer Schwenk
- Geleitender Schwenk
- Schneller Schwenk
- Reißschwenk
- Langsame Fahrt
- Umfahrt
- Kranfahrt
- Entfesselte Kamera

Diese Art der Unterteilung kann sinnvoll sein, um Anweisungen zu geben und Gestaltungen zu beschreiben, eignet sich allerdings nicht, um allgemeine und technische Analysen zu erstellen, da sich die technischen Eigenschaften teils überdecken.

James Monaco unterscheidet hingegen konkreter:[31]

„Es gibt zwei grundlegende Arten von Kamerabewegungen:

Die Kamera kann sich entweder um eine ihrer drei – imaginären – Schwenkachsen drehen, oder sie bewegt sich von einem Ort zum anderen.“

Weiter beschreibt er, dass der Zoom Bewegungen der Kamera nachahmt.[32]

Der Zoom wird durch Veränderung der Brennweite ausgelöst, wozu eine Bewegung des Objektivs, das zur Kamera gehört, erforderlich ist. Zudem kann der Zoom durch Motion Tracking (vgl. Kap. 6) erfasst werden. Somit macht es Sinn, den Zoom in dieser Arbeit zu berücksichtigen. Zu erwähnen ist an dieser Stelle daher folgendes: Wird in dieser Arbeit von Kamerabewegungen gesprochen, sind diese Möglichkeiten gemeint:

- Schwenken, Neigen, Rollen
- Zoom
- Fahrt

2.3.2 Blickrichtungsänderung (Schwenken, Neigen) und Blickdrehung (Rollen)

Blickrichtungsänderungen bzw. Blickdrehungen der Kamera kommen durch das Drehen um den Nodal-Punkt zu Stande. James Monaco nennt dies die drei imaginären Achsen.[33]

2.3.2.1 Nodal-Punkt (auch „Knotenpunkt“ genannt)

„Der Nodalpunkt beschreibt den Punkt in der Kamera oder im Objektiv (Linsensystem), an welchem sich der Strahlengang bricht bzw. sich das aufgenommene Bild durch die Optik umgedreht (Punkt M) wird. Die Achse (A) wird oft auch Pivot-Achse genannt und bezeichnet die gedachte Achse, um die sich die Optik drehen sollte, um ein verzerrungsfreies Resultat zu erzielen.“[34]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 13: Nodal-Punkt

Um einen perfekten Nodal-Punkt zu erhalten, muss dieser mit dem Stativ eingestellt werden:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 14: Nodal-Punkt von außen[35]

2.3.2.2 Schwenken, Neigen

Dreht sich die Kamera über diesen Nodal-Punkt, ändert sich die Blickrichtung und weitere Teile des Szenenbildes werden sichtbar (Panaromaeffekt).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 15: Schwenken, Neigen[36]

Beim Schwenken dreht sich die Kamera in horizontaler, beim Neigen in vertikaler Ebene.[37]

2.3.2.3 Rollen

Beim Rollen werden die Kamera und damit auch das Bild auf der Achse der Blickrichtung gedreht:[38]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 16: Rollen[39]

2.3.3 Brennweitenänderung (Zoom)

Die Zoom-Objektive sind in den sechziger Jahren entwickelt wurden:

„Das Zoom-Objektiv (auch ‚Transfokator’ oder ‚Gummilinse’ genannt) besitzt eine veränderbare Brennweite, vom Weitwinkel bis zum Tele, und erlaubt so dem Kameramann, die Brennweite zwischen den Aufnahmen zu wechseln oder – was beim Filmen wichtiger ist – die Brennweite während der Aufnahme zu ändern.“[40]

„Der Zoom ahmt zusätzlich die Wirkung einer Ran-Fahrt oder einer Rück- Fahrt nach, aber nicht ganz genau. Beim Zoom – die Kamera bewegt sich ja nicht – bleiben die Beziehungen zwischen Objekten auf verschiedenen Ebenen des Bildes die gleichen, selbst wenn das Bild vergrößert wird.“[41]

Der Zoom kann auch digital erfolgen, allerdings nur soweit, wie es der Bildausschnitt bzw. die Auflösung zulässt:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 17: Zoom[42]

2.3.4 Positionsänderung (Fahrt)

Ändert die Kamera während der Einstellung die Position, spricht man von einer Kamera-Fahrt. Die Positionsänderung hat zur Folge, dass weitere Informationen des Raums preisgegeben werden bzw. sich Ansichten und Perspektiven ändern, wodurch räumlicher Eindruck entsteht:[43]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 18: Fahrt ohne Änderung der Blickrichtung[44]

Wird während der Änderung der Position zudem die Richtung des Blickwinkels verändert, kann ein Objekt länger im Bildausschnitt gehalten werden, wodurch der Raumeindruck verstärkt wird:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 19: Fahrt mit Änderung der Blickrichtung[45]

3. Wahrnehmung

In diesem Kapitel geht es um das Verständnis der visuellen Wahrnehmung und die Folgen daraus für das Erstellen von Filmen.

3.1 Interpretation von Bildern

Zunächst stellt sich die grundlegende Frage, wie Bilder interpretiert werden:

3.1.1 Allgemeines

Die menschliche Fähigkeit, Bilder zu versehen, ist noch nicht umfassend wissenschaftlich untersucht worden. Dennoch gibt es Experimente, aus denen bisher zwei Schlüsse gezogen werden konnten:[46]

„…erstens, dass jedes menschliche Wesen ein visuelles Bild wahrnehmen und identifizieren kann; zweitens, dass selbst die einfachsten visuellen Bilder in verschiedenen Kulturen unterschiedlich interpretiert werden.“[47]

So kommt es, dass Bilder durch die Einbeziehung mentaler und physischer Erfahrung wahrgenommen und verstanden werden.[48]

3.1.2 Praktische Anwendung

In der abgebildeten Szene (Abb. 20) wurde der Hintergrund mit einem Hubschrauber aufgezeichnet, der über der City kreist.

„Superman“ bewegt sich dagegen nicht und wird von einer statischen Kamera aufgezeichnet.

Auch wenn beide Einstellungen kombiniert werden, bleibt „Superman“ stets im Zentrum des Bildausschnitts. Dennoch entsteht der Eindruck, dass „Superman“ sich bewegt, weil unsere Erfahrung lehrt: „Eine Stadt bewegt sich nicht.“[49]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 20: Superman[50]

3.2 Wahrnehmung einer Bewegung

Bei einer Realfilmaufnahme verschmelzen die Einzelbilder durch einen gewissen „Defekt“ unseres Auges. Das Gehirn speichert ein Bild etwas länger als es sichtbar ist und ermöglicht somit die Illusion einer Bewegung, die bei ungefähr 12-15 Bildern pro Sekunde beginnt. [51]

3.3 Objekt-Dimensionen

Objekte unterscheiden sich wesentlich durch die Dimension:

3.3.1 1-Dimensional

Jeder Punkt eines 1-D-Objekts kann durch einen Punkt im Koordinatensystem bestimmt werden. Somit ist ein 1-D-Objekt meistens eine Linie, z.B. Zahlengerade.[52]

3.3.2 2-Dimensional

Jeder Punkt eines 2-D-Objekts kann durch zwei Punkte im Koordinatensystem beschrieben werden. Damit kann ein 2-D-Objekt z.B. eine Fläche darstellen.[53]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 21: 2-Dimensional[54]

3.3.3 3-Dimensional

Ein Punkt eines 3-D-Objekts benötigt dagegen drei Punkte im Koordinatensystem, um bestimmt zu werden. 3-D-Objekte können als Körper dargestellt werden.[55]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 22: 3-Dimensional[56]

3.4 Tiefen-Wahrnehmung

Die Tiefen-Wahrnehmung resultiert aus der Interpretation von Bildern und den bekannten Objekt-Dimensionen:

3.4.1 Allgemeines

Eine Kamera erzeugt ein 2-D-Abbild der Umwelt. Anhand einiger Indizien kann der Mensch dennoch einen räumlichen Eindruck bzw. die Tiefe interpretieren. In der Literatur spricht man von binokularen und monokularen Tiefenhinweisen. Während die binokularen Tiefenhinweise mit mindestens zwei Objektiven (oder Augen) erfasst werden, reicht für die Bestimmung der Tiefe durch monokulare Tiefenhinweise ein Objektiv (wie beim Film).[57] Die monokularen Tiefenhinweise werden in dem Buch „Der filmische Raum“ konkret aufgeführt, führen jedoch zu einigen (technischen) Überschneidungen:[58]

- statische Tiefenhinweise
- Figur-Grund
- Licht und Schatten
- Gewohnte Größe von Gegenständen
- Verdeckung/Überschneidung
- Durchsichtigkeit
- Textgradient
- Relative Größe im Blickfeld o Relative Höhe im Blickfeld o Perspektive

- dynamische Tiefenhinweise
- Bewegungsparallaxe

Gegenüber den statischen Tiefenhinweisen erfordern die dynamischen Tiefenhinweise die Bewegung des Betrachters oder Objekts.[59]

Für diese Thesis sind diejenigen Tiefenhinweise interessant, die sich durch Kamerabewegung verändern und durch Motion Tracking (vgl. Kap. 6) erfasst werden können. Daher werden die Tiefenhinweise zu den jeweilig abhängigen Faktoren (Ursachen) zusammengefasst und untersucht:

- statische Tiefenhinweise

- Höhe
- Relative Höhe im Blickfeld

- Größe
- Gewohnte Größe von Gegenständen
- Relative Größe im Blickfeld

- Perspektive
- Perspektive
- Textgradient

- dynamische Tiefenhinweise

- Bewegungsparallaxe

3.4.2 Höhe

„Hierbei handelt es sich um den einfachen Umstand, dass Objekte, die höher im Bild angesiedelt sind (das heißt näher an der Horizontlinie stehen), als weiter weg erscheinen. Dabei ist es gleichgültig, ob sich die Objekte oberhalb des Horizontes befinden, wie Wolken, oder ob sie sich unterhalb der Horizontlinie befinden, wie Figuren[…]“[60]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 23: Höhe[61]

3.4.3 Größe

Durch den Blickwinkel weitet sich der Bildausschnitt mit zunehmender Entfernung zum Objektiv aus.

Der Effekt ist folgender: unterschiedlich große Objekte können gleichgroß abgebildet werden und umgekehrt. Damit ein weiter entferntes Objekt (in der Abb. rot) den Bildausschnitt so füllt, wie ein näheres Objekt (in der Abb. blau), müsste es größer sein. Ist es das nicht, wirkt es kleiner und eine weitere Entfernung wird interpretiert.[62]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 24: Größe/Blickwinkel[63]

Beispiel:

Auf einem Bild sind unterschiedlich große, jedoch gleiche Häuser zu sehen. Durch seine visuellen Erfahrungen kann ein Mensch die Entfernung abschätzen.

[...]


[1] weitgehend, fast professionell

[2] eigenes Material, „Babybird - Lighter ‚n’ Spoon“, 2008

[3] vgl. Murch, Walter: Ein Lidschlag, ein Schnitt.. 2. Auflage, Berlin: Alexander Verlag, 2004, S. 126ff

[4] vgl. Monaco, James: Film verstehen. 7. Auflage, Hamburg: Rowohlt Taschenbuch Verlag, 2006, S. 96

[5] vgl. Mulack, Thomas und Rolf Giesen: Special Visual Effects. Planung und Produktion. Gerlingen: Bleicher, 2002. 38 S.

[6] vgl. Dobbert, Tim: Matchmoving: The Invisible Art of Camera Tracking. Alameda: SYBEX, 2005, S. 112

[7] vgl. Lochkamera Prinzip, http://upload.wikimedia.org/wikipedia/de/9/9d/Lochkamera_prinzip.jpg, Download am 06.06.08

[8] vgl. Monaco, Film verstehen, S. 91

[9] vgl. Monaco, Film verstehen, S. 75

[10] vgl. Dobbert, Matchmoving: The Invisible Art of Camera Tracking, S. 114

[11] vgl. Dobbert, Matchmoving: The Invisible Art of Camera Tracking, S. 115

[12] vgl. http://de.wikipedia.org/wiki/Bild:Sammellinse.png, Download am 18.05.08

[13] vgl. Monaco, Film verstehen, S. 78

[14] http://de.wikipedia.org/wiki/Bild:Formatfaktor-50-80v2.jpg, Download am 02.06.08

[15] vgl. “Kamerasysteme”, http://www.luis.de/mobile-videosysteme-a-z/, Download am 04.06.08

[16] vgl. Monaco, Film verstehen, S. 78-79

[17] vgl. Monaco, Film verstehen, S. 77

[18] vgl. Dobbert, Matchmoving: The Invisible Art of Camera Tracking, S. 127

[19] vgl. Monaco, Film verstehen, S. 80

[20] vgl. Monaco, Film verstehen, S. 82

[21] vgl. Monaco, Film verstehen, S. 83

[22] vgl. Monaco, Film verstehen, S. 93

[23] vgl. Kandorfer, Pierre: Lehrbuch der Filmgestaltung. 6. Auflage, Gau-Heppenheim: Mediabook Verlag, 2003, S. 81

[24] vgl. Kandorfer, Lehrbuch der Filmgestaltung, S. 83

[25] vgl. Kandorfer, Lehrbuch der Filmgestaltung, S. 82

[26] vgl. Monaco, Film verstehen, S. 93

[27] vgl. Cobra Crane 2+, http://www.dv-kameraverleih.de/, Downlaod am 23.04.08

[28] vgl. Monaco, Film verstehen, S. 97

[29] vgl. Monaco, Film verstehen, S. 97

[30] vgl. Kandorfer, Lehrbuch der Filmgestaltung, S. 80ff

[31] vgl. Monaco, Film verstehen, S. 93

[32] vgl. Monaco, Film verstehen, S. 206

[33] vgl. Monaco, Film verstehen, S. 205

[34] TBK, TBK - Digital Panorama Technologie - News - (IAPP), erstellt am 05.10.07, http://tbk.de/news/nodalpt.htm, Download am 22.05.08

[35] vgl. Dobbert, Matchmoving: The Invisible Art of Camera Tracking, S. 119

[36] vgl. Monaco, Film verstehen, S. 94

[37] vgl. Monaco, Film verstehen, S. 93

[38] vgl. Monaco, Film verstehen, S. 93

[39] vgl. Monaco, Film verstehen, S. 94

[40] vgl. Monaco, Film verstehen, S. 77

[41] vgl. Monaco, Film verstehen, S. 206

[42] vgl. Wright, Steven: Digital Compositing for Film and Video. 2. Auflage, Oxford: Elsevier, 2006, S. 228

[43] vgl. Monaco, Film verstehen, S. 206; Kandorfer, Lehrbuch der Filmgestaltung, S. 83

[44] eigene Zeichnung

[45] eigene Zeichnung

[46] vgl. Monaco, Film verstehen, S. 152

[47] vgl. Monaco, Film verstehen, S. 152

[48] vgl. Monaco, Film verstehen, S. 152

[49] vgl. Blumenberg, Hans-Christoph; Kern, Andreas und Gernot Gricksch: Making Of Band 2. Hamburg: Rowohlt Taschenbuch Verlag, 2003. 98 S.

[50] vgl. Blumenberg / Kern / Gricksch 2003, S. 98

[51] vgl. Monaco, Film verstehen, S. 88

[52] vgl. Dobbert, Matchmoving: The Invisible Art of Camera Tracking, S. 28

[53] vgl. Wright, Digital Compositing for Film and Video, S. 223

[54] eigene Darstellung

[55] vgl. Dobbert, Matchmoving: The Invisible Art of Camera Tracking, S. 28

[56] eigene Darstellung

[57] vgl. Kandorfer, Lehrbuch der Filmgestaltung, S. 50 und film. Raum. S. 39ff

[58] vgl. Khouloki, Rayd: Der filmische Raum. Berlin: Bertz + Fischer, 2007, S. 39ff

[59] vgl. Khouloki, Der filmische Raum, S. 58

[60] vgl. Khouloki, Der filmische Raum, S. 53

[61] vgl. Uni Bochunm, http://eco.psy.ruhr-uni-bochum.de/download/Guski- Lehrbuch/Abbildungen/Abb_6-47.jpg, Download am 22.05.08

[62] vgl. Khouloki, Der filmische Raum, S. 46

[63] eigene Zeichnung

Details

Seiten
131
Jahr
2008
ISBN (eBook)
9783640177752
ISBN (Buch)
9783640177783
Dateigröße
5.3 MB
Sprache
Deutsch
Katalognummer
v115808
Institution / Hochschule
Fachhochschule Kiel – Multimedia Production
Note
1,0
Schlagworte
Motion Tracking Compositing

Autor

Zurück

Titel: Motion Tracking und Compositing