Barbara Flückiger (2008)

Visual Effects. Filmbilder aus dem Computer

--> English synopsis | --> Rezensionen | --> Inhaltsverzeichnis

Klappentext

Am computergenerierten Filmbild und seinen kulturellen Auswirkungen scheiden sich die Geister. Tatsache ist jedoch, dass digitale Visual Effects ein maßgebliches Element der zeitgenössischen Filmproduktion bilden. Längst entstehen im Computer nicht mehr ausschließlich exotische Monster, sondern auch komplexe Visualisierungen von verborgenen Dimensionen, von Gedanken und Vorstellungsbildern. Ganze Universen werden nun digital konstruiert und sogar menschliche Figuren künstlich erzeugt.

Visual Effects. Filmbilder aus dem Computer vermittelt Einblick in sämtliche Stadien der Entstehung computergenerierter Szenen: Modellieren, Materialisieren, Animation, Beleuchtung, Rendern und Compositing. Die Autorin untersucht den historischen Verlauf der Innovation und diskutiert die Differenz zu herkömmlichen Methoden der Bildgestaltung. Gestützt auf die Analyse zahlreicher Filme befasst sie sich außerdem mit den ästhetischen und narrativen Aspekten dieser neuen Technologien.

Englische Übersetzung des Kapitels "Körper" zum kostenlosen Download hier.

Synopsis

Im Gefolge von William J. Mitchells einflussreicher Publikation The Reconfigured Eye (1992) sieht sich die Medientheorie einer postfotografischen Ära gegenüber, die sie mehrheitlich skeptisch bewertet. Vor allem im deutschsprachigen Raum dominieren die ethischen Fragen, welche die sogenannt unsichtbaren Eingriffe in eine als "natürlich" gewertete fotografische Abbildung aufwerfen. Leider dominiert dieser Diskussionspunkt die Debatte in einem Maß, das besonders im Hinblick auf die Produktion fiktionaler Welten im Spielfilm, in welchen sich eigene Regeln ausgebildet haben, nicht gerechtfertigt ist. Denn im fiktionalen Kontext müssen andere Kriterien ins Spiel gebracht werden, mit denen sich die spezifisch ästhetischen und narrativen Folgeerscheinungen dieses Umbruchs aus filmtheoretischer Perspektive unter die Lupe nehmen lassen.

Die vorliegende Arbeit fokussiert deshalb auf die bisher vernachlässigten Aspekte -- so die technischen Grundlagen der 3D-Modellierung und Animation, ihre Entwicklung und Praxis -- und diskutiert ihre Differenz zu herkömmlichen Methoden der filmischen Abbildungsverfahren. Die Compositing-Techniken, die analoges und digitales Bildmaterial kombinieren, bringen eine Reihe von bisher ungeklärten Fragestellungen mit sich, die einerseits in der Sichtbarkeits-/Unsichtbarkeitsdebatte angesiedelt sind, andererseits auch grundlegende Fragen zu Gemeinsamkeiten und Unterschieden der beiden Verfahren zur Bildaufzeichnung und -bearbeitung aufwerfen.

Ebenso wichtig für diesen Aspekt ist die filmhistorische Perspektive, hat doch im Lauf der Geschichte eine Reihe von Konventionen die Erwartungen des medienkundigen Publikums konditioniert. Es stellt sich daher die Frage, inwiefern das computergenerierte Bild (Computer Generated Imagery, CGI) eine Veränderung der ästhetischen Standards bedingt und wo es sich den kulturellen Codes unterwirft, die von einem Jahrhundert analoger Filmgeschichte bereits definiert wurden.

Mit Frank Beau (2001: 200 f.) bezeichnet Barbara Flückiger ihre Herangehensweise als "technobol": als ein Kreisen um die Technik mit dem Ziel, ihre theoretischen und epistemologischen Grundlagen aus geisteswissenschaftlicher Perspektive zu reflektieren. Zielsetzung ist es, die theoretischen Annahmen, die der neuen Technologie zugrunde liegen, zu verstehen und verständlich zu machen. Dabei versteht sich Flückiger als Übersetzerin zwischen geistes- und naturwissenschaftlichen Einsichten sowie zwischen Praxis und Theorie, die mit einem interdisziplinären Instrumentarium die Auswirkungen technologischer Entwicklungen auf Form und Inhalt der Filmproduktion untersucht. Ausgehend von der Analyse von rund 400 Filmen, die digitale Visual Effects in ein analoges Umfeld integrieren, hat Flückiger zahlreiche technische Papers sowie Produktionsnotizen zu den Verfahren studiert und Interviews mit Praktikern geführt. Daher verknüpft die Studie ein großes Feld an Informationen, die in drei große Teile gegliedert werden: Technik, Abbildung und Narration.

Der erste Teil beschäftigt sich mit den unterschiedlichen technischen Verfahren, die bei der Konstruktion von digitalen Visual Effects zur Anwendung kommen.

Im Kapitel Digitale Bilder: Eigenschaften werden grundlegende Aspekte der verschiedenen Typen von digitaler Bildproduktion untersucht. Während sich diese Bilder hinsichtlich ihres Produktionsprozesses und, daran anschließend, hinsichtlich ihrer Ästhetik deutlich unterscheiden, teilen sie doch einige gemeinsame Eigenschaften -- so die binäre Kodierung und die Quantisierung. Durch diese Kodierungsform werden sie Teil eines universellen digitalen Ökosystems, das die Einspeisung der Daten in unterschiedliche Medien erlaubt sowie die Prozessierung der Daten ermöglicht.

Das Kapitel Modellieren beschreibt die unterschiedlichen Techniken zur Konstruktion von 3D-Objekten und -Szenen -- Polygonmodellieren erläutert prozedurale und bildbasierte Verfahren sowie 3D-Scans und untersucht deren Anwendung und Eigenschaften in bestimmten Filmen. Darüber hinaus werden Einsichten in die grundlegenden Unterschiede dieser Verfahren geliefert.

Noch bedeutsamer als die reine Form sind die Oberflächen und Materialien der Objekte, wie im entsprechenden Kapitel dargelegt wird. In der Geschichte der CGI ist die Entwicklung von Plastik über Metall zu komplexeren und/oder organischen Materialien wie Pelz, Wasser oder Textilien augenscheinlich und hat die Ästhetik während Jahrzehnten geprägt. Weniger offensichtlich sind die zugrunde liegenden Prinzipien der Eigenschaften von Materialien in CGI, die in diesem Kapitel ebenfalls dargelegt werden.

Da die Computeranimation sich aus Verfahren entwickelt, die schon in der klassischen Animation zur Anwendung kommen -- wie der Folien- oder Stop-Motion-Animation --, beginnt das Kapitel Animation mit einem historischen Überblick. Anschließend werden verschiedene Techniken wie die Keyframe-Animation, prozedurale Verfahren und Motion Capture sowie deren jeweilige Anwendungsbereiche untersucht.

Während die Beleuchtung von CGI sich in mancher Hinsicht an klassischen Beleuchtungsschemata aus der analogen Filmproduktion orientiert, bieten die bildbasierten Techniken eine Möglichkeit, Beleuchtungswerte direkt aus High-Dynamic-Range-Fotografien (HDRI) abzutasten und in die computergenerierte Szene zu implementieren. Die Untersuchung der Render-Verfahren wirft eine Reihe von epistemologischen Fragestellungen auf. Diese Aspekte werden zunächst im Hinblick auf einige Ideen des Medientheoretikers Friedrich Kittler diskutiert, der vorgeschlagen hatte, kurzerhand Richard Feynmans Lectures on Physics in Software zu gießen, um perfekte Resultate zu erzeugen. Wie sich jedoch zeigt, ist die Situation deutlich komplexer. Deshalb gründen alle Render-Algorithmen -- so beispielsweise Raytracing, Radiosity und Photon Mapping -- auf Approximationen aus der Strahlenoptik und nicht auf den komplexeren Einsichten aus der Quantenphysik.

Das Compositing, also die Kombination von Bildteilen aus unterschiedlichen Quellen, hat bereits eine längere Tradition in der fotochemischen Filmproduktion, wo Matte Paintings, Rückprojektion und Travelling Mattes schon sehr früh eingesetzt wurden. Ausgehend von einer Diskussion der theoretischen Implikationen, wie sie Lev Manovich oder William J. Mitchell vorschlugen, fokussiert dieses Kapitel hauptsächlich drei Gegenstandsbereiche -- nämlich die Kombination mehrerer Schichten, die Interaktion der unterschiedlichen Bildteile sowie deren ästhetische Kohärenz.

Der mittlere Teil mit dem Titel Abbildung bettet die technischen Grundlagen des ersten Teils ein in die theoretische und philosophische Reflexion über die Repräsentation in der Kunst und besonders in der filmischen Fiktion. Als besonders bedeutsam hat sich die Klassifikation der verschiedenen Verfahren in die Kategorien Aufzeichnung, Modellbildung, Malen und Messen erwiesen, wobei die beiden ersten genauer analysiert werden. Mit "Aufzeichnung" ist ein technischer Übersetzungsprozess gemeint, der eine physikalische Ausgangsstruktur anhand eines mehr oder weniger expliziten Protokolls in ein bildwirksames Resultat überführt. Sie weist daher eine im Wesentlichen indexikalische Beziehung zwischen dem Gegenstand und der Abbildung auf. "Modellbildung" andererseits ist ein meist regelbasiertes, stark formalisiertes Verfahren zur Erzeugung von zwei- oder dreidimensionalen Strukturen. Die Regeln werden dabei entweder aus generellen mathematischen oder physikalischen Prinzipien oder aus der empirischen Beobachtung und Rekonstruktion abgeleitet. Schließlich wendet sich der letzte Abschnitt dieses Teils der Bedeutung und Ästhetik einer Reihe von analogen Artefakten zu, das heißt fotografischen Transformationen wie Korn, Bewegungsunschärfe oder Diffusion, die mit digitalen Mitteln nachgebildet werden, um einen fotorealistischen Look zu erzeugen.

Der dritte und letzte Teil befasst sich mit erzählerischen Aspekten.

Dimensionen und Schichten beginnt mit einer Diskussion der Beziehung von technologischer Innovation und Wissensproduktion. Kaum ein anderer Bereich der theoretischen und praktischen Beschäftigung mit Visual Effects ist so fruchtbar und so vielfältig wie die Unterscheidung zwischen Sichtbarkeit und Unsichtbarkeit, die im Rahmen dieser Studie so etwas wie ein subtextuelles Leitmotiv bildet, das immer wieder an die Oberfläche dringt. Diese Unterscheidung ist nicht nur hinsichtlich der Wahrnehmung von Bedeutung, sondern auch als narratives Motiv, ermöglichen CGI doch ein großes Arsenal von Visualisierungen, welche den natürlichen Wahrnehmungshorizont des Menschen überschreiten -- so Vorstellungsbilder, Gedanken oder magische Phänomene. Magie ist in diesen Darstellungen nicht nur Gegenstand, sondern ein mythisch überhöhter Bestandteil der technischen Prozesse selbst. Davon zeugen schon die Fanzines, welche die Visual-Effects-Supervisors notorisch als "Effects Wizards" bezeichnen, oder die Making-of-Dokumentationen, die unentwegt den magischen Charakter von Visual Effects als "Zauberei" beschwören. Über die unsichtbare Implementierung von Visual Effects hinaus haben sich heterogene Anordnungen etabliert, die sich erzähltheoretisch als Mise- en-Abyme fassen lassen und entweder Teile der Primärerzählung aufgreifen oder im intermedialen Austausch Bedeutungen höherer Ordnung konstruieren.

Nach wie vor das interessanteste und anspruchsvollste Feld für die Anwendung von Visual Effects sind digitale Figuren. Nach einem Überblick über deren geschichtliche Entwicklung thematisiert die Autorin einige der wesentlichen Probleme der digitalen Figurenkonstruktion, nämlich die Anforderungen an deren Konsistenz, die Schwierigkeiten, natürlich und organisch wirkende Lebewesen zu modellieren, und die Problematik der Interaktion mit anderen Figuren, mit Objekten und mit dem Terrain. Figurenkonsistenz ist essenziell für die emotionale Partizipation des Zuschauers und die Wahrnehmung einer stabilen Identität. Die Praktiker beziehen sich dabei auf die populäre Theorie des "Uncanny Valley", die Masahiro Mori 1970 im Kontext der Robotik entwickelte. Mori beschreibt damit einen befremdlichen Effekt, den künstliche Figuren auslösen können, wenn sie fast, aber nicht völlig überzeugend menschlich wirken. Nicht alle Probleme der Wahrnehmung von digitalen Figuren können damit erklärt werden. Aus diesem Grund hat Flückiger mit dem Modell der Distanz einen alternativen Erklärungsansatz geschaffen, der davon ausgeht, dass sich die verschiedenen Aspekte des Erscheinungsbilds und des Verhaltens in einer ähnlichen Distanz zu einem transparenten Darstellungsmodus befinden sollten. In einer Fallstudie zu der Figur Gollum aus der Lord of the Rings-Trilogie zeigt sie auf, wie es einer digitalen Figur gelingt, Gefühle zu erzeugen. Das Kapitel schließt mit einer Erörterung des Superheldenproblems. Mit der Digitalisierung oder digitalen Veränderung des repräsentierten Körpers im Kino verschärfte sich die Fragestellung, wie stark sich solche Körper-Displays von ihrer physikalisch-physiologischen Grundlage lösen dürfen, ohne gleichzeitig die Verbindung zum Zuschauer zu verlieren.

Am Ende des Buchs leistet das Schlusswort einen summarischen Überblick über die Kräfte, welche in der Entwicklung von computergenerierten Bildern wirksam waren. So wird deutlich, dass die neuen Technologien weitgehend außerhalb Hollywoods entstanden -- nämlich in akademischen Forschungsstätten und bei der Produktion von Musikvideos und Werbung. Jedenfalls gehorchen die Entwicklungen keinen monokausalen Erklärungsmodellen, sondern sind vielmehr als komplexe Systeme zu begreifen. Die Konstruktion von fiktionalen Universen ist tief geprägt von kulturell überformten Normen und Konventionen. Deswegen bevorzugt der Mainstream-Film trotz der notorischen Fortschrittsrhetorik gemäßigte Erneuerungen. Bis heute jedenfalls -- so die Autorin -- haben wir im Kino erst einen Bruchteil dessen gesehen, was mit computergenerierten Bildern möglich wäre.

Ein ausgedehnter Anhang enthält eine umfangreiche Bibliografie, ein Glossar inklusive Sachwortindex und ein Verzeichnis der erwähnten Filme.

Rund 400 farbige Abbildungen dienen als Illustration und ergänzen den Text anschaulich.