Synchronisation als Forschungsthema in der Übersetzungswissenschaft


Diplomarbeit, 2004

140 Seiten, Note: 1


Leseprobe


Inhaltsverzeichnis

0 Einleitung

1 Einführung in die Filmübersetzung
1.1 Die Übertragung fremdsprachigen Filmmaterials
1.2 Visuell wahrnehmbare Übertragungsformen
1.2.1 Zwischentitel
1.2.2 Die Untertitelung
1.3 Akustisch wahrnehmbare Übertragungsformen
1.3.1 Gesprochene Untertitel
1.3.2 Das "Voice-Over"-Verfahren
1.3.3 Die Kommentarfassung
1.3.4 Die Synchronisation
1.4 Die Wahl der Übertragungsmethode
1.4.1 Entscheidungskriterien bei der Wahl der Übertragungsart
1.4.2 Synchronisations- und Untertitelungsländer

2 Synchronisation oder Untertitelung?
2.1 Vor- und Nachteile von Untertiteln
2.2 Argumente gegen die Synchronisation
2.3 Argumente für die Synchronisation
2.4 Die Stimme der Originalschauspieler und Synchronsprecher

3 Zur Geschichte der Synchronisation
3.1 Der Tonfilm
3.2 Entwicklung der Synchronisation in Deutschland
3.2.1 Isolation in der Nazi- und Kriegszeit
3.2.2 Synchron-Boom nach dem Krieg
3.2.3 Synchronisation und Filmzensur
3.2.4 „Alemannitis“
3.2.5 Synchronisation im Zuge des Fernsehens
3.3 Die Synchronisation als soziale Institution
3.3.1 Die Anpassung an das soziale Wertsystem
3.3.2 Die Gesellschaft und ihre Werte im Wandel

4 Synchronität
4.1 Lippensynchronität
4.1.1 Quantitative Lippensynchronität
4.1.2 Synchronität in bezug auf die Sprechgeschwindigkeit
4.1.3 Qualitative Lippensynchronität
4.1.4 Synchronität von Mimik und Gestik
4.2 Inhaltliche Synchronität
4.3 Charaktersynchronität
4.3.1 Die Stimme
4.3.2 Sprachliche Eigenheiten
4.4 Zur Hierarchie der verschiedenen Arten von Synchronität

5 Über die Synchronität hinaus
5.1 Spezifische Aspekte
5.1.1 Der kulturelle Transfer in der Filmsynchronisation
5.1.1.1 Auditiv und visuell wahrnehmbare Kulturspezifika
5.1.1.2 Kulturspezifika und translatorische Kulturkompetenz
5.1.2 Humor und Komik in der Synchronisation
5.1.2.1 Prioritäten und Einschränkungen
5.1.2.2 Witz-Typen
5.1.3 Anglizismen
5.1.3.1 Typen von Anglizismen
5.1.3.2 Funktionen der Anglizismen
5.1.3.3 Die Allgegenwart der Anglizismen
5.1.3.4 Die Synchronisation: Sündenbock der Überflutung mit Anglizismen?
5.2 Theoretische Aspekte
5.2.1 Normen in der audiovisuellen Übersetzung
5.2.2 Interdisziplinität in der multimedialen Übersetzung
5.3 Ausbildung

6 Schlußbemerkungen

7 Bibliographie

0 Einleitung

Im allgemeinen wird angenommen, dass es bei der Filmsynchronisation darum geht, die Dialoge eines Originalfilms so getreu wie möglich in die Sprache des Zielpublikums zu übertragen. Für viele ist die Arbeit eines Synchronautors wahrscheinlich nicht zu weit von der eines Übersetzers entfernt; sie bewegt sich also in ihren Augen hauptsächlich auf der sprachlichen Ebene.

Der Filmtext ist zweifelsohne ein sehr wichtiger Bestandteil des Filmes, doch bildet er nur einen Teil der Eindrücke, die vom Zuschauer wahrgenommen werden und zu seinem Filmverständnis beitragen. Das Ziel dieser Arbeit ist es deswegen zu verdeutlichen, dass eine Fülle von Informationen und Reizen – die oft nur unbewusst wahrgenommen werden – dem Film seine Bedeutung verleihen, und dass die Synchronisation nicht nur die sprachliche Übertragung, sondern die Übertragung des Gesamtwerkes Film als Ziel hat. Zu diesem Zwecke werden verschiedenste Schwierigkeiten, denen sich die Filmsynchronisation stellen muss, und die Weise, in welcher sie in der Forschungsliteratur behandelt wurden und werden, dargestellt.

Als Einleitung dient ein Überblick über die Übertragungsmöglichkeiten fremdsprachigen Filmmaterials und die verschiedenen Faktoren, die zur Bestimmung der eingesetzten Übertragungsart beitragen. Kapitel 2 behandelt eine wichtige, oft emotionelle Frage, die es seit der Einführung des Tonfilms gibt: Ist die Synchronisation oder die Untertitelung die bessere Form der Film-übertragung? Dazu werden die Vor- und Nachteile dieser zwei Übertragungs-formen aus verschiedenen Blickwinkeln erleuchtet. Das dritte Kapitel nimmt sich der Geschichte der Synchronisation (hauptsächlich im deutschsprachigen Raum) und ihrer Rolle als soziale Institution an. So wie der Film eine eigene Entwicklung im Laufe der Zeit erfahren hat, so nahm auch die Filmsynchronisation eine davon untrennbare Parallelentwicklung. Der herrschende Zeitgeist und die geschichtlich-politische Situation in der ein Film gezeigt wird, spielen bei der Übertragung eines Filmes eine wesentliche Rolle. Auch die in einer Gesellschaft herrschenden Werte und Normen haben einen nicht zu unterschätzenden Einfluss auf die Entscheidungen, die während des Synchronisationsprozesses getroffen werden. Kapitel 4 widmet sich den verschiedenen Arten von Synchronitäten. Vor allem die Lippensynchronität, die sehr lange Zeit ein umstrittenes Thema in der Forschungsliteratur zur Synchronisation darstellte, steht im Vordergrund. Doch auch andere Arten von Synchronität und eine Gewichtung zwischen ihnen kommen in diesem Kapitel zur Sprache. Das letzte Kapitel behandelt Fragen, die über die Synchronität hinausgehen und gliedert sich in spezifische und theoretische Aspekte, die in letzter Zeit vermehrt im Mittelpunkt wissenschaftlicher Arbeiten stehen und mit der grundlegenden Neuorientierung der Übersetzungswissenschaft zusammenhängen.

Die in dieser Arbeit verwendeten Personenbezeichnungen sind geschlechtsneutral zu verstehen.

1 Einführung in die Filmübersetzung

Wenn laut Bibel am Anfang das Wort war, war es am Anfang der Filmgeschichte genau umgekehrt: die Filme waren stumm. Dadurch konnten alle die Sprache der beweglichen Bilder verstehen.

Erst als dank der Erfindung des Tonfilms das gesprochene Wort hinzukam, wurde es mit der Verständigung schwierig. Wie beim Turmbau zu Babel wurde den Menschen die Strafe Gottes, nämlich die Sprachenvielfalt, zum Verhängnis, und der Übersetzer, dieser „Sprachennotdienst“, der seit Babel am Werk ist, wurde zu Hilfe gerufen.

Von wenigen Ausnahmen abgesehen, wurden im wesentlichen zwei Lösungen gefunden und eingesetzt, um dem Film sein gesamtes Zielpublikum zu erschließen: die Untertitelung und die Synchronisation. Beide Methoden haben bis zum heutigen Tag große Fortschritte gemacht und erlauben eine leistungsfähige sprachliche Vermittlung des Werks.

1.1 Die Übertragung fremdsprachigen Filmmaterials

Bei der Übertragung fremdsprachigen Filmmaterials von der sogenannten Ausgangssprache in die sogenannte Zielsprache, unterscheidet J.-D. Müller (1982: 89) zwischen folgenden schrift- bzw. verbalsprachlichen Bearbeitungs- und Präsentationsformen:

- Schriftsprachlich:
1. Originalfassung mit Zwischentiteln ("Kartons")
2. Originalfassung mit Untertiteln

- Verbalsprachlich:
1. Originalfassung mit gesprochenen Untertiteln
2. Originalfassung in "Voice-Over"-Bearbeitung
3. Originalfassung als sog. "Kommentarfassung"
4. Synchronfassung

Für die Bearbeitung fremdsprachiger Filme sind in der Praxis nur zwei der oben angeführten Bearbeitungs- und Präsentationsmöglichkeiten relevant, nämlich die Originalfassung mit Untertiteln und die Synchronfassung, die in den folgenden Kapiteln genauer als die anderen Bearbeitungsformen vorgestellt werden. Die Einteilung dieser verschiedenen Bearbeitungs- und Präsentationsformen wird im folgenden in derselben Struktur wie bei Müller dargestellt, wobei ich aber zwischen visuell wahrnehmbaren und akustisch wahrnehmbaren Übertragungs-formen unterscheiden werde.

1.2 Visuell wahrnehmbare Übertragungsformen

1.2.1 Zwischentitel

Manche der oben angeführten Formen sind schon "ausgestorben", wie etwa die Originalfassung mit Zwischentiteln. Diese Methode verwendete man hauptsächlich während der Stummfilmzeit. Die Zwischentitel halfen dem Publikum, den Verlauf der stummen Handlung besser zu verstehen.

1.2.2 Die Untertitelung

Die Untertitelung entwickelte sich aus den in der Stummfilmzeit üblichen Zwischentiteln. Ein maximal zweizeiliger Text am unteren Bildrand gibt die gleichzeitig hörbaren Dialoge in zusammengefasster Form wieder.

In Buchers Enzyklopädie des Films werden Untertiteln folgendermaßen definiert:

Dialogübersetzungen, die direkt auf den Film kopiert werden und am unteren Bildrand aufscheinen. [...] Ein einzelner Untertitel steht in der Regel nicht länger als sechs Sekunden (=144 Einzelbilder oder 274 cm Film in 35 MM-Format). Die Minimaldauer hängt von der Art des Dialogs ab. Routinephrasen wie konventionelle Begrüßungen werden vom Publikum sehr schnell wahrgenommen, ein rascher Austausch wichtiger Sätze bedarf jedoch einer sorgfältigen Abschätzung des Aufnahmenvermögens des Zuschauers, wobei auch der Grad der Kompliziertheit des Inhalts eine Rolle spielt. Der Untertitler muss sowohl die Fähigkeit des Publikums, gedruckte Informationen in einer bestimmten Zeit aufzunehmen, als auch die Dauer eines Dialogs berücksichtigen. Erhebliche Raffungen des originalen Dialogs sind dabei unvermeidlich; tatsächlich können übergenaue Untertitel, die jeder offensichtlichen Banalität folgen, sehr irritierend sein.

Um eine ausreichende Lesbarkeit auch von der letzten Reihe eines Kinosaals aus zu gewähren, ist eine bestimmte Mindestgröße der Untertitelschrift erforderlich.

Diese Mindestgröße der Buchstaben einerseits und die in sich begrenzte Breite der Projektion auf der andern, schufen das ungeschriebene Gesetz, demzufolge der jeweilige Untertitel nicht mehr als 36 Buchstaben haben darf, wobei dem Publikum maximal neun Sekunden zum Lesen eingeräumt werden können. (J.-D. Müller 1982: 91)

Man findet in der Literatur nicht überall dieselben Angaben zur Länge und Einblendezeit der Untertitel, aber sie weichen auch nicht erheblich voneinander ab. Maier (1997: 39) formuliert es allgemeiner: „Jeder einzelne Untertitel besteht aus etwa 30 bis 40 Buchstaben, und dem Zuschauer bleiben zum Lesen dessen etwa 10 Sekunden Zeit.“ Die Einblendedauer hängt auch davon ab, ob Untertitel ein- oder zweiteilig sind, und bei Pisek (1994: 40) findet man eine genauere Angabe dazu, „nämlich 4 Sekunden beim Einzeiler und 6 Sekunden beim Zweizeiler“.

Ein weiteres technisches Problem tritt auf, wenn Untertitel, die normalerweise weiß sind, auf einen hellen Hintergrund (z. B. Schneelandschaft, gleißende Sonne, weiße Limousine, etc) im Film fallen. Um den Kontrast zu wahren muss man sich hier damit behelfen, hinter die helle Schrift einen schwarzen Balken zu legen.

1.3 Akustisch wahrnehmbare Übertragungsformen

1.3.1 Gesprochene Untertitel

Auch die Originalfassung mit gesprochenen Untertiteln wird heutzutage kaum noch verwendet. Dabei handelt es sich um „dasselbe Verfahren wie bei einem internationalen Kongress die Technik des sogenannten Flüsterdolmetschens“ (Mounin 1967: 146). Während das Originalband läuft liest eine Person – die nicht unbedingt ein Übersetzer oder Dolmetscher sein muss – eine vorbereitete Übersetzung vor. Dieses Verfahren wird im Fernsehen auch dann verwendet, wenn z. B. in einer Nachrichtensendung ein ausländischer Politiker interviewt wird: Der Zuschauer hört die ersten Worte in der Originalsprache, bis der Nachrichtensprecher mit der fertigen Übersetzung einsetzt.

1.3.2 Das "Voice-Over"-Verfahren

Bei der Originalfassung mit "Voice-Over"-Bearbeitung ist man bemüht möglichst viel vom akustischen Original zu erhalten. Eine Kommentarstimme wird über den eigentlichen Filmton gelegt. (vgl. Monaco 1980: 410) Der Originalton ist im Hintergrund immer hörbar, während der Sprecher eine Übersetzung dessen liefert, was gerade gesagt wird. Die Lippensynchronität wird nicht berücksichtigt, da es sich nicht um eine Synchronisation, sondern um eine Art Kommentierung handelt. Gesprochen wird üblicherweise nicht in Isochronie mit dem Bild: der Einleitungs- wie auch der Schlusssatz sind meistens in Originalsprache ohne darübergelegten Kommentar zu hören. Die Übersetzung beginnt also erst nach ein paar Sekunden und endet, bevor der Originalsprecher zu Ende gesprochen hat, wodurch der Schlusssatz ebenfalls ohne Kommentar zu hören ist.

In Maiers Kapitel über das "Voice-Over"-Verfahren (vgl. 1997: 35-39) werden alle typischen Beispiele, bei denen diese Methode angewendet wird, erläutert. Das "Voice-Over"-Verfahren findet meistens bei Fernsehshows (eine bekannte Sendung, die immer auf diese Wiese übertragen wird, ist die alljährliche Verleihung der „Oscars“), Dokumentationen oder Interviews Anwendung, um dem Zuschauer Authentizität zu vermitteln. Die Originalstimme ist, wenn auch nur für kurze Zeit, deutlich zu hören, und im Falle, dass man die Ausgangssprache beherrscht, hat man die Möglichkeit, die Übersetzung zu überprüfen.[1] Überdies, meint Maier (vgl. 1997: 36), könnte ein sofortiges Einsetzen des übersetzten Kommentars als eine schlechte, weil nicht lippensynchrone Synchronisation missverstanden werden. Die Übersetzung des "Voice-Over"-Textes ist außerdem komprimierter und kürzer, da der Kommentar schneller als im Original und ohne Unterbrechung gesprochen wird.

Der übersetzte Text wird, je nach Gegebenheit, entweder vorher ausgearbeitet und dann bei der Bearbeitung des entsprechenden Programms über die Originalstimme „drübergelegt“, oder aber auch „live“ von einem Simultandolmetscher über die Originalstimme gesprochen; dies geschieht vor allem bei Live-Sendungen, die auch fremdsprachige Gäste haben (ein gutes Bespiel hierfür ist die in der Schweiz, Österreich und Deutschland bekannte Sendung „Wetten, dass..?“) oder bei Live-Interviews z. B. in Nachrichtensendungen.

Das "Voice-Over"-Verfahren kommt also im Fernsehen tagtäglich in Nachrichtensendungen, politischen Magazinen, Interviews, Diskussionen, Talk-Shows und Dokumentationen zum Einsatz, oder aber auch in den sogenannten 'commercial presentations', die zu mitternächtlicher Stunde in manchen Kabelkanälen gesendet werden und von Maier als weiteres Beispiel für die "Voice-Over"-Bearbeitung angeführt werden (vgl. 1997: 37). In diesen Werbe-sendungen wird ein bestimmtes Produkt von einem im Bild sichtbaren 'Conférencier' beworben, sei es ein neues Fitness-Gerät, eine wundersame Autowasch-Politur oder ein in der Küche vielseitig verwendbares „Zaubergerät“, das nicht im Handel erhältlich, sondern nur per Versand zu beziehen ist. Im Laufe der Präsentation interviewt dieser Conférencier verschiedene Personen, die die Vorteile des entsprechenden Produkts preisen. Der "Voice-Over"-Kommentar versucht dann die gespielte Euphorie über das „Wunderprodukt“ beizubehalten. „Was im [...] Original bereits übertrieben wirkt, wird durch die billige deutschsprachige Kommentierung mit gespielten, abgelesenen, eintönigen Euphorieausbrüchen nun völlig der Lächerlichkeit preisgegeben“, wird abschließend vom Maier (1997: 37) festgestellt.

Pruys gibt neben dem Dokumentar- und Nachrichtenbereich auch fremdsprachliche Stummfilmzwischentitel als Beispiel für die "Voice-Over"-Bearbeitung an. Auch diese können übersprochen werden und „[d]er WDR machte 1983 auf diese Weise Kurzfilme von David Wark Griffith für sein Publikum verständlich“ (1997: 77).

1.3.3 Die Kommentarfassung

Die Kommentarfassung wird bei längeren Texten, vor allem bei Dokumentarfilmen eingesetzt und ist ein gesprochener Text, der Zusammenhänge darstellen und Informationen geben soll (vgl. Monaco 1980: 396). Die Kommentarfassung unterscheidet sich von der „Voice-Over“-Bearbeitung nur in sprachlicher Hinsicht. Sie ist meist vorbereitet und sprachlich anspruchsvoller gestaltet, als beispielsweise kurze Wortwechsel während eines Interviews (vgl. Manhart 1996: 133).

1.3.4 Die Synchronisation

Definiert wird der Begriff der „Synchronisation“ in Buchers Enzyklopädie des Films als

Verfahren bei der das Bild und der Ton, die aus künstlerischen und technischen Gesichtspunkten gewöhnlich auf verschiedenen Filmstreifen aufgenommen sind, gekoppelt werden, so dass sie wie in der Wirklichkeit zusammen wahrnehmbar sind. Normalerweise fällt dem Zuschauer die Synchronisation nur auf, wenn etwas dabei schiefläuft.

Einen Film zu synchronisieren bedeutet also in erster Linie, Bild und Ton in zeitliche Übereinstimmung zu bringen.

An zweiter Stelle in Buchers Enzyklopädie des Films wird der Begriff „Synchronisation“ als das Verfahren bezeichnet, den originalen Ton aus künstlerischen, kommerziellen oder technischen Gründen durch eine neue Spur zu ersetzen. Normalerweise werden in fast allen westeuropäischen und amerikanischen Produktionen die Stimmen der Schauspieler simultan aufgenommen. Wenn jedoch aus irgendeinem Grund der Dialog geändert werden muss, ohne dass die Dauer der zu ändernden Passage wesentlich beeinträchtigt wird, dreht man nicht den ganzen betroffenen Komplex neu, sondern unterlegt ihm einfach die neu aufgenommenen Sätze.

Wenn man von Synchronisation spricht, versteht man also darunter nicht nur das Verfahren, einen fremdsprachlichen Film mit einem neuen Text zu versehen, sondern durchaus auch die Nachsynchronisation eines Films in seiner Ausgangssprache[2]. Durch die Synchronisation wird beispielsweise eine bessere Soundqualität erzielt, wenn Szenen unter freiem Himmel gedreht und die Stimmen der Schauspieler hier vom Wind davon getragen wurden, somit also nicht mehr deutlich genug zu verstehen waren. Ebenso störend wäre der Flugzeuglärm in einer Szene eines Films, der im Mittelalter spielt. Ein weiterer Grund für die Nachsynchronisation des Originals kann auch die dialekt- oder akzentgefärbte Sprache eines Schauspielers sein, die nicht zur Rolle passt.

Letztendlich folgt dann die Erklärung des Begriffs „Synchronisation“, die für die vorliegende Arbeit relevant ist:

Am vertrautesten ist die Synchronisation dem Kinogänger als Mittel zur Übertragung ausländischer Filme in die eigene Sprache. Dies geschieht in der Regel nach Abschluss des Films und außerhalb des Ursprunglandes; [...] Der Übersetzer kümmert sich vor allem darum, dass die neuen Texte auch in der vorgegebenen Zeit zu sprechen sind, wobei Bedeutungsverschiebungen häufig vorkommen, mindestens aber Subtilitäten des Originals verloren gehen. Die Schauspieler, die die neuen Texte sprechen, sind oft routinierte Spezialisten, was einen reibungslosen Arbeitsablauf bei einer bestimmten Qualitätsgarantie sichert, jedoch zu einem beträchtlichen Verlust an Originalität und Spontaneität der ursprünglichen Texte führt. [...] Nach Aufnahme der Stimmen kombiniert der Tonmeister des Synchronstudios die neue Dialogspur mit den vom Produzenten des Originals zur Verfügung gestellten Musik- und Geräuschbändern, die als einzige Bestandteile des Originaltons auch in der Synchronfassung zu hören sind. Fußtritte oder atmosphärische Geräusche, die mit den Originaldialogen aufgenommen wurden, gehen in der Regel verloren; wenn nicht unbedingt nötig, werden sie nur selten nachsynchronisiert. Die Tonspur, die in synchronisierten Versionen angeboten wird, ist daher oftmals wesentlich blasser als das Original. (Hervorhebung von mir)

Die Tatsache, dass man in der Synchronfassung nicht mehr die Originalstimmen hört, stellt zweifelsohne einen der größten Nachteile der Synchronisation dar; darauf wird im Kapitel 2.4 näher eingegangen. Dass die übersetzen Texte in der vorgegebenen Zeit zu sprechen sind, wie in der obigen Definition erklärt wird, ist sicherlich ein wichtiger Teil des Synchronisationsprozesses, aber nur eine der vielen Anforderungen, die für eine gelungene Filmübersetzung notwendig sind; all diese werden in Kapitel 4 vorgestellt. Auch verschiedenste Gründe, die zu Verlusten der Originalität und Subtilität des Originals führen können, werden im weiteren Verlauf dieser Arbeit behandelt. Manchmal sind solche Verluste unumgänglich, aber heutzutage ist die Technik der Synchronisation schon sehr weit entwickelt, und man muss zugeben, dass sie auch hervorragende Leistungen vorweisen kann.

Wie wir also gesehen haben, ist Synchronisation „ein Sammelbegriff für verschiedene Operationen, die alle darauf hinauslaufen, dass am Schluss Bild und Ton eine Einheit bilden“ (Toepser-Ziegert 1975: 1). Die vorliegende Arbeit behandelt aber ausschließlich die Art der Filmsynchronisation, die von Gabriele Toepser-Ziegert (ebda.) als „die Übertragung des gesprochenen Wortes aus einer Sprache in eine andere, in technischer und semantischer Hinsicht“ verstanden wird.

Der Begriff „Synchronisation“ ist jedoch für Withman-Linsen zu allumfassend und in einer gewissen Art nicht ganz exakt. Abhängig vom Zeitpunkt, wann das tatsächliche Verfahren der Synchronisation stattfindet, unterscheidet sie zwischen drei Arten von Synchronisation: a) „pre-synchronization“, b) „direct sound synchronization“ und c) „post-synchronization“ (vgl. 1992: 56-60). Die Benennung Synchronisation findet sie deswegen ungenau, da wir eigentlich Nachsynchronisation damit meinen.

a) „pre-synchronization“

Hier wird der Ton vor dem Dreh der entsprechenden Szene aufgenommen. Relevant ist diese Methode beispielsweise für Tanzszenen, in denen sich die Schauspieler intensiv auf die Schrittabfolge konzentrieren müssen. Die Schauspieler orientieren sich beim Drehen an den schon aufgenommen Musikpart; nachher wird die Szene mit dem bereits aufgenommenen Sound zusammengeschnitten. Auch bei Musikshows wird so vorgegangen. Der Sänger bewegt dabei nur die Lippen dem Ton entsprechend und erweckt beim Zuschauer den Eindruck, er/sie sänge live. Obwohl in solchen Fällen der Ausgangspunkt der Ton ist, dem das Bild nachher angepasst wird, spricht man auch hier von Synchronisation. Der Fachbegriff hierzu lautet „Playback“[3], ein Wort, das sogar in die deutsche Sprache eingegangen ist.

b) „direct sound synchronization”

Bei diesem Verfahren werden Ton und Bild gleichzeitig aufgenommen. Diese Vorgehensweise findet man im allgemeinen in Nachrichtensendungen oder Talkshows, wo eine Nachbearbeitung des Materials nicht notwendig bzw. nicht möglich ist.

c) „post-synchronization“

Hierbei handelt es sich um die gängigste und bekannteste Art der Synchronisation, um der es auch in der vorliegenden Arbeit geht. Die Szenen werden separat vom Ton aufgenommen und später synchron aufeinander abgestimmt. Dieses Verfahren wird bei fremdsprachlichen Filmen verwendet, wo eine übersetzte Version des Drehbuchs dann den akustischen Teil des Originals ersetzt. Auch internationale Produktionen, in denen Schauspieler unterschiedlicher Nationalitäten jeweils in ihrer Muttersprache sprechen, bzw. nicht die Sprache des Ziellandes beherrschen, landen im Synchronisationsstudio, wo die Produktion dann in einer einzigen Sprache nachsynchronisiert wird.

Aber oft wird diese Art der Synchronisation, wie wir es schon weiter oben bei der Begriffsklärung der Synchronisation gesehen haben, auch bei Filmen in der Originalsprache angewendet. Die Nachsynchronisation ist auch für solche Filme unerlässlich, in denen Hintergrundgeräusche wichtig für die Filmatmosphäre sind (wie z. B. hörbar sausende Kraftfahrzeuge oder Flugzeuge, fallende Bomben, schreiende Menschenmassen), diese aber trotzdem nicht den vordergründigen Dialog überschatten dürfen.

1.4 Die Wahl der Übertragungsmethode

Die Wahl der Bearbeitungsform fremdsprachigen Filmmaterials hängt von vielen verschiedenen Faktoren und Überlegungen ab. Dabei entscheidet man sich nicht immer nur für eine einzige Bearbeitungsform, denn es gibt Situationen, in denen man verschiedene Elemente kombinieren kann und/oder muss. In vielen synchronisierten Fassungen können Untertitel zusätzlich beispielsweise für Liedtexte, spezielle Sprachen oder Texte im Bild eingesetzt werden[4]. Pruys führt zwei berühmte Filme als Beispiel für eine Kombination von Synchronisation und Untertitelung an: Für die deutsche Synchronfassung von „Dances with Wolves“ („Der mit dem Wolf tanzt“) wurden die englischen Dialoge deutsch synchronisiert, die indianischen Dialoge dagegen deutsch untertitelt. Sprachexklusive Untertitel wurden auch für die lateinischen Dialoge in „Der Name der Rose“ verwendet (vgl. 1997: 80). Kombinierte Bearbeitungen findet man meistens auch bei Musikfilmen, vor allem, wenn die Liedtexte für das Verständnis der Filmhandlung von Bedeutung sind. Pruys Kritik (1997: 81) an der Bearbeitung des Films „Hair“ ist daher berechtigt: „Unverständlich [...], dass die Liedtexte in ‚Hair’ nicht untertitelt wurden, obwohl sie in engem Zusammenhang mit der Handlung stehen.“

1.4.1 Entscheidungskriterien bei der Wahl der Übertragungsart

Ob synchronisiert, untertitelt oder beides kombiniert, die Entscheidungskriterien ergeben sich aus verschiedensten Überlegungen und Gegebenheiten: das Thema und der geschichtliche Zeitpunkt des zu bearbeitenden Materials[5], die Gewohnheiten der Zuschauer[6], der eigene Anspruch der Bearbeiter. „Die auf Authentizität bedachten, rekonstruierten Zwischentitelfassungen von Stummfilmen etwa folgen keineswegs den Zuschauergewohnheiten, eher dem Qualitätsanspruch der Bearbeiter“, bemerkt Pruys (1997: 81) in diesem Zusammenhang treffend.

Die technischen Bearbeitungsmöglichkeiten haben auch einen Einfluss auf die Wahl der Bearbeitungsform. Es versteht sich von selbst, dass man in den Jahren des Stummfilms nicht viele Auswahlmöglichkeiten hatte. „Live-Kommentarfassungen gab es seit den Anfängen des Films, Zwischentitel-fassungen seit 1907, chemische Untertitel seit 1933, lippensynchrone Fassungen ebenfalls seit Anfang der dreißiger Jahre, Videotext-Untertitel seit 1981.“ (Pruys 1997: 81f)

Eine weitere Situation, bei der die Bearbeiter keine Wahl haben, sind Kinderprogramme. Diese müssen immer lippensynchron bearbeitet werden, da Kinder noch nicht im Stande sind, Untertitel zu lesen. Im norwegischen Fernsehen z. B., in dem mehr als 98% der ausländischen Filme und Serien mit Untertiteln gesendet werden, werden nur Programme für Kinder unter sieben Jahren synchronisiert (vgl. Herbst 1994:19).

Ein sehr wichtiger Faktor bei der Wahl der Übertragungsmethode sind die Kosten. Natürlich ist der Kostenunterschied zwischen Untertitelung und Synchronisation erheblich. Rabanus (1982:69) meint, dass, „wenn in kleinen Ländern mit eigener Sprache – Dänemark etwa, die Niederlande, Griechenland – nicht synchronisiert wird, dann nicht aus Gründen ästhetischer Moral, sondern aus kommerziellem Kalkül – es zahlt sich nicht aus“. Herbst (vgl. 1994: 22) zitiert Derasse der angibt, dass die Kosten für Synchronisation das fünf- bis siebenfache der Kosten der Untertitelung im allgemeinen ausmachen; vom norwegischen Fernsehen NRK wurde Herbst mitgeteilt, dass die Kosten für die Untertitelung schätzungsweise bei einem Zehntel der Kosten für die Synchronisation liegen.

1.4.2 Synchronisations- und Untertitelungsländer

Die Wahl der Bearbeitungsform hängt in sehr großem Ausmaß von den Zuschauerpräferenzen ab, die von Land zu Land unterschiedlich sind. Innerhalb Europas besteht in den einzelnen Ländern eine deutliche Tendenz zu einem der beiden Verfahren, entweder zur Synchronisation oder zur Untertitelung. Deshalb spricht man im allgemeinen von Untertitelungs- und Synchronisationsländern.

Zu den Untertitelungsländern gehören laut Herbst die skandinavischen Staaten Dänemark, Finnland, Norwegen und Schweden, die Niederlande, Portugal, Griechenland und Zypern. Zu den Synchronisationsländern zählen Deutschland, Österreich, die Schweiz[7], Frankreich, Italien und Spanien[8]. Im flämischen Teil Belgiens wird mit Untertiteln gearbeitet, im wallonischen Teil werden synchronisierte Fassungen gezeigt (vgl. 1994: 19). Abgesehen von Sendungen für spezielle Zielgruppen (z. B. Kinder, Hörgeschädigte, Blinde) hat jedes dieser Länder eine verwurzelte Tradition in der einen oder anderen Bearbeitungsform. Großbritannien und Irland stellen in dieser Hinsicht eine Ausnahme dar. Man bevorzugt weder die eine noch die andere Übertragungsmöglichkeit und ausländische Filme werden hier sowohl synchronisiert als auch untertitelt. Man darf dabei natürlich nicht vergessen, dass in diesem Fall „kaum eine Notwendigkeit der Verwendung fremdsprachlichen Filmmaterials besteht, weil amerikanische und australische Produktionen eingekauft werden können, ohne dass Kosten für Übersetzung entstehen.“ (Herbst 1994: 23)

In vielen Ländern haben sich spezielle Bearbeitungsformen und Eigenheiten herausgebildet, die auf verschiedenste Gründe zurückzuführen sind. In Italien beispielsweise ist das Synchronisieren gesetzlich vorgeschrieben; untertitelte Filme werden nicht gezeigt. In den skandinavischen Ländern wird Englisch schon sehr früh als Pflichtfach in der Schule unterrichtet. Dadurch sind die Englischkenntnisse in diesen Länder überdurchschnittlich hoch (vgl. Manhart 1996: 134). Das Publikum lehnt das Synchronisieren als Verzerrung des Originalfilms ab (außer natürlich bei Kinderprogrammen) und nützt die Untertitel, um seine Fremdsprachenkenntnisse zu prüfen, zu pflegen oder sogar zu verbessern, wie es das folgenden Zitat von Dollerup[9] (1974: 197) beschreibt:

One point which has been constantly overlooked […] is that in a small country like Denmark the proportion of the population which has at some stage or other learnt one or several foreign languages is relatively high, and that many people must therefore be using foreign programmes as a means of keeping up, possibly even improving their command of foreign languages. For these reason they will, time and again, resort to the subtitles in order to increase their vocabulary or check their understanding of what is being said. And in so doing they are, inevitably, subjected to strong audiovisual teaching methods, […] (1) the original message, (2) a translation of it, and (3) a ‘stimulus situation’, i.e. a picture or a sequence of pictures showing what the speech refers to.

Neben Skandinavien haben auch die Niederlande durch etwa vierzig Jahre Erfahrung, Zuschauerumfragen und ständigen Verbesserungsbemühungen einen sehr hohen Standard in der Filmübersetzung erreicht, der von großer Akzeptanz gekennzeichnet ist. Portugal und Griechenland folgen dem Vorbild der Niederlande und der skandinavischen Staaten (vgl. Luyken 1991: 35f).

Deutschland gehört zu den größten europäischen Synchronisationsländern. Im Vergleich mit den anderen europäischen Ländern sind die Kosten für die Synchronisation hier am höchsten, der Qualitätsstandard ist auch entsprechend (vgl. Manhart 1996: 135). Österreich, das als eigenständiger Markt zu klein ist, kauft normalerweise die Synchronfassungen fremdsprachiger Programme aus Deutschland (vgl. Luyken 1991: 32). Man findet jedoch auch im deutschsprachigen Raum die Verwendung der weniger kostspieligen Untertitel – vor allem dann,

[…] wenn man sich von einem Streifen keinen 'Kassenschlager' verspricht, oder bei den sog. 'Exoten', i.e. Filmen aus dem fernen Osten, die zu synchronisieren angesichts einer völlig verschiedenen Gestik, Mimik und Motorik äußerst schwierig wäre, und denen man durch das 'Aufkleben' deutscher Synchronstimmen nur den Zauber des Fremdartigen rauben würde (diese Ansicht vertreten selbst diejenigen, die im Synchrongeschäft ihr Geld verdienen). (Müller 1982: 93)

2 Synchronisation oder Untertitelung?

Schon seit der Einführung des Tonfilms Anfang der 30er Jahre begann der Streit, ob die Synchronisation oder die Untertitelung die bessere Form der Film-übersetzung sei. Im deutschsprachigen Raum ist diese Frage heute nur eine rhetorische, da sie durch die gängige Synchronisationspraxis längst beantwortet worden ist:

Wie schon erwähnt, werden Spielfilme im deutschen Sprachraum heutzutage nur mehr in Ausnahmefällen nicht synchronisiert. Aus diesem Grund ist der Streit "Synchronisation vs. Untertitel" eigentlich nur theoretischer Natur, da er in der Praxis schon längst entschieden ist. (Hervorhebung im Original, Pisek 1994: 42)

Die Beantwortung der Frage „Synchronisation oder Untertitelung?“ ist nicht möglich, ohne darauf einzugehen, was übertragen werden soll: ein Spielfilm, eine Fernsehserie, eine Unterhaltungsshow, ein politisches Interview (vgl. Pisek 1994: 42). In der vorliegenden Arbeit beschränkt sich dieser Streit hauptsächlich auf Spielfilme und Fernsehserien.

2.1 Vor- und Nachteile von Untertiteln

In seinem Aufsatz „The Translation of Films: Sub-Titling Versus Dubbing“ setzt sich Hans Vöge mit den Vor- und Nachteilen von Untertiteln bzw. Synchronisation auseinander, und die zwei größten Nachteile der Untertitelung, die er nennt, sind folgende: „[T]he dialog can rarely be translated without shortening it, and the spectator or viewer has to divide his attention between the image and the sub-titles, that is to say, a printed text.“ (1977: 120)

Zu den Nachteilen der Untertitel zählt also, dass der Zuschauer das im Film Gesagte lesen muss und nur wenige Sekunden Zeit dafür hat. Da man nichts verpassen will, erzeugt das einen ständigen Druck, möglichst schnell zu lesen. Somit konzentriert man sich zwangsläufig (zu sehr) auf das Lesen und wird von den Bildern des Films abgelenkt. Da man seine Aufmerksamkeit ständig zwischen Bild und Untertitel teilen muss, kann das dazu führen, dass man wichtige Teile des Films vernachlässigt, wie z. B. die Ausstattung, die Mimik und das Spiel der Darsteller, die Musik, die Kamerabewegungen usw.

Der größte Nachteil der Untertitel besteht aber zweifellos darin, dass die gesprochene Sprache in eine geschriebene übertragen wird. Da man aber nicht so schnell lesen kann, wie auf der Leinwand gesprochen wird, ist es in den meisten Fällen notwendig, Kürzungen im Originaltext vorzunehmen. Die Dialoge müssen sich auf die für das Verständnis notwendigen Informationen beschränken, und das Unwesentliche muss ausgelassen werden. Da der Großteil der fremdsprachlichen Film- und Fernsehproduktionen, die im deutschsprachigen Raum gezeigt werden, aus dem Englischen übertragen werden, sollte noch hinzugefügt werden, dass die deutsche Sprache von Haus aus viel wortlastiger ist als die englische, was die Untertitelung aus dem Englischen ins Deutsche ungemein erschwert (vgl. Maier 1997: 40). Bei der Synchronisation kann man dieses Problem durch ein etwas schnelleres Sprechen ausgleichen, aber bei den Untertiteln kann man die Zuschauer nicht dazu zwingen, schneller zu lesen. Bei längeren, schnell gesprochenen Stellen ist es nahezu unmöglich, den Inhalt ohne große Verluste in die Schriftsprache umzusetzen.

J.-Dietmar Müller untersucht in seiner Arbeit die deutschen Untertitel des Films Mad Dog (deutscher Titel: „Mad Dog – Die Geschichte eines australischen Buschräubers“). Dabei stellt er fest, dass die Gesamtzahl der Wörter um etwa ein Drittel reduziert ist. Die zwei möglichen Strategien, die bei der Kürzung von Untertiteldialogen vorgenommen werden, nennt er "Tilgung" und "Komprimierung"[10] (vgl. 1982: 145f). Das heißt, man kann einerseits „überflüssiges“ Material gänzlich entfernen, was natürlich in einer enormen Platzersparnis resultiert. Darüber hinaus bereitet das Streichen überflüssigen Materials dem Untertitelautor weitaus weniger Kopfzerbrechen als Komprimierungen, da er lediglich entscheiden muss, welche Stellen ausgelassen werden sollen. Andererseits bekommt man kürzere Untertitel auch, indem man beispielsweise mehrere Sätze zu einem einzigen zusammenfasst. Das Komprimieren von Dialogen ist weitaus schwieriger als das Tilgen von überflüssigem Material, da hier nach neuen Wörtern und Ausdrücken, die allzu lange Dialoge in gedrängter Form wiedergeben können, gesucht werden muss. Gleichzeitig ist aber auch das Ziel zu erreichen, dass der Zuschauer der Untertitelfassung gleichermaßen oder zumindest annähernd denselben Film-Kommunikationsprozess erlebt wie ein „native speaker“ (vgl. Maier 1997: 42). Der Autor der Untertitel muss sich daher sehr gut in den Betrachter der Untertitelfassung hineinversetzen können, um zwischen den Elementen, die für das Verständnis des Filmes unverzichtbar sind, und den Elementen, die ohne größere Verluste eliminiert werden können, zu unterscheiden.

Alle „unwichtigen“ Passagen, die aufgrund des Zwangs zur Kürze bei den Untertiteln durch die zwei oben erwähnten Methoden entfallen, sind dennoch fester Bestandteil des Filmes. Ihr Fehlen führt demnach zu dem, was Müller ein "Negativ-Ergebnis" nennt, „das mit den Begriffen 'Entpersonalisierung', 'Entcharakterisierung' und 'Entindividualisierung' der Film-Welt und ihrer Akteure bezeichnet werden muss“ (1982: 174). So fallen auch parasprachliche Faktoren „wie Intonation, Timbre, Tonfall, Tempo, Register, Stottern, Stammeln, False Starts etc., aber auch Dialekteinflüsse, Akzent, sprachliches Niveau u.v.m.“ (1982:174) diesem Zwang des Kürzens zum Opfer, wodurch die Protagonisten viel von ihrem persönlichen Reiz einbüßen. Die persönlichen Nuancen der Schauspieler wie etwa eine unsichere Stimme, aufgeregtes schnelles Sprechen, das Sprachniveau u.s.w. gehen einerseits dadurch verloren, dass sich die Zuschauer auf das Lesen konzentrieren und solche Einzelheiten übersehen (können), und andererseits dadurch, dass sich solche individuellen Noten schwer in schriftsprachlichen Texten entfalten können. Das Publikum bekommt nur das zu lesen, was der Untertitel-Autor in zwei Zeilen „verpacken“ muss. Natürlich können auch bei der Synchronisation viele dieser parasprachlichen Faktoren verloren gehen, vor allem wenn der Synchronsprecher schlecht ist oder seine Stimme nicht zum Schauspieler passt. Dennoch besteht da kein Zwang zur Kürze, und bei einer guten Synchronisation versteht es sich von selbst, dass man die Charaktere so gut wie möglich zu bewahren sucht.

Schlussendlich gibt Müller (1982: 178) folgendes Urteil über die Untertitelung ab:

Wenn Georges Mounin […] die Grundproblematik des Untertitelns in der Gefahr sieht, dass die zuständigen Bearbeiter in einen 'Telegramm-Stil' verfallen, so kann man sich seiner Auffassung wohl nur dann anschließen, wenn man 'Telegramm-Stil' nicht mit 'übertrieben kurz' gleichsetzt, sondern als 'unnatürlich-unpersönlich' interpretiert. In keinem Fall konnte nämlich festgestellt werden, dass Untertitelmacher ihre ZS-Fassung allzu spartanisch gestaltet hätten; es finden sich im Gegenteil genügend Beispiele, die belegen, dass im Gegenteil (sic) sehr häufig 'unnötiger Ballast' am unteren Bildrand gelesen werden muss, der vielfach zugunsten von etwas mehr Individualität und Charakter hätte eliminiert werden können. Wenn dem Publikum UT-Fassungen ausländischer Produktionen meist unbefriedigend-blass anmuten, so liegt es m. E. hauptsächlich daran, dass die beschriebenen Strategien und Mechanismen von den Sprechakten der Darsteller, nicht minder individuell verschieden und charakteristisch wie ihre äußere Erscheinung, nur noch die rein kommunikative Dimension übriglassen und die Schauspieler zu dem machen, was man in der Prosa als 'flat characters' bezeichnet.

Die Untertitel bieten jedoch auch Vorteile. In diesem Zusammenhang bezieht sich Vöge (1977: 121) in seinem Aufsatz auf Istvan Fodor, der in einem Artikel, in dem es eigentlich um die Probleme der Synchronisation geht, zwei Vorteile der Untertitelung nennt:

(1) Sub-titles can comment upon or explain unusual situations, puns, unfamiliar notions, and the like. The nature of dubbing rules out explicit comment, and the lack of time makes it impossible to insert implicit comment in the text.
(2) Sub-titling can be omitted when fragments of the dialog are either superfluous or incomprehensible, whereas dubbing would still be required. (Vöge 1977:121)

Der größte Vorteil der Untertitel ist sicherlich die Tatsache, dass man den Film in seiner Originalsprache sehen kann, mit den Originalstimmen der Schauspieler und allen Nuancen, die vom Regisseur beabsichtigt und von den Schauspielern umgesetzt wurden – den Rhythmus der Wörter, die Pausen, die Intonation, etc. Das anschließende Urteil über Untertitel in Buchers Enzyklopädie des Films ist aus diesem Grund ein positives:

Mit all ihren offensichtlichen Nachteilen ist die Untertitelung jedoch der Synchronisation fremdsprachiger Filme im allgemeinen vorzuziehen. Der Verlust des genauen Dialogverständnisses wird durch die Erhaltung der Charakteristik und Ausdrucksfarbe der ursprünglichen Stimmen mehr als ausgeglichen […]. Außerdem vermeidet man dadurch den störenden Effekt asynchroner Lippen-bewegungen. (1977: 811)

Den instruktiven Charakter der Untertitel darf man auch nicht außer Acht lassen. Untertitel sind eine sehr gute Methode seine Fremdsprachenkenntnisse aufrechtzuerhalten oder zu verbessern.

When viewers see a translation into their own language of what is being said on the screen this has an effect over time on their knowledge of languages [...]. This applies in particular to the young, who in Europe at least have a fair language education, especially as regards English. For them, watching television makes no mean contribution to their understanding of English and an improvement of their pronunciation. (Ivarsson 1992: 19)

Obwohl Thomas Bräutigam (2001: 25) die Untertitel für keine ernsthafte Alternative zur Synchronisation hält, spricht er ihnen einen Vorteil zu:

Eine Originalfassung mit Untertitel erlaubt aber zumindest dem Zuschauer, der die Ausgangssprache halbwegs beherrscht, ein Minimum an Kontrolle. Diese Kontrolle entfällt bei der synchronisierten Fassung, die das Publikum mit einem deutschen Dialog konfrontiert, von dem es guten Glaubens annehmen muss, dass er in irgendeiner Weise mit dem Originaldialog korrespondiert.

Was man bei dieser Pro-und-Kontra-Debatte noch unbedingt berücksichtigen muss, ist die Tatsache, dass die Einstellung gegenüber der Untertitelung bzw. der Synchronisation sehr stark von der Methode der Übertragung von Filmen, die in dem jeweiligen Land vorherrschend ist, geprägt wird. In Arbeiten, deren Verfasser aus großen Synchronisationsländern wie Deutschland und Frankreich kommen, findet man eher negative Äußerungen über die Untertitelung. Hier ein paar Beispiele:

Aufgrund der durch die technischen Gegebenheiten der Untertitel notwendigen Kürzungen der Dialoge, besteht für Mounin die größte Gefahr der Untertitelung einerseits in einer Entfernung vom Sinn des Originals, „denn es gibt immer Zuschauer im Saal, die die Originalsprache genügend kennen, um die Ungenauigkeit des Untertitels zu ermessen“. Andererseits darf der Untertitelautor „nicht in einen Telegrammstil verfallen, der das Temperament und den literarischen Charakter des Dialogs verfälschen würde“ (1967: 146). Dasselbe Argument findet sich auch bei Gerhard Müller-Schwefe, der dieses Verfahren deshalb unbefriedigend findet, „weil die Untertitel, die relativ kurz gehalten werden müssen, im allgemeinen auf Informationen über den Handelsablauf und die Wiedergabe wichtiger Dialogteile beschränkt bleiben müssen“ (zitiert nach Pisek 1994: 45). Für den französischen Spezialisten der Synchronisation Caillé ist die Synchronisation eine logische Konsequenz, die die Erfindung des Tonfilms nach sich gebracht hat, und die einzige Alternative, die der breiten Masse des Publikums eine adäquate Übersetzung vermitteln kann. Untertitel sind für ihn zu anstrengend zu lesen und lenken die Aufmerksamkeit von den Bildern ab; und auch wenn man die Sprache des Originalfilms beherrscht, wird man, seiner Meinung nach, immer darauf kommen, dass man Teile des Films nicht versteht:

On imagine mal en effet combien de gens sont incapables de déchiffrer tout les sous-titres de la version originale. Ils passent trop vite. Leur nombre fatigue, empêche de bien voir l’image, détourne l’attention du jeu. Nombre de spectateurs des salles d’exclusivité prétendent connaître la langue de l’original et, sans l’avouer, constatent en eux-memês qu’ils ne comprennent pas la moitié du dialogue. Enfin, pour l’énorme majorité de la clientèle, deux heures de projection dans une langue inconnue sont un supplice intolérable, surtout lorsqu’il s’agit d’un de ces innombrables films psychologiques où les protagonistes discutent sans arrêt pour savoir s’ils vont tuer, s’aimer ou s’en aller en week-end. (1960:104)

In seinem Aufsatz "La traduction totale" spricht Cary, ein weiterer französischer Befürworter der Synchronisation, von einem anspruchsvollen Publikum, das vorgibt, Filme nur in ihrer Originalversion zu akzeptieren, obwohl es in Wirklichkeit einen großen Teil des Filmes nicht versteht und für das er die Bezeichnung „snobism“ (1960: 115) eingeführt hat. Sowohl Caillé (siehe Zitat weiter oben) als auch Mounin schließen sich seinem Argument an: „Die Spezialisten der Synchronisation [...] reden mit Recht von einem ausgesprochenen Snobismus von seiten eines intellektuellen oder pseudointellektuellen Publikums, einen Film in seiner Originalfassung hören zu wollen; wenn es ehrlich wäre, müsste dieses Publikum zugeben, dass ihm drei Viertel des nichtsynchronisierten Dialogs entgehen.“ (Mounin 1967: 147)

Weiters wird oft auch das Argument gebracht, dass das Publikum zu einem gewissen Grad mit der Originalsprache des Films vertraut sein muss, um Interesse an einem untertitelten Film zu zeigen. Deswegen ist es klar dass, „sub-titling will be especially succesful in the case of films made in a relatively well-known language. In the case of the Netherlands, for instance, this means the three so-called modern languages, English, French and German, of which English is the best known.” (Vöge 77: 124) Nichtsdestotrotz plädiert Vöge für Untertitel auch bei weniger bekannten Fremdsprachen, denn er glaubt, dass „[t]he very fact of the evidently great cultural gap between the audience and the film would only accentuate the incongruity of dubbing“ (ebda.).

Während die meisten deutschen und französischen Synchronisations- und Untertitelungsforscher, wie oben gezeigt, zu einem negativen Urteil über die Untertitel kommen, bleiben diese für Vöge (77: 124) trotz vieler Nachteile die bevorzugte Methode der Übertragung fremdsprachlicher Filme:

Sub-titling, then, is to be preferred for fundamental reasons (even if an audience accustomed to dubbing will continue to prefer that), precisely because of this hybrid way of translating: the spoken text (which, being subsidiary, can be shortened with less consequence than in the case of a written text) remains intact but is accompanied by a printed translation near the bottom of the screen. The audience hears the original dialogue, understands it completly, partially, or not at all, and sees the translation, simultaneously with the images. As the Dutch example shows, this can be easily done with what is appreciated as a constantly high quality.

Der letzte Satz dieses Zitats macht deutlich, dass in einem Land, in dem traditionsgemäß fremdsprachige Filme im Kino und im Fernsehen ausschließlich mit Untertiteln gezeigt werden, die Qualität dieser sehr hoch ist. Im Gegensatz dazu ist demzufolge die Qualität der Untertitel in Ländern in denen normalerweise synchronisiert wird, sicherlich niedriger. Müllers, Mounins, Carys, Caillés u.s.w. negative Urteile über Untertitel könnten also eher eine Folge dessen sein, dass Deutschland und Frankreich eine starke Synchronisationstradition haben, und weniger, dass sich Untertitel grundsächlich nicht zur Übertragung fremd-sprachiger Filme eignen. „In a country where sub-titling is applied on a large scale, the quality of dubbing will be relatively low, and vice versa. This could explain the reactions of the French writers Caillé, Cary, and Mounin to sub-titling“ bemerkt Vöge (1977: 122) in seinem Artikel.

Wie man also im Rahmen dieser Diskussion beobachten kann, werden die verschiedenen Meinungen zur Frage der Untertitelung von Filmmaterial nicht nur von objektiven Kriterien, sondern auch von subjektiven Faktoren beeinflusst.

2.2 Argumente gegen die Synchronisation

Wie wir schon im vorigen Unterkapitel gesehen haben, gibt es Kritiker und Theoretiker, die die Synchronisation für die schlechtere Methode der Übertragung von fremdsprachigen Filmen in eine andere Sprache halten und deshalb die Untertitelung bevorzugen. Umgekehrt gibt es aber auch viele Fürsprecher der Synchronisation, die Untertitel aus den oben angeführten Gründen ablehnen.

Das Hauptargument, das immer wieder gegen die Synchronisation vorgebracht wird, ist die Unmöglichkeit, Lippensynchronität zu erzielen. Mit ein paar Beispielen aus dem Englischen veranschaulicht Thomas Rowe dieses Problem:

The semantic partners of English in a foreign language are with perverse regularity phonetic enemies. Go will not work for vais, nor dead for morto, I for Io and so on ad infinitum. Many lip and mouth movements occur rarely or not at all in a foreign tongue. About the only equivalent in English of the gaping Italian 'a' is a scream of pain. (Hervorhebung im Original, 1960: 118)

Auch Anthony Burgess verteidigt dieses Argument mit einem Beispiel aus dem Englischen ins Italienische:

Culo may mean 'arse', but does not look like it. A disyllable opening with a velar stop and containing two rounded vowels is opposed to a monosyllable with an open spread vowel. No amount of goodwill in an audience can bridge the gap between what the eye sees and what the ear hears. Very few people can lipread, but most people are aware of the consonance between the movements of the mouth and the sounds these movements produce. [...] In other words, how can a mouth making one set of sounds be made to appear as if it were making another? (Hervorhebung im Original, zitiert nach Pisek 1994: 67)

Die Unerreichbarkeit der Lippensynchronität ist anhand einiger sorgfältig ausgewählter Beispiele selbstverständlich leicht zu demonstrieren. Im Rahmen dieser Diskussion darf aber die Frage, inwieweit die Lippensynchronität für das Erreichen einer guten Synchronisation in der Praxis entscheidend ist, nicht außer Acht gelassen werden. Diese Frage wird im Kapitel 4 genauer beleuchtet.

Vorher soll noch auf einen weiteren Nachteil der Synchronisation eingegangen werden, der von Harig in seinem feuilletonistischen Artikel "Gelingt immer und klebt nicht! – Die Übereinstimmung der Lippen mit den Wörtern: Vom Segen und Fluch der Synchronisation" aus dem Jahr 1986 behandelt wurde und seiner Meinung nach eine fatale Auswirkung auf die Zielsprache – in diesem Fall auf die deutsche Sprache – hat. Für Harig ist die Übereinstimmung der Lippen-synchronität das oberste Gebot der Synchronisation. Deswegen werden oft Wörter der Einfachheit halber durch die Synchronisationsarbeit direkt von ihrer Ausgangssprache „importiert“ (vgl. Pisek 1994: 67). Und so wird dieser Import von Wörtern von Harig begründet:

Am allerbesten ist es, man bleibt beim Wort selbst, denn das Wort ist mit sich identisch auf eine so verführerische Weise, dass es dem Synchronisator nicht darauf ankommt, partout auf allerfeinste Sinn-Nuancen zu beharren. Es heißt 'Job', weil 'Job' am besten mit 'Job' zu synchronisieren ist, auch wenn es nicht gleichbedeutend mit Arbeit ist; es heißt 'Problem', weil 'Problem' am besten mit 'Problem' zu synchronisieren ist, auch wenn es nicht gleichbedeutend mit Frage ist. (zitiert nach Pisek 1994: 67f)

Für Harig bleibt es aber nicht nur bei der Übernahme der Wörter aus dem amerikanischen Englischen, denn „ mit dem Wort 'Job' kommt der Job ins Land, mit dem Wort 'Problem' die Probleme, Probleme mit dem Schraubenzieher, wo es früher um kritische Fragen, um strittige Punkte, um ungelöste Aufgaben, um schwierige Umstände und Kalamitäten aller Art ging, geht es heute, auf amerikanische Weise, um Probleme“ (zitiert nach Pisek 1994: 67). Schließlich glaubt er, dass wir dadurch „mit unserem synchronisierten Sprechen eine andere, die amerikanische Lebensführung imitieren, uns ihr am Ende unterwerfen und mit ihr selbst synchron werden“ (zitiert nach Pisek 1994: 68). Sein abschließendes Urteil über die Synchronisation, der er viel Macht einräumt, ist negativ, auch wenn er ihre Faszination nicht leugnet: „Das Synchrongewerbe ist ein undurchschaubares, ein Dunkelgewerbe, es ist die Macht, die unwiderstehlich aus der Mattscheibe wirkt, doppelzüngig und reziprok. In ihm herrscht das Gesetz des Dschungels.“ (ebda.)

Es ist schwierig, die Frage, wie viel Macht die Synchronisation über die Ziel-sprache in der Tat besitzt, zu beantworten, und man kann schwer herausfinden, ob Harig mit seinen überspitzten Formulierungen über ihren Einfluss übertreibt oder nicht. „Sicher ist, dass sie für viele Anglizismen […] einen möglichen Weg bietet, über den sie ins Deutsche gelangen können.“ (Hervorhebung im Original, Pisek 1994: 68). Herauszufinden, welche Anglizismen[11] durch die Arbeit der Synchronisationsfirmen ins Deutsche gelangen, ist praktisch unmöglich, denn eine Sprache wird von allen möglichen Richtungen mit neuen Wörtern bereichert, oder um es mit Harigs Worten auszudrücken „bedroht“ (vgl. Pisek 1994: 68).

[...]


[1] An dieser Stelle möchte ich ein Beispiel von Maier (vgl. 1997: 36) anführen, wo er aufgrund des nicht übersprochenen Schlusssatzes während eines Beitrags im politischen TV-Magazin „Spiegel-TV“ einen Fehler leicht identifizieren konnte. Es ging um die Ankunft von US-Soldaten in einer Stadt des ehemaligen Jugoslawiens und ein Sprecher der Soldaten, der in diesem Beitrag im „Voice-over“-Verfahren übersetzt wurde, gab Erklärungen zum Standort der Soldaten ab und sagte abschließend zum Platz, auf dem die Zelte der Soldaten aufgestellt waren: „this used to be a basketball-court“, was im deutschen Kommentar mit „und in die Mitte des Platzes kommt ein Basketball-Feld“ übersetzt wurde. Eine gravierende Sinnentstellung, deutet sie doch an, die amerikanischen Soldaten hätten im jugoslawischen Bürgerkrieg auch noch Lust und Zeit, Basketball zu spielen!

[2] Siehe dazu auch „post-synchronisation“ auf Seite 15.

[3] Die Erklärung des Begriffs „Playback“ im Deutschen Wörterbuch lautet: Einspielen des Tones (Gesang u. Musik) in eine Bildaufnahme od. Livesendung, wobei der Sänger die Lippen nur bewegt, nur zu singen scheint.

[4] Vgl. dazu auch „Dubbing Multilingual Films: A New Challange?“ von Christine Heiss (2004).

[5] Siehe mehr dazu im Kapitel 3 „Zur Geschichte der Synchronisation“.

[6] Siehe mehr dazu im nächsten Unterkapitel „Synchronisations- und Untertitelungsländer“.

[7] Obwohl in der Schweiz früher importierte Fernsehsendungen und Filme in Originalversion mit Untertiteln gezeigt wurden, ging man mit der Zeit dazu über, synchronisierte Filme aus den benachbarten Ländern zu kaufen oder heimische Synchronisationsfirmen mir der Bearbeitung ausländischer Filme zu beauftragen, da das Publikum vermehrt auf die Programme der angrenzenden Länder umschaltete. Heute werden Filme und Fernsehsendungen in der Schweiz in der Sprache der jeweiligen Region ausgestrahlt, also französisch, deutsch und italienisch (vgl. Luyken 1991: 37).

[8] In Spanien werden aus Kostengründen, vor allem für Filme oder Fernsehserien, die wenig Anklang finden, auch andere Filmbearbeitungsmethoden verwendet (vgl. Luyken 1991: 32).

[9] Dollerup beschäftigt sich in seinem Aufsatz mit Übersetzungsfehlern, die in dänischen Untertiteln von englischsprachigen Fernsehsendungen über einen Zeitraum von 14 Tagen auftraten. Dabei behandelt er Untertitel wie jede Art von „literarischen“ Übersetzungen und geht überhaupt nicht auf die technischen oder medialen Bedingungen ein, die bei der Untertitelung auch berücksichtigt werden sollten.

[10] Zu den Arten von Tilgungen und Komprimierungen siehe die ausführlichen Erläuterungen mit vielen Beispielen aus dem Film „Casablanca“ bei Maier S. 42-56.

[11] Zu diesem Thema siehe auch Unterkapitel 5.1.3 „Anglizismen“.

Ende der Leseprobe aus 140 Seiten

Details

Titel
Synchronisation als Forschungsthema in der Übersetzungswissenschaft
Hochschule
Universität Wien  (Zentrum für Translationwissenschaft)
Note
1
Autor
Jahr
2004
Seiten
140
Katalognummer
V31134
ISBN (eBook)
9783638322263
Dateigröße
1361 KB
Sprache
Deutsch
Anmerkungen
In meiner Arbeit beschäftige ich mich mit der Entwicklung der Synchronisationsforschung. Dabei werden zunächst die verschiedenen Möglichkeiten der Übertragung von Filmen in eine andere Sprache vorgestellt und beschrieben und die verschiedenen Gründe für die Wahl einer bestimmten Transfermöglichkeit erläutert (Kap. 1). Danach wird sehr ausführlich die Diskussion um Vor- und Nachteile der Synchronisation und Untertitelung, wie sie lange auch in der wissenschaftlichen Auseinandersetzung mit diesem Thema zu finden war, nachgezeichnet. Vor allem dem Faktor der Stimme bei der Synchronisation, der eine zentrale Rolle bei der Schaffung der Filmillusion spielt, wird breiter Raum gewidmet (Kap. 2). Im dritten Kapitel wird schließlich auf jene Arbeiten eingegangen, die die politischen , sozialen und moralischen Aspekte thematisieren, die im Lauf der Synchronisationsgeschichte wirksam waren und zu unterschiedlichen Manipulationen der Originale führten. Danach wird auf spezifische Probleme der Synchronisation eingegangen. Ausführlich wird dabei die Synchronität in ihren verschiedenen Ausprägungen - von der Lippensynchronität über die Nukleussynchronität bis hin zur Charaktersynchronität - behandelt (Kap. 4). Danach werden weitere Forschungsthemen dargestellt, wie der Umgang mit der kulturellen Dimension, die Übersetzung von Humor und Komik sowie die Rolle von Anglizismen in Synchrontexten. Den Abschluss dieses fünften Kapitels stellt ein Ausblick auf theoretische Ansätze dar, wie die Untersuchung der Filmsynchronisation mit Konzepten der Descriptive Translation Studies sowie interdisziplinären Herangehensweisen an die komplexe Thematik und die translatorische Ausbildung in diesem Bereich
Schlagworte
Synchronisation, Forschungsthema
Arbeit zitieren
Adela Jurja (Autor:in), 2004, Synchronisation als Forschungsthema in der Übersetzungswissenschaft, München, GRIN Verlag, https://www.grin.com/document/31134

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Synchronisation als Forschungsthema in der Übersetzungswissenschaft



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden