Synchronisation einer Sitcom

Eine situationskomische Fernsehserie durch die Augen eines Übersetzers


Diplomarbeit, 2008

86 Seiten, Note: 1,7


Leseprobe


Inhaltsverzeichnis

KAPITEL 1 Einleitung

KAPITEL 2 Übersetzung schriftsprachlicher Texte
2.1 Entwicklungs des Äquivalenzbegriffs

KAPITEL 3 Übersetzung audiovisueller Texte
3.1 Synchronisation vs. Untertitelung
3.1.1 Vorteile Synchronisation
3.1.2 Nachteile Synchronisation
3.1.3 Vorteile Untertitelung
3.1.4 Nachteile Untertitelung
3.2 Synchronisation
3.3 Unterschiedliche Arten von Synchronität
3.3.1 Lippensynchronität
3.3.2 Gestensynchronität
3.4 Äquivalenz
3.4.1 Synchronstimme
3.4.2 Akzent, Dialekt
3.4.3 Zensur
3.4.4 Kulturhintergrund
3.4.5 Humor
3.5 Das Übersetzungsverfahren
3.6 Charakteristika von Synchrontexten
3.6.1 Written to be Spoken
3.6.2 Anglizismen

KAPITEL 4 Sitcom
4.1 Definition
4.2 Ursprung
4.3 Verschiedene Kategorien einer Sitcom

KAPITEL 5 Friends
5.1 Fakten
5.2 Die Charaktere
5.2.1 Rachel Green
5.2.2 Monica Geller
5.2.3 Phoebe Buffay
5.2.4 Joey Tribbiani
5.2.5 Chandler Bing
5.2.6 Ross Geller
5.3 Storyline
5.4 Sprache

KAPITEL 6 Beispiele
6.1 Humor
6.2 Anglizismen
6.3 Maßeinheiten
6.4 Hinzugefügter Dialog
6.5 Veränderungen der Aussage
6.6 Unlogischer Dialog

KAPITEL 7 Ursachen
7.1 Lokalisierung
7.2 Anglizismen
7.3 Erhaltung des AS-Effekts
7.4 Veränderungen aufgrund der Lippensynchronität
7.5 Zensur
7.6 Übersetzungsprozess
7.7 Übersetzungsfehler

KAPITEL Ergebnis

Bibliografie

Abbildungsverzeichnis

Abb. 1: Rachel Green

Abb. 2: Monica Geller

Abb. 3: Phoebe Buffay

Abb. 4: Joey Tribbiani

Abb. 5: Chandler Bing

Abb. 6: Ross Gellar

KAPITEL 1 Einleitung

I grew up with Monica.

I f you didn‘t eat fast, you didn‘t eat! (Ross S08E03)

In einem Zeitalter, in dem sich das Leben der Menschen immer mehr in der Medienwelt verliert, spielt besonders das Fernsehen eine große Rolle. Mit einem Blick auf das heutige Programm wird ersichtlich, dass besonders Filme und Serien aus anderen Ländern, hauptsächlich den USA, stammen. Achtet man bei der Betrachtung dieser Programme auf die Dialoge, fallen zum Teil sehr merkwürdige Stellen auf, bei denen es fragwürdig ist, wie es zu solchen Formulierungen kommen konnte. Aus diesem Grund werde ich mich näher mit dem Thema der Synchronisation befassen. Ich möchte herausfinden, welche Ursachen diese Sonderheiten haben. Sind es einfach nur schlechte Übersetzungen? Woran erkennt man überhaupt schlechte Übersetzungen? Hatte der Übersetzer keine andere Wahl, als den Dialog so zu übersetzen? Um diese Fragen zu beantworten, werde ich die folgenden Punkte näher betrachten: Welche Faktoren spielen bei der Synchronisation eine Rolle? Hätte es eine bessere Lösung geben können?

Zu diesem Zweck habe ich die amerikanische Sitcom Friends, die besonders im Originalton durch ihren saloppen und formlosen Humor besticht, und deren deutsche Synchronfassung als Untersuchungsgegenstand ausgewählt.

Im zweiten Kapitel gebe ich eine kurze Einführung in die textuelle Übersetzung. Ich werde dem Leser die Bewertungskriterien für diese Art der Übersetzung erklären, um sie dann im dritten Kapitel mit der Synchronisation zu vergleichen. Dazu erläutere ich die Bewertungskriterien bei der Synchronisation ausführlich. Außerdem nenne ich in diesem Kapitel noch die Charakteristika der Synchronisation und beschreibe den Synchronisationsprozess. Zudem gehe ich auf die Zwänge und Einschränkungen, denen die Synchronstudios und der Übersetzer[1] bei der Synchronisation unterworfen sind, ein. Des Weiteren erläutere ich Auffälligkeiten synchronisierter Texte und deren Einfluss auf die deutsche Sprache und ich stelle die Synchronisation kurz der Untertitelung – dem zweiten wichtigen Verfahren zur Übertragung eines ausländischen Films in ein neues Land – gegenüber.

Als nächstes werde ich versuchen dem Leser das Untersuchungsmaterial etwas näher zu bringen. Dazu betrachte ich in Kapitel vier das Serienformat „Sitcom” etwas näher. Ich gehe dabei auf die Geschichte und Herkunft der Sitcom in Amerika und auch in Deutschland ein.

Danach stelle ich in Kapitel fünf dem Leser die Sitcom Friends vor. Dazu gebe ich einen kleinen Einblick in die Handlung und beschreibe kurz die Besonderheiten der unterschiedlichen Charaktere.

In Kapitel sechs habe ich einige Dialogstellen aus dem Untersuchungsmaterial aufgeführt, die meiner Meinung nach bei einer textuellen Übersetzung nicht so übersetzt worden wären, wie sie fürs Fernsehen übersetzt wurden.

Als nächstes werde ich in Kapitel sieben Erklärungen für die zuvor genannten Beispiele nennen und diese den unterschiedlichen Bereichen der Synchronisation zuordnen – sofern dies möglich ist.

Zuletzt fasse ich in Kapitel acht kurz die Ergebnisse zusammen, ziehe daraus die Schlussfolgerung und gebe Vorschläge zur Verbesserung der Qualität der Synchronisation.

KAPITEL 2 Übersetzung schriftsprachlicher Texte

„Over the line!? You are so far past the line, that you can‘t even see the line. The line is a dot to you!”

(Joey S06E19)

Bei der schriftsprachlichen Übersetzung liegt dem Übersetzer eine Kopie des Originaltextes vor, welchen er in die Zielsprache übersetzen soll. Häufig fallen einem in diesem Zusammenhang nicht spezielle Romane oder Sachtexte, sondern schlechte Übersetzungen von Bedienungsanleitungen ein. Woran liegt das? Einer der Gründe dafür dürfte sein, dass wir bei vielen Werken gar nicht merken, dass wir eine Übersetzung lesen. Erst wenn es sich um eine schlechte Übersetzung handelt, merken wir, dass es sich nicht um ein Original handelt. Aber was macht eine Übersetzung zu einer „schlechten” Übersetzungen?

2.1 Entwicklung des Äquivalenzbegriffs

Um diese Frage objektiv beantworten zu können, wurden in den letzten Jahrzehnten mehrere Theorien aufgestellt, die sich auf unterschiedlichste Schwerpunkte stützen:

In den 60er Jahren wurde so argumentiert, dass eine Übersetzung inhaltliche Äquivalenz (=Gleichwertigkeit) zwischen Ausgangssprachlichem Text (AT) und Zielsprachlichem Text (ZT) aufweisen sollte.

In den 70er Jahren wurde das Wissen des Lesers in die Überlegungen mit einbezogen. In den 80er Jahren wurde der Übersetzungszweck zum obersten Bewertungskriterium ernannt. (Vgl. Horn-Helf 1999: 43)

Der Begriff der Äquivalenz war also schon früh in den theoretischen Ansätzen der Übersetzungskritik vorhanden. Der Terminus stammt aus der Logik und Mathematik und bezeichnet die Gleichwertigkeit von Elementen in einer Gleichung. Zunächst wurde die Forderung aufgestellt, dass eine Übersetzung in allen Teilen mit dem Original

„äquivalent” sein muss. Es stellte sich allerdings schnell heraus, dass dieses Ziel aufgrund der Verschiedenheit der Einzelsprachen nicht erreicht werden kann. (Vgl. Stolze 1992: 61)

Mit der Erweiterung des Äquivalenzbegriffes und der Einbeziehung des Lesers in den 70ern entwickelte sich der Übergang von „text-focussed” zu „reader focussed equivalence”. (Santoyo 1988: 101 zitiert in Brigitte Horn-Helf 1999: 63) Aus dieser

„Adressatenorientiertheit der Übersetzung” (Brigitte Horn-Helf 1999: 63) änderten sich die Kriterien, die eine Übersetzung zu einer guten Übersetzung machen. So stellt Kupsch-Losereit (1990:153 zitiert in Brigitte Horn-Helf 1999: 63) die folgende Forderung auf:

„Überall dort, wo der ZT für den Leser unverständlich würde, wo z.B. ein auf ausgangskulturspezifische Realia abhebender Text auf ein totales Defizit im Vorwissen des ZT- Rezipienten stößt, muss das unterschiedliche Voraussetzungswissen von AT- und ZT-Leser für den ZT- Leser kompensiert werden.”

Bei der Übersetzung eines Fachtextes muss sich der Übersetzer also überlegen, ob die Zielgruppe aus Laien oder aus Fachleuten besteht und die Übersetzung gegebenenfalls anpassen.

Nach Einbeziehung des Lesers in den Übersetzungsprozess und der darauffolgenden Anpassung des Äquivalenzbegriffs, geriet dieser immer stärker in die Kritik. Hönig (1995: 57 zitiert nach Horn-Helf 1999: 73) hält den Äquivalenzbegriff als Relation zwischen AT und ZT für eine der „Illusionen über das Übersetzen”, die „nicht durch ihre Richtigkeit, sondern durch ihre Einfachheit” bestechen. Snell-Hornby (Vgl. Siever 1996: 169) führt an dieser Stelle an, dass keine Übereinstimmung hinsichtlich einer allgemeinen Definition des Äquivalenzbegriffs existiert. „58 verschiedene Äquivalenz- begriffe sind zuviel, als dass er noch als zentraler Begriff der Übersetzungswissenschaft akzeptabel scheint.” (Snell-Hornby 1986: 15 zitiert in Siever 1996: 169)

Ein Grund der immer weiteren Abkehr einiger Übersetzungswissenschaftler von dem Äquivalenzbegriff war die Einbeziehung des Verfassers des Ausgangstextes in den Übersetzungsprozess. Dadurch wurde Übersetzen immer mehr als interkulturelle Kom- munikation verstanden und die Kommunikationspartner wurden ins Zentrum des Interesses gerückt. (Vgl. Horn-Helf 1999: 73)

Als Alternativen zum Äquivalenzbegriff entwarfen Hönig und Kußmaul „Strategien der kommunikativen Übersetzung”. (Horn-Helf 1999: 74) Sie richten ihr Augenmerk dabei auf die Kommunikationspartner und die Wirkung des ZT beim Leser. Wichtig ist für sie nicht „irgendeine vorgegebene ‚Äquivalenz‘ auf dieser Ebene der Zeichen herzustellen” sondern „die kommunikative Funktion des Textes”. (Hönig/Kußmaul 1991: 14 zitiert in Horn-Helf 1999: 74)

Genau wie Hönig und Kußmaul, stellen auch Reiß und Vermeer den Leser der Übersetzung in den Mittelpunkt der übersetzerischen Leistung, allerdings kehren sie nicht vom Begriff der Äquivalenz ab, sondern sprechen vielmehr von der „Kom- munikativen Äquivalenz”. Diese ist gegeben, „wenn der Zieltextleser neben Inhalt und Form auch die Funktion einzelner Textelemente erkennen kann. (...) Der Textsinn [sollte] vom Zielrezipienten so aufgenommen werden können, als sei der Text für ihn in der Zielsprache geschrieben.” (Reiß/Vermeer 1991: 164 zitiert in Horn-Helf 1999: 74) Reiß und Vermeer (1984: 169) definieren den neugestellten Aufgabenbereich des Übersetzers wie folgt:

„Die einzelnen Elemente auf den verschiedenen Ebenen können aufgrund der Verschiedenheiten der Sprachen und Kulturen in den meisten Fällen nicht invariant und nicht alle zugleich äquivalent gehalten werden. Dann stellt der Übersetzer fest, welche Elemente des Ausgangstextes er für den konkret vorliegenden Text als „merkmalhaft”, d.h. funktional relevant, auswählt (Prinzip der Selektion) und in welcher Reihenfolge er die Beachtung dieser Merkmale für vordringlich hält (Prinzip der Hierarchisierung), in welchen Fällen er sich für einen völligen Verzicht auf äquivalente Wiedergabe eines jeweiligen Merkmals entscheiden muss [...] und in welchen Fällen er sich für die Kompensation („versetzte Äquivalenz”) oder für die Reproduktion des Elements entscheiden muss, um für den Zieltext insgesamt Äquivalenz, d.h. Gleichwertigkeit in bezug auf die Funktion des Textes im Kommunikationsgeschehen innerhalb der Zielkultur zu erreichen.”

Daraus ergibt sich, dass ein Text nur angemessen übersetzt werden kann, wenn der Übersetzer, vor seiner eigentlichen Arbeit, „alle kommunikativen Daten des Originals und des Übersetzungszwecks erfasst: wer mit wem, worüber, warum und wie kommuniziert.” (Doherty 1994: 109)

KAPITEL 3 Übersetzung audiovisueller Texte

There‘s a limit to how many sandwitches I can eat off the floor.

(Joey S06E 21)

Nach Betrachtung der Übersetzungskriterien bei der schriftsprachlichen Übersetzung, wende ich mich nun den audiovisuellen Texten zu. „Diesen Texttyp macht aus, dass der Verbaltext seine volle Wirkung nur in Co-Existenz mit dem Bild entfalten kann.” (Kurz 2006: 9) Ohne Bild fehlt dem Text sein Präsentationsmedium, weswegen er seine Wirkung nicht erreichen und dementsprechend auch nur eingeschränkt bearbeitet und bewertet werden kann.

Audiovisuelle Texte stellen, aufgrund der Bindung von Sprache und Bild, eine besondere Herausforderung für den Übersetzer dar. In diesem Kapitel werde ich diese Herausforderungen in Bezug auf die Synchronisation genauer erläutern und versuchen dem Leser die Bewertungskriterien für die Übersetzung solcher Texte näher zu bringen. Zunächst werde ich die unterschiedlichen Verfahren vorstellen, die für die Übertragung eines Films oder einer Serie von einer Sprache in eine andere zur Verfügung stehen:

- Voice Over: Bei diesem Verfahren ist der Originalton noch zu hören. Die Übersetzung kommt zeitlich etwas verzögert und ist lauter als das Original. (Vgl. Schröpf 2003: 10)
- Kommentar: Hier ist das Original nicht mehr zu hören. Lippensynchronität spielt bei diesem Verfahren jedoch keine Rolle. (Vgl. Schröpf 2003: 10)
- Synchronisation: Bei der Synchronisation wird versucht „eine vorgegebene Bildfolge mit Lauten einer anderen Sprache zu versehen.” (Herbst 1994: 1) Dabei liegt das Hauptaugenmerk auf der Lippensynchronität.
- Untertitelung: Dieses Verfahren bezeichnet die gekürzte Übersetzung eines Filmdialoges, die als Text synchron mit der entsprechenden Szene im Original eingeblendet wird. Dabei bleibt der Originalton erhalten. (Vgl. Thiesing und Unholzer 2001: 16)

Da das Voice Over und der Kommentar eine untergeordnete Rolle in der westlichen Filmwelt spielen, werde ich mich in diesem Abschnitt nur mit der Synchronisation und Untertitelung befassen. Die anderen Verfahren werden zwar auch in einigen Ländern verwendet, haben allerdings einen sehr geringen Marktanteil.

3.1 Synchronisation vs. Untertitelung

In den meisten europäischen Ländern hat sich eins dieser Verfahren durchgesetzt. So werden in Deutschland, Frankreich und Italien Filme für gewöhnlich synchronisiert, wohingegen die Niederlande und die skandinavischen Länder fast ausschließlich auf Untertitel setzen. Ein Grund dafür mag die Größe der Länder und die damit verbundenen möglichen Einnahmen sein, die in Ländern wie Deutschland oder Frankreich größer sind, als z.B. in den Niederlanden. Deswegen akzeptieren die Synchronisationsfirmen in den größeren Ländern eher die höheren Kosten für die Synchronisation eines Films. Kristmannsson (1996: 231-232) führt hier allerdings an, dass „ein rein marktwirtschaftlicher Vergleich dieser beiden Übersetzungsformen irreführend [ist], da beide zu einem wesentlichen Bestandteil der jeweiligen Kultur geworden sind.“

Neben den finanziellen Aspekten gibt es noch andere Faktoren, die die Entscheidung bei der Wahl des Verfahrens beeinflussen, dazu gehören die im folgenden Abschnitt beschriebenen Vor- und Nachteile der Synchronisation und Untertitelung:

3.1.1 Vorteile Synchronisation

Einer der Vorteile der Synchronisation liegt darin, dass hierbei theoretisch die Möglichkeit besteht, die Illusion zu schaffen, dass es sich nicht um eine Übersetzung handelt.

Es ist also Aufgabe der Synchronisation, dafür zu sorgen, dass der Eindruck entsteht, bei den eingesprochenen Synchrontexten handle es sich um Originaltexte und bei dem Gehörten um das tatsächlich Gesprochene der Figuren auf der Leinwand. (Kurz 2006: 54)

Natürlich wird dem Zuschauer bei synchronisierten Filmen immer wieder der

„kulturspezifische Bildhintergrund“ vor Augen geführt, wodurch sich diese Illusion eigentlich nicht aufrecht erhalten lässt, dennoch bleibt die „Einheit aus Verbaltext und Bild“ bei der Synchronisation erhalten. (Kurz 2006: 54)

Als weiteren Vorteil nennt Kurz (2006: 54), dass bei der Synchronisation die Zusammenhänge und Verweise zwischen Bild und Text besser platziert werden, was vor allem beim Humor sehr wichtig ist. So wird man etwas eher als lustig empfinden, wenn man eine gesprochene Handlung in Verbindung mit dem dazu passendem Bild sieht, als wenn man diese zeitverzögert zu dem Bild liest.

Des Weiteren können so auch Wortspiele, die vom deutschen Publikum nur schwer zu verstehen wären, angepasst werden.

Darüber hinaus wird bei der Synchronisation der Text nicht so stark reduziert, wie bei der Untertitelung. Außerdem ist es bei der Synchronisation nicht erforderlich, dass das Publikum lesen kann d.h. Kinder und Menschen mit einer Leseschwäche können die Filme ebenfalls verfolgen.

3.1.2 Nachteile Synchronisation

Häufig wird als Nachteil der Synchronisation angegeben, dass der Film durch die neuen Stimmen der Schauspieler an Authentizität verliert. Allerdings merkt Herbst (1994: 20) hier an:

„Wahrung der Authentizität – in dem Sinne, daß Zuschauer, die die Ausgangssprache nicht beherrschen, charakterliche Eigenschaften oder Emotionen von Sprechern aufgrund des Originaltons zutreffend erkennen könnte – setzt aber eine Universalität suprasegmentaler und paralinguistischer Merkmale voraus, die nicht gegeben ist.”

Als weiterer Nachteil der Synchronisation wird häufig angegeben, dass sich Dialekte nicht in der Zielsprache reproduzieren lassen, wodurch bei einigen Filmen bestimmte

Informationen, die mit dem entsprechenden Dialekt in der Ausgangssprache verbunden werden, nicht übermittelt werden. (Vgl. Kurz: 2006: 57)

3.1.3 Vorteile Untertitelung

Der größte Vorteil der Untertitelung liegt darin, dass der Zuschauer die Originalsprache hören kann, wodurch ein erhöhter Lerneffekt bei in Schulen gelehrten Sprachen eintritt. Untertitelung wird auch als ein Mittel gegen Analphabetismus gesehen. Kristmannsson (Vgl. 1996: 235) führt an dieser Stelle eine Untersuchung von Henrik Gottlieb aus dem Jahr 1991 an, die ergeben hat, dass die Dänen im ersten Quartal 1987 durchschnittlich 138 Minuten pro Woche interlinguare Übersetzungen in Form von Untertiteln lesen. Wohingegen das gesamte übrige Lesematerial gerade mal 112 Minuten pro Woche ausmacht.

Dazu gibt die Untertitelung einem Touristen oder Besucher, der der Landessprache nicht mächtig ist, die Möglichkeit dem Film im Originalton zu folgen.

Außerdem hat der Zuschauer durch Hören des Originaltons die Möglichkeit, die einzelnen Charaktere ihren Heimatländern zuzuordnen, was nach der Synchronisation häufig nicht mehr möglich ist. (Vgl. Kurz 2006: 60)

3.1.4 Nachteile Untertitelung

Ein offensichtlicher Nachteil der Untertitelung ist, dass die gesprochene Sprache in geschriebene Sprache übertragen wird. Dadurch ergibt sich häufig das Problem, dass sehr viele Kürzungen vorgenommen werden, um mit den Unterhaltungen mitzuhalten. (Vgl. Herbst 1994: 20) Kristmannsson (1996: 231) zitiert eine Sprecherin des Staatlichen Isländischen Rundfunks mit den Worten „Da die Untertitel so kurz sein müssen, handelt es sich nicht um eine genaue Übersetzung, sondern eher um eine kurze Erläuterung.“ Hierbei muss angemerkt werden, dass die Aussage am 30. September 1966 getätigt wurde und sich die technischen Möglichkeiten seitdem wesentlich geändert haben, womit sich natürlich auch die Qualität der Untertitel geändert hat, aber die Tatsache, dass der gesprochene Dialog gekürzt werden muss, bleibt dennoch bestehen.

Dazu weist Herbst (Vgl. 1994: 21) darauf hin, dass durch die enorme Kürzung des Dialoges für die Gestaltung der Untertitel kaum noch von übersetzerischer Äquivalenz gesprochen werden kann.

Da es sich um geschriebenen, kurz eingeblendeten Text handelt, steht der Zuschauer, der der Originalsprache nicht mächtig ist, zudem häufig unter Druck. Er muss die Unterhaltung lesen und bekommt deswegen weniger von dem eigentlichen Geschehen mit, wodurch ein Verlust der Wirkung des Originals nicht ausbleibt. Außerdem fällt es so dem Publikum schwerer einfach abzuschalten und den Film entspannt zu genießen.

Kristmannsson führt als weitere Nachteile die „manchmal katastrophalen Fehler [an], die manche Zuschauer sehr amüsieren, während sie andere vor allem ärgern.“ Diese Fehler treten nicht nur wegen mangelnder Professionalität einiger Übersetzer auf, sondern auch, weil der Filmverleih hier häufig eine Möglichkeit sieht, Kosten einzusparen. (Vgl. Kristmannsson 1996: 232)

Ein weiterer Nachteil der Untertitelung ist der Eingriff ins Bild, der bei der Synchronisation nicht erfolgt. Dadurch „wird die Erlebnisillusion gestört, da diese Texte kommen und gehen wie ein ärgerlicher Schluckauf.“ (Kristmannsson 1996: 234)

3.2 Synchronisation

Bei der schriftsprachlichen Übersetzung wurde die Kommunikation zwischen dem Autoren und dem Leser in den Mittelpunkt gerückt. Diese Ansicht wird auch häufig bei der Synchronisation vertreten. So führt Kurz (2006: 7) als Ziel der Synchronisation an, dass „die Zuschauer in der zielsprachlichen Fassung eines Spielfilms ebenso unterhalten werden, wie die Zuschauer in der Originalfassung.” Dazu zitiert er Mounin mit den Worten:

„Was man übersetzen muß, das sind Sinn und Stoff des filmischen Moments. Und der Sinn ist getroffen, wenn das Publikum genauso reagiert, wie das Publikum der Originalfassung reagiert hätte, selbst wenn man mit diesem Ziel hinzuerfinden muß.” (Mounin 1967: 145)

Ebenso wie Guido Marc Pruys in seinem Buch Die Rhetorik der Filmsynchronisation - wie ausländische Spielfilme in Deutschland zensiert, verändert und gesehen werden ist Kurz (2006: 5) der Meinung, dass „die Synchronisation eines Films nicht nur reproduktiver Natur sein muss, sondern gleichwertig auf dem Level mit der

Originalfassung stehen könnte.” Beide teilen nicht die von Whitman-Linsen und Müller vertretene Auffassung, dass bei Filmen, ebenso wie bei der schriftsprachlichen Übersetzung, die Inhalte äquivalent wiedergegeben werden sollen. So zitiert Kurz (2006:

6) Pruys:

„Ein übersetzter Roman zum Beispiel soll im Idealfall die Inhalte äquivalent wiedergeben [sie!] und eben diese Vorstellung dominiert auch die Diskussion um synchronisierte Filme. Veränderungen von Filminhalten werden so theoretisch zu Fehlern, zu Verfälschungen der Ursprungsfilme.”

Dabei hängt die Qualität der Synchronisation eines Films oder einer Serie von vielen verschiedenen Faktoren ab. Nur selten kann der Übersetzer die von ihm vorgeschlagene Version später auf der Leinwand wiederfinden. Während er sich bei der Übersetzung eines schriftsprachlichen Textes auf seine Fähigkeiten als Übersetzer verlassen kann, ist er bei der Übersetzung eines Films an diverse Einschränkungen gebunden, die ich im Laufe dieses Kapitels etwas näher erläutern werde.

3.3 Unterschiedliche Arten von Synchronität

Ein im Zusammenhang mit der Synchronisation immer wieder verwendeter Terminus ist die Synchronität. Im folgenden Abschnitt gehe ich etwas näher auf die verschiedenen Arten der Synchronität ein. Dazu werde ich aufzeigen, welche Rollen diese im Synchronisationsprozess spielen und wie sie ggf. die Qualität der Übersetzung und die Arbeit des Übersetzers beeinflussen.

3.3.1 Lippensynchronität

Ein wichtiges Kriterium bei der Bewertung der Synchronisationsarbeit ist die Lippensynchronität. Viele von uns kennen die schlecht synchronisierten Fassungen asiatischer Filme und haben sich schon häufig über die Qualität der Synchronisation geärgert oder lustig gemacht.

Bis in die 60er Jahre galt die Lippensynchronität als wichtigster Bestandteil der Synchronisation. Mit der Zeit hat sich diese Ansicht allerdings geändert und der Lippensynchronität wird immer mehr eine nachrangige Priorität zugeordnet. Hesse-

Quack bezeichnet die Lippensynchronität als „ein nicht notwendig zu betrachtendes Postulat“. (zitiert in Whitman-Linsen 1992: 21) Dies lässt sich hauptsächlich darauf zurückführen, dass Versuche gezeigt haben, dass der Zuschauer kleinere Diskrepanzen bei den Lippenbewegungen gar nicht wahrnimmt. Dabei bezeichnet Herbst (1994: 29) die Synchronisation als „eine der wenigen Tätigkeiten, bei denen die Lippenbewegungen der Sprecher bewusst einbezogen werden.“ Allerdings sollte dabei immer daran gedacht werden, dass der Zuschauer sich einen Film oder eine Serie normalerweise ansieht, um unterhalten zu werden und nicht um die Lippenbewegungen mit den tatsächlich zu hörenden Wortlauten zu vergleichen.

Dennoch ist Lippensynchronität ein wichtiger Faktor bei der Synchronisation von audiovisuellen Texten. Allerdings ist dies nicht während eines kompletten Films der Fall. So unterliegen Off-Passagen, in denen der Sprecher nicht zu sehen ist, nicht diesen Restriktionen. Das gilt ebenfalls für Szenen, in denen der Sprecher von hinten zu sehen ist. Der Übersetzer ist somit nur in On-Passagen an die Lippenbewegungen des Sprechers gebunden, wobei es auch hier wieder Unterschiede bei Totalaufnahmen und Nahaufnahmen gibt. Bei Totalaufnahmen muss lediglich die Länge des synchronisierten Textes mit den Lippenbewegungen übereinstimmen, wohingegen bei Nahaufnahmen auf die genauen Lippenbewegungen geachtet werden muss. Herbst wendet diese Faktoren auf eine Folge der Serie Yes Minister (1980-1984) an und stellt dabei fest, dass nur bei etwa einem Viertel der Episode sehr auf Lippensynchronität geachtet werden musste. Natürlich variieren diese Werte von Film zu Film, aber dennoch lässt sich daran erkennen, dass die Synchronisation nicht so sehr durch die Lippenbewegungen eingeschränkt wird, wie man annehmen könnte. (Vgl. Herbst 1994: 29-30)

Ein weiterer Faktor bei der Lippensynchronität ist die Ausgeprägtheit der Lippenbewegungen beim Darsteller. So ergeben sich natürlich unterschiedliche Voraussetzungen bei Personen die besonders deutlich artikulieren und bei Personen, bei denen kaum ausgeprägte Mundbewegungen festzustellen sind. Dazu kommen bei Männern physische Merkmale wie Bärte, die dem Übersetzer auch bei Nahaufnahmen häufig einen gewissen Spielraum geben. Schwierigkeiten ergeben sich dagegen, wenn Schauspielerinnen rot geschminkte Lippen haben, da diese die Aufmerksamkeit des Publikums auf sich ziehen. Das Gleiche gilt für dunkelhäutige Schauspieler. Der erhöhte

Kontrast zwischen Hautfarbe und Zähnen verstärkt die Aufmerksamkeit des Publikums auf die Bewegungen der Lippen. (Vgl. Kurz 2006: 99-100)

Dazu spielt das Übertragungsmedium eine wichtige Rolle in Bezug auf die Lippen- synchronität. So muss bei Filmen, die auf großen Kinoleinwänden zu sehen sind, natürlich mehr auf die Lippenbewegungen geachtet werden, als bei Filmen oder Serien, die nur fürs Fernsehen produziert wurden. (Vgl. Kurz 2006: 100-101)

Von daher ist es nicht möglich, allgemein Grundsätze über Lippensynchronität etwa in bezug auf bestimmte Laute aufzustellen; inwieweit Lippensynchronität erforderlich ist, ist vielmehr nur im Einzelfall zu entscheiden. (Herbst 1994: 31-32)

Herbst unterscheidet zwischen qualitativer Lippensynchronität und quantitativer Lippen- synchronität.

Quantitative Lippensynchronität

Quantitative Lippensynchronität bezeichne die Simultanität von Ton und Lippenbewegungen, unabhängig vom Charakter der Bewegung, d.h. von der Geschwindigkeit und den Positionen, die die Lippen dabei einnehmen. (Herbst 1994: 33)

Bei audiovisuellen Texten kommt es häufig vor, dass die Länge des Originaltons nicht mit der Länge des Synchrontons übereinstimmt. Dabei kommt es dem Übersetzer zu Gute, wenn On-Passagen mit dem Einsatz des Sprechens beginnen oder direkt am Ende der Äußerung aufhören, da in diesem Fall der Synchronton noch vor bzw. nach der On- Passage zu hören sein kann, ohne dadurch die quantitative Lippensynchronität zu verletzten. (Vgl. Herbst 1994: 33)

Herbst stellt während seiner Betrachtung der Serien Yes Minister und Denver-Clan (Dynasty 1981-1989) allerdings auch fest, dass der Synchronton an einigen Stellen anfängt, bevor die Darsteller ihre Lippen bewegen oder noch zu hören ist, nachdem der Darsteller im Originalton bereits zu Ende gesprochen hat. Dabei kommt dem Übersetzer zu Gute, dass der Mund häufig nicht direkt nach dem Ende der Äußerung geschlossen wird. Es kann auch sein, dass die Lippen eines Darstellers sich bereits bewegen, bevor er begonnen hat zu sprechen, wodurch die Abweichung zwischen Synchron- und

Originalton ebenfalls nicht auffallen würde. Dazu werden von Übersetzern häufig Sprechpausen ausgenutzt, was in einigen Fällen einen negativen Einfluss auf den Sinn der Aussage haben kann. (Vgl. Herbst 1994: 33-35)

Herbst führt allerdings auch an, dass sich, in den oben genannten Serien, durchaus Verstöße gegen die quantitative Lippensynchronität befinden. Anhand von Messungen stellt er fest, dass besagte Verstöße „im Einzelfall ein beachtliches Ausmaß annehmen können“ (1994: 35). Er merkt jedoch an, dass das Einsetzen des gesprochenen Textes 0,56 Sekunden (14 Bilder) vor den Lippenbewegungen des Darstellers genauso un- bemerkt bleiben, wie das Fortlaufen des Textes bis zu 0,84 Sekunden (21 Bilder) nach der Beendigung der Lippenbewegungen des Darstellers, wodurch sich etwas mehr Spielraum für den Übersetzer ergibt. (1997: 293)

Um quantitative Lippensynchronität zu erreichen werden unterschiedliche Methoden angewendet. Sollte die Übersetzung kürzer geraten sein, als der Ausgangstext, so können bestimmt Füllwörter wie z.B. ´wohl´, ´ja´, ´ich meine´ eingefügt werden oder der Synchronsprecher muss sein Sprechtempo ändern. (Vgl. Whitman-Linsen 1992: 28)

Synchronität in Bezug auf das Sprechtempo.

Um eine quantitative Lippensynchronität zu erreichen, ist es häufig erforderlich, dass die Synchronsprecher das Sprechtempo im Vergleich zum Originalton verändern. Da das Sprechtempo allerdings eine gewisse Bedeutung überträgt, besteht dadurch die Gefahr die intendierte Aussage zu verfälschen. So führt Herbst in einem Beispiel an, dass ein langsam gesprochenes What news? Gelassenheit und Desinteresse signalisiert. Die schnell gesprochene deutsche Übersetzung Was für Neuigkeiten? lässt dagegen auf eine gewisse Ungeduld und Hastigkeit schließen. Dadurch ergeben sich für das Sprechtempo nicht nur in Bezug auf die Lippensynchronität gewisse Einschränkungen, sondern auch bezüglich der semantischen Äquivalenz. (Vgl. Herbst 1994: 35-38)

Qualitative Lippensynchronität

Die qualitative Lippensynchronität bezieht sich auf das Verhältnis der Lippenbewegungen zu dem tatsächlich gehörten Dialog. Herbst geht in diesem Zusammenhang genau auf Problemlaute bei Vokalen und Konsonanten ein. Dabei wirft er auch einen Blick auf die von Istvan Fodor in dessen Buch Film dubbing: phonetic,

semioctic, esthetic and psychological aspects angestrebte perfekte Übersetzung der einzelnen Problemlaute. Er kommt allerdings zu dem Schluss, dass dessen Konzept eines speziellen Translationssystems viel zu komplex und „für die Praxis nicht zu verwenden ist“. (Vgl. Herbst 1994: 44)

„Zwar mag es in der Praxis sinnvoll sein, Laute, bei denen bei der Übersetzung besonders auf Lippensynchronität zu achten ist, besonders zu markieren. Dabei braucht man sich aber keineswegs (wie in dem Modell von Fodor) an den Lauten zu orientieren, die potentiell Problemlaute sein können; wesentlich sind nur solche Laute, die tatsächlich mit auffälligen Lippenbewegungen artikuliert werden.” (Herbst 1994: 44-45)

Herbst weist schon darauf hin, dass trotzdem „bei der Synchronisation generell versucht wird, den Text so zu gestalten, dass Namen an derselben Stelle wie im Original erscheinen“. (1994: 47) Allerdings stellt er auch fest, dass sich in der Regel ein beträchtlicher Spielraum in Bezug auf die Vokalqualität und Vokallänge ergibt. Weiter bemerkt Herbst, dass

„…häufig keine Simultanität von Labialen im Originalfilm und der Synchronfassung gegeben ist und es offensichtlich ausreicht, wenn Labiale im Synchrontext in der Nähe von Labialen im Originaltext zu liegen kommen, wobei auch die genaue Zahl keine Rolle spielt.” (1994: 49)

Als wesentlichsten Faktor, der bei der qualitativen Lippensynchronität zu beachten ist, führt Herbst (1994: 49) die Betonung von Silben an, da „Vokale überhaupt nur in betonten Silben mit deutlich wahrnehmbaren Lippen- und Kieferbewegungen artikuliert werden.“ Kurz (2006: 101) weißt in diesem Zusammenhang jedoch darauf hin, dass

„Artikulationsbewegungen in nur Bruchteilen von Sekunden erfolgen und die Formung der Lippen durch viele Parameter bestimmt wird“, dazu gehören z.B. Sprechgeschwin- digkeit und Folgelaute. Dadurch ergibt sich ein gewisser Spielraum. Zudem muss immer wieder betont werden, dass das Publikum unterhalten werden will und daher einen

„Goodwill zur Täuschung“ besitzt. (Vgl. Kurz 2006: 101)

Allerdings sollte auch darauf geachtet werden, dass Lippensynchronität – auch in Nah- aufnahmen – nicht zu Lasten der übersetzerischen Qualität geht. Eine Grundregel der Synchronisation sollte laut Whitman-Linsen (1992: 25) deswegen lauten: „One asynchronous, yet flowing, well-written line is worth three perfectly synched lines of clumsy or mediocre style.”

Dazu führt sie an, dass die Synchronisationsstudios langsam darauf aufmerksam werden, dass die von ihnen erwünschte Illusion am besten durch natürlich und authentisch klingende Sprache erreicht werden kann. (Vgl. Whitman-Linsen 1992: 25)

3.3.2 Gestensynchronität

Ein weiterer Gesichtspunkt, der bei der Synchronisation beachtet werden muss, sind die Gesten und Mimik der Darsteller. Laut Kurz besitzt „jeder Satz seine eigene Betonung, die den Satzkern, den Nukleus hervorhebt.“ (2006: 112) Mit diesem „phonetisch markierten Satzkern“ gehen häufig entsprechende Gesten z.B. Kopfnicken oder Handbewegungen und Mimiken z.B. plötzliches Lächeln oder Stirnrunzeln einher. Allerdings ergibt sich dadurch das Problem, dass nicht in jeder Sprache der gleiche Satzteil betont wird. Whitman-Linsen (1992: 36) zeigt dies an dem Beispiel des englischen Satzes „I’ve had enough“, bei dem die Betonung und damit auch die Mimik auf dem „enough“ liegen. In der deutschen Variante „Jetzt reicht’s mir aber“, liegt die Betonung dagegen in der Mitte des Satzes, wodurch die körpersprachliche Betonung z.B. das Stampfen mit einem Fuß nicht mehr mit der sprachlichen Betonung übereinstimmt. Jetzt stellt sich für die Synchronisation die Aufgabe, diese unterschiedlichen Betonungen miteinander in Einklang zu bringen, damit dazugehörige Gesten nicht unmotiviert und deplatziert erscheinen. (Vgl. Kurz 2006: 113) Die Aufgabe gestaltet sich natürlich umso schwieriger, wenn man betrachtet, wie unterschiedlich die einzelnen Kulturen Gesten und Mimiken anwenden. Als Kontrast führt Whitman-Linsen den Italiener an, der seine Körpersprache soweit entwickelt hat, dass es ihm möglich ist, ganze Konversationen zu führen, ohne dabei zu sprechen. (Vgl. Whitman-Linsen 1992: 33) Als Gegenteil nennt sie den „stilted, restrained Englishman with his barely moving lips and dearth of gesticulative“ (Whitman-Linsen 1992: 33), für den so etwas wohl kaum möglich wäre. Der Versuch diese Gesten bei der Synchronisation mit einzubeziehen gestaltet sich natürlich umso schwieriger, je mehr sich die Gesten der unterschiedlichen Kulturen der Original- und Zielsprache unterscheiden. Whitman-Linsen führt hier ein Beispiel aus Robert Altmans Film Perfect Couple an:

[...]


[1] Ich werde Berufs- und Personengruppen durch das maskuline Genus bezeichnen, um die Lesbarkeit zu erleichtern. Ich verwende die weibliche Form ausdrücklich nur, wenn es sich lediglich um weibliche Personen handelt, ansonsten verstehe ich unter der maskulinen Form Männer und Frauen gleichermaßen.

Ende der Leseprobe aus 86 Seiten

Details

Titel
Synchronisation einer Sitcom
Untertitel
Eine situationskomische Fernsehserie durch die Augen eines Übersetzers
Hochschule
Fachhochschule Flensburg
Note
1,7
Autor
Jahr
2008
Seiten
86
Katalognummer
V116213
ISBN (eBook)
9783640181797
ISBN (Buch)
9783640181971
Dateigröße
805 KB
Sprache
Deutsch
Schlagworte
Synchronisation, Sitcom, Friends, Übersetzen, Lokalisierung, Filme
Arbeit zitieren
Diplom Technikübersetzer FH Martin Thauer (Autor:in), 2008, Synchronisation einer Sitcom, München, GRIN Verlag, https://www.grin.com/document/116213

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Synchronisation einer Sitcom



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden