Lade Inhalt...

Translation-Memory-Systeme und ihre Auswirkungen auf den Arbeitsprozess von Übersetzern und die Übersetzungsleistung

Masterarbeit 2014 97 Seiten

Dolmetschen / Übersetzen

Leseprobe

Inhaltsverzeichnis

1 Einleitung

2 Die historische Entwicklung von Translation-Memory-Systemen
2.1 Die Anfänge der maschinellen Übersetzung
2.2 Der ALPAC-Report und seine Folgen
2.3 Terminologiedatenbanken und textbezogene Glossare
2.4 Friedrich Krollmann
2.5 Erhard Lippmann
2.6 Peter Arthern
2.7 Martin Kay
2.8 Alan Melby
2.9 Erste kommerzielle Anwendungen

3 Maschinelle und computergestützte Übersetzung
3.1 Abstufungen von maschineller Übersetzung zu Humanübersetzung
3.1.1 FAMT (Fully Automatic Machine Translation)
3.1.2 HAMT (Human Aided Machine Translation)
3.1.3 MAHT (Machine Aided Human Translation)
3.1.4 Humanübersetzung
3.2 CAT-Tools und Translation-Memory-Systeme
3.3 Begriffsklärungen
3.3.1 No Match
3.3.2 Fuzzy-Match
3.3.3 100%-Match
3.3.4 Kontext-Match
3.3.5 Perfect-Match
3.3.6 Wiederholung
3.3.7 AutoSuggest
3.3.8 Konkordanzsuche

4 Aufbau von Translation-Memory-Systemen
4.1 Translation Memory
4.1.1 Das datenbankbasierte Verfahren
4.1.2 Das referenztextbasierte Verfahren
4.2 Terminologiekomponente
4.3 Übersetzungseditor
4.3.1 Systemeigener Übersetzungseditor
4.3.2 Textverarbeitungsprogramm als Übersetzungseditor
4.4 Alignment-Funktion
4.5 Filterkomponente
4.6 Term-Extraktions-Programm
4.7 Projektmanagement-Werkzeug
4.8 Integriertes maschinelles Übersetzungssystem
4.9 Translation-Memory-Systeme im Internet

5 Voraussetzungen für einen sinnvollen Einsatz eines Translation-Memory-Systems
5.1 Für den Einsatz eines Translation-Memory-Systems nicht geeignete Textsorten
5.1.1 Software-Oberflächen
5.1.2 Werbetexte
5.1.3 Hoch komplexe Formate mit nur geringfügigen Änderungen

6 Wie wird mithilfe eines Translation-Memory-System übersetzt?
6.1 Segmentierungsregeln
6.2 Einarbeitung

7 Die geläufigsten Translation-Memory-Systeme
7.1 Das passende Translation-Memory-System finden
7.2 SDL Trados Studio
7.3 Across
7.4 Wordfast
7.5 memoQ
7.6 Transit NXT

8 Übersetzungsprozess am Beispiel SDL Trados Studio
8.1 Vorbereitung
8.1.1 Projekteinstellungen
8.1.2 Anbinden von Translation Memory und Terminologiedatenbank
8.1.3 Vorübersetzen
8.1.4 Analyse und Kostenkalkulation
8.2 Übersetzen
8.2.1 Qualitätssicherung
8.2.2 Erzeugen der Zieltextdatei
8.3 Nachbereitung
8.4 Datenaustausch

9 Vor- und Nachteile bei der Verwendung von Translation-Memory-Systemen
9.1 Vorteile
9.2 Nachteile
9.3 Einflussfaktoren auf die Qualität der Übersetzung
9.4 Einfluss auf psychologische und soziale Aspekte der Arbeits-situation

10 Auswirkungen auf die Preiskalkulation
10.1 Abrechnungsmodell auf Basis gewichteter Wortpreise
10.1.1 No Match und Fuzzy-Matches
10.1.2 95 %- bis 99 %-Match
10.1.3 100 %-Match, Kontext-Match und PerfectMatch
10.1.4 Wiederholungen
10.1.5 Einflussfaktoren auf die Gewichtung der Wortpreise
10.2 Abrechnung bei Direktkunden
10.3 Preiskalkulation
10.4 Durchschnittliche Wort- und Zeilenpreise

11 Umfrage: Verwendung von Translation-Memory-Systemen

12 Schlusswort

Abbildungsverzeichnis

Abb. 1 Abstufungsgrade: Vollautomatische Übersetzung – Humanüberstzung (Hutchins und Somers 1992, 148)

Abb. 2 Fuzzy-Matches bei SDL Trados Studio 2011.

Abb. 3Konkordanzsuche bei SDL Trados Studio 2011

Abb. 4 Translation Memory beiSDL Trados Studio 2011

Abb. 5 Terminologiekomponente bei SDL Trados Studio: MultiTerm

Abb. 6Übersetzungseditor bei Transit NXT (Star AG b 2009)

Abb. 7 Alignment-Funktion bei SDL Trados Studio: WinAlign

Abb. 8 Alignment-Funktion bei memoQ (Kilgray a 2013)

Abb. 9Analysebericht bei SDL Trados Studio 2011 (Czopik 2012, 40)

Abb. 10Benutzeroberfläche bei SDL Trados Studio 2011

Abb. 11Vorübersetzungsbericht bei SDL Trados Studio 2011

Abb. 12Kommentarfunktion bei SDL Trados Studio 2011.

Abb. 13 Terminologieerkennung bei SDL Trados Studio 2011

Abb. 14Ghost-Tag bei SDL Trados Studio 2009.

Abb. 15 QA-Checker bei SDL Trados Studio 2011.

Abb. 16 Verwendung eines Translation-Memory-Systems

Abb. 17 Verwendung eines Translation-Memory-Systems für die Preisbestimmung .

Abb. 18 Beeinflussung der Kalkulationsfunktion auf den Preis

Abb. 19 Hauptgrund für die Verwendung eines Translation-Memory-Systems

Tabellenverzeichnis

Tab. 1 Gewichtungsempfehlung nach Czopik (Czopik 2012, 42).

Tab. 2Gewichtungen der Umfrageteilnehmer.

Tab. 3 Segmentierung: Einfluss auf die Gewichtung (Czopik 2012, 43)

Tab. 4 Segmentierung: Einfluss auf die Gewichtung (Czopik 2012, 43)

Tab. 5Wortpreise der Umfrageteilnehmer

1 Einleitung

Die Masterarbeit mit dem Titel „Translation-Memory-Systeme und ihre Auswirkungen auf den Arbeitsprozess von Übersetzern und die Übersetzungsleistung“stellt die Abschlussarbeit des Studiums M.A. Sprache, Kultur, Translation am FTSK Germersheim der Johannes Gutenberg-Universität Mainz dar.

Translation-Memory-Systeme (auch TM-Systeme genannt) werden für die Arbeit von Übersetzern immer wichtiger und viele Agenturen verlangen sogar die Nutzung eines solchen Systems seitens des Übersetzers. Aus diesem Grund soll in dieser Arbeit untersucht werden, inwiefern die Nutzung von Translation-Memory-Systemen den Übersetzungsprozess und die Preisbestimmung für die Übersetzungsleistung beeinflusst. Denn viele Agenturen erheben manchmal den Anspruch, weniger bezahlen zu müssen, wenn dem Übersetzer durch die Nutzung eines Translation-Memory-Systems die Arbeit erleichtert wird.

Zunächst wirdin Kapitel 2 auf die historischeEntwicklung von Übersetzungssoftware eingegangen. In Kapitel 3 werden die unterschiedlichen Begrifflichkeiten im Bereich der computergestützten Übersetzung (CAT)– insbesondere in Bezug auf Translation-Memory-Systeme – und die Abstufung zwischen Humanübersetzung und maschineller Übersetzung erläutert. Anschließend wird in Kapitel 4 der Aufbau eines Translation-Memory-Systems beleuchtet und in Kapitel 5 auf die Voraussetzungen für einen sinnvollen Einsatz eingegangen. Die Funktionsweise von Translation-Memory-Systemen wird in Kapitel 6 erläutert. In Kapitel 7 werden die bekanntesten Systeme vorgestellt, um die Vielfalt der auf dem Markt erhältlichen Systeme und die dadurch entstehenden Schwierigkeiten, die bei der Entscheidung für die Anschaffung eines bestimmten Systems aufkommen, aufzuzeigen. Anhand eines beispielhaften Übersetzungsprozesses mit SDL Trados Studio 2011 wirdin Kapitel 8 die Arbeit mit einem Translation-Memory-System im Detail erläutert.Im Anschluss werden in Kapitel 9 die Vor- und Nachteile des Einsatzes eines Translation-Memory-Systems und die Einflussfaktoren auf die Qualität der Übersetzung und auf psychologische Aspekte der Arbeitsumgebung von Übersetzern beleuchtet.In Kapitel 10 wird näher auf die Preisbestimmung für Übersetzungsleistungen, die mithilfe eines Translation-Memory-Systems angefertigt wurden und durchschnittliche Marktpreise eingegangen. In einer eigens für diese Arbeit durchgeführten Umfragesoll herausgefunden werden, inwiefern Übersetzer denken, dass die Nutzung von Translation-Memory-Systemen die Arbeit und die Preise für die angefertigten Übersetzungen beeinflusst und wie viele Übersetzer Translation-Memory-Systeme verwenden. Die zusammenfassende Auswertung wird in Kapitel 11 vorgestellt.

Häufig wird für Translation-Memory-Systeme die Abkürzung TMS verwendet. In dieser Arbeit wird dies aufgrund der Verwechslungsmöglichkeit mit den für Projektmanagement eingesetzten Translation-Management-Systemen, die ebenfalls mit TMS abgekürzt werden, vermieden.

Aufgrund der besseren Lesbarkeit wird in dieser Arbeit bei Personenbezeichnungen nur die männliche Form verwendet. Die weibliche Form ist selbstverständlich immer mit eingeschlossen.

Sofern bei den Abbildungen und Tabellen keine Quelle angegeben ist, stammen die Grafiken oder Daten aus eigener Hand.

2 Die historische Entwicklung von Translation-Memory-Systemen

2.1 Die Anfänge der maschinellen Übersetzung

Lange Zeit wurde davon ausgegangen, dass Sprache ein berechenbares Phänomen sei und sich Texte eins zu eins in eine andere Sprache übertragen ließen. (vgl. Jekat und Volk 2010, 643) Daher begann mit Aufkommen der ersten Computer während des Zweiten Weltkriegs die Forschung der maschinellen Übersetzung. (vgl. Hutchins 1986, 2.2)

Die anfänglichen Motive für den Einsatz einer automatisierten Übersetzung waren militärischer und wissenschaftlicher Natur.In Großbritannien wurden beispielsweise während des Zweiten Weltkriegs Computer dazu genutzt, den deutschen Verschlüsselungscode des Militärs (Enigma-Code)zu knacken. (vgl. Hutchins 1986,2.4.1)

Durch das Aufkommen der elektronischen Intelligenz erhofften sich einige Forscher, die Herausforderung der maschinellen Übersetzung rasch bewältigen zu können und einige der frühen Ansätze finden auch heute noch Verwendung. So spricht man auch heute noch von Dekodierung einer fremden Sprache und es hat den Anschein, dass auch die Finanzierung für den Bereich der maschinellen Übersetzung noch immer aus demselben Grund erfolgt wie damals: Regierungen, vor allem die der USA, wollen die Sprachen von Ländern, die eine Bedrohung für die nationale Sicherheit darstellen könnten – sei es militärisch oder wirtschaftlich – verstehen können. (vgl. Evers 2003)

Im Bereich der maschinellen Übersetzungwurden zahlreiche Ansätze erforscht, von einfacher direkter Übersetzung, bei der der Ausgangstext (Input) mithilfe von Grundregeln in einen Zieltext (Output) umgewandelt wird, über ausgeklügeltere Transferverfahren, bei denen morphologische und syntaktische Analysen eingesetzt werden, bis hin zu Interlingua-Methoden, bei der die Übersetzung über den Weg einer künstlichen Zwischensprache erreicht wurde. (vgl. Koehn 2010, 14-15)

2.2 Der ALPAC-Report und seine Folgen

Zu Beginn der Forschungen in den 1950er Jahren herrschte großer Optimismus über die ersten Erfolge. Die Euphorie über maschinelle Übersetzung fand jedoch mit dem ALPAC-Reportim Jahr 1966 ein jähes Ende. Die Studie des Automatic Language Processing Advisory Committee über die Möglichkeiten der maschinellen Übersetzung zeigte unter anderem, dass eine maschinelle Übersetzung mit Post-Editing nicht billiger oder schneller war als eine reine Humanübersetzung. (vgl. Koehn 2010, 15) Das Komitee war der Ansicht, dass maschinelle Übersetzungssysteme somit keinen ökonomischen Vorteil brachten. Dies hatte zur Folge, dass die Finanzierung der Forschung im Bereich maschineller Übersetzung nahezu komplett eingestellt wurde.

Der ALPAC-Report berücksichtigte ausschließlich das Zielder vollautomatischen, qualitativ hochwertigenmaschinellen Übersetzung, die FAHQT(Fully Automatic High Quality Translation). Sie sollte die gleiche Qualität wie eine Humanübersetzung aufweisen. (vgl. Koehn 2010, 15)„In Bezug auf FAHQT wurde bereits 1960 von einigen Forschern erkannt, dass dieses Konzept vermutlich ein zu hochgestecktes Ziel für [maschinelle Übersetzung] ist.“ (Jekat und Volk 2010, 643) Daher wurde dieses Vorhaben nach Erscheinen des ALPAC-Reports weitestgehend aufgegeben.

Häufig wird nur der negative Einfluss des ALPAC-Reports auf die Forschung der maschinellen Übersetzung erwähnt. Jedoch begann mit ihm auch die Forschung auf einem neuen Gebiet, nämlich dem der computergestützten Humanübersetzung. (vgl. Hutchins 1998, 3) Eswurde davon ausgegangen, dass dies ein wichtiger Weg zu besseren, schnelleren und kostengünstigeren Übersetzungen sei: „Machine-aided translation may be an important avenue toward better, quicker, and cheaper translation“ (ALPAC 1966, 32)

Der ALPAC-Report, der einen Tiefschlag für die maschinelle Übersetzung bedeutete, kann somit gleichzeitig als Katalysator für die computergestützte Übersetzung gesehen werden. Während die Übersetzer der maschinellen Übersetzung feindlich gegenüberstanden, da sie nicht nur ihren Lebensunterhalt bedrohte, sondern auch das Post-Editing – also das nachträgliche Korrigieren des maschinell übersetzten Texts – eine undankbare Tätigkeit darstellte, befürworteten auch sie die Unterstützung ihrer Arbeit durch Computerprogramme.„[The committee] believed that aids such as these could be much more economically effective in the support of translation production than any of the current MT systems. This view was supported by translators themselves.” (Hutchins 1998, 3)

Die ersten Vorschläge für Computerprogramme zur Unterstützung der Arbeit von Übersetzern kamen in den 1970er und frühen 1980er Jahren während verschiedener Entwicklungsstufen von Computern auf und wurden häufig unabhängig voneinander formuliert. (vgl. Hutchins 1998, 1)

2.3 Terminologiedatenbanken und textbezogene Glossare

Computerbasierte terminologische Ressourcen verbreiteten sich erst ab den späten 1960er Jahren. Vor allem in großen Industrie- und Regierungsinstitutionen gab es immer größeren Bedarf an schnell zugänglichen aktuellen wissenschaftlichen, technologischen, wirtschaftlichen und sozialwissenschaftlichen Glossaren und Wörterbüchern. Die Schwierigkeiten für die Erstellung bestanden – wie auch heute noch – vor allem in der sich schnell ändernden Terminologie in vielen wissenschaftlichen und technischen Fachgebieten, im Aufkommen neuer Techniken und neuer Produkte, der häufig unzureichenden Standardisierung von Terminologie, sowie der Vielfalt an Informationsquellen mit variierender Qualität und Verlässlichkeit. (vgl. Hutchins 1998, 4)

Zu dieser Zeit verbrachten Übersetzer Hutchins zufolge schätzungsweise 60% ihrer Arbeitszeit damit, Wörterbücher, Glossare und andere terminologische Quellen zu konsultieren. (vgl. ebd.)An dieser Stelle wäre es interessant herauszufinden, wie diese Schätzung in Bezug auf die Arbeit heutiger Übersetzer aussehen würde. Aus eigener Erfahrung nimmt aber das Arbeiten am Computer durch den Zugriff auf digitale Wörterbücher und Glossare viel weniger Zeit in Anspruch als das Durchblättern von gebundenen Büchern oder ausgedruckten Listen.

Die digitalen Wörterbücher, die um die 1960er Jahre für die maschinellen Übersetzungssysteme erstellt wurden, waren aufgrund der zahlreichen Systeminformationen für Humanübersetzer nicht zu gebrauchen, vielmehr benötigten sie vor allem Zugang zu spezieller Terminologie aus technischen und wissenschaftlichen Bereichen:

“Translators do not need the kind of detailed information about grammatical functions, syntactic categories, semantic features, inflected forms, etc. which is to be found in MT lexica, and which is indeed essential for automatic analysis. Nor do translators need to consult dictionaries for items of general vocabulary–which are equally essential components of a MT system dealing with full sentences.”(ebd.)

In den 1970er Jahren wurden erste Terminologiedatenbanken erstellt, um bei Bedarf Informationen über einzelne Wörter oder Sätze wiebeispielsweise Definitionen, Beispiele und Übersetzungen als Basis für die Erstellung von Glossaren für spezifische Texte und spezialisierte aktuelle Wörterbücher zur Verfügung stellen zu können. Viele dieser Datenbanken waren mehrsprachig angelegt und enthielten Definitionen zu den Einträgen. Bei anderen Terminologiedatenbanken lag der Schwerpunkt auf der Bereitstellung von Termini im jeweiligen Kontext. (vgl. ebd.)

2.4 Friedrich Krollmann

Im Übersetzungsdienst der deutschen Bundeswehr, dem früheren Bundessprachenamt, entwickelte Friedrich Krollmann ab 1965 das System LEXIS, das sowohl für die Erstellung von aktuellen Wörterbüchern und Wortlisten mit wissenschaftlichen und technischen Begriffen sowie für textbezogene Glossare verwendet werden konnte. Letztere wurden auf Nachfrage für Übersetzer erstellt, die an bestimmten Texten arbeiteten. Übersetzer markierten die Begriffe im Ausgangstext, bei denen sie Hilfe benötigten. Diese wurden anschließend ausgedruckt. Die jahrelange Erfahrung des Bundessprachenamtes zeigte, dass textbezogene Glossare einen entscheidenden Beitrag dazu leisten können, Übersetzungsarbeiten sowohl quantitativ als auch qualitativ zu verbessern. Diese Beobachtung war eine der ersten, die auf die beachtlichen wirtschaftlichen Vorteile der angemessenen Nutzung von Computern für die Übersetzungsarbeit hinwies. (vgl. Hutchins 1998, 4-5)

2.5 Erhard Lippmann

In den 1970er Jahren revolutionierten neue Entwicklungendie Nutzung von Computern. Eine davon war das sogenannte Time-Sharing.Hierbei handelte es sich um einen Ansatz, der es ermöglichte, mehrere Benutzer gleichzeitig an einem Computer arbeiten zu lassen, wobei jeder Nutzer das Gefühl hatte, alleine an dem Computer zu arbeiten. Durch Time-Sharing konnten mehrere Nutzer miteinander direkt von einzelnen Terminals (Arbeitsplätzen)aus über einen Computer kommunizieren. Am IBM Forschungszentrum in Yorktown Heights erforschte Erhard O. Lippmann die Möglichkeiten des Time-Sharing für den Bereich der computergestützten Übersetzung.Ihm zufolge konnte eine Übersetzung dadurch schneller fertiggestellt werden. (vgl. Hutchins 1998, 6)

2.6 Peter Arthern

Die Bedingungen für die erfolgreiche Nutzung eines Übersetzungsarchivs (seit den 1980er Jahren auch als Translation Memory bekannt) wurden 1979 von Peter Arthern im Rahmen einer Diskussion über das Potenzial von computerbasierten Terminologiesystemen in der Europäischen Kommission ausgearbeitet. Arthern war aufgefallen, dass die meisten Texte der Europäischen Kommission viele Wiederholungen enthielten – oftmals sogar über ganze Passagen – und dass Übersetzer viel Zeit damit verschwendeten, schon übersetzte Texte erneut zu übersetzen. Sein Vorschlag bestand darin, alle ausgangs- und zielsprachlichen Texte zu speichern, umsomit auf alle Teile jedes Texts schnell zugreifen und in das neue Dokument einfügen zu können. Jedoch sollte es noch über etwa ein Jahrzehnt dauern, bis dieses Konzept zum Tragen kam. (vgl. Hutchins 1998, 7-8)

2.7 Martin Kay

Einer der bedeutendsten Momente der Entwicklung der Translation-Memory-Systeme ist aus heutiger Sicht die Veröffentlichung desBerichts von Martin Kay aus dem Jahr 1980 (The Proper Place of Men and Machines in Language Translation (vgl. Reinke 2003, 35)). Dieser stellte gleichzeitig eine Kritik am Ziel der vollautomatischen FAHQT dar, durch die der Übersetzer eines Tages durch Maschinen ersetzt werden würde und er plädierte für die Entwicklung eines Übersetzungstools, das von Übersetzern verwendet werden sollte. Bereits hier wurde „Der Grundgedanke der Integration verschiedener Komponenten zur Unterstützung unterschiedlicher Teilaufgaben des Übersetzungsprozesses […] geäußert.“ (Reinke 2003, 35)

Kays Hauptidee bestand darin, dass existierende Textverarbeitungsprogramme mit Übersetzungsmodulen ausgestattet werden sollten. Ein Modul sollte es ermöglichen, Wörter oder Sätze in einem digitalen Wörterbuch oder in älteren Übersetzungen nachzuschlagen, um so die Konsistenz innerhalb der Übersetzung zu sichern. Ferner sollten bestimmte Textteile automatisch übersetzt werden – hier konnte der Übersetzer entscheiden, ob er den Text gar nicht, während oder nach der maschinellen Übersetzung bearbeitete.(vgl. Hutchins 1998, 9)

2.8 Alan Melby

In den 1970er Jahren kam Alan Melby auf die Idee, ein integriertes Übersetzungssystem aus verschiedenen Übersetzungstools zu entwickeln. 1981 schlug er die Nutzung einer zweisprachigen Konkordanz als Werkzeug für Übersetzer vor. Sie sollte Übersetzern ermöglichen, Textsegmente mit den jeweiligen Übersetzungsäquivalenten in relevanten Kontexten zu identifizieren. Die Idee, eine solche Konkordanz am Computer zu erstellen, geht zurück bis zu den frühesten analogen Anwendungen, jedoch war Melby der Erste, der diese Idee als Unterstützung für Übersetzungen vorschlug. (vgl. Hutchins 1998, 9-10)Weder bei seinen noch bei Kays Ideen war ein Translation Memory vorgesehen. (vgl. Reinke 2003, 35)

Sowohl Kay als auch Melby waren der Meinung, dass der Übersetzer die Kontrolle über die Übersetzung behalten sollte und dass er selbst entscheiden können sollte, wann er einen Text komplett übersetzen oder nachbearbeiten möchte. (vgl. Hutchins 1998, 11)

2.9 Erste kommerzielle Anwendungen

Am bedeutendsten für die weitere Entwicklung der computergestützten Übersetzung waren die Anwendungen von ALPS (Automated Language Processing Systems). Auf dem Bildschirm wurden Ausgangs- und Zieltext nebeneinander angezeigt; alle Formatierungen wurden automatisch vom Ausgangs- in den Zieltext kopiert und es war möglich, ganze Textteile (zum Beispiel Tabellen oder Abbildungen) in den Zieltext zu kopieren. (vgl. Hutchins 1998, 12)

Die ALPS Anwendungen integrierten eine Software, die es Übersetzern ermöglichte, während des Übersetzungsprozesses auf Glossare zuzugreifen. Vor dem Übersetzungsprozess wurden die Wörter im Ausgangstext mit dem integrierten Wörterbuch abgeglichen. Die Ergebnisse wurden am unteren Bildschirmrand angezeigt. Was nicht gefunden wurde, konnte vom Übersetzer selbst hinzugefügt werden. (vgl. ebd.)

Weiterhin konnte bei ALPSwährend des Übersetzungsprozesses eine Wiederholungsdatei angelegt werden. Sobald ein Segment des Texts übersetzt war, wurde es mit seiner Übersetzung in die Datei kopiert. Sobald sie in der Datei gespeichert waren, konnte der Übersetzer Segmente eines neuen Texts mit schon übersetzten Segmenten vergleichen und für die neue Übersetzung verwenden. Er musste so wiederholte Textteile nicht neu übersetzen. Diese Möglichkeit war eine frühe Integration der Funktionen eines Translation Memorys.Ferner wurde ein maschinelles Übersetzungssystem integriert. (vgl. ebd.)

Diese Kombination aus verschiedenen Modulen kann als Vorläufer der heutigen Translation-Memory-Systeme betrachtet werden:

“This combination of multilingual word processor, automatic term lookup, dictionary creation, document storage, access to previously translated segments, and interactive MT as required, formed a true forerunner of the translation workstation.” (Hutchins 1998, 12)

ALPS war nicht sonderlich erfolgreich. Es wurden aber weitere Übersetzungssysteme für professionelle Übersetzer entwickelt, die Anwendungen zur Textverarbeitung, Wörterbücher, Thesauri, und das Anzeigen von Ausgangs- und Zieltext miteinander kombinierten und teilweise automatische Übersetzung integrierten. Jedoch fehlte immer noch das, was heute als die Hauptkomponente eines solchen Systems betrachtet wird: das Translation Memory. (vgl. Hutchins 1998, 12-13)

Die ab den späten 1980er Jahren aus der Forschung der maschinellen Übersetzung hervorgehende Entwicklung statistischer Methoden für die Alignierung von Texten machte die Erstellung von bilingualen Übersetzungsspeichern möglich: „Such statistical methods were exactly what were required to construct usable bilingual aligned databases for the ‘translation memories’ in translator’s workstations.” (Hutchins 1998, 14)

Während der 1980er Jahre verbreiteten sich Übersetzungssysteme immer weiter. Weiterentwicklungen der Computer und Benutzeroberflächen sowie das Aufkommen von Speichermodulen mit hoher Speicherkapazität beschleunigten die Entwicklung der computergestützten Übersetzung. (vgl. ebd.)

In den frühen 1990er Jahren kamen etwa zur gleichen Zeit vier Translation-Memory-Systeme für professionelle Übersetzer auf den Markt. IBM brachte TranslationManager/2 heraus. Hierbei handelte es sich um das Resultat der Entwicklungen und Tests unter Lippmann. Andere Translation-Memory-Systeme dieser Zeit waren das Transit System der Star AG, deraus Forschungsprojekten der Europäischen Kommission hervorgegangene Eurolang Optimizerund die Translator’s Workbench der deutschen Firma Trados. Trados war im Grunde der erste Hersteller, der ein Translation Memory und ein Alignierungsmodul[1] in seinem Übersetzungssystem vereinte.(vgl. Hutchins 1998, 15)

Durch die schnelle und starke Verbreitung der Translation-Memory-Systeme in den 1990er Jahren ging man davon aus, dass diesdas Ende der maschinellen Übersetzung bedeuten würde. (vgl. Hutchins 1998, 1) Zahlreiche aktuelle Forschungen auf diesem Gebiet beweisen jedoch, dass das Thema maschinelle Übersetzung noch immer aktuell ist. (vgl. Koehn 2010, xi)

3 Maschinelle und computergestützte Übersetzung

3.1 Abstufungen von maschineller Übersetzung zu Humanübersetzung

Zwischen vollautomatischer Übersetzung und Humanübersetzung gibt es zahlreiche Abstufungen mit vielen verschiedenen Arten von Interaktion von Mensch und Maschine. „Die Grenzen zwischen manueller Übersetzung mit maschineller Unterstützung und maschineller Übersetzung mit menschlicher Übersetzung sind fließend.“ (Jekat und Volk 2010, 643)Nach Hutchins sind diese Abstufungen:

- die vollautomatische maschinelle Übersetzung
- maschinelle Übersetzung mit Nachearbeitung (Post-Editing)
- maschinelle Übersetzung mit bearbeitetem oder eingeschränktem Input (Pre-Editing)
- humanunterstützte maschinelle Übersetzung – von Hutchins auch als interaktive maschinelle Übersetzung bezeichnet
- maschinenunterstützte Humanübersetzung und
- Humanübersetzung ohne Computerunterstützung. (vgl. Hutchins 1986, Introduction)

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1 Abstufungsgrade: Vollautomatische Übersetzung – Humanübersetzung (Hutchins und Somers 1992, 148)

Allgemein wird– im Unterschied zu Hutchins – maschinelle Übersetzung mit Pre- und Post-Editing sowie die interaktive maschinelle Übersetzung (das Eingreifen durch den Menschen während des Übersetzungsprozesses) als human-aided machine translation (HAMT) zusammengefasst. Diese wird wie bei Hutchins von der maschinengestützten Humanübersetzung (MAHT) abgegrenzt. (vgl. Reinke 2003, 73).

3.1.1 FAMT (Fully Automatic Machine Translation)

Für die vollautomatische Übersetzung gibt es verschiedene maschinelle Übersetzungssysteme. Diese können in regelbasierte und datenbasierte Systeme eingeteilt werden. Zu den regelbasierten Systemen zählen direkte, transferbasierte und interlinguabasierte Systeme. Die datenbasierten Systeme lassen sich in statistikbasierte und beispielbasierte Systeme einteilen. Regelbasierte Verfahren beruhen auf zweisprachigen Wörterbüchern und grammatischen und lexikalischen Regelwerken, datenbasierte Verfahren basieren im Gegenzug auf großen zweisprachigen Korpora. (vgl. Jekat und Volk 2010, 645)Ferner existieren Systeme, die die Vorteile unterschiedlicher Ansätze miteinander kombinieren. Diese werden als hybride Systeme bezeichnet. (vgl. Stein 2009, 14)

Alle maschinellen Übersetzungssysteme analysieren lediglich die syntaktische Oberfläche der Sprachen. „Aufgrund der satzbasierten Verarbeitung [...] fehlt auch das Kontextverständnis über die Satzgrenze hinaus. Somit kann keines der Systeme [...] zwischen syntaktischen und/oder lexikalischen Mehrdeutigkeiten entscheiden.“ (Elsen 2012, 19)Das Problem der Verarbeitung und Repräsentation von Weltwissen beziehungsweise spezifischem Fachwissen, das ebenfalls für die Anfertigung einer Übersetzung notwendig ist, wurde bisher jedoch noch nicht gelöst. Weitere Schwierigkeiten stellen zum Beispiel auch lexikalische Lücken oder Nichtentsprechungen dar, die auftreten, wenn bestimmte Wörter oder Sätze nicht direkt von einer Sprache in eine andere übersetzt werden können oder dort nicht in gleicher Form existieren. (vgl. Jekat und Volk 2010, 643-44)

Das ursprüngliche Ziel der Forschung im Bereich der maschinellen Übersetzung war die vollautomatische, qualitativ hochwertige Übersetzung (FAHQT). (vgl. Jekat und Volk 2010, 643) Bereits in den 1960er Jahren wurde jedoch erkannt, dass dieses Ziel etwas zu hoch gesteckt ist. (vgl. Kapitel 2.2) „Um maschinell Übersetzungen hervorzubringen, die zumindest von menschenähnlicher Qualität sind, ist stets eine Unterstützung durch den Humanübersetzer […] vonnöten.“ (Ramlow 2009, 115)

3.1.2 HAMT (Human Aided Machine Translation)

Ramlow definiert die HAMT durch die Verwendung maschinengestützter Übersetzungssysteme. Es ist „ein Verfahren, bei dem die Übersetzung nicht mehr vom Humanübersetzer, sondern vorrangig von einem Übersetzungssystem durchgeführt wird, wobei der Humanübersetzer den maschinellen Übersetzungsprozess unterstützt.“ (Ramlow 2009, 114)

Hierbei lassen sich die maschinellen Übersetzungssysteme durch die Art der Benutzerinteraktion unterscheiden. So gibt es Systeme, bei denen keine Interaktion während der Übersetzung möglich ist (sogenannte Batch-Systeme) und interaktive maschinelle Übersetzungssysteme. Erstere sehen eine Vor- oder Nachbearbeitung (Pre- oder Post-Editing)vor, letztere erlauben den Eingriff des Menschen während des Übersetzungsprozesses. (vgl. Jekat und Volk 2010, 644)

3.1.2.1 Maschinelle Übersetzung mit Pre-Editing

Das Bearbeiten oder Einschränken des ausgangssprachlichen Inputs wird auch als Pre-Editing bezeichnet. (vgl. Hutchins 1986, Introduction) Maschinelle Übersetzungssysteme können hierdurch beispielsweise durch den Einsatz kontrollierter Sprache und die Disambiguierung von Mehrdeutigkeiten oder das Vereinfachen komplexer syntaktischer Strukturen relativ gute Ergebnisse erzielen. (vgl. Jekat und Volk 2010, 643; Ramlow 2009, 115)

3.1.2.2 Maschinelle Übersetzung mit Post-Editing

Post-Editing bedeutet das Nachbearbeiten beziehungsweise das Reparieren eines maschinell übersetzten Texts. Hierbei muss zuerst festgestellt werden, ob ein maschinell übersetztes Segment in angemessener Zeit korrigiert werden kann. Anschließend müssen die als verwertbar eingestuften Segmente nachbearbeitet werden. „Damit sich Postediting wirtschaftlich auszahlt, müssen die Aufgaben 1 und 2 in einem kürzeren Zeitraum durchgeführt werden, als eine normale Übersetzung dauern würde.“ (Elsen 2012, 16)

Aus ökonomischen Gründen wird häufig diskutiert, ob das Post-Editing in jedem Fall von einem ausgebildeten Übersetzer vorgenommen werden muss oder ob auch andere qualifizierte Personen wie beispielsweise Sprachwissenschaftler diese Aufgabe zu einem niedrigeren Preis ausführen können. An dieser Stelle ist jedoch zu bedenken, dass Segmente, für die es kein verwertbares maschinell erstelltes Übersetzungsergebnis gibt, normal übersetzt werden müssen. Personen mit wenig Übersetzungserfahrung würden hier ein weniger gutes Ergebnis liefern als erfahrene Übersetzer. (vgl. Elsen 2012, 17)

Nach Elsen wird Post-Editing in Zukunft einen immer wichtigeren Aspekt des Übersetzens darstellen, da aufgrund der Zeit- und Kostenersparnis maschinelle Übersetzung bei Sprachdienstleistern eingesetzt und weiterentwickelt wird.(vgl. Elsen 2012, 16-20)

3.1.2.3 Interaktive maschinelle Übersetzung

Bei einem interaktiven maschinellen Übersetzungssystem greift der Übersetzer während der Bearbeitung in den Übersetzungsprozess ein. Das Systemunterbricht die Übersetzung,sobald Übersetzungsprobleme auftreten, die es nicht selbstständig lösen kann – beispielsweise Ambiguitäten oder fehlendes Kontextwissen. Nach der Lösung durch den Übersetzer fährt das System mit der Bearbeitung fort. (vgl. Jekat und Volk 2010, 643;Hutchins 1986, Introduction) „Interaktive MÜ-Systeme stellen ein interessantes theoretisches Konzept dar, konnten sich aber bisher praktisch noch nicht durchsetzen.“ (Jekat und Volk 2010, 643)

3.1.3 MAHT (Machine Aided Human Translation)

Eine weitere Stufe zwischen maschineller und Humanübersetzung ist die sogenannte MAHT, bei der der Übersetzer zum Großteil alleine übersetzt und bei auftretenden Problemen (beispielsweise Terminologieproblemen) ein Computerprogramm zu Hilfe nimmt. Ramlow bezeichnet diese Unterstützungssystemeals maschinelle Hilfen. Hierbeihandelt es sich um Programme, mit denen sich die Arbeitsprozesse beim Übersetzen optimieren lassen, beispielsweise Textverarbeitungsprogramme mit integrierter Grammatik- und Rechtschreibprüfung, Glossare und Translation-Memory-Systeme. (vgl. Ramlow 2009, 113-14) Translation-Memory-Systeme und andere CAT-Tools gehören somit zur MAHT. (vgl. Hutchins 1998, 1; Reinke 2003, 74)

„Translation-Memory-Technologie gehört heute in der Regel zur selbstverständlichen Ausstattung einer Übersetzungsumgebung.“(Seewald-Heeg 2005, 13) Dies zeigen auch aktuelle Umfragewerte: 83% der im Rahmen dieser Arbeit befragten Übersetzer verwenden ein Translation-Memory-System.2004 und 2005 waren es laut einer Umfrage des ADÜ Nord 64%. (vgl. Heino 2006, 2) Ein Zitat aus der eigens durchgeführten Umfrage zeigt sogar, dass die Arbeit ohne Translation-Memory-System kaum noch möglich ist: „Falls man kein TMS hat, kann einem evtl. ein Auftrag flöten gehen, weil einige Auftraggeber Übersetzungen nur mit TMS verlangen.“ (anonymer Umfrageteilnehmer)

Generell kann daher MAHT als die (mit einigen wenigen Ausnahmen) heute gängigste Form des Übersetzens angesehen werden.

3.1.4 Humanübersetzung

Bei der Humanübersetzung handelt es sich um die Übersetzung durch den Menschen ohne jegliche technische Hilfsmittel. Anzumerken ist, dass auch bei der Humanübersetzung kein perfektes Übersetzungsergebnis gefordert werden kann. Es ist daher allgemein üblich, eine von einem menschlichen Übersetzer angefertigte Übersetzung von einem Lektor überprüfen zu lassen, um etwaige unterlaufene Fehler zu korrigieren. (vgl. Ramlow 2009, 116) Somit existiert im Grunde auch bei der Humanübersetzung eine abgeschwächte Form des Post-Editings.[2]

3.2 CAT-Tools und Translation-Memory-Systeme

CAT ist die Abkürzung für computer-aided translation (vgl.Jekat und Volk 2010, 643) oder auch für computer-assisted translation (vgl. Star AG a 2009). Das Internet und Computer sind heutzutage vom Übersetzerarbeitsplatz nicht mehr wegzudenken, die Terminologierecherche kann durch elektronische Wörterbücher viel effizienter erfolgen, als dies früher der Fall war und Projekt- und Übersetzungsabläufe können effizienter gestaltet werden. (vgl. Seewald-Heeg 2005, 1)Auch eine aus der im Rahmen dieser Arbeit durchgeführten Umfrage zitierte Antwort macht dies noch einmal deutlich: „[E]s gibt keine sinnvollen Übersetzungsprozesse mehr ohne CAT-Unterstützung“. (anonymer Umfrageteilnehmer)

Hinsichtlich der Definition von CAT-Tools gibt es unterschiedliche Auffassungen. Für die Einen sind CAT-Tools dasselbe wie Translation-Memory-Systeme (vgl. Keller 2011 a, 11),andere unterscheiden nach verschiedenen Kriterien. Im allgemeinen Sprachgebrauch werden CAT-Tools und Translation-Memory-Systeme häufig synonym verwendet. (vgl.Xing Übersetzer-Lounge)

In dieser Arbeit wird die Ansicht von Hutchins und Somers vertreten, die auch in der Branche der computergestützten Übersetzung ebenfalls zu finden ist: CAT-Systeme fassen die HAMT und MAHT zusammen und Translation-Memory-Systeme stellen eine eigene Kategorie der CAT-Tools dar. (Hutchins und Somers1992,148; Star AG a 2009).Zu CAT-Tools gehören alle Systeme, die die Arbeit des Übersetzers unterstützen.

An dieser Stelle kann diskutiert werden, ob Programme zur Korpuserstellung ebenfalls zu den CAT-Tools gezählt werden können.„Korpusanalysetools können einen […] Beitrag dazu leisten, die sprachlichen Besonderheiten einer Firmen- oder Fachsprache computergestützt zu erarbeiten und sie produktiv in den Übersetzungsprozess einfließen zu lassen.“ (Fantinuoli 2013, 174) Speziell für die Bedürfnisse von Übersetzern entwickelte Tools sind beispielsweise der MiniConcordancer zur Textanalyse[3] oder der CorpusCreator[4] zur Erstellung von Webkorpora. Es handelt sich zwar um Computerprogramme zur Unterstützung von Übersetzern,diese greifen jedochnicht direkt in den Übersetzungsprozess ein. Dennoch gehören sie genau wie Terminologieverwaltungssoftware zu den digitalen Hilfsmitteln für Übersetzer. (vgl. ebd)

3.3 Begriffsklärungen

Wer sich mit Translation-Memory-Systemen auseinandersetzt, stößt auf zahlreiche themenspezifische Begriffe, von denen an dieser Stelle die wichtigsten vorgestellt werden.

Es fängt schon bei der Bezeichnung Translation-Memory-System an, denn diese wird nicht einheitlich verwendet. Andere Bezeichnungen sind: Translation-Memory-Technologie (vgl. Seewald-Heeg 2005, 1), integriertes Übersetzungssystem mit Translation-Memory-Komponente (vgl. Reinke 2003) oder schlichtweg CAT-Tool (vgl. Keller 2011 a, 11). Zwar ist Reinkes Benennung die genaueste, in dieser Arbeit wird jedoch Translation-Memory-System verwendet, da diese Bezeichnung am geläufigsten ist.[5]

Häufig werden Translation-Memory-Systeme noch immer mit maschinellen Übersetzungssystemen verglichen oder gar verwechselt. Jedoch gehören erstere wie oben beschrieben zum Bereich der MAHT. „Zwar greifen beide Systeme auf Datenbanken zurück, aus denen sie Informationen für die Übersetzungen bekommen, jedoch sind die Datenbanken eines Translation-Memory-Systems zu Beginn leer.“ (Keller 2011 a, 10) Die Übersetzungsdaten oder Glossare sind erst verfügbar, nachdem sie vom Übersetzer selbst erstellt wurden. (vgl. ebd.)

Im Folgenden werden die verschiedenen Match-Kategorien, also der jeweilige Grad der Übereinstimmung des neu zu übersetzenden Segments[6] mit dem im Übersetzungsspeicher vorhandenen Segment sowie weitere wichtige Begriffe im Zusammenhang mit Translation-Memory-Systemen erläutert.Die hier vorgestellten Match-Kategorien basieren auf der Nomenklatur von SDL Trados, „die aufgrund der großen Verbreitung der Trados-Software tatsächlich am häufigsten auf dem deutschen Markt zu finden ist. Andere Tools benutzen zum Teil abweichende Begriffe, die Sachverhalte sind jedoch oft größtenteils gleich.“ (Czopik 2012, 43)

3.3.1 No Match

Für ein No Match-Segment wurde keine Übereinstimmung im Translation Memory gefunden, auch kein Segment, welches zu einer bestimmten Prozentzahl mit dem neu zu übersetzenden Segment übereinstimmt.„Die unterste Grenze für den Grad der Übereinstimmung liegt normalerweise bei 50%, wobei die Grenze bei fast allen Systemen flexibel anpassbar ist.“ (Keller 2011 a, 11)

3.3.2 Fuzzy-Match

Die Untergrenze eines Fuzzy-Matches liegt wie oben erwähnt normalerweise bei 50%, die Obergrenze bei 99%. Ein zu niedriger Wert sollte nicht gewählt werden, denn Matches mit nur einem geringen Übereinstimmungswert sind eher hinderlich als hilfreich, da für diese zu viel Zeit für die Durchsicht und Änderung der Übersetzung benötigt wird. (vgl. Ottmann 2003, 21;Keller 2011 a, 11)

„Je größer die Abweichungen zwischen Ausgangstextsegment und einem Segment des Referenzmaterials sind, desto niedriger wird der errechnete Match-Wert.“ (Seewald-Heeg 2005, 5) Neben dem Prozentwert der Übereinstimmung zeigen die Systeme auch die Differenzen innerhalb der Segmente an. Wie dies bei SDL Trados Studio aussieht, zeigt Abbildung 2 auf der nächsten Seite.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2 Fuzzy-Matches bei SDL Trados Studio 2011

„Da die Matching-Algorithmen der unterschiedlichen Tools große Unterschiede aufweisen, sind die Fuzzy-Matches zwischen den Tools nur bedingt vergleichbar. Auch Faktoren wie Wortformatierungen führen zu Abzügen bei den Übereinstimmungswerten, was die Bewertung von Fuzzy-Matches weiter erschwert.“ (Czopik 2012, 43)

Da sich Segmente, die nur geringe Abweichungen aufweisen, relativ schnell anpassen lassen, ist „die Anpassung der Übersetzung eines Fuzzy-Match-Segments in vielen Fällen mit einem deutlich geringeren Zeitaufwand möglich [...] als die Neuübersetzung eines Segments, für das kein Übersetzungsvorschlag vorliegt.“ (Seewald-Heeg 2005, 5)

Die Fuzzy-Match-Algorithmen der einzelnen Systeme unterscheiden sich voneinander. Daher kann es vorkommen, dass je nach System ein anderer Wert für die berechnete Ähnlichkeit zwischen zwei Segmenten angezeigt wird. (vgl. ebd)

Der Begriff Fuzzy-Match wird von fast allen Herstellern verwendet. (vgl. Czopik 2012, 44; Seewald-Heeg 2005, 5)

3.3.3 100%-Match

Das zu übersetzende Segment ist bereits identisch als Übersetzungseinheit im Translation Memory gespeichert. Die Übersetzungen von 100%-Matches werden normalerweise automatisch vom System in das Zieldokument übernommen. (vgl. Seewald-Heeg 2005, 5) Obwohl das ausgangssprachliche Segment zu 100% gleich ist, sollte ein 100%-Match dennoch geprüft werden, da es nicht immer ohne weiteres übernommen werden kann. Dies zeigt folgendes Beispiel:[7]

Abbildung in dieser Leseprobe nicht enthalten

Bezeichnungen anderer Hersteller für ein 100%-Match sind Full-Match oder Exact-Match. (vgl. Seewald-Heeg 2005, 5)

3.3.4 Kontext-Match

Ein Kontext-Match ist ein 100%-Match, bei dem auch das vorangehende Segment mit dem vorangehenden Segment im Translation Memory übereinstimmt, das heißt, das zu übersetzende Segment und das im Translation Memory gespeicherte haben den gleichen Kontext. Ferner berücksichtigen Kontext-Matches, ob das zu übersetzende Segment die gleiche Formatierung besitzt wie das Match-Segment. (vgl. SDL plc. 2013;Czopik 2012, 43)

Kontext-Matches sind möglich, da bei der Eingabe einer Übersetzung immer drei Segmente gespeichert werden, nämlich das ausgangssprachliche Segment des Dokuments, die Übersetzung des ausgangssprachlichen Segments sowie das vorangehende Segment des zu übersetzenden Segmentes im Dokument. Wenn kein vorangehendes Segment vorhanden ist, werden andere Kontextinformationen gespeichert, beispielsweise die Formatierung als Kopfzeile. (vgl. SDL plc. 2013)

3.3.5 Perfect-Match

Ein Perfect-Match ist eine Sonderform des Kontext-Matches. Hier werden die ausgangssprachlichen Segmente mit früher übersetzten Dokumenten, die in bilingualer Form vorliegen, abgeglichen. Die erkannten Perfect-Match-Segmente werden dann von den alten Dokumenten extrahiert und in die neue Datei eingefügt. Da beim Perfect-Match der Kontext berücksichtigt wird, ist normalerweise keine weitere Bearbeitung des Segments notwendig.(vgl. ebd.) Eine Überprüfung der Übersetzung ist dennoch empfehlenswert.

3.3.6 Wiederholung

Wiederholungen sind Segmente, die beim ersten Vorkommen als No Match gelten, da sie noch nicht im Translation Memory enthalten sind, aber im selben Dokument in identischer Form noch einmal oder mehrere Male vorkommen. Teilweise kann eine Wiederholung unverändert für andere Stellen des Dokuments übernommen werden. (vgl. Czopik 2012, 41)

3.3.7 AutoSuggest

AutoSuggest ist eine Funktion bei SDL Trados. Während das Translation Memory ganze Segmente speichert, können mit einem AutoSuggest-Wörterbuch Segmentteile aufgefunden werden. Wird ein AutoSuggest-Wörterbuch verwendet, so schlägt dieses automatisch während der Eingabe Segmentteile vor. Wenn beispielsweise der Buchstabe d eingegeben wird, werden relevante Ausdrückevorgeschlagen, die in den jeweiligen Kontext passen, zum Beispiel distribution pattern of centipedes. (SDL plc. 2009, 2.2)

[...]


[1] Das Alignierungsmodul wird in Kapitel 4.4 erläutert.

[2] Abgeschwächt, da bei einer Humanübersetzung weniger gravierende Fehler auftreten als bei einer maschinell erstellten Übersetzung. (vgl. Hutchins 1998, 3-4)

[3] Kostenlos verfügbar unter: http://www.interpretbank.de

[4] Kostenlos verfügbar unter: http://www.interpretbank.de

[5] In Kursen des Studienganges M.A. – Sprache, Kultur, Translation wurde immer von Translation-Memory-Systemen gesprochen und auf verschiedenen Übersetzerforen wird ebenfalls diese Bezeichnung verwendet. (vgl. Xing Übersetzer-Lounge)

[6] Texte werden bei der Bearbeitung durch Translation-Memory-Systeme immer segmentiert.

[7] Czopik verwendet dieses Beispiel für eine Wiederholung. Es gilt jedoch gleichermaßen für ein 100%-Match.

Details

Seiten
97
Jahr
2014
ISBN (eBook)
9783668324718
ISBN (Buch)
9783668324725
Dateigröße
1.6 MB
Sprache
Deutsch
Katalognummer
v274890
Institution / Hochschule
Johannes Gutenberg-Universität Mainz – FTSK Germersheim
Note
1,7
Schlagworte
Translation-Memoy-Systeme Preiskalkulation Übersetzungen

Autor

Teilen

Zurück

Titel: Translation-Memory-Systeme und ihre Auswirkungen auf den Arbeitsprozess von Übersetzern und die Übersetzungsleistung