Die (semi-)automatische Erschaffung von Nebenquests in Videospielen mit Methoden der Sprachgenerierung


Masterarbeit, 2019

85 Seiten, Note: 12


Leseprobe


Inhaltsverzeichnis

1. Die Questannahme: Einleitung

2. Auf Erkundungsgang: Theoretische Grundlagen
2.1. Theorieteil I: Zur Natural Language Generation
2.1.1. Geschichte, Herausforderungen und Systematik des Forschungsbereiches...
2.1.2. Eine Auswahl narrativer NLG-Systeme
2.1.2.1. NLG-System I: Virtual Storyteller
2.1.2.2. NLG-System II: ProtoPropp
2.1.2.3. NLG-System III: Storybook
2.2. Theorieteil II: Zum Videospiel-Medium
2.2.1. Zusammenstellung ausgewählter Charakteristika
2.2.2. Narratologie versus Ludologie: Alles nur ein Spiel?
2.2.3. Das Rollenspiel-Genre und seine Queststrukturen

3. Die Wahl der Waffen: Auswahl passender NLG-Software für das eigene Forschungsanliegen

4. Im Herzen der Schlacht: Die gewählte NLG-Software in der Praxis
4.1. Python-Modul I: Markovify inklusive Beispielsammlungen
4.2. Python-Modul II: Textgenrnn inklusive Beispielsammlungen
4.3. Auswertung der Ergebnisse: Stärken und Schwächen

5. Erfahrungspunkte, und bereit zu neuen Taten: Ausblick

6. Videospielverzeichnis

7. Abbildungsverzeichnis

8. Literaturverzeichnis

1. Die Questannahme: Einleitung

Das Videospiel-Medium verkörpert in einem erheblichen Maße eine noch nicht vollends ausgekundschaftete Spielwiese innerhalb einer Vielzahl von unterschiedlichen wissenschaftlichen Disziplinen, die für verschiedentlich beschaffene Forschungsanliegen ausgeschöpft werden kann. Dieser spezifische Medienbereich des Videospiels wird in der vorliegenden Arbeit mit einem integralen Bestandteil der Computerlinguistik und Texttechnologie vereint: Der Natural Language Generation - dem (semi-)automatischen Generieren natürlichsprachlicher Texte. Das Zusammenspiel dieser beiden Elemente definiert maßgeblich die primäre Zielsetzung dieser Arbeit: In den Fokus gerückt wird hier die Erstellung von Entwurfsfassungen für Nebenquests in Videospielen; Quests stellen in ihrer Gesamtheit einen zentralen Bestandteil von Videospielen dar, da sie in der Regel Aufgaben unterschiedlicher Art enthalten, die ein Videospiel zum einen auf dessen narrativer Ebene ausgestalten und zum anderen diversen Aspekte der Spielmechanik desselben Gestalt geben und ihr Arrangement festlegen. Insbesondere im Rahmen von Videospielen, die dem Genre der Rollenspiele zugeordnet werden können, nimmt das Questelement eine tragende und wegweisende Rolle ein, weswegen sich in dieser Arbeit auf ebendiese Art von Videospiel konzentriert werden soll. Darüber hinaus wird der Fokus auf das Erstellen von Nebenquestentwürfen damit begründet, dass Nebenquests im Gegensatz zu den sogenannten Hauptquests, die in der Regel eine übergeordnete, stärker zusammenhängende und sich über das gesamte Videospiel erstreckende Geschichte erzählen, von ebendieser hauptsächlichen Geschichte größtenteils abgekoppelt sind oder abgekoppelt werden können, wodurch sich das Spektrum der narrativen und spielmechanischen Bausteine, die sie potenziell beinhalten können, mitunter als abwechslungsreicher und flexibler erweist. Eine der grundlegenden Kernideen, die die Zielsetzung dieser Arbeitet leitet, ist das Erstellen von Questentwürfen für einen menschlichen Autor, der ebendiese Questentwürfe zum Beispiel als eine erste Inspirationsquelle auffassen kann und die er aufgrund dessen nach eigenem Ermessen auf unterschiedliche Art und Weise zu modifizieren vermag. Es sollte daher an dieser Stelle nicht davon ausgegangen werden, dass die vorliegende Arbeit gänzlich vollendete Queststrukturen mithilfe von Technologien der Textgenerierung zu erstellen beabsichtigt; stattdessen ist der Gesichtspunkt der gezielten Überarbeitung der Questentwürfe durch einen menschlichen Autor fundamental und soll idealerweise die Kollaboration zwischen computergestützter und menschengemachter Arbeit begünstigen. Eine derartige Kollaboration bietet sich an dieser Stelle auch deswegen an, weil Quests einen weitestgehend routinierten und wiederkehrenden Bestandteil von Videospielen ausmachen, bei dem sich ein Automatisierungsprozess auf Basis von Textgenerierungstechnologien für erste Entwurfsfassungen derselben als praxistauglich herausstellen kann, ohne im Zuge dessen die Relevanz eines menschlichen Autors zu unterminieren.

Damit der soeben explizierten Zielsetzung im Laufe der vorliegenden Arbeit adäquat nachgegangen werden kann, gilt es nun, die einzelnen Arbeitsschritte zu spezifizieren, die als notwendig für das Erreichen ebendieser Zielsetzung erachtet werden. Eine Darlegung der theoretischen Grundlagen stellt somit den ersten zentralen Arbeitsschritt dar: Im Zuge der Erläuterung dieser theoretischen Grundlagen werden insbesondere diejenigen Begriffe verdeutlicht werden, die im Rahmen dieser Einleitung genannt worden sind und bei denen es sich um diejenigen essentiellen Bestandteile handelt, die in ihrer Gesamtheit die Zielsetzung dieser Arbeit beeinflussen und bestimmen. Dementsprechend wird in einem ersten Schritt der Forschungsbereich der Natural Language Generation auf einer allgemeinen Ebene vorgestellt, bevor sich danach einer Auswahl von Anwendungen der Textgenerierung gewidmet wird, die aufzeigen soll, wie sich Prozesse ebendieser Textgenerierung auf einer konkreten Ebene gestalten können. Einen weiteren und ebenso ausschlaggebenden Bestandteil der theoretischen Grundlagen macht die Veranschaulichung ausgewählter Charakteristika des Videospiel- Mediums aus, um ebendieses Medium auf einer für die vorliegende Arbeit angemessenen Ebene rudimentär zu definieren; darüber hinaus wird im Zuge dessen deren nicht unstrittiger und vielfach diskutierter Status als narrativ geprägtes Medium der Gegenwart beleuchtet, bevor im Anschluss daran eine Erläuterung des Rollenspielgenres und der damit in Verbindung stehenden Queststrukturen den Abschluss der Explikation der theoretischen Grundlagen signalisiert. Dem Kapitel der theoretischen Grundlagen schließt sich eine Annäherung an die methodische Herangehensweise an, die innerhalb dieser Arbeit die praxisbezogene Ebene wesentlich ausgestalten soll. Im Zuge dessen wird diejenige Textgenerierungssoftware vorgestellt, die im Rahmen der vorliegenden Arbeit potenziell verwendet werden kann, um die oben genannte Zielsetzung zu erfüllen. Nach dieser Eingrenzung der methodischen Herangehensweise und der damit verbundenen Textgenerierungssoftware erfolgt schließlich im dritten und letzten Hauptkapitel die endgültige Auswahl der Textgenerierungssoftware, die hier benutzt werden soll. Im Laufe dieses Kapitels wird auch die Anwendung derselben dokumentiert; darüber hinaus soll mittels expliziter Beispielsammlungen verdeutlicht werden, welche Ergebnisse die jeweiligen Textgenerierungsprozesse jeweils zutage fördern und inwiefern ebendiese Ergebnisse als gelungen oder misslungen eingestuft werden können. Eine zusammenfassende Auswertung beurteilt dann abschließend unter anderem die Funktionalität der jeweils verwendeten Textgenerierungssoftware, bevor ein Ausblick als Abschluss dieser Arbeit einen Einblick in zukünftige Erweiterungsmöglichkeiten derselben gewährt und eine kleine Auswahl von etablierten Textgenerierungsanwendungen präsentiert, die mithilfe der hier benutzten Textgenerierungssoftware erstellt worden sind, um aufzuzeigen, wie derartige Anwendungen im Alltag beispielsweise beschaffen sein können.

2. Auf Erkundungsgang: Theoretische Grundlagen

Die theoretischen Grundlagen lassen sich für die vorliegende Arbeit in zwei übergeordnete Bestandteile aufschlüsseln: Der erste Teil befasst sich mit dem Bereich der Natural Language Generation - im Folgenden mit NLG abgekürzt - und sieht vor, neben einer allgemein gehaltenen Übersicht über den Forschungsbereich eine Reihe von konkreten Systemen vorzustellen, die NLG-Technologie dafür verwenden, erzählerische Texte zu generieren. Der zweite Teil setzt sich mit dem kontemporären Medium des Videospiels auseinander: Hier wird beschrieben, welche Charakteristika ebendieses Medium unter anderem definieren, bevor sich der Diskussion um den narrativen Status von Videospielen gewidmet wird. Diese Diskussion zumindest grundlegend nachzuvollziehen erweist sich deswegen als notwendig, da der praxisbezogene Teil dieser Arbeit sich mit der Erstellung beziehungsweise Anwendung von NLG- Technologie auseinandersetzt, um einen Bestandteil von Videospielen zu generieren, der hier als narrativ aufgefasst werden kann. Bei diesem Bestandteil handelt es sich um Quests, die insbesondere in Video-Rollenspielen eine fundamentale Rolle einnehmen; dementsprechend werden im Anschluss an die Diskussion um den narrativen Status des Videospiel-Mediums das Genre der Rollenspiele und die ihm zugehörige Quest auf einer allgemeinen Ebene expliziert.

2.1. Theorieteil I: Zur Natural Language Generation

2.1.1. Geschichte, Herausforderungen und Systematik des Forschungsbereiches

Natural Language Generation bezeichnet einen eigenständigen Teilbereich der Forschungsfelder Künstliche Intelligenz und Computerlinguistik. Konkret befasst sich dieser Teilbereich mit der Erstellung und Anwendung von Computersystemen, die natürlichsprachliche und - idealerweise - verständliche Texte produzieren (vgl. Dale et al. 2000, S. 1). Auf einer theorieorientierten Ebene ermöglicht NLG eine exklusive Betrachtungsweise hinsichtlich fundamentaler Fragestellungen und Probleme in den Feldern der künstlichen Intelligenz, Kognitionswissenschaft und der Interaktion zwischen Mensch und Maschine im Allgemeinen1 ; praxisorientiert fokussiert sich NLG auf das (partielle) Automatisieren von routinierten Dokumenterstellungsprozessen mit Hinblick darauf, Informationen nicht nur zu präsentieren, sondern auch zu verdeutlichen, und das stets mit dem Ziel, reichhaltigere Interaktionen zwischen Mensch und Maschine zu bewirken (vgl. ebd.). Motiviert werden diese praxisorientierten Aufgaben und Zielsetzungen zudem durch das Anliegen, das Verständnis und die Interpretation von unterschiedlichen Informationen für den Menschen zu vereinfachen und darüber hinaus Arbeitsvorgänge, die sich mit der Erstellung von natürlichsprachlichen Dokumenten befassen, zeitsparender und produktiver zu gestalten (vgl. ebd., S. 4).

Entscheidend ist bei der Erstellung eines NLG-Systems unter anderem die Frage danach, ob es eigenständig die benötigten Dokumente generiert, oder ob es stattdessen lediglich Entwurfsfassungen von Dokumenten produziert, die dann von einem menschlichen Autor weiterbearbeitet werden; Dale und Reiter konstatieren an dieser Stelle, dass „[…] in many contexts, it is simply not possible to create texts of the appropriate quality or with the required content without human intervention.“ (ebd., S. 4) Dieser Aussage folgend lässt sich der primäre Verwendungszweck eines NLG-Systems darin benennen, Dokumententwürfe oder zumindest bestimmte, wiederkehrende - und somit einer gewissen Routine folgende - Abschnitte eines Dokuments zu erstellen, die ein menschlicher Autor auf unterschiedliche Art und Weise weiterbearbeitet, um etwaige Qualitäts- und Kontextanforderungen zu erfüllen beziehungsweise zu gewährleisten (vgl. ebd., S. 5). Wenngleich also durchaus die Möglichkeit besteht, das NLG-System als eigenständigen Autor zu programmieren, liegt in der vorliegenden Arbeit indessen der Fokus auf der Erstellung und/oder Anwendung eines NLG-Systems, das nicht als eigenständiger Autor fungiert, sondern erste Dokumentfassungen generiert, die sich dann weiterverarbeiten lassen. Somit soll die Maschine in diesem Kontext dem Menschen als eine Unterstützung dienlich sein, ihn aber nicht ersetzen.

Bei NLG handelt es sich um einen noch vergleichsweise jungen Forschungsbereich, dem im Rahmen von maschineller Übersetzung in den 1950er und 1960er Jahren erste Praxiserfahrungen attestiert werden können (vgl. ebd., S. 19). Diese Praxiserfahrungen waren jedoch in erster Linie darauf ausgelegt, Oberflächenrepräsentationen von Sätzen zu erstellen, die von einer Ausgangssprache in eine Zielsprache eingezeichnet werden würden und sich an der Satzoberfläche jeweils stark ähneln sollten (vgl. ebd.). Heutzutage hat sich die Reichweite des Forschungsbereiches deutlich vergrößert: „[…] NLG is concerned with much more than mapping the predetermined content of a sentence into a surface realisation of that content.“ (ebd., S. 19)

In den 1970er Jahren erfolgte darüber hinaus erstmals die Anwendung von NLG zwecks der Kommunikation und Erläuterung von nicht-linguistischem Datenmaterial; dieser Anwendungsfokus beeinflusste unterschiedliche Rechercheanliegen und Arbeitsprojekte in den 1980er Jahren, die insgesamt als ein zentrales Jahrzehnt für NLG gelten, da die Erstellung von umfassenden und quasi fugenlosen NLG-Systemen in den Hintergrund rückte und man sich stattdessen vermehrt mit NLG-spezifischen Problemen und Fragestellungen befasste (vgl. ebd., S. 20). Zu diesen Problemen und Fragestellungen gehörten zum Beispiel die Bereiche der syntaktischen Umsetzung, der lexikalischen Wahl und der Textplanung innerhalb von NLG- Systemen (vgl. ebd.). Das Forschungsfeld verzeichnete fortwährenden Wachstum in den 1990er Jahren: Es wurde darüber hinaus von einem bestimmten Diversitätscharakter geprägt hinsichtlich der Forschungsfelder und individuellen Personen, die sich mit NLG auseinandersetzten, und gewann auch für alltägliche Anwendungszwecke an Bedeutung2, welche durch ein wachsendes Interesse an multimodalen und mehrsprachlichen Funktionen in NLG-Systemen verstärkt wurde (vgl. ebd.). Aufgrund dieses bestehenden Interesses an NLG- Technologie wird sie gegenwärtig nach wie vor innerhalb unterschiedlicher Gebiete diskutiert, behandelt und eingesetzt, ausgelöst und vorangetrieben durch das stetig wachsende Bedürfnis nach einer adäquaten Kommunikationsbasis zwischen Mensch und Maschine (vgl. Nand et al. 2017, S.2).

Hinsichtlich der zugrundeliegenden Architektur lässt sich für NLG-Systeme im Allgemeinen festhalten, dass sie in der Regel durch Module konstituiert werden, die für jeweils unterschiedliche Verarbeitungsschritte verantwortlich sind (vgl. Dale et al. 2000, S. 41). Dale und Reiter fokussieren sich bei ihren Ausführungen auf eine dreiteilige Pipeline-Architektur (vgl. ebd., S. 1), die auf Basis einer Single-Interaction Mode operiert; d.h., dass jeder Systemaufruf genau einen Text produziert (vgl. ebd., S. 42). Die drei Teile des NLG-Prozesses innerhalb der soeben erwähnten Pipeline-Architektur lassen sich aufteilen in Dokumentplanung, Mikroplanung und Oberflächenrealisierung (vgl. ebd., S. 47). Diese drei übergeordneten Module werden von weiteren, ihnen untergeordneten Verarbeitungsschritten begleitet, die an einer späteren Stelle erläutert werden. Zunächst einmal soll jedoch beschrieben werden, welche Aufgaben die drei übergeordneten Module grundlegend erfüllen: Die Dokumentplanung befasst sich mit dem Bestimmen des Inhalts und der Struktur eines Textes auf Basis von relevantem Domänen- und Anwendungswissen (vgl. ebd., S. 48). Folgende Fragestellungen erweisen sich hier unter anderem als zentral: Welche Informationen sind dafür geeignet, das kommunikative Ziel eines Textes zu erreichen? Wie sind Texte innerhalb der Anwendungsdomäne, auf die sich das NLG-System spezifiziert, typischerweise strukturiert (vgl. ebd.)? Innerhalb der Mikroplanung, die in der Regel auf die Dokumentplanung folgt, werden bestimmte Details spezifiziert, die im vorherigen Modul bewusst ausgelassen worden sind (vgl. ebd.). Hierbei handelt es sich beispielsweise um solche Details, die Entscheidungen auf einer lexikalischen Ebene betreffen (vgl. ebd.). Der Output dieses Moduls kann bereits textlich sein (vgl. ebd.). Die Oberflächenrealisierung produziert abschließend die grammatischen Strukturen, die innerhalb der vorangegangenen Mikroplanung auf einer abstrakten Ebene festgelegt worden sind; als Beispiel hierfür lässt sich nennen, dass die Mikroplanung das Tempus eines Satzes bestimmt, und die Oberflächenrealisierung darauf aufbauend die entsprechende Flexion des Satzes ausgestaltet (vgl. ebd.).

Es sollte an dieser Stelle kurz angemerkt werden, dass diese hier vorgestellten Module sich auf einer konzeptuellen Ebene relativ problemlos einteilen lassen, sie sich aber in tatsächlichen NLG- Systemen beispielsweise durchaus überschneiden können (vgl. ebd.). Dennoch verschafft die Erläuterung über ebendiese Module einen ersten angemessenen Überblick darüber, wie sich die Architektur eines NLG-Systems grundsätzlich gestalten lassen kann. Nachfolgend werden nun die Verarbeitungsschritte aufgeführt, die die drei übergeordneten Module der Dokumentplanung, Mikroplanung und Oberflächenrealisierung im Detail beinhalten.

Innerhalb des Moduls der Dokumentplanung werden die sogenannte Inhaltsbestimmung und die Dokumentstrukturierung ausgeführt (vgl. ebd., S. 49). Die Inhaltsbestimmung ist verantwortlich dafür, die Informationen festzulegen, die im endgültigen Output - dem vom NLG- System generierten Text - kommuniziert werden sollen. Relevante Entscheidungsfaktoren belaufen sich hier unter anderem auf die jeweiligen kommunikativen Ziele, die der Text implizit oder explizit beinhaltet, die Eigenschaften eines potenziellen Rezipienten des Textes und die Informationsquelle, die dem Text und seiner Generierung zugrunde liegt (vgl. ebd., S. 50). Letztlich ist die Inhaltsbestimmung auch maßgeblich davon abhängig, welchen Verwendungszwecken die NLG-Anwendung folgt, weswegen es sich mitunter als schwierig erweist, allgemeingültige Regeln für die Inhaltsbestimmung derselben festzulegen (vgl. ebd., S. 51). Als grundsätzliche Richtlinien empfehlen Dale und Reiter „‘report that which is significant‘“ (ebd., S. 51) und „‘don’t state that which is obvious or easily inferable‘“ (ebd.). Die Dokumentstrukturierung beschäftigt sich hingegen damit, wie die zu kommunizierenden Informationen auf einer strukturellen Ebene dargestellt werden sollen (vgl. ebd.). Damit gehen zum Beispiel bestimmte, textgenreabhängige Erwartungen an einen Text und seine Struktur einher, die ein potenzieller Leser möglicherweise an ihn stellt (vgl. ebd.). Entsprechend wird somit gegebenenfalls die Lesbarkeit eines Texts bereichert, wenn ebensolche Erwartungen von der Dokumentstrukturierung berücksichtigt werden (vgl. ebd.). Auf einer basaleren Ebene ist zudem weiterhin die Reihenfolge der Informationsdarstellung - d.h. ihre Sequenzierung - von Belang (vgl. ebd.). Texte sind in der Regel von einer hierarchischen Natur geprägt, die sich darin manifestiert, dass textliche Elemente wie Phrasen und Sätze Bestandteile größerer Textmengen beziehungsweise -fragmente ausmachen (vgl. ebd.), die wiederum größeren Textmengen/- fragmenten zugehörig sind (vgl. ebd., S. 51f.). Die jeweiligen Beziehungen zwischen diesen einzelnen Textbestandteilen lassen sich entweder definieren als eine Informationszusammenstellung auf Basis dessen, wovon die Information an und für sich handelt, oder als eine Informationszusammenstellung, die auf Basis von sogenannten Diskursrelationen zustande kommt; eine Diskursrelation gibt beispielsweise an, wenn eine Information elaboriert oder kontrastiert wird (vgl. ebd., S. 52).

Die Mikroplanung, die hier, zumindest konzeptuell betrachtet, auf die Dokumentplanung folgt, setzt sich konkret mit der Lexikalisierung, der Erstellung von Referenzausdrücken und der Aggregation innerhalb eines NLG-Systems auseinander (vgl. ebd., S. 49). Im Rahmen des Lexikalisierungsprozesses rückt die Frage in den Vordergrund, welche Inhaltswörter - d.h. Nomen, Verben, Adjektive und Adverbien - ausgewählt werden sollen, um denjenigen Inhalt eines Textes wiederzugeben, der vorab in der Dokumentplanung festgelegt worden ist (vgl. ebd., S. 52). Dieser Prozess lässt sich durchaus als eine Herausforderung bezeichnen, da sich Information auf vielerlei Art und Weise ausdrücken lässt; weiterhin wird dieser Prozess beeinflusst durch diverse kontextuelle oder pragmatische Gesichtspunkte, und auch das kommunikative Ziel eines zu generierenden Textes wirkt sich gegebenenfalls auf die Auswahl angemessener Inhaltswörter aus (vgl. ebd., S. 54). Bei der Erstellung von Referenzausdrücken wird hingegen die Aufgabe der Beschreibung von Entitäten, die in einem Text enthalten sind, übernommen, damit ebendiese Entitäten in einem gegebenen Kontext idealerweise problemlos identifiziert und voneinander unterschieden werden können (vgl. ebd., S. 55). Dieser Verarbeitungsschritt ist notwendig, weil in NLG-Systemen auf ein- und dieselbe Entität gegebenenfalls auf mehr als eine Art und Weise Bezug genommen werden kann (vgl. ebd.). Im Rahmen der Referenzausdruckserstellung wird zudem eine Kategorisierung von Initial References und Subsequent References vorgenommen: Die erste Kategorie beinhaltet erstmalige Erwähnungen von Entitäten, während die zweite Kategorie Entitäten bezeichnet, die an einer vorherigen Stelle in einen Text eingeführt worden sind und dann nochmals genannt werden (vgl. ebd.). Das eigentliche Spektrum der Referenzausdrücke für sowohl abstrakte als auch konkrete Entitäten umfasst Namensnennungen, konkrete Beschreibungsvorgänge und Pronomen (vgl. ebd., S. 56). Die Erstellung und Auswahl der jeweiligen Referenzausdrücke wird auch von kontextuellen Gesichtspunkten bestimmt, die sich beispielsweise mittels eines Diskursverlaufes offenbaren, der in ein NLG-System eingepflegt werden kann (vgl. ebd.). Die Aggregation bezeichnet schließlich den Verarbeitungsschritt innerhalb der Mikroplanung, der die Dokumentstruktur in eine linguistische Struktur überführt (vgl. ebd.). Darüber hinaus legt sie die textuellen Elemente, beispielsweise Sätze und Absatzgliederung, und deren Reihenfolge fest, sofern diese nicht bereits in der Dokumentstruktur vermerkt worden ist (vgl. ebd.). Bei einer Satzaggregation werden zum Beispiel linguistische Ressourcen verwendet, um Sätze zu formulieren, die mehrere Informationsbestandteile auf einmal kommunizieren, gegebenenfalls auch im Zusammenhang stehend mit entsprechenden Lexikalisierungsprozessen (vgl. ebd., S. 56f.). Insgesamt bewirkt die Wahl angemessener Aggregationselemente einen ausgeglichenen Lesefluss und verbessert somit insgesamt die Lesbarkeit eines zu generierenden Textes (vgl. ebd., S. 57).

Auf Ebene der Oberflächenrealisierung wird sowohl die linguistische als auch die strukturelle Realisierung eines Textes fokussiert (vgl. ebd., S. 49): Von Interesse sind bei der linguistischen Realisierung in erster Linie Vorgänge der Morphologie - wie werden Wörter geformt? - und der Syntax - wie werden Sätze geformt? -; demnach werden hier insgesamt wohlgeformte Wort- und Satzstrukturen spezifiziert (vgl. ebd., S. 57). Unterscheiden lässt sich an dieser Stelle zwischen einfachen, vorlagenhaften Strukturen und komplexen, abstrakt-syntaktischen Strukturen; letztere erlauben das Einpflegen von detailliertem grammatischen Wissen mittels entsprechender, interner Satzpräsentationen (vgl. ebd.). Nicht unwesentlich ist auch die Anforderung orthographischer Korrektheit an einen Text, die ebenfalls innerhalb des Verantwortungsbereiches der linguistischen Realisierung liegt (vgl. ebd., S. 58). Die strukturelle Realisierung konvertiert dann die abstrakten Spezifikationen der Dokumentstrukturierung aus dem Dokumentplanungsmodul mithilfe der Annotationen, die vom jeweiligen verwendeten Darstellungssystem festgelegt sind (vgl. ebd., S. 59).

Zusammenfassend sei hier nun noch einmal die Pipeline-Architektur, wie sie von Dale und Reiter konzeptuell beschrieben wird, dargestellt: Begonnen wird in der Regel mit der Dokumentplanung, der ein kommunikatives Ziel vorangestellt ist, das ein vom NLG-System produzierter Text erfüllen sollte (vgl. ebd., S. 59f.). Selbstverständlich muss ein Text nicht nur ein kommunikatives Ziel erfüllen können, er kann durchaus mehrere kommunikative Zielsetzungen beinhalten. Der Output der Dokumentplanung ist ein Dokumentplan; dieser Dokumentplan wird dann als Input für die Mikroplanung verwendet, die wiederum als Output eine Textspezifikation generiert (vgl. ebd.). Diese Textspezifikation enthält nicht nur Details darüber, wie der übergeordnete Text zu strukturieren ist, sondern legt auch fest, wie die jeweiligen Sätze innerhalb eines Textes zu arrangieren sind (vgl. ebd.). Dieser Bestandteil wird als Phrasen- beziehungsweise Satzspezifikation bezeichnet (vgl. ebd.). Die Oberflächenrealisierung verwendet diese Spezifikationen als ihren Input und generiert schließlich den endgültigen Output des NLG-Systems, den Oberflächentext (vgl. ebd.).

Es sollte berücksichtigt werden, dass die hier genannten Module und deren zugehörige Verarbeitungsschritte in einem noch weitaus umfassenderen Detailgrad dargelegt werden können, es aber an dieser Stelle erst einmal genügen soll, einen ersten Überblick über eine mögliche und etablierte Architektur eines NLG-Systems zu erlangen, um deren Struktur, Zweck und Funktionalität zumindest auf einer konzeptuellen Ebene nachvollziehen zu können. Diese Architektur kann, je nach NLG-System, modifiziert werden, indem sie beispielsweise expandiert oder komprimiert wird. Allerdings sollte gleichermaßen berücksichtigt werden, dass ebendiese Modifikationen des Öfteren auf einer erst einmal ausschließlich theoretischen Ebene erwogen werden, in einer Anzahl von tatsächlichen NLG-Systemen allerdings zumindest als eine erste Basis eine recht strikte, standardisierte Architektur auf Basis von Dale und Reiter verwendet wird (vgl. Horacek 2010, S. 438). Dennoch zeichnen sich gegenwärtige NLG-Systeme dadurch aus, dass sie diversere Architekturstrukturen anstreben und, zumindest partiell, auch umsetzen (vgl. Nand et al. 2017, S. 2). An einer späteren Stelle wird eine Auswahl von NLG-Systemen vorgestellt, die eventuell von der hier beschriebenen Architektur auf unterschiedliche Art und Weise abweichen; es ist ratsam, stets im Blick zu behalten, dass NLG-Systeme nicht nur auf einem einzigen Weg entworfen werden können, und man, je nach konkreter Verwendungsabsicht des NLG-Systems, ein Spektrum von Architekturstrukturierungen umsetzen kann, um ebendieser Verwendungsabsicht adäquat nachzukommen. Selbstverständlich beinhaltet jede Architektur weiterhin ihre eigenen Vor- und Nachteile, die ebenfalls in Erwägung gezogen werden sollten. So beruft sich die hier vorgestellte Pipeline- Architektur beispielsweise auf ihre relative Einfachheit, ist aber aufgrund ihres einseitigen Informationsflusses insofern nachteilig, als der generierte Output nicht korrekturgelesen werden kann (vgl. ebd.). Der Mangel einer zweiseitigen Kommunikation zwischen den einzelnen Modulen führt somit gegebenenfalls zu einer Produktion von qualitativ weniger hochwertigen Texten (vgl. ebd.). Als mögliche Antwort auf diesen Nachteil der Pipeline-Architektur ist die sogenannte Revisionsarchitektur entworfen worden, die auf unterschiedliche Art und Weise einen zusätzlichen Verarbeitungsschritt der Output- beziehungsweise Textrevision in die Architektur einbaut (vgl. ebd., S. 3). Eine derartige Revisionskomponente wird beispielsweise in einem der nachfolgend vorgestellten NLG-Systeme verwendet, denen sich nun insgesamt im nächsten Abschnitt gewidmet wird.

2.1.2. Eine Auswahl narrativer NLG-Systeme

In diesem Kapitel wird die Vorstellung einer Auswahl von NLG-Systemen angestrebt, deren primärer Verwendungszweck auf der Produktion von erzählerischen Texten liegt. Der Fokus liegt hier auf ebendiesem spezifischen Verwendungszweck, weil im Rahmen der vorliegenden Arbeit - an einer späteren Stelle - beabsichtigt wird, mithilfe von NLG-Technologie eine spezifische Art von Text zu generieren, die ebenso als erzählerisch ausgelegt werden kann. Daher soll hier nun ein Überblick über existierende NLG-Systeme erfolgen, um sich zumindest auf einer theoretischen Ebene schon einmal mit ihnen vertraut zu machen.

2.1.2.1. NLG-System I: Virtual Storyteller

Das erste NLG-System, das hier erläutert werden soll, ist der Virtual Storyteller. Bei ihm handelt es sich um ein sogenanntes Multi-Agent-System, das automatisch Märchentexte als Output generiert (vgl. Hielkema et al. 2007a, S. 132). Aufteilen lässt sich dieser automatische Prozess in drei zentrale Bestandteile: die Handlungsgenerierung, die Narration und die Präsentation. Die Handlungsgenerierung erfolgt basierend auf unterschiedlichen Handlungen von semi- autonomen Figuren, die in einer simulierten Geschichtenwelt angesiedelt sind (vgl. ebd.). Hierbei handelt es sich um ein sogenanntes Emergent Narrative, das erzeugt wird; d.h., dass sich eine Geschichte erst durch die Handlungen der Figuren, die sich in ihr befinden, ergibt (vgl. ebd.; vgl. weiterhin Theune et al. 2006, S, 49). Der Output dieses ersten Bestandteiles wird als eine Fabula bezeichnet und dient dem zweiten zentralen Bestandteil, der Narration, als zentraler Input (vgl. Hielkema et al. 2007a, S. 132).

Eine Fabula setzt sich aus unterschiedlichen Elementen zusammen, die sich wie folgt definieren lassen: Ein Goal (G) beschreibt eine oder mehrere Zielsetzungen einer Figur innerhalb der simulierten Geschichtenwelt (vgl. Theune et al. 2006, S. 52); G beeinflusst wiederum das Element Action (A). A wird expliziert als eine von einer Zielsetzung angetriebene und absichtlich von einer Figur herbeigeführte Veränderung (vgl. ebd., S. 52f.). Inwiefern sich diese Veränderung manifestiert, wird mittels des Elements Outcome (O) dargelegt, da O die potenziellen Ergebnisse umfasst, die auf eine Zielsetzung referieren (vgl. ebd., S. 53). Zu beachten ist bei O, dass es sich bei diesem Element in erster Linie um ein mentales Konzept handelt, da es an die Figurenwahrnehmung der Geschichtenwelt gebunden ist. Event (E) beinhaltet jegliche Veränderungen innerhalb der Geschichtenwelt, die sich nicht als direkte und geplante Resultate von Figurenhandlungen erweisen, während Perception (P) die gegebenenfalls selektive Wahrnehmung von Figuren berücksichtigt, die sich beispielsweise dann äußert, wenn Figuren bestimmte Ereignisse nicht wahrnehmen (vgl. ebd.). Damit verknüpft ist der letzte Bestandteil der Fabula, Internal Element (IE): IE umfasst bestimmte, figurengebundene Konzepte wie zum Beispiel Emotion, Kognition und Überzeugung (vgl. ebd.). Verknüpft werden diese Fabula- Elemente mithilfe von insgesamt vier Kausalitätstypen, die unterschiedliche Kausalitätsstärken aufweisen (vgl. ebd., S. 54): Handelt es sich bei der Verknüpfung von Fabula-Elementen um eine Physical Causality (φ), dann findet ein Ereignis oder eine Handlung statt und resultiert in einem weiteren Ereignis oder einer weiteren Handlung (vgl. ebd.). Hierbei handelt es sich um die stärkste Kausalitätsform, die allerdings nicht zwangsläufig in der Repräsentation der Geschichte expliziert werden muss (vgl. ebd.). Motivation (m) beschreibt wiederum eine Form von intentionaler Kausalität, die in der Gedankenwelt einer Figur ihren Ursprung nimmt (vgl. ebd.). Eine Psychological Causality (ψ) ereignet sich ebenso in der Gedankenwelt einer Figur, ist aber in der Regel nicht intentional; sie wirkt sich auf Zielsetzungen und -ergebnisse aus (vgl. ebd., S. 55). Bei Enablement (e) handelt es sich um die insgesamt schwächste Kausalitätsverknüpfung zwischen Fabula-Elementen: „If a fabula element A enables another fabula element B, this means that B is possible because of A, but no more than that.“ (ebd., S. 55)

Auf Basis einer Fabula und der Explikation ihrer Struktur wird demgemäß eine kohärente Geschichte kreiert: Dabei werden bestimmte Elemente auf der Fabula-Ebene ausgewählt, die es in eine Geschichte zu integrieren gilt (vgl. ebd., S. 56). Diese Auswahl erfolgt in Übereinstimmung mit einem Storyline Goal, d.h. einer Zielsetzung, die eine Geschichte insgesamt umspannt (vgl. ebd.). Jegliche Elemente, die in Verbindung mit ebendieser Zielsetzung stehen, sind relevant, werden zur Auswahl der Elemente hinzugefügt und legen somit die Fabula als den spezifizierten Input für den Narrator, einer weiteren Komponente des Virtual Storyteller, fest (vgl. ebd.).

Ein Narrationsagent überträgt nun innerhalb der Narrator-Komponente die Fabula auf einen natürlichsprachlichen Text mithilfe von entsprechendem Diskurs- sowie Syntax- und Morphologie-Wissen (vgl. Hielkema et al. 2007a, S. 132). Im dritten und letzten Bestandteil erfolgt die Präsentation des generierten Textes; der Virtual Storyteller verwendet hierfür einen Embodied Agent, einen quasi-menschlichen Erzähler, der mittels Text-To-Speech-Technologie die Geschichte wiedergibt (vgl. ebd.). Innerhalb des Systems des Virtual Storytellers wird der vorab bereits erwähnte Narrator verwendet, um den NLG-Prozess durchzuführen, der notwendig ist, um den Märchentext auf einer natürlichsprachlichen Ebene adäquat zu generieren (vgl. ebd., S. 131). Der Narrator orientiert sich in seiner grundlegenden Struktur stark an der Pipeline-Architektur von Dale und Reiter, die im vorherigen Abschnitt dargelegt worden ist (vgl. ebd., S. 132). Dementsprechend besteht der Narrator aus den drei Komponenten der Dokumentplanung, Mikroplanung und Oberflächenrealisierung, weicht allerdings insofern von der verwendeten Architektur-Vorlage ab, als er die Aggregation und die Erstellung von Referenzausdrücken erst im Rahmen der Oberflächenrealisierung durchführt, während diese beiden Verarbeitungsschritte bei Dale und Reiter bereits innerhalb der Mikroplanung vollzogen werden (vgl. ebd., S. 133).

Der Dokumentplaner des Narrators verwendet, wie bereits erwähnt, als Input eine Fabula, die sich zusammengefasst als ein kausales Netzwerk beschreiben lässt, welches als eine Repräsentationsmechanik für eine Geschichte dient, die auf Basis von Figurenhandlungen in einer simulierten Handlungswelt entsteht (vgl. ebd., S. 133f.; vgl. weiterhin Hielkema et al. 2007b, S. 109). Als Output des Dokumentplaners wird ein Dokumentplan angefertigt, der die diversen kausalen Verknüpfungen im Fabula-Netzwerk auf angemessene rhetorische Relationen innerhalb einer binären Baumstruktur überträgt, beispielsweise Kontrast, Widerspruch und diverse temporale Beziehungskonstellationen (vgl. Hielkema et al. 2007a, S. 133f.; vgl. weiterhin Hielkema et al. 2007b, S. 109). Im Zuge dessen werden zudem weiterhin irrelevante Informationen eliminiert und, sofern benötigt, relevante Informationen hinzugefügt, die sich auf den Handlungsort, unterschiedliche Eigenschaften der Figurenagenten und dergleichen beziehen können (vgl. Hielkema et al. 2007a, S. 133f.; vgl. weiterhin Hielkema et al. 2007b, S. 109f.).

Der Mikroplaner transformiert im Anschluss daran die Handlungselemente, die im Dokumentplan enthalten sind, in (partiell) lexikalische Dependenzstrukturen, die als Ergebnis einen Rhetorical Dependency Graph zutage fördern (vgl. Hielkema et al. 2007a, S. 135): Hierbei handelt es sich um eine weitere Baumstruktur, deren Blätter einfache Propositionen darstellen, während deren Knoten die rhetorischen Relationen verkörpern, die die jeweiligen Blätter miteinander in Verbindung setzen (vgl. ebd.). Daran anknüpfend werden entsprechende Satzvorlagen ausgewählt, die partiell lexikalisiert werden (vgl. ebd., S. 136). Die Oberflächenrealisierung befasst sich dann mit der Linearisierung der Dependenzstrukturen und übernimmt weitere Verarbeitungsschritte wie zum Beispiel die Flexion und Interpunktion des endgültigen Output-Textes (vgl. ebd., S. 141f.; vgl. weiterhin Hielkema et al. 2007b, S. 111).

Um eine qualitativ hochwertige Geschichtenstruktur innerhalb des Virtual Storyteller zu gewährleisten, wird eine relative Folgerichtigkeit der Figurenhandlungen sowie eine generelle und konsistente Wohlgeformtheit der Geschichte vorausgesetzt; deswegen liegt der Fokus bei diesem NLG-System insbesondere auch darauf, die jeweiligen Figuren mit verschiedenen Emotionen auszustatten, die ihnen eine gewisse Glaubwürdigkeit verleihen und es zudem erlauben, Figurenhandlungen besser nachvollziehen und/oder begründen zu können (vgl. Heylen et al. 2004, S. 95f.). Verstärkt wird diese Glaubwürdigkeit idealerweise durch ein festgelegtes Set von potenziellen Zielen, die eine Figur hat und gegebenenfalls innerhalb der Geschichtenwelt zu verfolgen gedenkt (vgl. ebd., S. 98). Selbstverständlich lässt sich daraus noch keine unterhaltsame Geschichte schlussfolgern; ein derartiges Merkmal wird beispielsweise aber mit Faktoren der Spannung und Unberechenbarkeit erreicht (vgl. ebd., S. 96). Solche Faktoren können beispielsweise erfüllt werden, wenn die figurengebundenen und eventuell emotionalen Zielsetzungen mit geschichtsübergreifenden Zielen konkurrieren (vgl. ebd., S. 98).

2.1.2.2. NLG-System II: ProtoPropp

Angetrieben ist die Idee des NLG-Systems ProtoPropp von dem langjährigen Ziel der Unterhaltungsindustrie - insbesondere im Fernseh- und Videospiel-Segment -, Geschichten automatisch konstruieren zu können:

[…] many would certainly welcome a fast prototyping tool that could produce a larger number of acceptable plots involving a given set of initial circumstances or restrictions on the kind of characters that should be involved. Subsequent selection and revision of these plot sketches by professional screen writers could produce revised, fully human-authored valid plots. (Díaz-Agudo et al 2005., S. 235)

ProtoPropp ist zudem weiterhin in seiner Konstruktion wesentlich inspiriert von Vladimir Propps Morphology of the Fairy Tale: In dieser Arbeit leitet Propp auf einer morphologischen Ebene Funktionen beziehungsweise Handlungen ab, die Geschichten über Magie in der Regel beinhalten; er postuliert, dass ebensolche Geschichten konstant sind hinsichtlich der Handlungen, die in ihnen stattfinden, und sich lediglich Namen und Attribute innerhalb der Geschichten verändern, sie also dementsprechend geschichtenübergreifend sind (vgl. ebd., S. 236; vgl. weiterhin Díaz-Agudo et al. 2004, S. 143). Unterteilen lässt sich ProtoPropp in zwei übergeordnete Phasen beziehungsweise Module: Die erste Phase, das CBR-Modul, wendet die Methode des Case-Based Reasoning (CBR) an, um einen Dokumentplan zu erhalten (vgl. Díaz- Agudo et al. 2005, S. 236). CBR operiert auf Basis von Nutzereingaben, d.h., dass der potenzielle Nutzer von ProtoPropp die gewünschte Geschichte mittels entsprechender Eingaben konzeptuell beschreibt und diese als Fundament für den Dokumentplan verwendet werden (vgl. ebd.; vgl. weiterhin Díaz-Agudo et al. 2004, S. 143). Zur Hilfe wird dabei eine Ontologie genommen, die erstellt wird mit dem Ziel, diejenigen Konzepte zu berücksichtigen und aufzunehmen, die für eine Geschichtsproduktion von Belang sind (vgl. Díaz-Agudo et al. 2004, S. 146). Zu diesen Konzepten gehören Elemente der dramatis personae 3, eine zusätzliche Ontologie, die vom System vorausgesetzte Hintergrundinformationen und Informationen über Figuren, Orte und Objekte innerhalb der Geschichtenwelt bereitstellt und schließlich noch entsprechendes Domänenwissen, das hier, inspiriert von Propp, auf die klassische Märchenwelt und dazugehörige Archetypen - Prinz und Prinzessin, Hexe, Zauberer etc. - fokussiert ist (vgl. ebd.). Die Eingaben des Nutzers legen, wie bereits erwähnt worden ist, in einem iterativen und interaktiven Prozess die Bestandteile der zu generierenden Geschichte fest; die Auswahl ebendieser Elemente wird von der zugrundeliegenden Ontologie und ihren spezifischen Bestandteilen bestimmt, werden jedoch noch nicht vorhandene Elemente gewünscht, werden diese kreiert und bereits vorhandenen Ontologie-Konzepten als neue Instanzen hinzugefügt (vgl. ebd., S. 151). Die gewünschten Funktionen respektive Handlungen werden weiterhin aus einem Set von unterschiedlichen Funktionen/Handlungen herausgegriffen, die von Propps Arbeit abgeleitet sind (vgl. ebd.). Schließlich wird dem Nutzer ein idealerweise adäquates Case als Antwort auf seine Eingaben präsentiert; ebendieses Case ist als eine Vorlage strukturiert, die sogenannte Hot Spots enthält, die kontextbasiert mit diversen Informationen spezifiziert werden (vgl. ebd.). Jedes Case repräsentiert eine mögliche Geschichte (vgl. ebd., S. 148), die einer Case Base entnommen wird: Diese Case Base ist „[…] built up of texts from the domain of fairy tales, analyzed and annotated according to Propp’s morphology.“ (ebd.)

In der zweiten Phase von ProtoPropp wird in einem NLG-Modul der erhaltene Dokumentplan transformiert; dafür wird hier die Methode der schemabasierten NLG verwendet: Der Grund für eine schemabasierte Textproduktion wird damit begründet, dass Texte oftmals konventionalisierten Strukturen folgen, die sich in entsprechenden Schemata einfangen lassen, die sich dann wiederum als eine entsprechende Basis für einen Dokumentplan verwenden lassen (vgl. Díaz-Agudo et al. 2005, S. 236; vgl. weiterhin Díaz-Agudo et al 2004., S. 145). Kombiniert wird der schemabasierte Ansatz mit Verarbeitungsschritten der NLG, die sich primär an Dale und Reiter orientieren (vgl. Díaz-Agudo et al. 2005, S. 236).

2.1.2.3. NLG-System III: Storybook

Das zentrale Anliegen des Storybook -Systems und der mit ihm verknüpften Author -Architektur ist es gewesen, diejenige Lücke zu schließen, die zum Zeitpunkt der Entwicklung ebendiesen Systems zwischen narrativer Textproduktion und NLG-Systemen bestand (vgl. Callaway et al. 2002, S. 214). Dementsprechend hat es sich als primäres Ziel die Generierung von narrativer Prosa gesetzt (vgl. Lönneker 2005, S. 1). Das dem System zugrundeliegende Erzählmodell wird einerseits von der Fabula als einer tiefliegenden, semantischen Struktur eines Textes und andererseits von dem sogenannten Suzjet konstituiert; Suzjet beschreibt die Reihenfolge der Ereignisse einer Geschichte, und wie sie von einem Autor präsentiert werden (vgl. Callaway et al. 2002, S. 215). Beide Begriffe und ihre Definitionen entstammen hier der narrativen respektive literarischen Theorieperspektive (vgl. ebd.). Die Fabula lässt sich somit als die Summe der faktischen Inhalte, die eine Geschichte als eine solche definieren, beschreiben; sie enthält Beschreibungen über Ereignisse und Zustände, die gegebenenfalls durch Objekte und deren Eigenschaften, Figuren, Schauplätze und etwaigen Requisiten unterstützt werden (vgl. ebd., S. 215). Die Präsentationsreihenfolge ebendieser Ereignisse und Zustände, die vom Autor bestimmt wird und nicht zwangsläufig gleichzusetzen ist mit einer chronologischen oder logischen Präsentation derselben, ergibt einen geschichtsspezifischen narrativen Fluss, der von der Fabula als eine Summe der möglichen Ausgestaltungen einer Geschichte abzugrenzen ist (vgl. ebd., S. 216).

Auf einer mechanischen beziehungsweise technischen Ebene gilt es, all diese Elemente sowie diverse stilistische Entscheidungen mithilfe von linguistischen Phänomenen und Textbausteinen umzusetzen (vgl. ebd., S. 217). Der Dokumentplaner, der hier als der narrative Planer bezeichnet wird, verwendet als Basis eine Geschichtenontologie, in die Hintergrundwissen unterschiedlicher Art eingepflegt ist (vgl. ebd.). Dieses in ihr gespeicherte Hintergrundwissen wird genutzt, um den Kontext einer Geschichte auszugestalten; zudem enthält die Geschichtenontologie Elemente, die geschichtenübergreifend geltend gemacht werden können (vgl. ebd.). Die Fabula hingegen enthält nur diejenigen, aus der Geschichtenontologie stammenden Elemente, die spezifisch für eine bestimmte Geschichte verwendet werden (vgl. ebd.). Dem Autor ist dann, wie bereits erwähnt worden ist, bei der Konstruktion der Geschichte überlassen, wie die jeweiligen Ereignisse und Zustände präsentiert werden sollen: Diese Präsentationsreihenfolge steht in Verbindung mit dem narrativen Fluss und enthält bestimmte Sequenzen von sogenannten Narrativzuständen (vgl. ebd., S. 219). Ebendiese Narrativzustände werden wiederum bestimmt mithilfe der spezifischen Fabula-Elemente, die zuvor im narrativen Planer festgelegt worden sind, und werden von einer narrativen Organisationskomponente - gemeinsam mit den Fabula-Elementen und etwaigen stilistischen Merkmalen - weiterverarbeitet: Das Ergebnis manifestiert sich im Anschluss daran als eine Zusammenstellung von satzartigen Strukturen, die eventuell in einen Text als endgültigen Output des NLG-Systems konvertiert werden (vgl. ebd.).

Callaway et al. legen insgesamt drei Narrativzustände fest: Delimiting Primitives bezeichnen Narrativzustände, die die Organisation der Narration von Szenen grundlegend regeln; Szenen sind hier Segmente einer Geschichte, die hinsichtlich zeitlicher, örtlicher und figurenbezogener Zustände miteinander in Verbindung stehen (vgl. ebd., S. 219f.). Weiterhin legen ebendiese Narrativzustände globale Richtlinien einer Geschichte fest, wie beispielsweise ihr Genre oder die generelle Kulisse, Besetzung usw. derselben (vgl. ebd., S. 220). Indessen fokussieren sich die sogenannten Base Primitives auf den zentralen Inhalt einer narrativen Passage; derartige Passagen können sowohl Expositions- als auch Dialog-Elemente beinhalten (vgl. ebd., S. 221). Schließlich repräsentieren Modifying Primitives Phrasen o.ä., die semantische Inhalte enthalten und verknüpft sind mit Base Primitives; sie sind demnach keine eigenständigen Narrativzustände (vgl. ebd., S. 222).

Wie die zuvor vorgestellten NLG-Systeme nimmt sich Storybook ebenfalls für seine globale Architektur ein fundamentales Beispiel an der Pipeline-Architektur nach Dale und Reiter: Das System ist somit in drei grundlegende Module unterteilt, bei denen es sich um den bereits dargelegten Dokumentplaner beziehungsweise narrativen Planer, einen Mikro- beziehungsweise Satzplaner und die Oberflächenrealisierung handelt (vgl. ebd., S. 229f.). Allerdings enthält Storybook neben diesen etablierten Modulen auch weitere Module, die Bestandteile der Author-Architektur ausmachen; zu ihnen gehören der Diskursverlauf, die lexikalische Wahl, die Revision und die narrative Formatierung (vgl. ebd.).

Der narrative Planer entwirft, wie oben beschrieben, die Fabula und den narrativen Fluss einer Geschichte und ist somit verantwortlich für die Bereiche des Figurendesigns und der Handlungs-sowie Szenenkonstruktion (vgl. ebd., S. 231). Die ebenso zuvor erwähnte narrative Organisationskomponente konvertiert dann die semantischen Rohdaten des narrativen Flusses und der Fabula in satzartige Chunks mithilfe eines 4-Phasen-Prozesses, der weitestgehend durch die Author-Architektur-Module bestimmt wird (vgl. ebd., S. 231f.): Die erste Phase der narrativen Segmentierung teilt den narrativen Fluss zunächst einmal in eine Satz- und Paragraphensegmentierung ein (vgl. ebd., S. 232). Daran schließt sich die Phase des Diskursverlaufes an; sie dient als eine Art Filter, der diverse Satzelemente modifiziert und/oder entfernt, sofern diese andernfalls die Kohärenz der geschichtlichen Umgebung beeinträchtigen würden (vgl. ebd.). Dabei fokussiert sich diese Phase insbesondere auf den zuvor segmentierten narrativen Fluss und berücksichtigt dabei insgesamt drei Faktoren: Definite und indefinite (Nominal-)Phrasen, kontextuelle Deixis-Elemente und Pronominalisierungsinstanzen (vgl. ebd., S. 233). Die dritte Phase befasst sich in erster Linie mit der lexikalischen Wahl; ihr Ziel ist es, die narrative Prosa mithilfe eines lexikalischen Variationsspektrum auf einer qualitativen Ebene zu optimieren (vgl. ebd., S. 234). Auszeichnen soll sich dieses Variationsspektrum dadurch, dass Wiederholungen weitestgehend vermieden werden, vor allem innerhalb von Nominal- und Verbalphrasen (vgl. ebd., S. 235). Die vierte und letzte Phase, die narrative Formatierung, konvertiert schließlich die diversen Gruppen von Narrativzuständen in individuelle, satzartige Strukturen beziehungsweise Chunks (vgl. ebd.).

Nach Abschluss der diversen Arbeitsschritte, die der narrative Planer zu absolvieren hat, befasst sich der Satz- respektive Mikroplaner mit den jeweiligen Spezifikationen der semantischen Satzinhalte und organisiert dementsprechend die semantischen, aber auch syntaktischen Funktionen der jeweiligen Elemente innerhalb einer Satzspezifikation (vgl. ebd., S. 236). Die bisher wissens- respektive ontologiebasierten Strukturen werden in funktionale Strukturen transformiert und unterziehen sich im Zuge dessen einem Revisionsprozess, der als notwendig erachtet wird, um den Qualitätsgrad der narrativen Prosa zu optimieren (vgl. ebd.). Ist der Revisionsprozess abgeschlossen, liegt ein narrativer Plan vor, der als Input für das letzte Modul, die Oberflächenrealisierung, genutzt wird (vgl. ebd., S. 238).

Soweit soll nun an dieser Stelle die Vorstellung von ausgewählten NLG-Systemen erfolgt sein. Selbstverständlich beansprucht die hier getroffene Auswahl keinesfalls Vollständigkeit; sie sollte lediglich einen Überblick über bestimmte Systeme verschaffen, die sich auf eine narrative Textgenerierung konzentrieren; die Gemeinsamkeiten und Unterschiede der jeweiligen Systeme haben sich indessen vor allem auf der Architektur-Ebene kenntlich gemacht, wenngleich bemerkenswert ist, dass sie sich alle zumindest bis zu einem gewissen Punkt an der Pipeline- Architektur von Dale und Reiter orientieren. In einem späteren Kapitel wird gegebenenfalls erwogen, ob eines dieser hier vorgestellten Systeme für das eigene praxisbezogene Anliegen infrage kommt; eine Kritik oder ähnliches der ausgesuchten NLG-Systeme sollte hier jedoch in jedem Falle erst einmal nicht im Vordergrund stehen. Beabsichtigt war hier eine erste Annäherung an bestimmte und mitunter einflussreiche NLG-Systeme. Nun wird sich dem zweiten und ebenso wichtigen Teil der theoretischen Grundlagen gewidmet: einer Definition und Zusammenstellung der Merkmale des Videospiel-Mediums, mit einem besonderen Fokus auf die für die vorliegende Arbeit relevanten Charakteristika. Eine Illustration der Diskussion um den narrativen Status des Mediums mit Bezugnahme auf den Forschungsbereich der Ludologie sowie ein abschließender Fokus auf das spezifische Genre der Rollenspiele und deren zentralen Bestandteil der Quests, die an späterer Stelle von Relevanz sein werden, machen weitere Elemente des nachfolgenden Kapitels aus.

2.2. Theorieteil II: Zum Videospiel-Medium

2.2.1. Zusammenstellung ausgewählter Charakteristika

Videospiele zeichnen sich gegenwärtig als ein zentraler Bestandteil der digitalen Medienkultur aus (Freyermuth 2015, S. 70); sie sind zudem in einer Anzahl von unterschiedlichen (wissenschaftlichen) Bereichen von einem besonderen Interesse4, da ihnen das einzigartige Potenzial innewohnt, Aspekte verschiedentlich gearteter Spielmechaniken und Repräsentationsmöglichkeiten mit gegebenenfalls narrativen Elementen in sich vereinen zu können (vgl. Ensslin 2012, S. 143).5 Ensslin postuliert im Zuge dessen, dass ebensolche Videospiele, die narrative Elemente beinhalten, Eigenschaften beherbergen, die denen des konventionellen Geschichtenerzählens ähneln; ein bedeutsamer Unterschied zwischen konventionell erzählten Geschichten, wie sie beispielsweise in der Literatur oder im Film zu finden sind, und Videospielen äußert sich jedoch darin, dass letztere keine geschlossenen und bereits vorgefassten Geschichten wiedergeben, sondern weitläufige und offene Geschichtenwelten zur Verfügung stellen können, in denen ein potenzieller Spieler eine personalisierte Geschichte erlebt (vgl. ebd.).

[...]


1 Diese fundamentalen Fragestellungen beziehen sich zum Beispiel auf die Definition und Konstitution einer adäquaten Verwendung von Sprache innerhalb einer gegebenen kommunikativen Situation und einem damit einhergehenden Formalisierungsprozess ebendieser Sprachverwendung auf beispielsweise einer pragmatischen und semantischen Ebene; darüber hinaus wird sich unter anderem auch mit der Frage auseinandergesetzt, welcher Weg sich am ehesten dafür eignet, Information auf einer maschinellen Ebene an den Menschen zu kommunizieren, sodass er diese Information aufzunehmen und zu verstehen vermag (vgl. Dale et al. 2000, S. 2).

2 Ein Beispiel für ein derartiges NLG-System, das für ebensolche alltägliche Zwecke konstruiert worden ist, lässt sich in FoG verorten: FoG wurde erstmals in den frühen 1990er Jahren entwickelt mit dem Ziel, betriebsfähige Wettervorhersagen zu generieren.

3 Eine dramatis personae umfasst in der Regel eine Auflistung derjenigen Figuren, die zum Beispiel in einem Theaterstück auftreten; gegebenenfalls enthält diese Auflistung der Rollenbesetzung weitere Informationen über die Figuren, wie zum Beispiel ihre Funktion oder ihr Alter.

4 Dieses Interesse resultiert beispielsweise in der Etablierung neuer (Forschungs-)Bereiche wie zum Beispiel den sogenannten Game Studies (vgl. Freyermuth 2015, S. 70), die sich als eine inhaltlich diverse und interdisziplinäre Wissenschaftsdisziplin erweisen (vgl. ebd., S. 72).

5 Es sollte daraus jedoch nicht geschlussfolgert werden, dass jedes Videospiel zwangsläufig narrative Elemente beinhalten muss. Zur Diskussion um den Stand der Narrativität in und von Videospielen siehe Kapitel 2.2.2.

Ende der Leseprobe aus 85 Seiten

Details

Titel
Die (semi-)automatische Erschaffung von Nebenquests in Videospielen mit Methoden der Sprachgenerierung
Hochschule
Justus-Liebig-Universität Gießen
Note
12
Autor
Jahr
2019
Seiten
85
Katalognummer
V539434
ISBN (eBook)
9783346139511
ISBN (Buch)
9783346139528
Sprache
Deutsch
Schlagworte
erschaffung, nebenquests, videospielen, methoden, sprachgenerierung
Arbeit zitieren
Sarah Insacco (Autor:in), 2019, Die (semi-)automatische Erschaffung von Nebenquests in Videospielen mit Methoden der Sprachgenerierung, München, GRIN Verlag, https://www.grin.com/document/539434

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Die (semi-)automatische Erschaffung von Nebenquests in Videospielen mit Methoden der Sprachgenerierung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden