Lade Inhalt...

Die Generative Grammatik: Syntaktische Grundannahmen und Analyseverfahren

Hausarbeit 2004 24 Seiten

Sprachwissenschaft / Sprachforschung (fachübergreifend)

Leseprobe

Inhaltsverzeichnis

1. Eine historisch-definitorische Einführung

2. Spracherwerb und Universalgrammatik

3. Syntaktische Grundannahmen und Analyseverfahren
3.1. Elementare Module der Generativen Grammatik
3.1.1. Konstituentenstrukturanalyse
3.1.2. X-Bar-Theorie
3.1.3. Kasus-Theorie
3.1.4. Theta-Theorie
3.1.5. Lexikon
3.1.6. Transformationen
3.1.7. Regierungs- und Bindungsverhältnisse
3.2. Interaktion der syntaktischen Module

4. Schlussbetrachtung

5. Literaturverzeichnis

1. Eine historisch-definitorische Einführung

Ich möchte mich in dieser Hausarbeit mit dem Modell der Generativen Grammatik (auch: GG) beschäftigen. Da die Syntax eine wesentliche Komponente einer Grammatik ist, soll der Schwerpunkt meiner Ausarbeitungen auf den syntaktischen Grundannahmen und Analyseverfahren der Generativen Grammatik liegen, die maßgeblich von dem bedeutenden amerikanischen Linguisten Avram Noam Chomsky (* 1928) entwickelt wurden.

Um einen ersten Einblick in die Generative Theorie zu erhalten, möchte ich zunächst auf die elementaren Entwicklungsstadien der Generativen Grammatik eingehen:

Der amerikanische Sprachwissenschaftler Zellig Sabbetai Harris (* 1909, † 1992) entwickelte bereits 1951 in seiner Publikation „Methods in Structural Linguistics“ die Idee einer Kerngrammatik, die eine begrenzte Anzahl von Sätzen beinhaltet und von der eine unbegrenzte Anzahl von Sätzen ableitbar ist. Den Grundstein des frühen Generativismus legte jedoch Harris’ Schüler Noam Chomsky mit seinen Arbeiten „Syntactic Structures“ (1957) und „Aspects of the Theory of Syntax“ (1965). In „Syntactic Structures“ formulierte er das Ziel, eine Grammatik zu entwickeln, die alle möglichen Sätze einer Sprache generieren kann. Aus diesem Ansatz erklärt sich der Begriff der Generativen Grammatik.

In den Folgejahren modifizierte Chomsky das Modell der GG. Setzte er sich anfangs das Ziel, grammatische von ungrammatischen Sätzen zu trennen, implizierte er in seinen späteren Publikationen auch die semantische Ebene. Eine zusammenfassende Darstellung seines Standardmodells veröffentlichte Chomsky in „Lectures on Government and Binding“ (1981). Im Vordergrund seiner Government-Binding-Theorie (auch: GB-Theorie, Rektions- und Bindungstheorie) stand das Konzept der Universalgrammatik (auch: UG), welche postulierte, dass alle Sprachen gemeinsamen grammatischen Prinzipien folgen, die allen Menschen angeboren sind.

In den achtziger Jahren erweiterte er die Rektions- und Bindungstheorie zur Prinzipien- und Parametertheorie (auch: PP-Theorie). Chomskys 1995 publiziertes Programm des Minimalismus („The Minimalist Program“) stand zwar in der Tradition der GB- und PP-Theorie, verwarf aber einige seiner früheren linguistischen Annahmen.1

Wie aus diesem kurzen historischen Abriss ersichtlich wird, ist die Frage nach der Satzgenerierung eines der zentralen Themen der Generativen Grammatik. Einen wichtigen Ansatzpunkt dieser Grammatiktheorie stellt die Problematik des Spracherwerbs dar. Wie es dem Menschen in kurzer Zeit gelingt, ein komplexes und kompliziertes System wie die Sprache zu erlernen, möchte ich im Folgenden anhand eines von Chomsky entwickelten Modells erörtern:

2. Spracherwerb und Universalgrammatik

Der Spracherwerb definiert den Prozess, mit dem Kleinkinder sprechen lernen bzw. sich ältere Kinder und Erwachsene eine Fremdsprache aneignen. Bis zum heutigen Stand der Forschung gibt es keine allgemeingültige Spracherwerbstheorie. Noam Chomsky favorisiert ein nativistisches Modell des Spracherwerbs. Der Mensch ist von Geburt an mit einem geistigen Apparat der Sprachfähigkeit ausgestattet, der die Voraussetzung zum Erlernen einer Sprache bildet. Jeder Mensch bringt demnach eine genetische Ausstattung zum Spracherwerb mit. Chomsky spricht von dem möglichen Vorhandensein einer Universalgrammatik, die angeborene Prinzipien enthält, welche alle Sprachgruppen miteinander teilen und das Erlernen einer Sprache ermöglichen.2 Wenn die UG mit ihren grammatischen Prinzipien wirklich universalgrammatisch gilt, muss sie begrenzenden Charakter haben und mit anderen existierenden Sprachen kompatibel sein.3

Die Regeln einer Einzelsprache bezeichnet Chomsky als Parameter. Lautet ein UG-Prinzip beispielsweise „Eine Sprache besitzt mindestens zwei Wortarten“, heißt ein entsprechender UG-Parameter „Die erste Wortart besitzt das Merkmal ...“. Das angeborene Wissen um die Regeln einer bestimmten Sprache nennt er sprachliche Kompetenz, die tatsächliche Verwendung dieser Sprache in realen Situationen und die Art und Weise, wie der Mensch von der Kompetenz Gebrauch macht, definiert er als sprachliche Performanz.4

Eine weitere elementare Einteilung nimmt Chomsky mit dem Begriffspaar Kerngrammatik (auch: Core grammar) und Peripherie vor. Unter einer Kerngrammatik versteht er eine einzelsprachliche Grammatik, die sich aus den Prinzipien der UG ableiten lässt. Die Peripherie ist hingegen nicht von der UG abgeleitet und enthält zusätzliche Dinge, die zufällig oder aus anderen Gründen entstanden sind. Da die Phänomene der Peripherie schwer in Regeln zu fassen sind, spielen sie für die Entwicklung der UG lediglich eine untergeordnete Rolle.5

Wie Chomsky selbst betont, unterliegt die Betrachtung einer Sprache unter dem Aspekt einer Universalgrammatik bestimmten Idealisierungen, denn nicht jeder Dialekt und jede sprachliche Sonderform kann in den linguistischen Überlegungen berücksichtigt werden. Grammatiken beschäftigen sich infolgedessen mit einer idealisierten Form von Sprache.6

3. Syntaktische Grundannahmen und Analyseverfahren

Zum Erstellen einer Universalgrammatik bedarf es einer genauen Analyse möglichst aller Sprachen. Gleichzeitig muss ein adäquater Beschreibungsapparat geschaffen werden, der einmal die allgemeinen Prinzipien und zum anderen die einzelsprachlichen Parameter berücksichtigt. Im Gegensatz zu einer deskriptiven

Grammatik, die lediglich versucht, die Phänomene einer Sprache zu beschreiben, geht es der Generativen Grammatik vielmehr um die notwendigen Struktureigenschaften von Sprachen, die ermittelt und in möglichst wenigen Regeln ausgedrückt werden müssen. In diesem Zusammenhang bedient sich die Generative Grammatik verschiedener modularer Komponenten, deren wichtigsten Vertreter in der GB- und PP-Theorie erarbeitet wurden und nachfolgend im Einzelnen aufgezeigt werden sollen.7

3.1. Elementare Module der Generativen Grammatik

3.1.1. Konstituentenstrukturanalyse

Beim Erstellen von Grammatiken geht man davon aus, dass die Sprache bestimmte Strukturen enthält, die ermittelt und als Regeln formuliert werden können. Ein Modul der Analyse von Sätzen bildet die Konstituentenstrukturanalyse (auch: Immediate constituent analysis, IC-Analyse). Bei diesem Verfahren wird die Ansicht vertreten, dass ein Satz aus komplexen Gliederungseinheiten besteht. Diese sogenannten Konstituenten können sowohl in eckigen Klammern als auch in Baumstrukturen dargestellt werden:

Abbildung in dieser Leseprobe nicht enthalten

Wenn nun jede Konstituente zu bestimmten syntaktischen bzw. lexikalischen Kategorien (Nomen, Verb, Adjektiv, ...) gehört, können verschiedene syntaktische

Kategorien zu größeren Einheiten (Nominalphrase, Verbalphrase, Adjektivphrase, ...) zusammengefasst werden. Das Ziel einer Konstituentenstruktursyntax wird wie folgt bestimmt: „Der syntaktische Aufbau sämtlicher Sätze einer Sprache und nur dieser ist dann vollständig beschrieben, wenn festgelegt ist, (a) welche Folgen von Kategorien von jeweils welcher Kategorie unmittelbar dominiert werden können und (b) zu welchen Kategorien die Wörter der Sprache gehören.“8

Die Generative Grammatik bedient sich der IC-Analyse und stellt sogenannte Phrasenstrukturregeln (auch: PS-Regeln, Konstituentenstrukturregeln) auf:

(3) S → NP VP

gelesen: Ein Satz (S) besteht aus bzw. kann ersetzt werden durch eine Nominalphrase (NP) und eine Verbalphrase (VP).

(4) VP → V NP

gelesen: Eine Verbalphrase (VP) besteht aus bzw. kann ersetzt werden durch ein Verb (V) und eine Nominalphrase (NP).

Mit Hilfe von lexikalischen bzw. terminalen Regeln (Beispiele: N → Tisch, V → lernt) können nun ganz mechanisch Sätze generiert werden. Dahinter steckt die Idee, eine Sprache durch eine Menge von Regeln vollständig beschreiben zu können. Für die Verwendung der PS-Regeln ist der Aspekt der Rekursivität elementar. Rekursive Regeln erlauben die Beschreibung einer unendlichen Anzahl von Sätzen mit einem begrenzten Inventar sprachlicher Elemente und Regeln. Die Rekursivität ist die Grundlage der sprachlichen Kompetenz und demnach von entscheidener Bedeutung für die Generative Grammatik.9

Bei der Anwendung der PS-Regeln ist die genaue Beschreibung der Satzstrukturen einer natürlichen Sprache oberste Prämisse. Diese Einhaltung ist wichtig, da man sonst Regeln folgender Form aufstellen könnte:

(5) Satz → Satz Wort

(6) Satz → Wort

Sind alle Wörter einer Sprache erfasst, lassen sich alle Sätze dieser Sprache mit diesen beiden Regeln bilden. Der Erklärungswert dieser Art von Regeln ist jedoch nichtig.

Desweiteren ist eine möglichst einfache Darstellung der Satzstrukturen zu erreichen, indem man nach wenigen und ausdrucksstarken Regeln sucht. Eine solche Regel könnte demzufolge lauten, dass in Sprache X das direkte immer vor dem indirekten Objekt auftritt.

Ein weiteres Interesse besteht darin, Regeln zu finden, die sich möglichst einfach auf andere Sprachen übertragen lassen.

An dieser Stelle muss angemerkt werden, dass nicht jedes Wort wahllos in Regeln eingesetzt werden kann. Besonders deutlich wird dies bei Verben:

(7) Frank lebt in Frankfurt.

(8) *Frank lebt ein Bett.

Hierbei zeigt sich, dass sich in den verschiedenen von den PS-Regeln erzeugten Satzstrukturen nur ganz bestimmte Verben einsetzen lassen. Aus diesem Grund sind Verben nach unterschiedlichen syntaktischen Umgebungen, in denen sie auftreten, zu unterklassifizieren. Die für die Subkategorisierung relevanten Informationen sind im sogenannten Lexikon gespeichert, in dem all die Worteigenschaften stehen, die sich nicht aus allgemeinen Regeln ableiten lassen.10 Folgender Beispielsatz verdeutlicht die spezielle Natur der Subkategorisierung:

(9) Ich weiß, dass Frank kommt.

Das Verb „wissen“ fordert zum Beispiel einen Komplementierer (auch: Complementizer) wie die Konjunktion „dass“ und einen Nebensatz.

[...]


[1] vgl. Brigitte Bartschat: Methoden der Sprachwissenschaft: Von Hermann Paul bis Noam Chomsky. Berlin: Erich Schmidt, 1996. S. 168.

[2] vgl. Günther Grewendorf/Fritz Hamm/Wolfgang Sternefeld: Sprachliches Wissen: Eine Einführung in moderne Theorien der grammatischen Beschreibung. 3. Auflage. Frankfurt am Main: Suhrkamp, 1989. S. 19.

[3] vgl. Noam Chomsky: Lectures on Government and Binding: The Pisa Lectures. 7. Auflage. Berlin, New York: Mouton de Gruyter, 1993. S. 3.

[4] vgl. Grewendorf/Hamm/Sternefeld 1989. S. 32.

[5] vgl. Chomsky 1993. S. 7.

[6] vgl. Chomsky 1993. S. 8.

[7] vgl. Jörg Keller/Helen Leuninger: Grammatische Strukturen - Kognitive Prozesse: Ein Arbeitsbuch. Tübingen: Gunter Narr, 1993. S. 95.

[8] Grewendorf/Hamm/Sternefeld 1989. S. 173.

[9] vgl. Grewendorf/Hamm/Sternefeld 1989. S. 179.

[10] vgl. Gisbert Fanselow/Sascha W. Felix: Sprachtheorie: Eine Einführung in die Generative Grammatik. Bd. 2: Die Rektions- und Bindungstheorie. 2. Auflage. Tübingen: A. Francke, 1990. S. 35.

Details

Seiten
24
Jahr
2004
ISBN (eBook)
9783638424233
ISBN (Buch)
9783638692670
Dateigröße
532 KB
Sprache
Deutsch
Katalognummer
v44921
Institution / Hochschule
Heinrich-Heine-Universität Düsseldorf
Note
sehr gut
Schlagworte
Generative Grammatik Syntax syntaktisch Grundannahmen Analyseverfahren Noam Chomsky Theorie Problem Spracherwerb Universalgrammatik Konstituenten X-Bar Kasus

Autor

Zurück

Titel: Die Generative Grammatik: Syntaktische Grundannahmen und Analyseverfahren