Anthropology in the flesh - Implikationen der kognitiven Metaphertheorie von George Lakoff und Mark Johnson für die Ethnologie


Magisterarbeit, 2003

85 Seiten, Note: 1,7


Leseprobe


Inhaltsverzeichnis

1. Einleitung

2. Geschichtlicher Überblick
2.1 Kognition/Kognitionswissenschaft
2.2 Metapher

3. „Philosophy in the flesh”

4. „Anthropology in the flesh”
4.1 Methodische Vorgehensweise
4.2 Ethnologische Theorien im Licht der kognitiven Metaphertheorie
4.2.1 Evolutionismus
4.2.2 Funktionalismus/Strukturfunktionalismus
4.2.3 Exkurs: Entwicklungspsychologie/JeanPiaget
4.2.4 Hermeneutische Ansätze/Clifford Geertz und Hans-Georg Gadamer
4.2.5 Ein poststrukturalistischer Ansatz/Pierre Bourdieu
4.3 Implikationen bezüglich Methode, Praxis und Selbstverständnis der Ethnologie

5. „Rock ’n’ Roll“ – Eine Schlussmetapher

6. Quellennachweise

1. Einleitung

Seit der Aufklärung zeichnet sich die abendländische Wissenschaftstradition durch eine Erkenntnistheorie aus, die auf einem Subjekt/Objekt-Dualismus beruht und eine Trennung von Körper und Geist annimmt. Es wird eine vom Forscher unabhängig existierende Außenwelt postuliert, die zu erkennen sein Ziel ist. Insbesondere im letzten Jahrhundert wurde diese Auffassung von verschiedenen Disziplinen in Zweifel gezogen. Dies hatte und hat weitreichende Konsequenzen für das gesamte wissenschaftliche Unternehmen. Anhand der kognitiven Metaphertheorie von George Lakoff und Mark Johnson sollen in der vorliegenden Arbeit die Implikationen dieser Entwicklung für die Ethnologie abgesteckt werden.

Jeder kennt die suggestive und evokative Kraft, die Metaphern in einem Dialog oder Text haben können. Verwendet jemand gute bildhafte Vergleiche, ist man leichter geneigt, sich von etwas überzeugen zu lassen oder seine Zustimmung zu bekunden. Metaphern genießen somit einen Ruf als sprachliches Stilmittel. Was aber ist, wenn Metaphern nicht als rhetorisches Werkzeug betrachtet werden, sondern als organisierendes Prinzip menschlichen Denkens und Verstehens? Genau mit dieser Fragestellung beschäftigen sich Lakoff und Johnson (1998: 7):

„Wer auch immer denkt, strukturiert den Kosmos seines Bedeutungs universums durch Metaphern; er denkt über etwas nach, schiebt andere Gedanken beiseite, gibt seinen Ideen eine Form oder hängt sie an einem Punkte auf oder verwendet eine Perspektive. Manchmal sehen wir klar und blicken durch, dann aber tappen wir wieder im Nebel. Ideen sprudeln oder versiegen. Selbst in den harten Wissenschaften spricht man mit Bildgebungen aus körperlicher und sinnlicher Erfahrung von den Schenkeln eines Dreiecks oder vom Zell kern oder vom Atom kern.“[1]

Ich werde hauptsächlich im dritten Kapitel zeigen, wie die Autoren diese Auffassung begründen, das diese Auffassung eine weniger abstrakte Idee von dem liefert, was wir „Geist“ oder „Verstand“ nennen, und dass diese Idee die Körper/Geist-Dualität hinfällig werden lässt.

Zunächst soll aber ein geschichtlicher und philosophischer Rückblick die Entwicklung der Kognitionswissenschaft nachzeichnen und ihren Gegenstandsbereich bestimmen. Welche Stellung die Metapher im Verlauf der Wissenschaftsgeschichte und in der Ethnologie hatte, bildet das Thema des zweiten Abschnittes in Kapitel zwei. Es wird sich zeigen, dass das, was über Kognition und Metaphern gesagt und gedacht wurde und wird, abhängig ist von den erkenntnistheoretischen Grundannahmen, mit denen Wissenschaft betrieben wird. Mit Seitenblicken auf Disziplinen, die der Kognitionswissenschaft verwandt sind und durch Bezug auf entsprechende wissenschaftsgeschichtliche Ereignisse, werde ich die Frage beantworten, warum sich die klassische Erkenntnistheorie der Aufklärung zunehmender Kritik ausgesetzt sah. Am Ende des zweiten Kapitels erfolgt eine Einordnung der kognitiven Metaphertheorie von Lakoff und Johnson in die gegenwärtigen Strömungen der Kognitionswissenschaft.

„Philosophy in the flesh“ ist Titel des dritten Kapitels und gleichzeitig Titel des Buches von Lakoff und Johnson (1999), das den Hauptbezugspunkt meiner Arbeit bildet. Deshalb werde ich in diesem Kapitel die in dem genannten Buch vorgestellte kognitive Metaphertheorie nicht nur zusammenfassen, sondern auch die neurobiologischen Grundlagen miteinbeziehen, auf die sich ihre Theorie stützt. Aus dem Wissen, das im zweiten Kapitel erarbeitet wird, leitet sich jedoch auch eine Unzulänglichkeit dieser Metaphertheorie ab. Worin diese besteht, wird wiederum im Zusammenhang mit erkenntnistheoretischen Überlegungen gegen Ende des dritten Kapitels erörtert.

So bilden die ersten beiden Kapitel die Grundlage für den Hauptteil. In „Anthropology in the flesh“ steht die Frage im Vordergrund, welche Konsequenzen eine Erkenntnistheorie, die Körper und Geist als Einheit denkt, für die Ethnologie hat. Das ist deshalb so wichtig, weil sich aus einer Erkenntnistheorie das eigene Selbst- und Weltbild ableitet, das wiederum als Verstehensgrundlage fremder Lebenswelten dient. Clifford Geertz fasst unser westliches Selbstbild treffend zusammen:

„Die abendländische Vorstellung von der Person als einem fest umrissenen, einzigartigen, mehr oder weniger integrierten motivationalen und kognitiven Universum, einem dynamischen Zentrum des Bewußtseins, Fühlens, Urteilens und Handelns, das als unterscheidbares Ganzes organisiert ist und sich sowohl von anderen solchen Ganzheiten als auch von einem sozialen und natürlichen Hintergrund abhebt, erweist sich, wie richtig sie uns auch scheinen mag, im Kontext der anderen Weltkulturen als eine recht sonderbare Idee“ (Geertz 1987: 294).

Sobald man aber nicht nur Körper und Geist, sondern auch Person und Außenwelt als zusammengehörende und sich gegenseitig bedingende Entitäten auffasst, ist die klassische Epistemologie nicht mehr tragfähig. Dass es empirische Gründe für diese These und auch alternative erkenntnistheoretische Konzeptionen gibt, wird schon in den ersten beiden Kapitel deutlich. Mit diesem Hintergrund ergeben sich eine Reihe von Implikationen, die nicht nur für die Vergangenheit und Gegenwart, sondern auch für die Zukunft der Ethnologie von großer Wichtigkeit sind. Diese drei zeitlichen Horizonte spiegeln auch die drei Ebenen von „Anthropology in the flesh“ wider, in denen ich einige Konsequenzen und Fragen, die sich aus diesem Hintergrund für die Ethnologie ergeben, erörtern werde:

In den Unterkapiteln 4.2.1 und 4.2.2 werde ich die kognitive Metaphertheorie auf bereits vorhandene ethnologische Theorien anwenden und exemplarisch einige Metapherkomplexe bestimmen, auf denen sie beruhen. Der Exkurs in die Entwicklungspsychologie markiert den Übergang auf die zweite Ebene. Es geht hier nicht mehr darum, Theorien auf ihre metaphorische Konstruktion hin zu analysieren, sondern die Parallelen, Gemeinsamkeiten und Verbindungen zur kognitiven Metaphertheorie herauszuarbeiten. Es wird sich dadurch eine Möglichkeit finden, die Schwächen der Metaphertheorie zu kompensieren. Diese erarbeiteten Teilergebnisse bilden anschließend die Grundlage für die dritte Ebene im Abschnitt 4.3. Was für ein Wissenschafts- und Selbstverständnis der Ethnologie resultiert aus einem alternativen erkenntnistheoretischen Ansatz, der keine absoluten Aussagen mehr über die Welt, geschweige denn über gesicherte Wahrheiten machen kann? Wie kann sich Wissenschaft trotzdem legitimieren, was unterscheidet sie noch von Kunst oder Willkür, und was für einen Nutzen hat sie? Über was und vor allem wie soll man ethnographische Darstellungen anfertigen? Welche methodische und ethische Konsequenzen hätte die ethnologische Praxis unter solchen veränderten Voraussetzungen? So bildet dieses Kapitel den Versuch, einige Vorschläge zur Beantwortung dieser Fragen zu entwickeln.

Mit „Rock ’n’ Roll“ möchte ich selbst eine Metapher vorschlagen, welche die Ergebnisse dieser Arbeit illustriert und die als Verständnisgrundlage für ein weniger sonderbares Selbst- und Weltbild dienen könnte.

2. Geschichtliche Überblicke

2.1 Kognition/Kognitionswissenschaft

Erst in den letzten Jahrzehnten erfuhr der Begriff der „Kognition“ eine gewisse Popularität und fand Eingang in den Jargon verschiedener Wissenschaftsdisziplinen. Was man alles unter dem Begriff, der heute „Kognition“ genannt wird, versteht und wie darüber nachgedacht wurde, möchte ich durch einen philosophiegeschichtlichen Überblick zeigen. Parallel dazu soll die Entwicklung der Kognitionswissenschaft umrissen werden, um einerseits den Begriff „Kognition“ zu erhellen und andererseits ein Verständnis dafür zu liefern, wie die Theorie von Lakoff/Johnson in diese Entwicklung eingebettet ist. Laut Psychologielexikon bedeutet Kognition:

„Ausdruck für jeden Prozeß, durch den das Lebewesen Kenntnis von einem Objekt erhält oder sich seiner Umwelt bewußt wird. Zur Kognition zählen: Wahrnehmung, Erkennen, Vorstellen, Urteilen, Gedächtnis, Lernen, Denken, oft auch Sprache“ (Blumenberg/Kury 1985: 105).

Es geht also um die Frage, was sich eigentlich hinter den Begriffen, die gemeinhin als „Geist“ oder „Seele“ bezeichnet werden, verbirgt. Weiterhin geht es um den Versuch herauszufinden, wie Wahrnehmung, Gedächtnis, Wissen und geistige Prozesse strukturiert und organisiert sind, um die Bedingungen und Voraussetzungen unseres eigenen Denkens besser zu verstehen. Denn wie der Kognitionswissenschaftler Humberto Maturana zu Descartes, dem wichtigsten Vordenker des modernen Welt- und Wissen-schaftsverständnisses richtig bemerkt, bildet zwar das Cogito, der Erkennensakt, den Ausgangspunkt seines Denkens, aber diese menschliche Eigenschaft, die Kognition selbst wird nicht problematisiert (vgl. Maturana 1987: 89). Oder anders gesagt, bleibt die Frage, wie dieser Akt zustande kommt, offen. Im Lichte dessen erweitert und definiert der bekannte Kognitionswissenschaftler Howard Gardner diese Disziplin als „(...) zeitgenössischen, Versuch sehr alte erkenntnistheoretische Fragen auf empirischem Wege zu beantworten – vor allem die Fragen, welche sich mit der Natur des Wissens, dessen Komponenten, dessen Ursprüngen, dessen Entfaltung und dessen Anwendung befassen“ (Gardner 1989: 17). Wie man sich das menschliche Denken vorstellt und erklärt ist also direkt mit den zugrundeliegenden erkenntnistheoretischen Annahmen gekoppelt. Im Wesentlichen gibt es hierzu zwei abendländische Denktraditionen, von denen sich die erste, die ich kurz zusammenfassen werde, in der Neuzeit durchgesetzt hat während die zweite möglicherweise im Begriff ist, die erste langsam abzulösen.

Platon bzw. Sokrates beschrieben die Natur und das Wesen des Denkens und Wissens als idealisierte Formen, die durch Mathematik und Geometrie auch beschreibbar waren (siehe Dialog des „Menon“ von Platon 1968, bzw. vgl. Gardner 1989: 16). Diese Formen und die Fähigkeit mathematisch denken zu können, sei dem Menschen angeboren, und die Aufgabe der Lehre bestünde darin, dieses Wissen bewusst zu machen. Wichtig war auch Platons Lehre der Dreiteilung der Seele, weil er dort neben dem mutigen und begierigen Teil die erkennende Komponente im Kopf verortete und dieser Unsterblichkeit zusprach. Diese zephalozentrische Sicht war keineswegs selbstverständlich, denn Homer und sogar Aristoteles vertraten die kardiozentrische These, nach welcher der Sitz des Verstandes im Herz zu finden sei. Aber schon alte ägyptische Quellen weisen auf Beobachtungen von Gehirnverletzungen und auf verschiedene damit verbundene Beeinträchtigungen wie z.B. der Körpermotorik hin. Auch Hippokrates kam durch ähnliche Befunde zu der überzeugenden Ansicht, dass das Gehirn irgendwie in Zusammenhang mit dem restlichen Körper stehen muss. Später (Mitte des 19.Jahrhundert), insbesondere durch den Fall Phineas Gage[2] war es Wissenschaftlern wie Franz Joseph Gall und Paul Broca möglich, von Läsionen auf Gehirnregionen zu schließen und diesen entsprechende geistige und motorische Zuständigkeiten zuzuordnen. Hippokrates, Begründer der Medizin, ist aber noch aus einem anderen Grund interessant. Denn wie aus Heinz Hättigs (2001) Aufsatz über die Geschichte der Neurobiologie hervorgeht, vertrat Hippokrates einen medizinischen Ansatz, den man heute wohl als „ganzheitlich“ bezeichnen würde. Er suchte nach Relationen und Zusammenhängen zwischen den einzelnen Organen und den damit verbundenen Krankheiten. Die Aufgabe des Arztes sah er darin, wie ein Kybernaut (gr.: Steuermann, davon leitet sich der Begriff Kybernetik ab) die Balance zwischen eventuell aus dem Gleichgewicht gekommenen Körperfunktionen wieder herzustellen. Eine Sicht, die interessanterweise im Gegensatz zum heutigen modernen und eher materialistischen Medizinverständnis steht. Bleiben wir aber der chronologischen Darstellung treu und beenden die Antike mit der Bemerkung, dass sich die kardiozentrische Sicht hauptsächlich aufgrund des Sezierverbots in der Scholastik bis ins 17.Jahrhundert hielt.

Bis in die Renaissance und sogar über die Aufklärung hinaus ging der Streit dahingehend weiter, was das Wesen der Seele sei, ob und wenn ja, welche Art von Substanz man ihr zuschreiben könne und welche Verbindung zwischen Sinnes- und Bewegungsorganen bestehen könnte. Von flüssigen oder gasförmigen „animalischen Geistern“ oder „Nervensäften“ war die Rede. Diese konkurrierenden Ansichten machten den Begriff der „Seele“ und ihre Bedeutung immer unschärfer, sodass einmal eine Art Lebensenergie oder Lebensprinzip gemeint war und ein anderes mal abstrakte Gehirnfunktionen. Auch wurden häufig die Begriffe „Seele“ und „Geist“ synonym verwendet (vgl. Changeux 1984: 19f). Neuen Diskussionsstoff für diese Fragen lieferte 1786 Luigi Galvani, der entdeckte, dass Elektrizität bei der Reizübertragung in den Nerven eine Rolle spielt. Auf philosophischer Ebene brachte jedoch René Descartes im 17.Jahrhundert vorläufig eine Ordnung in diese Vorstellungen, die für die Zukunft prägend sein sollte. Descartes legte die Grundsteine für einen erkenntnistheoretischen Realismus, indem er von den Griechen den hohen Stellenwert der Mathematik übernahm und von Platon die Idee einer unsterblichen Seele, seinen Vorschlag der Dreiteilung aber auf einen Dualismus reduzierte. Körper und Geist waren fortan zwei völlig verschiedene und unabhängige Entitäten. In seinen „Meditationen“ macht Descartes dies am deutlichsten:

„Und wenngleich ich vielleicht - oder vielmehr gewiß (...) – einen Körper habe, der mit mir sehr eng verbunden ist, so ist doch, – da ich ja einerseits eine klare und deutliche Idee meiner selbst habe, sofern ich nur ein denkendes, nicht ein ausgedehntes Ding bin, und andererseits eine deutliche Idee vom Körper, sofern er nur ein ausgedehntes, nicht denkendes Ding ist – soviel gewiß, dass ich von meinem Körper wahrhaft verschieden bin und ohne ihn existieren kann“ (Descartes 1972: 67).

Der Körper wurde als Maschine konzeptualisiert und der Geist als unsterbliche, immaterielle und unabhängige Einheit. Mit göttlichen Attributen ausgestattet, bedurfte der Geist auch keiner weiteren Erklärung bezüglich seiner Substanz oder seinem Sitz[3] (vgl. Changeux 1984: 16-22). Neben Descartes waren es Leute wie Kepler, Galilei und Newton, die das ihre für ein auf Materialität gegründetes mechanistisches und reduktionistisches Weltbild beitrugen. Entscheidend hierfür war die Annahme einer von der Wahrnehmung unabhängige, statische und von ewigen Naturgesetzen beherrschte Außenwelt. Annahme und Ziel war es nun, mit dem vernunftbegabten Geist sowie mit Hilfe der Mathematik, die postulierte und vom Beobachter unabhängigexistierende Außenwelt zu erfassen. Da diese Welt ebenso nach mathematischen Regeln aufgebaut ist, so die Annahme, gelangt man durch diese Verfahren zu gesichertem Wissen über die „wirkliche“ Wirklichkeit. Rupert Sheldrake bemerkt hierzu treffend: Gott war „(...) ein Mathematiker, und seine Gedanken waren ewige mathematische Wahrheiten, die von den Menschen durch die gottgleiche Gabe der Vernunft entdeckt werden konnten“ (Sheldrake 2001: 118).

Subjektivität, persönliche Erfahrung oder gar Gefühle wurden auf dem Weg zu objektiver Erkenntnis als hinderlich und verzerrend aufgefasst. Diese „lästigen“ Eigenschaften des Menschen suchte man eben durch Mathematik und Logik zu kompensieren. Dadurch wurde Fortschritt im modernen Sinn erst möglich, und man glaubte, die Geschicke der Menschheit durch diese Vorgehensweise in die richtigen Bahnen lenken zu können.

Diese grundlegenden Ideen der Aufklärung waren demnach entscheidend für unser modernes Selbst- und Wissenschaftsverständnis. Auch die klassische Trennung von Natur- und Geisteswissenschaften wurde dadurch erst ermöglicht und spiegelt sich darin wider. So wurde die Erforschung der Seele und des Geistes Gegenstand der Psychologie während die Beschäftigung mit materiellen Gegenständen hauptsächlich Sache der Physik und Chemie war. Sigmund Freud, Begründer der Psychoanalyse, entwarf Konzepte wie „Über-Ich“ oder „Es“ zur Beschreibung seelischer Vorgänge. Doch er selbst ahnte bereits, dass die Dualität von Körper/Geist und Biologie/Psychologie unbrauchbar werden könnte und sah die Rolle der Biologie in dieser Angelegenheit voraus:

„Die Biologie ist wahrlich ein Reich unbegrenzter Möglichkeiten, wir haben die überraschendsten Aufklärungen von ihr zu erwarten und können nicht erraten, welche Antworten sie auf die von uns gestellten Fragen einige Jahrzehnte später geben würde. Vielleicht gerade solche, durch die unser ganzer künstlicher Bau von Hypothesen umgeblasen wird“ (Freud 1920: 65).

Wie wir noch sehen werden, stellen die neueren empirischen Erkenntnisse der Gehirnforschung und Neurobiologie diese strikte Trennung von Körper und Geist, in der Tat ernsthaft in Frage.

Neben der Psychologie war es der von John B. Watson in den zwanziger Jahren des 20. Jahrhundert begründetet Behaviorismus, der eine Theorie von psychischen Vorgängen lieferte, die sich zwar auf empirisch beobachtbarem Verhalten stützte, aber das Gehirn und die hierin ablaufenden Prozesse vernachlässigte, indem es einfach als Blackbox behandelt wurde.

Der Behaviorist begann, das Problem der Psychologie neu zu formulieren und dabei alle mittelalterlichen Vor-stellungen über Bord zu werfen. Er strich aus seinem wissenschaftlichen Vokabular alle subjektiven Termini wie Empfindung, Wahrnehmung, Vorstellung, Wunsch, Absicht und sogar Denken und Gefühl, soweit diese Begriffe subjektiv definiert waren “ (Watson 1968: 39).[4]

Inspiriert von Pawlows und Skinners Reiz- und Reaktionsversuchen (Reflexbogen), wurde fortan versucht, Verhalten und Denken mit diesem Ansatz zu erklären. Der Behaviorismus verlor seine vorherrschende Stellung in den 1940er Jahren, als klar wurde, dass das menschliche Denken ein Vorgang ist, der weitaus komplexer war als einfach nur die Summe vieler Reflexbögen. Es wurde schwierig, komplexe Tätigkeiten wie etwa Tennisspielen lediglich mit Reflexen erklären zu wollen, da für derart schnelle Handlungsabläufe trotz einer Reizübertragung von bis zu 130m/sec einfach keine Zeit für deren kognitive Verarbeitung blieb (vgl. Gardner 1989: 25 und Anderson 2001: 18). Es konnte sich also nicht nur um reine Reiz-Reaktions-Phänomene handeln. Deshalb wurden Modelle über mentale Konstrukte, Vorstellungen und Repräsentationen notwendig, denn das Wissen[5], das zur Ausführung eines Tennisspiels erforderlich ist, muss in irgendeiner Form im Körper vorhanden sein. Der Behaviorismus leugnete jedoch die Wichtigkeit von mentalen Repräsentationen, Intentionen oder Ideen für eine Handlung bzw. deren biologischen Grundlagen, nicht zuletzt deshalb, weil der Fokus auf der Annahme gründete, das menschliche Verhalten sei hauptsächlich durch die Umwelt determiniert. Die klassische Psychologie, der Behaviorismus, die frühen Ansätze der Kybernetik, und die Computerwissenschaften standen somit innerhalb der Tradition der von Descartes mitgestalteten modernen Wissenschaftskonzeption. Sie versuchten, geistige Prozesse mit Hilfe formaler Logik und symbolischer Systeme zu beschreiben bzw. zu reproduzieren. Diese Darstellungen wurden aber als ein Denken begriffen, das sich völlig losgelöst vom Körper vollzog. „This was philosophy without flesh “ (Lakoff/Johnson 1999: 76).

Obwohl der Begriff „Kognitionswissenschaft“ sich erst Anfang der 1970er Jahre durchsetzte (vgl. Gardner 1989: 17), bezeichnen Lakoff und Johnson die „fleischlose“ Tradition als „first-generation cognitive science“ (Lakoff/ Johnson 1999: passim). Nicht zuletzt durch die Entwicklung bildgebender Verfahren[6] wie CT, EEG oder PET wurde es zu einem gewissen Grad möglich, dem Gehirn beim Denken zuzuschauen. Die auf diese Weise empirisch gewonnenen Daten ließen Interpretationen zu, die keineswegs einen Körper-Geist-Dualismus rechtfertigten. Die Schwächen und Schwierigkeiten der „ersten Generation“ bestanden hauptsächlich darin, dass die Empirie die erkenntnistheoretischen Vorannahmen nicht bestätigte.

Freud hatte die Entwicklungen also richtig prophezeit. Jetzt mussten andere erkenntnistheoretische Ansätze her, die nicht auf die Apriori-Annahmen der Aufklärungs-Ontologie angewiesen waren oder sie wenigstens entsprechend der neuen Befunde zu modifizieren vermochten. So wurde eine zweite abendländische Denktradition reaktiviert, die bis dato ein Schattendasein führte. Der Beginn dieser Ansätze lässt sich mit den Vorsokratikern bestimmen. Changeux (1984: 14f) fasst die Kerngedanken dieser Philosophen überzeugend zusammen, die ich mit eigenen Worten wiedergeben will:

Heraklits bekannte Feststellungen „alles fließt“ oder „man steigt niemals in denselben Fluss“ verweisen auf ein eher dynamisches Welt- und Selbstverständnis. Demokrits Atomlehre macht darauf aufmerksam, dass der Stoff, aus dem die Welt und der Mensch besteht, ein und derselbe ist und möglicherweise auch das Denken aus diesen „Seelenatomen“ besteht. Parmenides setzt sogar Denken und Sein gleich. Der Mensch und sein Denken wird also als Bestandteil der Welt begriffen. Eine strikte Trennung von Subjekt und Objekt wird nicht postuliert. Auch der Beobachter wird nicht außerhalb des Geschehens positioniert, sondern als Teil desselben, weswegen er es zwangsläufig auch beeinflusst. Eine Weiterentwicklung erfahren diese Gedanken, die man heute gemeinhin auch als konstruktivistische Ansätze bezeichnet, im 18. Jahrhundert bei Berkeley. Er leugnet eine bewusstseinsunabhängige Außenwelt, indem er postuliert, dass das Sein der Dinge nur in ihrem Wahrgenommenwerden existiert (vgl. Störig 1985: 20). Die Hermeneutik und Phänomenologie sowie deren Vertreter Edmund Husserl, Martin Heidegger und Maurice Merleau-Ponty, um nur einige zu nennen, gehören ebenfalls, obwohl sich teilweise deren Denken durch unterschiedliche Absichten und Voraussetzungen auszeichnet, in diese Tradition. Charakteristisch für diese Denkweisen und wichtig für unser Thema ist die Berücksichtung der zeitlichen Dimension der menschlichen Existenz. Solange man von einer zeitlosen und statischen Welt ausgeht, die zu erforschen Ziel der Wissenschaft ist, funktionieren analytische und logische Systeme bzw. Beschreibungsmethoden hervorragend, zumal es insbesondere die klassische Physik Newtons ist, die mit relativ stabilen Gegenständen zu tun hat. Sobald man aber zeitliche Faktoren mit ins Spiel bringt, begibt man sich auf eine andere logische Ebene, auf der plötzlich Phänomene wie Selbstreferentialität, Redundanz, Zirkularität oder Selbsterzeugung auftreten. Dies geschieht in dem Moment, in dem das Output mit zeitlicher Verzögerung wieder zum Input wird. Unser Steuermann, der seinen Kurs nach aktueller Wind- und Wellensituation ausrichtet und die so erzielte Richtungsänderung gleich darauf wieder zur Grundlage nimmt für nachfolgende Ruderjustierungen, bietet ein treffendes Beispiel. Die berühmte These von Alfred Korzybski (1933), dass die Karte nicht das Territorium sei, bildet ein weiteres Beispiel zur Veranschaulichung zirkulärer Sachverhalte. Würde eine Karte das Territorium abbilden, so müsste in derselben Karte auch wieder eine Karte enthalten sein usw., was einen unendlichen Regress erzeugen würde. Betrachtet man normale Landkarten, so wird man feststellen, dass im Verhältnis zum Maßstab, die Straßen viel dicker gezeichnet sind, oder dass Amerika und Europa im Verhältnis zur Dritten Welt meist größer erscheinen. Der Grund dafür ist nicht nur die Schwierigkeit, eine dreidimensionale Fläche (Erdkugel) auf eine zweidimensionale zu übertragen, sondern auch, dass Karten Ausdruck von Zwecken und politischen Interessen sind. Es kommt bei einer Abbildung immer etwas hinzu oder es fällt etwas weg, was die Karte eben deshalb nicht zum Territorium macht.

Es liegt auf der Hand, dass soziale wie auch biologische Systeme gleich welcher Art Phänomene sind, die der Zeit oder auch Rekursivitäten unterliegen und demnach eine Untersuchungs- und Beschreibungsmethode erfordern, die diesen Umstand berücksichtigt. Alle Versuche, die Geistes- und Sozialwissenschaften in die „zeitlose“ positivistische Tradition einzugliedern, sind entweder gescheitert oder unzulänglich (siehe Behaviorismus). Deshalb haben diese Disziplinen bis heute Probleme, ihre Wissenschaftlichkeit im klassischen Sinn zu legitimieren und eine schlüssige Theorie des Geistes zu liefern. Der Physiker Fritjof Capra fasst die Situation folgendermaßen zusammen:

„Ich halte die gegenwärtige Verwirrung in Bezug auf die Rolle und Beschaffenheit von Geist auf der einen und Gehirn auf der anderen Seite für eine direkte Folge des kartesischen Dualismus. Ich behaupte nicht die Lösung des Problems zu kennen. Aber ich möchte betonen, dass die Entwicklung einer anderen Denkweise, die die Einheit von Körper und Geist zuläßt, uns den Umgang mit diesem Problem (...) erleichtern könnte“ (Capra 2001: 16).

Das Bemühen und Reaktivieren alternativer Denkweisen jenseits des kartesischen Vokabulars hat und hatte für alle Disziplinen Konsequenzen, insbesonders für diejenigen, die auf das Engste mit der Kognitionswissenschaft verwandt sind. Hierzu zählen, wie bereits erwähnt, die Kybernetik, Computerwissenschaft, Künstliche Intelligenz, Neurobiologie, Informations- und Systemtheorie. Francisco Varela, ein bekannter Vertreter dieser Richtungen fasst diese Entwicklung als „Übergang von einer physikalischen zu einer biologischen Weltsicht“ (Varela 1982: 84) auf; „(...) einer Weltsicht, die nicht mehr ausschließlich fixiert ist auf Input und Output, auf Ursache und Wirkung, sondern die im physikalischen Weltbild besonders geächteten selbstbezüglichen Prozesse als besonders interessante Forschungsgegenstände bearbeitet“ (Schmidt 1987: 73). Diese Tradition und die zuletzt zitierten Wissenschaftler bilden somit die zweite Generation von Kognitions-wissenschaftlern, zu denen sich auch Lakoff und Johnson zählen.

Da sich die neuere Kognitionswissenschaft eben auch mit neuronalen Vorgängen im Gehirn befasst, über die der Einzelne nichts weiß und über die er auch nicht reden kann (z.B. was weiß man mehr, wenn man Fahrradfahren gelernt hat?), wurde es notwendig, entsprechende Modelle für dieses implizite Wissen zu entwickeln. Zentral hierfür sind Modelle und Begriffe wie, image schemes, mental maps, oder scripts. Über die Themenvielfalt bezüglich dieser „geistigen Repräsentationen“ sowie die Kognitive Ethnologie, geben Quinn und Holland (1987) und Ralf Ingo Reimann (1998) einen guten Überblick. Gemeinsam ist diesen Begriffen, dass sie Modelle bezeichnen, mit denen man versucht, Wissen oder neuronale Informationsverarbeitung (Konnektionismus) zu systematisieren oder darzustellen. Ziel solcher Modelle ist die Veranschaulichung nicht- sprachlich vorhandener bzw. nicht-sprachlich ausdrückbarer Phänomene. Dass es Kategorien gibt, ohne unbedingt sprachliche Begriffe dafür haben zu müssen, bestätigen auch die neueren Forschungsarbeiten von Christina Pauen (2003). Sie zeigt, dass Säuglinge und Kleinkinder die Welt kategorial ordnen können, bevor sich sprachliche Begriffe dafür ausbilden.

Der Sprache und dem Denken liegen offenbar Bilder und keine Begriffe zugrunde, mit deren Hilfe wir in der Lage sind, etwas zu verstehen und die Welt zu ordnen. So möchte ich dieses Kapitel mit einem abermaligen Rückgriff auf griechisches Gedankengut schließen und damit gleichzeitig den nächsten Abschnitt einleiten. Trotz seiner kardiozentrischen Vorstellung, äußerte Aristoteles in Ahnlehnung an Epikur einen Satz, der wegweisend für aktuelle Konzepte sein sollte.: „Die Seele denkt nie ohne Bilder “ (siehe Changeux 1984: 16).

2.2 Metapher

Beginnen wir wieder mit einem Blick ins Lexikon, um die wichtigsten philosophischen und wissenschaftsgeschichtlichen Überlegungen zu diesem Begriff zu rekapitulieren, welche anschließend den Hintergrund für den Umgang mit Metaphern in der Ethnologie bilden:

„Metapher die; -,-n (über gleichbed. lat. Metaphora aus gr. (...) metaphérein „anderswohin tragen, übertragen“): sprachlicher Ausdruck, bei dem ein Wort, eine Wortgruppe aus dem eigentlichen Bedeutungszusammenhang in einen anderen übertragen wird, ohne dass ein direkter Vergleich zwischen Bezeichnendem und Bezeichnetem vorliegt; bildhafte Übertragung (z.B. das Haupt der Familie)“ (Duden 2003: 870) .

Ganz allgemein gesagt zeigt dieser aktuelle Lexikoneintrag, dass Metaphern ein Mittel sind, um sich Dinge in der Welt verständlich zu machen, indem bereits bekannte Vorstellungen dazu benutzt werden, um sie in einen anderen Bedeutungszusammenhang (domain) zu übertragen. Lakoff und Johnson (1981: 5) drücken dies vereinfacht aber plausibel so aus: „The essence of metaphor is understanding and experiencing one kind of a thing in terms of another.” Noch allgemeiner ausgedrückt geht es also um das Verhältnis zwischen Subjekt, Sprache und Welt. Auch zu diesem philosophischen Thema waren die Gedanken, die uns heute noch beschäftigen, schon in der Antike angelegt. Platon und Aristoteles wollten diesbezüglich ergründen, ob die Dinge präexistierende Eigenschaften haben und wenn ja, wie diese korrekt benannt, verknüpft und erkannt werden können. Beide waren diesbezüglich unterschiedlicher Meinung, worauf in diesem Rahmen nicht weiter eingegangen werden kann. Wichtig ist allerdings, dass die Ansicht darüber, was Metaphern sind und leisten, wiederum abhängig ist von der zugrundeliegenden Erkenntnistheorie.

Ich möchte an dieser Stelle die zeitliche Entwicklung abkürzen und direkt auf die Folgen Bezug nehmen, welche die bereits im vorherigen Kapitel umrissene, moderne Epistemologie und Ontologie der Aufklärung hatte. Ihr zufolge entwickelte sich eine Vorstellung bezüglich dem Verhältnis von Subjekt, Sprache und Welt, das unter dem Begriff „Korrespondenztheorie der Wahrheit“ bekannt wurde. Lakoff und Johnson fassen diese Theorie und ihre Konsequenzen für das Metapherverständnis in folgenden Thesen zusammen: „A statement is true when it fits the way things are in the world: It is false when it fails to fit the way things are in the world” (Lakoff/Johnson 1999: 98). Die Funktion der Sprache besteht also hauptsächlich im Abbilden der (äußeren) Wirklichkeit. Deshalb heißt es weiter:

„Metaphor is a matter of words, not thought.(…)

Metaphorical language is not part of ordinary conventional language. Instead it is novel and typically arises in poetry, rhetorical attempts at persuasion and scientific discovery.

Conventional metaphorical expressions in ordinary everyday language are “dead metaphors”, that is, expression that once were metaphorical, but have become frozen into literal expressions.

Metaphors express simililarities” (Lakoff/Johnson 1999: 119).

Es wird jetzt deutlich, dass diese Aussagen nur dann Sinn machen, wenn man die Vorannahmen der zugrundeliegenden Erkenntnistheorie akzeptiert, insbesondere jene, welche eine beobachterunabhängige Realität postuliert. Auch in diesem Punkt gibt es noch andere Ansätze, über das besagte Verhältnis nachzudenken, was direkt mit jener anderen konstruktivistisch hermeneutischen Tradition zusammenhängt:

Giambattista Vico, ein italienischer Denker des 17.Jahrhundert macht auf das kreative und spielerische Moment aufmerksam, das Sprache auszeichnet (vgl. Fernandez 1991: 4). Diese Aspekte der Sprache greifen auch Philosophen im 20.Jahrhundert auf. So bezeichnet Martin Heidegger (1993: 267) die Sprache als das „(...) Haus des Seins “, während die „Sprachspiele “ beim späten Wittgenstein (1989: passim) im Mittelpunkt stehen. Ohne näher auf diese Wendungen und den dahinter stehenden Konzeptionen eingehen zu können, ging es hier um den Versuch, einerseits die Welt in ihrer Zeitlichkeit und Veränderung zu denken, und andererseits dem realitätskonstituierenden Handlungscharakter, den Sprache hat, gerecht zu werden. Das Buch „How to do things with words“ von John Austin (1975) nimmt später direkt Bezug auf diese Gedanken und setzt sie in einen ethnologischen Zusammenhang. Eingeleitet wurde diese Entwicklung., die später als linguistic turn bekannt wurde, jedoch schon zu Beginn des 20.Jahrhunderts. In den Geistes- und Sprachwissenschaften wurde die Selbstverständlichkeit, dass Sprache, Vorstellungen und Begriffe deckungsgleich sind mit dem, was sie bezeichnen, immer zweifelhafter. Dies zeigte sich vor allem in der Bildung neuer Disziplinen und Richtungen wie der Semiotik oder der strukturalen Linguistik. Deren Begründer, Ferdinand de Saussure und Roman Jakobson, beschäftigten sich eingehender mit den Beziehungen zwischen Sprache und Welt. In verschiedenen Variationen wurden entsprechende Modelle entwickelt, die sich mit den Eigenschaften von Zeichen und Symbolen im Allgemeinen und mit Metaphern im Besonderen beschäftigten. Als Beispiel sei Ferdinand de Saussure erwähnt, der eine Zeichenkonzeption entwickelte, welche ein Zeichen aufteilt in Bezeichnendes und Bezeichnetes bzw. Zeichenform (signifiant, Laut- oder Schriftbild) und Zeicheninhalt (signifié, Konzepte oder Vorstellungen, auf die das Zeichen referieren) (vgl. de Saussure 1967: 76f und Linke 1991: 31).[7]

Neben Metaphern waren es auch verwandte sprachliche Figuren wie Metonymie, Allegorien und Synekdochen, die Gegenstand der Forschung wurden. Es ging bei diesen Vergleichen und Analogien ausdrückenden Figuren um Beziehungen zwischen dem Teil und dem Ganzen bzw. um Ähnlichkeiten, die sich mit diesen Stilmitteln ausdrücken lassen. Diese Arbeiten machten – wie im vorherigen Kapitel bereits angedeutet – auf sprachlicher Ebene ganz ähnliche logische und formale Probleme sichtbar. Das berühmteste Beispiel hierfür ist wohl der kretische Philosoph Epimenides, der behauptete, alle Kreter seien Lügner. Auch hier ist Selbstbezüglichkeit im Spiel, welche die Paradoxie dieser Aussage erzeugt. So gab es verschiedene Versuche, Wissenschaft und Erkenntnis auf eine gesicherte Basis zu stellen. Auf der einen Seite gab es nun Wissenschaftler wie Bertrand Russell und North Whitehead (1986), die in ihrem Buch „Principia Mathematica“ von 1925 versuchten, mit mathematischen Mitteln ein System zu entwickeln, dass Widerspruchsfreiheit garantieren sollte, indem sie, vereinfacht gesagt, verboten, Kategorien (in der mathematischen Mengenlehre Elemente und Klassen genannt) zu verwechseln bzw. deren Eigenschaften zu vermischen (in unserem Beispiel der bzw. die „Kreter“ und „lügen“). Aber genau das passiert beim Gebrauch von Metaphern und ähnlicher sprachlicher Figuren. Denn wenn man Eigenschaften von Dingen oder Situationen ganz oder teilweise auf andere überträgt, macht man sie dadurch nicht gleich. Wie im Beispiel mit den Landkarten fallen Aspekte von etwas weg oder kommen hinzu (vgl. Turner 1991: 45 und Rigney 2001: 198). Da es unmöglich ist den Gebrauch von Metaphern zu verbieten, sind die Theoreme der „Principia Mathematica“ allenfalls nützliche Werkzeuge für eine formal analytische Wissenschaft, aber sie können keineswegs als theoretische Basis für „gesichertes Wissen“ im Sinne der Aufklärung fungieren. Anders gesagt: Unter diesen Russellschen Prämissen würden die durch Rekursivität und Selbstbezüglichkeit gekennzeichneten biologischen, sozialen und, wie eben gezeigt, auch die sprachlichen Phänomene nicht berücksichtigt werden, und somit die vermeintliche Wirklichkeit erst recht nicht identisch abgebildet werden.

Verfolgen wir die Rezeptionsgeschichte der „Principia Mathematica“, um die alternative Seite der Entwicklungen zu illustrieren, denn die Schrift „Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, 1“ war die direkte Antwort des Mathematikers Kurt Gödel (1931) auf Russell und Whitehead. Hierin zeigte er, dass die Grundannahmen (Axiome), welche mathematischen Systemen zugrunde liegen, nicht aus sich selbst heraus beweisbar waren. Dies bedeutete erstens, dass die „Principia Mathematica“ unvollständig war, und zweitens, was viel folgenschwerer war, dass die Verlässlichkeit der Mathematik angekratzt wurde, weil mathematische Aussagen nur innerhalb des entsprechenden Systems, welches diese beschreiben, Gültigkeit hatten (vgl. auch Hofstadter 1985: 17f). In gewisser Weise kann man diese Einsicht auch auf die Axiome oder besser gesagt auf die Voraussetzungen der Wissenschaft übertragen. Der Biophysiker Alfred Gierer (1987: 166) sieht darin die Grenzen der Erkenntnis, „(...) wenn Wissenschaft auf ihre eigenen Voraussetzungen angewandt wird – zum Beispiel die Logik auf die Logik (Gödels Grenzen der Entscheidbarkeit) oder die Messung auf die Messung (Heisenbergs Quantenunbestimmtheit).“ Jede Theorie birgt Grundannahmen in sich, die allgemein akzeptiert sind und in der Regel nicht weiter hinterfragt werden. Im Fall unseres westlichen Wissenschaftsverständnisses meine ich hiermit hauptsächlich die Postulate, wie sie in der Aufklärung formuliert wurden (Trennung von Körper/Geist und die Annahme einer beobachterunabhängigen Außenwelt). Hinzu kommen weitere theoretische und methodische Forderungen wie Nachprüfbarkeit, Wiederholbarkeit und Plausibilität von Experimenten oder Erkenntnissen, welche Wissenschaftlichkeit erst legitimieren. Dieses Wissenschaftsparadigma[8] bereitete aber insbesondere den Sozialwissenschaften Probleme, denn damit konnten sie die eben dargestellten Phänomene wie Rekursivität oder Zeitlichkeit, welche ihren Forschungsobjekten (Menschen, Gesellschaft, Kultur etc.) inhärent sind, kaum erfassen, geschweige denn erklären. Wie sollten denn Bedingungen wie Wiederholbarkeit und Nachprüfbarkeit unter dieser Wissenschaftskonzeption gewährleistet sein? Einen Ausweg sah man in der Nutzbarmachung und Weiterentwicklung der konstruktivistisch hermeneutischen Tradition. An diesen Bemühungen waren von der Jahrhundertwende bis zum Zweiten Weltkrieg hauptsächlich die Hermeneutik Wilhelm Diltheys, die Linguistik (linguistic turn) und die im Entstehen begriffene Kybernetik beteiligt. Der Vorteil war, dass hierin Chancen bestanden, die Humanities endlich von den statischen theoretischen Vorgaben der Hard Science zu emanzipieren. Viele der Ideen aus dieser Zeit wurden aber erst in der Mitte des 20.Jahrhunderts in die Praxis umgesetzt. Die Gründe hierfür waren sicherlich der Zweite Weltkrieg, die Dominanz des positivistischen Wissenschaftsverständnisses sowie mangelnde Kooperation der verschiedenen Disziplinen untereinander.

[...]


[1] Auch in allen folgenden Zitaten stammen eventuelle Hervorhebungen von den Autoren selbst. Für diesen Fall sei bemerkt, dass die Hervorhebungen in der englischen Ausgabe („Metaphors we live by“) von 1981 fehlen.

[2] Der Schädel von Gage wurde bei einem Unfall (1848) von einer Eisenstange durchbohrt. Die Folge war eine charakterliche Veränderung seiner Persönlichkeit durch die Zerstörung entsprechender Hirnareale, bei gleichzeitiger körperlicher Gesundheit. Dies machte ihn für die damalige Forschung interessant und berühmt.

[3] Lediglich die Schaltstelle zwischen Körper und Geist sah Descartes in der Zirbeldrüse lokalisiert, weil diese im Gegensatz zu anderen Gehirnteilen nur einmal vorhanden war. Zwar wurde diese Vorstellung von Spinoza (vgl. 1997: 619f) kurze Zeit später heftig kritisiert, aber die grundsätzliche Idee der Trennung von Körper und Geist setzte sich durch.

[4] Neben den bereits erwähnten „animalischen Geistern“ ist die Vorstellung eines sog. „Homunkulus“ erwähnenswert. Gemeint ist damit ein „Menschlein“, das im Kopf eines Menschen sitzt und seinerseits für Denken, Wahrnehmen und Bewegung sorgt. Später wurde der Begriff zu einem Synonym für einen künstlich geschaffenen Menschen, wie z.B. in Goethes „Faust II“ (1980).

[5] Mit „Wissen“ ist hier nicht nur die Kenntnis über die Spielregeln gemeint, sondern das Wissen, das erforderlich ist, um Ballgeschwindigkeit, Schlägerhaltung, Körperbewegung etc. richtig abschätzen und koordinieren zu können.

[6] Eine Übersicht über deren Funktionsweise findet sich im Anhang.

[7] Erwähnenswert ist auch die syntagmatische und paradigmatische Methode, mit der Zeichen und deren Verknüpfungen zu anderen Zeichen analysiert wurden, weil später Claude Levi-Strauss diese Beziehungen zur Mythenanalyse benutzte (vgl. 1981: 175).

[8] Ich verwende den Terminus „Paradigma“ im Sinne von Thomas Kuhn (1976: 25ff), als ein allgemein akzeptiertes Theoriegebäude und Regelwerk, mit dem Wissenschaft betrieben wird und sie dadurch zu dem wird was sie ist.

Ende der Leseprobe aus 85 Seiten

Details

Titel
Anthropology in the flesh - Implikationen der kognitiven Metaphertheorie von George Lakoff und Mark Johnson für die Ethnologie
Hochschule
Ruprecht-Karls-Universität Heidelberg  (Institut für Ethnologie)
Note
1,7
Autor
Jahr
2003
Seiten
85
Katalognummer
V80305
ISBN (eBook)
9783638823487
ISBN (Buch)
9783638824958
Dateigröße
832 KB
Sprache
Deutsch
Schlagworte
Anthropology, Implikationen, Metaphertheorie, George, Lakoff, Mark, Johnson, Ethnologie
Arbeit zitieren
Magister Artium Martin Schneider (Autor:in), 2003, Anthropology in the flesh - Implikationen der kognitiven Metaphertheorie von George Lakoff und Mark Johnson für die Ethnologie, München, GRIN Verlag, https://www.grin.com/document/80305

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Anthropology in the flesh - Implikationen der kognitiven Metaphertheorie von George Lakoff und Mark Johnson für die Ethnologie



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden