Lade Inhalt...

Artifizielle Semantik. Wider das Chinesische Zimmer

Bachelorarbeit 2016 57 Seiten

Philosophie - Sonstiges

Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Teil I: Das Chinesisches Zimmer
2.1. Vorgeschichte
2.1.1. Welche Voraussetzungen führten dazu?
2.1.2. Searles Intuition
2.2. Searles Argumente
2.2.1 Syntax genügt nicht für Semantik
2.2.1.1. Linguistik
2.2.1.2. Wahrheitswerte Formaler Logik
2.2.2. Geist hat Inhalt
2.2.2.1. Die Rolle der Bewusstseins
22.2.2. Semantik muß intern sein
2.2.3. Programme sind rein syntaktisch
2.2.3.1. Symbolisch VS Subsvmbolisch
2.2.3.2. Symbolic fallacy
2.2.4. Simulation und Virtuelle Maschinen

3. Teil II: Möglichkeiten artifizieller Semantik
3.1. Ceci n’est pas une Intelligence Artificielle
3.2. Symbolischer Ansatz
3.2.1. “Strong AI” und Kausalität
3.2.2. Fodor vs Konnektivismus
3.2.3. Kritik
3.3. Konnektivismus
3.3.1. Künstliche Neuronale Netzwerke
3.3.1.1. Aufbau
3.3.1.2. Arbeitsweise
3.3.1.3. Vom Thermostat zum Watt-Governor
3.3.1.4. Der Newton’sche Apfel
3.3.1.5. Interne Struktur
3.3.1.6. Generalisierung
3.3.1.7. Gegen das Inกplementationsaraument
3.3.2. Repräsentation ohne Repräsentation
3.3.2.1. Mustererkennung
3.3.2.2. Modell für Gehirn
3.4. Semantik jetzt!

4. Conclusio

5. Literaturliste

1. Einleitung

Talks at Google hatte kürzlich einen Star zu Gast (Google 2016). Der gefeierte Philosoph referierte in gewohnt charmanter Art sein berühmtes Gedankenexperiment, welches er vor 35 Jahren ersonnen hatte. Aber es war keine reine Geschichtslektion, sondern er bestand darauf, daß die Implikationen nach wie vor Gültigkeit besaßen.

Die Rede ist natürlich von John Searle und dem “Chinesischen Zimmer”. Searle eroberte damit ab 1980 die Welt der Philosophie des Geistes, indem er bewies, daß man Computer besprechen kann, ohne etwas von ihnen zu verstehen. In seinen Worten, man könne ohnehin die zugrunde liegenden Konzepte dieser “damned things” in “5 Minuten” erfassen.

Dagegen verblassten die scheuen Einwände des Al-Starapologeten Ray Kurzweil der im Publikum saß, die jüngste Akquisition in Googles Talentpool.

Searle wirkte wie die reine Verkörperung seiner Thesen, daß Berechnung, Logik und harte Fakten angesichts der vollen Entfaltung polyvalenter Sprachspiele eines menschlichen Bewußtseins im sozialen Raum der Kultur keine Macht über uns besitzen.

Doch obwohl große Uneinigkeit bezüglich der Gültigkeit des chinesischen Zimmers besteht, und die logische Struktur des Arguments schon vor Jahrzehnten widerlegt worden ist, น. a. von Copeland (1993), wird erstaunlicherweise noch immer damit gehandelt.

Es hat sich von einem speziellen Werkzeug zur Widerlegung der “Starken AI These”, wonach künstliche Intelligenz mit einer symbolverarbeitenden Rechenmaschine geschaffen werden kann, zu einem Argument für all die Fälle entwickelt, in welchen sich Philosophen des Geistes mit unbequemen Fragen bezüglich der Berechenbarkeit des menschlichen Geistes auseinandersetzen hätten können.

Es ist also mit den Jahrzehnten zu einer Immunisierungs- und Konservierungsstrategie für all jene geworden, die sich Zeit erkaufen wollten, sich mit der wirklichen Komplexität auseinander zu setzen.

Denn die Definition von Sinn ist eben plastisch, vor allem wenn die Pointe der Searlschen Geschichte noch immer eine hohe Suggestionskraft besitzt, da ihre Konklusion, man könne nicht von einer computationalen Syntax zu einer Semantik kommen, noch immer unzureichend widerlegt ist.

Wir wollen im ersten Teil die relevanten Argumente, die dieses Gedankenmodell umkreisen, genauer betrachten um herauszufinden, ob man Semantik theoretisch künstlich herstellen kann. In diesem Zusammenhang wird die genaue Analyse von David Chalmers (1994) sehr hilfreich sein.

Der vielversprechendste Ansatz dazu ist eine teilweise Simulation des Gehirns selbst, mittels artifizieller neuronaler Netzwerke, welche auf eben diesen symbolbasierenden Computern, welche wir tagtäglich benutzen, simuliert bzw. geschaffen werden können.

Dabei werden wir auch die Gedanken von Searle hinterfragen, wie mit dem Begriff der Simulation In diesem Kontext umgegangen werden kann.

Searles Argumente beziehen sich wesentlich auf die klassischen, symbolischen Ansätze der Al-Forschung, welche mit herkömmlich programmierten Computern, als ihrem Paradigma, arbeiten. Dennoch hat er sich auch bemüht, konnektivistische, mit neuronalen Netzwerken operierende Ansätze In seine schlagenden Argumente einzubinden, indem er sie entweder als wesentlich identisch mit den schon kritisierten Methoden darstellte, oder beispielsweise das chinesische Zimmer in einen Turnsaal verwandelte (vgl. Copeland 1993, 225).

Das Hauptaugenmerk wird deswegen auch auf Quellen aus den frühen 90er Jahren gerichtet sein, also aus der Zeit In welcher Searle sein o.g. Gegenargument erarbeitet hat.

In der Fasson von Searle, über Computer zu reden bar der technischen Hintergründe, wollen wir über die Möglichkeit von Semantik In Computern In der gleichen Weise referieren.

Der zweite Teil wird die Möglichkeiten, künstliche Semantik herzustellen näher beleuchten.

Im Zuge dieses Unterfangens werden wir nicht umhin kommen, Fragen zum menschlichen Bewusstsein, des möglichen organischen Substrats und künstlicher Intelligenz zu streifen, da es mit Fragen zur Bedeutung, Kausalität und Intentionalität zusammenhängt, bzw. diesen zugrunde liegt.

Hier wird die diesbezügliche Debatte heraus zu heben sein, die zwischen Vertretern der klassischen AI Theorie, welche auf die Symbolhypothese setzt, und den "Konnektivisten", welche das für uns interessante Feld der neuronalen, distribuierten Netzwerke abstecken, geführt wird.

Einigkeit herrscht bei all diesen Unterfangen, der Philosophie, der Cognitive Science und der Al-Forschung lediglich hinsichtlich ihrer Uneinigkeit.

Dabei wird auch die Bedeutung von “Repräsentation” ausführlicher diskutiert werden. Die Unterscheidung zwischen Syntax und Semantik etwa, wie sie u.a. Searle vornimmt, entstammt der Linguistik (vgl. Chalmers 1994, 29).

Nach dem Sprachmodell hat man sich ja auch das Arbeiten des Geistes vorgestellt, hier hat Fodors “Mental Language” große Popularität erreicht.

Auf der anderen Seite stehen Argumente, vor allem der modernen Cognitive Science, welche die Formation von Bedeutung im menschlichen Geist auf früheren stufen ansetzen, und so eine subsymbolische Ebene identifiziert zu haben behaupten, sowohl im organischen Substrat des Mentalen, aber auch in mittels Computermodellen nachgebildeten artifiziellen Neuronen-Netzwerken. Hier ist von einer “indirekten” Repräsentation die Rede (vgl. Peschi 1993), bzw. stellt sich die Frage, ob man überhaupt noch von Repräsentation sprechen kann.

In diesem Zusammenhang ist weiters die Rolle des Körpers und seiner Sinnesorgane zu bedenken. Während manche Kognitionswissenschaftler schon Sinnesorgane und ihre Schaltstellen als erste Instanzen von Kognition beschreiben, konzentrieren sich andere auf die Funktionsweise der Gehirnregionen, die für höhere kognitive Leistungen zuständig sind, wie der Neokortex.

Allen neueren kognitiven Ansätzen gemeinsam ist die Emphase auf Lernfähigkeit, Plastiziät der Repräsentationen, Offenheit für neue Problemstellungen wie sie in der Umwelt eines Systems üblicherweise zu erwarten sind, und weniger auf Sprachvermögen und das Lösen bestimmter Probleme die gemeinhin mit Intelligenz in Zusammenhang gebracht werden. Weniger wichtig also ist etwa Schachspielen, wichtiger hingegen auf einem unbekannten Terrain navigationsfähig zu bleiben und mitunter, darüber Auskunft zu erteilen.

2. Teil I: Das Chinesisches Zimmer

“[...] a lot of people outside Al find the Chinese room argument persuasive, and it has been described in philosophical journals as “conclusive”, “exactly right”, “masterful and convincing”, and “completely victorious”. For this reason the argument needs to be taken very seriously by those who disagree with it.” (Copeland 1993, 124)

Copeland beschreibt vor 20 Jahren genau, warum das Argument heute noch immer diskutiert wird. Es reduziert Komplexität und ist für den gesunden Menschenverstand einleuchtend.

Es ist aber ein offenes Geheimnis, daß der Verstand leider prinzipiell nicht dafür ausgelegt ist, in Fällen wo die Komplexität nicht reduziert werden kann, da sie wesentlich für die Fragestellung ist, ohne Hilfsmittel adäquate Antworten zu generieren. Das Entwickeln dieser Hilfsmittel ist gleichzeitig die stärke von Z.B. Naturwissenschaften, aber auch ihr Fluch, da ihre Regeln und das jeweilige Sachgebiet erst mühsam gelernt werden müssen, und zwar in einem kontraintuitiven Feld, ungleich der "Orchideenwissenschaften". Und Menschen, die ja immerhin um die 20 Jahre alleine das Leben lernen mussten, sind tendenziell unwillig, weitere Lernphasen in kontraintuitiven Bereichen auf sich zu nehmen.

2.1. Vorgeschichte

2.1.1. Welche Voraussetzungen führten dazu?

Als Searle sein Argument 1980 formulierte fokussierte sich die Al-Forschung auf klassische, d.h. formale, symbolverarbeitende Computationen, auf Programme mit sequentiell abzuarbeitenden Anweisungen, mit konventionellem Speicher, der getrennt von der Berechnung ist, und Datenbanken.

Vergessen waren die Floffnungen der 50er und 60er Jahre, mittels künstlichen Nachbildungen von Neuronen und Synapsen Funktionen des Gehirns zu simulieren, so wie sie etwa Rosenblatt mit dem Modell des Perceptrons unternahm, welches aber nicht sehr viel leistete, zu einfach war dazu sein Aufbau.

Die 70er sahen einen Ansteig der Computerleistung und damit verbunden einen Aufstieg der Programmierung wie wir sie noch heute betreiben, d.h. die schon erwähnte, klassische, regelbasierte Symbolmanipulation, nach wenn-dann Regeln ablaufende Programmabläufen mit Variablen denen Werte zugewiesen werden, Listenvergleichen und Lexika in Datenbanken.

Die Erforschung künstlicher neuronaler Netzwerke hingegen erlebte eine “Eiszeit” (vgl. Churchland 1990; Lossau 1992; Abrahamse/Bechtel 2006).

Außer den bescheidenen Ergebnissen hatten Netzwerke auch den Nachteil, daß zu ihrem Betrieb viel mehr Leistung benötigt wurde als für klassische Programme, sollten sie doch im Idealfall viele Berechnungen parallel ausführen.

Vor allem Marvin Minskys Buch Perceptrons versetzte “das junge Forschungsgebiet In einen ‘Dornröschenschlaf ”, und der Pionier Rosenblatt stirbt Anfang der 70er Jahre bei einem ungeklärten Bootsunfall (vgl. Lossau 1992, 46ff).

Doch aufgrund der Erkenntnisse der Gehirnforschung, der enttäuschten Hoffnungen der Al-Forschung und exponential zunehmender Computerleistung erlebten neuronale Netzwerke In den 80er Jahren eine Renaissance und daraufhin einen Boom, u.a. durch die Arbeit von John Hopfield. (vgl. Lossau 1992, 46fr)

“It has emerged from the shadows for a number of reasons. One important factor is just the troubled doldrums into which mainstream or program-writing Al has fallen. The failures of mainstream Al - unrealistic learning, poor performance In complex perceptual and motor tasks, weak handling of analogies, and snaillike cognitive performance despite the use of very large and fast machines - suggest that we need to rethink the style of representation and computation we have been ascribing to cognitive creatures.” (Churchland 1990, 206)

Dieser Trend setzt sich ungebrochen fort, und sah erst kürzlich (März 2016) einen Höhepunkt, als die unter Googles (Alphabets) Dach agierende Firma DeepMind AlphaGo, ein mit anderen Techniken gekoppeltes neuronales Netzwerk präsentierte, welches gerade dabei ist, die besten Spieler des komplexen chinesischen Brettspiels Go zu schlagen, eine Leistung, die mit herkömmlich programmierten Geräten wie dem Experten-Schachprogramm Deep Blue, welches vor 20 Jahren Berümtheit erlangte, als es den Schachmeister Kasparov überbot, nicht wiederholbar ist.

Denn anstatt nur eine Lösung zu programmieren, welche jeden der unzähligen Möglichkeiten für einen Spielzug berechnet hätte, ging man vereinfacht gesagt den Weg, mittels einer Lernmethode das Programm zu trainieren, Muster zu erkennen.

Als Muster, oder Umweltregelmäßigkeit, läßt sich fast jeder kognitiv relevante Fakt, wie etwa ein Umweltreiz, beschreiben (vgl. Wegscheider 1992, 10f).

2.1.2. Searles Intuition

Searles Ausgangspunkt war, daß Computerwissenschaftler seit Anbeginn denkende Maschinen prophezeiten (vgl. Copeland 1993, 82). Das hängt mit der noch immer unwiderlegten Annahme zusammen, daß Computer universell sind, also prinzipiell alles simulieren können (Turing-Church These).

Searle reagierte darauf mit der starken Intuition, daß man mittels syntaktischer Symbolmanipulation Maschinen nie die Bedeutung von irgendetwas wird beibringen können (vgl. Chalmers 1994); ohne Bedeutung aber gibt es keinen sinnvollen Weltbezug.

Die Geschichte gab ihm recht: Schachberechnende Computer etwa, wie Deep Blue, können Schach-Weltmeister schlagen, doch wissen sie selbst davon so wenig wie ein Taschenrechner weiß, welchen Sinn die Zahlen haben, die man mit seiner Hilfe berechnet.

Dabei ist zu beachten, daß diese Programme nicht nur hinsichtlich dessen, was sie berechnen indifferent sind, sondern ihre Logarithmen wie auch ihre Datensätze beliebig austauschbar sind, das heißt, ihr “Wissen” kann zwar in einem Programmablauf abgearbeitet werden, doch ist das Programm gegenüber seinen Komponenten indifferent. Da es nur austauschbare Elemente manipuliert, ist deren Bedeutung also immer nur eine willkürliche Zuschreibung von aussen, sprich: durch einen menschlichen Agenten.

Wir werden später diskutieren, ob und in wieweit das auch auf neuronale Netzwerke zutrifft.

Man könnte scherzen, hätte man früher auf Searle gehört, wäre uns vielleicht auch die Peinlichkeit der Übersetzungs-Taschencomputer erspart geblieben, der nutzlosen elektronischen Wörterbücher dieser Epoche, die höchstens ein paar Wörter übersetzen konnten, und im besten Fall ein paar abrufbare Alltagsphrasen gespeichert hatten.

Aus heutiger, aber auch aus damaliger Sicht, drängt sich wie selbstverständlich Searles Frage auf, wie man überhaupt glauben konnte, dass eine syntaktische, formale Manipulation von Symbolen Bedeutung generieren könnte?

Darauf gibt es sehr viele Antworten, viele von Searle selbst, doch wollen wir uns hier mit der Intuition begnügen, daß man damals schliesslich zum ersten mal eine Simulation kognitiver Vorgänge erlebt, und daraus falsche oder zumindest voreilige Schlüsse gezogen hatte. Selbst unter Linguisten war der Zusammenhang zwischen Syntax und Semantik nicht völlig geklärt. Das 20te Jahrhundert hat in diesem Zusammenhang Kontroversen erlebt, die bis heute offen bleiben, wie etwa die des Strukturalismus.

Daneben war genau die Grundlage der Computerlogik, die klassische Logik, jahrhundertelang ein Instrument zur Generierung von Wahrheit, also bedeutsamen Aussagen, und ist es zumindest dem Anschein nach in der Philosophie noch immer. Diese Vorgehensweise, rein logischen Konstrukten die Attribute wahr/falsch zuzuschreiben hat sich mitunter auch in die Betrachtung und Beschreibung von mit dieser Logik operierenden “Elektronengehirnen” eingeschlichen.

2.2. Searles Argumente

Die logische Struktur des chinesischen Zimmers lässt sich nach Chalmers wie folgt darstellen: “Axiom 1 : Syntax is not sufficient for semantics.

Axiom 2: Minds have contents; specifically, they have semantic contents.

Axiom 3: Computer programs are entirely defined by their formal, or syntactical, structure. Conclusion: Instantiating a program by itself is never sufficient for having a mind.”

(Chalmers 1994, 28)

Beim heutigen stand der Forschung verfügen wir weder über einen definitiven Fahrplan, wie man ein künstliches Bewußtsein herstellen könne, noch weniger gibt es natürlich ein solches.

Interessant wird es aber sein, die drei Axiome und ihre Implikationen zu diskutieren, sowie einige Ideen bezüglich möglicher Fahrpläne.

Was man ebenfalls kann, und es wurde oft genug gemacht, ist, die logische Struktur des Arguments zu widerlegen. Copeland hat das beispielsweise auf einem knappen Dutzend Seiten gemacht. Er kommt zu dem Schluß, daß Searles Argumentationsweise unschlüssig sei und deswegen sei das Chinesische Zimmer schon aufgrund seiner logischen Struktur abzulehnen, (vgl. Copeland 1993, 124 - 137)

Weiters wurden viele sachliche Gegenargumente vorgebracht, wie etwa die funktionale These, daß “das chinesische Zimmer in seiner Gesamtheit” verstehen, oder zumindest die Bedeutung der formalen Symbole lernen könnte, welche nach syntaktischen Regeln manipuliert werden; doch hat sie erstens schon Searle selber widerlegt, und zweitens gehen sie an der Prämisse des Gedankenexperiments vorbei: diese war eine Metapher für konventionelle Computerprogramme.

Konventionelle Programme sind ทนท einmal nicht in der Lage in einem Ausmaß zu lernen, welches hier einen Unterschied machen würde, und zweitens ist auch der Computer in seiner Gesamtheit nicht schlauer als Z.B. der Teil, der die Berechnungen anstellt.

Nur am Rande seien hier Searles Interpretationen gewisser Aussagen des Al-Lagers erwähnt, die von Ungenauigkeiten, Vermengungen verschiedener Konzepte bis zu willkürlichen Mißdeutungen reichen, so Z.B. wenn er von der Infamie spricht, einem Thermostat “Überzeugungen” zu unterstellen und dabei am Thema vorbeiredet (vgl. Sloman 1993, 87), geht es dabei doch um eine anschauliche Sprechweise für in diesem Fall Verkörperung von Wissen, bei einer so neuartigen Fragestellung, daß man zwansläufig ungenaue und mißführende Begriffe verwenden muß, weil genauere einfach noch nicht gefunden, sprich: geschaffen, sind.

Doch von all dem soll hier nicht wesentlich die Rede sein. Wir werden wie erwähnt versuchen herauszufinden, ob und wie sinnvoll von “künstlicher” Semantik geredet werden kann, auch wenn man über künstliches Bewußtsein schweigt.

Gehen wir zunächst die Axiome durch.

2.2.1. Syntax genügt nicht für Semantik

2.2.1.1. Linguistik

Wir folgen hier der Behauptung Chalmers’, daß Searles Idee für Axiom 1, wonach Semantik nicht aus Syntax folgt, aus der Linguistik stammt:

“The key axiom here is the first: “Syntax is not sufficient for semantics.” It is probably safe to assume that Searle’s motivation for this axiom comes directly from linguistics. It says, effectively, that the way in which objects (words in language, computational entities in artificial intelligence) obey formal rules is independent of the way in which they have meaning.”

(Chalmers 1994, 29)

Computerprogramme, und ihr Output, werden mit einer Ansammlung von Sätzen verglichen.

“Where does the motivation for the “Syntax is not sufficient for semantics” axiom come from? It seems clear that it comes from linguistics: The syntactic rules that words obey are not enough, alone, to endow these words with semantic content. For a sentence, then, it is true that syntax is not sufficient for semantics” (Chalmers 1992, 16)

Sätze als Vorbild zu nehmen ist zwar insofern einleuchtend, als daß auch die Programmiersprachen nach dem Vorbild der natürlichen (englischen) Sprache aufgebaut sind. Wichtiger noch, Intelligenz ist wesentlich an die Sprache gebunden, und diese ist am schwierigsten zu simulieren, benötigt sie ja eine ganze Welt an Bezügen.

Und so ist das verführerische an Searles Argument, daß unter diesen Voraussetzungen tatsächlich keine Fortschritte erreicht werden konnten.

Interessanterweise argumentiert aber die klassische Al-Forschung genau dafür: Die Syntax, mit welcher Programmiersprachen funktionieren, reicht für Bewußtsein aus. Flier wird im zweiten Teil stellvertretend Fodors Language of Mind erwähnt werden. Ausser seiner klassischen Position ist er auch ein Kritiker der für uns interessanteren konnektivistischen Ansätze.

Wir werden also genau diese konnektivistischen Methoden, Semantik herzustellen, In deren Kritik sich Kritiker und Kritisierte treffen, beleuchten müssen, wollen wir irgendeine Form, Bedeutung herzustellen, retten.

Das erste Axiom schon zeugt also von einer bestimmten Auffassung, einer starken Vermischung von Semantik, Intelligenz und Sprache, die wir versuchen werden zu entwirren, um sie dem tatsächlichen Forschungsstand anzunähern.

Nebenbei sei erwähnt, daß das Jeopardy spielende, und gewinnende, Programm Watson von IBM die Wortbedeutungen aus der Analyse von Wikipedia gelernt hat.

Leider ist die Bedeutung von Semantik selbst sehr unklar, da jedes Wissensfeld andere Ansprüche daran stellt. Wir operieren hier In einem gemeinbegrifflichen Gebiet. Searle Z.B. bevorzugt es, von “Geschichten verstehen” zu sprechen, d.i. eine allgemeinbegriffliche Definition.

Viele erheben gegen eine so allgemeine Definition und Problemstellung Einspruch, so etwa Sloman:

“An issue [...] which exercises many philosophers, is how semantics can get into the system. What feature of the design on a system make it possible for a machine to use one object to represent another? [...] such questions are based on the unjustified assumption that we have a precisely defined concept which generates a dichotomous division, [zwischen Syntax und Semantik] This is an illusion, just like all the other illusions that bedevil philosophical discussion about mind.” (Sloman, Aaron, 1993, 107)

Schon Wittgenstein hätte seinem Zeitgenossen Turing zu denken geben sollen, lehnte er doch ein formales Konzept von Sprache, unersätzliche Bedingung jeder klassischen Computation, ab.Das 20te Jahrhundert ist nicht umsonst die Zeit des Linguistic Turn gewesen:

“When we use or understand language we are not operating a symbolic calculus according to exact rules. This negative thesis, that our mastery of language is not subserved by the operations of a symbolic calculus, [...] is an important underlying theme of Wittgenstein’s later philosophy. [138]

Among Wittgenstein’s reasons for rejecting the calculus view the most pertinent is that the ordinary words we use and understand lack exact definitions. [...]

Wittgenstein’s account of word usage has obvious similarities with Smolensky’s account of representation within connectionist networks.” (Mills 1993, 138f)

Das zu dieser Zeit entbrannte Chaos, um den Jahrtausende alten streit zwischen Universalisten und Nominalisten ein für alle Mal zu entscheiden, ist legendär und noch immer im Gange.

Wir erinnern uns noch an die verschiedenartigen Bemühungen, klare Konzepte aus dem glossolalischen Dschungel zu heben.

“Auf diese Weise präsentiert sich ein kompletter Katalog ähnlicher Strukturen, deren Positionen zwar nicht synonym verwendet werden dürfen, sich aber gleichwohl wechselseitig ineinander übersetzen lassen, stark vereinfacht können im Hinblick auf ihre jeweilige Funktionsstelle im System die Begriffe “Bedeutung” (Frege), “Denotation” (Stuart Mill, Russel, Morris), “Extension” (Carnap), sowie “referent” (Odgen und Richards), “Darstellung” (Bühler [und Husserl]) und Objekt” (Pierce) aufeinander bezogen werden; entsprechendes gilt für “Sinn”, “Konnotation”, “meaning”, “Intension”, “reference”, “Ausdruck”, “Signifikat” und “Interprétant”.” (Mersch 1993, 91)

Ans Tageslicht gehoben wurde schliesslich das semiotische Dreieck, um den infiniten Regress des Nominalismus, der sich daraus ergibt, daß man für die Beziehung zwischen Zeichen und Wirklichkeit wieder ein Zeichen braucht, zu stoppen.

Denn wenn sich Zeichen, also Symbole, auf keine Wirklichkeit mehr stützen müssen, wie bei einem radikalen Strukturalismus (vgl. Mersch 1993, 99f), dann hätte die Symbolhypothese theoretisch durchaus Chancen, da die Symbole sich nur gegenseitig ihren Sinn verleihen müssten. Doch bleibt dann die Frage offen, wer ihre ambivalenten und offenen Beziehungen definieren könnte. Dafür wäre ein unabgeschlossener Lernprozess notwendig.

Selbst also wenn Chalmers’ Synthese aus innerer Struktur der Symbole und ihrem Weltbezug einen Ausweg bietet, bedeutungslose Symbole zu “grounden” (vgl. Chalmers 1994, 21), ist der Weg dorthin ohne einen Lernmechanismus ungehbar. Es würde die Umsetzung an dem Problem der Enzyklopädisten scheitern, ein dynamisches System in geordnete und starre Definitionen zu pressen, ganz zu schweigen vom Problem, die Informationen erst einmal zu erheben.

Aber Sprache als Modell zu nehmen heisst auch, Vorentscheidungen In kognitive Bereiche hinein zu tragen, die möglicherweise mit Sprache, so seltsam das klingen mag, nur teilweise überschnitten sind: Bilder, Muster, Sinnesdaten u.ä. entziehen sich einer vollständigen sprachlichen Definition, sind aber ein unabweisbarer Teil von Kognition und Intelligenz (vgl. Sloman 1993, 108).

Will man also Semantik generieren, dann braucht man Systeme, die mit all diesen Kategorien umgehen können, da sie alle Arten von “บทกwelträgelmässigkeiten” (vgl. Peschi 1994, 295), d.h. Muster, als welche sich sowohl Symbole als auch Umweltreize darbieten, in einem Lernprozess direkt verarbeiten (wenn auch indirekt speichern/repräsentieren).

2.2.1.2. Wahrheitswerte Formaler Logik

Zur weiteren Sprachverwirrung trägt die Überschneidung von klassischer mit der formalen Logik bei.

Computer arbeiten mit Wahrheitswerten, da die formale Logik die Grundlage der maschinellen Berechnung ist, aber traditioneller Weise war Logik dazu da, neue Wahrheiten zu generieren: “There is in fact, a semantic procedure that they can use to reason deductively. An inference is valid if its conclusion cannot be false, given that its premises are true.” (Johnson-Laird 1988, 227) (vgl. auch: Antal 1964, 9).

Der synthetische Syllogismus, der Modus Ponendo Ponens, sind sicherlich geeignete Modelle um logisch zu argumentieren, aber wir sollten dabei verbleiben und nicht versuchen, mit ihnen “Wahrheiten” zu generieren.

Doch paradoxerweise kann man mittels logischer, syntaktischer Berechnung, mit Hilfe von Computern, etwas ähnliches aber viel besseres herstellen, nämlich “Inhalte”, Berechnungen und Simulationen.

Es ist die Ironie aller Zeiten, daß Logik keine semantische Kompetenz hat, aber ihre Syntax hinreicht, um neue Welten buchstäblich zu generieren; dazu mehr im Abschnitt Simulation und Virtuelle Maschinen.

2.2.2. Geist hat Inhalt

Searle hält es für ausgemacht, daß Semantik nur In einem Bewusstsein statt haben kann, und daß sinnvoller Inhalt interner Natur sei: “In fact, Searle’s notion of content is sufficiently internalist that according to this notion mental states only count as truly semantic if they are conscious or potentially conscious, as a recent article (Searle, 1990) makes clear.” (Chalmers 1994, 30)

Wie die gesamte Diskussion über Bewußtsein, welches sich ทนท einmal bisher nicht künstlich herstellen lässt, wollen wir diese Behauptung stehen lassen und Argumente finden, die diese Sicht zumindest in Zweifel ziehen.

Searle macht es uns nicht einfach, da ihm selbst eine komplette Simulation der Neuronen im Gehirn nicht ausreichend für Bewußtseinstätigkeit erscheint, obwohl er ein Materialist ist und das Gehirn als eine unbekannte Form von Computer ansieht: “[Searle] Claims that a neuron-by-neuron, synapse-by-synapse simulation of cognition would not itself be a cognitive system. In my view he is simply mistaken about that.” (Copeland 1993, 229f)

Es wird uns in weiterer Folge mehr interessieren, ob irgendeine, und dann welche, Form von “Verständnis”, Bedeutung, etc. ohne Bewußtsein erzielt werden kann.

2.2.2.1. Die Rolle der Bewusstseins

Das “harte Problem” Chalmers’ , das sich in Searles Forderung nach Bewusstsein als Bedingung für Semantik widerspiegelt, ist nicht unangreifbar.

Kurz gesagt ist es die Debatte, warum man überhaupt im Bewußtsein Erfahrungen erlebt, die sich irgendwie anfühlen (Qualia), wenn das logisch nicht notwendig erscheint. Doch ausser Philosophen zweifelt niemand diese Notwendigkeit an:

“There is a widely shared intuition that understanding meaningful condition as computation leaves the experience out. This is why David Chalmers’ (1996) thought experiments about qualia-free zombies have gained so much traction among computationalist philosophers of mind. The ground for this traction, however, does not exist in radical embodied cognitive science.

If one rejects the claim that the mind is a computer, all of scientific psychology is aimed at explaining experience, and our experience of the world as being meaningful is inseparable from our experience of it as looking (sounding, smelling, etc.) particular ways. To make claims like this as Dennett (1991), Gallagher (2005; Gallagher and Zahavi 2008), Hutto (2005), Noe (2005) and Thompson (2007) have, is not to say that our experience is not real, vivid and wonderful. Rather it is to explain that experience In such a way that qualia do not come up.” (Chemero 2009, 198)

Das ist verwandt mit Searles bestehen auf Bewußtsein als einigendem Feld, auf welchem Bedeutungen erst sinnvoll erscheinen können.

Doch ist das Konzept, wie viele intuitive Alltagsgedanken, vielleicht zu schwammig, für ein so komplexes Gebiet wie Kognition. Nur weil wir natürlicherweise bewußt sind, bedeutet es noch lange nicht, daß wir sinnvolle, intuitive Aussagen über diese Tatsache treffen können.

“These [not understanding technique] are among the features of philosophical discussion that often provoke exasperated impatience among non-philosophers, e.g. scientists interested In the study of mind who encounter phenomena that are ignored by philosophers, including other animals, people with brain-damage and sophisticated machines.

The real determinants of the mind are not conceptual requirements such as rationality, but biological and engineering design requirements, concerned with issues like speed, flexibility, appropriateness to the environment, coping with limited resources, information retention capabilities, etc. We’ll get further if we concentrate more on how it is possible for a machine to match its internal and external processes to the fine structure of a fast-moving environment, and less on what it is to be rational or conscious. [...] “Consciousness” will probably turn out to be a concept that’s too ill-defined to be of any use. [...]

Die Frage dahingestellt, ob man durch die Akkumulation von Teilen eine Emergenz zu Bewusstsein erreichen kann, bedeutet nicht, daß man keine Fortschritte erzielt:

Since this is very difficult to do, we may, for a while, only be able to approximate the task, or achieve it only for fragments of mental processes, which is what happened In Al so far.” (Sloman 1993, 74f)

[...]

Details

Seiten
57
Jahr
2016
ISBN (eBook)
9783668469440
ISBN (Buch)
9783668469457
Dateigröße
522 KB
Sprache
Deutsch
Katalognummer
v368389
Institution / Hochschule
Universität Wien – Philosophie
Note
2
Schlagworte
Chinesisches Zimmer Artifizielle Semantik Konnektivismus Searle Künstliche neuronale Netzwerke Künstliche Intelligenz

Autor

Teilen

Zurück

Titel: Artifizielle Semantik. Wider das Chinesische Zimmer