Künstliche Intelligenz


Hausarbeit, 2000

19 Seiten


Leseprobe


Inhaltsangabe

Einführung

Geschichte

1.Entwicklungslinie

2.Entwicklungslinie

Turing -Test

Künstliche neuronale Netze

Was ist Intelligenz?

Daten und Wissen

Problemlösungen

Vorteile von neuronalen Netzen

Stand der heutigen Forschung

Auslaufmodell Mensch

Wird der Mensch von Robotern abgehängt?

Technisches Leben,lebende Technik

Die künstliche Evolution

Quellenangabe

Einführung

Obwohl die Menschheit viele Versuche gemacht hat, ihre eigene intellektuelle Leistungsfähigkeit zu definieren, gibt es bis heute noch kein Naturgesetz oder Schema, nach dessen Regeln Intelligenz gemessen werden kann.

Der reine Begriff Intelligenz ist kaum erklärbar und läßt sich nicht einfach nach bestimmten Normen und Werten festlegen. In den meisten Fällen wird er im Zusammenhang von rein subjektiv empfundenen Verhaltensmustern verwendet. An diesem Punkt versucht die moderne Wissenschaft anzusetzen, und versucht mit Hilfe von Computern Intelligenz zu simulieren.

Geschichte

Über Intelligenz haben Wissenschaftler aus unterschiedlichen Fachgebieten Thesen aufgestellt und sich bemüht, objektive Methoden zu deren Nachweis zu finden, um eine zusammenhängende Intelligenztheorie zu begründen. Generell wird die Auffassung akzeptiert: Intelligenz ist die Fähigkeit des Individuums, sein Denken bewußt auf neue Forderungen einzustellen; sie ist eine geistige Anpassungsfähigkeit an neue Aufgaben und Bedingungen des Lebens. Intelligenz ist demnach als Erkenntnisvermögen, als Urteilskraft, als erfassen von Möglichkeiten zu verstehen, aber auch als ein Vermögen, Zusammenhänge zu begreifen, Einsichten zu haben und geistige Auffassungskraft zu entwickeln.. Diese verallgemeinernde Begriffsbeschreibung legt die Vermutung nahe, dass der Termius künstliche Intelligenz, der zur Abgrenzung zur menschlichen Intelligenz dienen soll, mißverständlich gewählt ist. Jedoch hat die künstliche Intelligenz von ihrer Intention her eine lange Tradition. Zumindest zwei Entwicklungslinien sind hervorzuheben:

1.Entwicklungslinie

Der Begriff einer „Denkmaschine“ entstand ca. 2500 v.Chr. in Ägypten (sprechende Statuen). Für den griechischen Mathematiker und Erfinder Heron von Alexandria galt die Erschaffung künstlichen Lebens als die Krönung seines Lebenswerkes. In der „Ilias“ beschreibt Homer intelligente Roboter. Aristoteles bedachte in der „Politik“ die Auswirkung solcher Roboter auf das gesellschaftliche Gefüge. Mathematische Alchimisten versuchten mittels technischer Konstruktionen „dienstbare Geister“ herzustellen. Glanzstücke sind die von Pierre und seinem Sohn Henri-Louis Jacquet- Droz im 18.Jahrhundert geschaffenen Automaten, die mit menschlichem Aussehen und komplizierten Funktionsmechanismen Aufsehen erregten. Am Anfang des 20. Jahrhunderts wurde die Frage gestellt, ob eine Maschine denken kann, oder ob sie ein Bewußtsein und einen freien Willen hat. Am Schnittpunkt zwischen dem theoretischen Bemühen um das Konzept einer künstlichen intelligenten Maschine wie deren Programmierung und praktischer Realisation standen die englische Gräfin A.A.Lovelace und der Mathematiker Ch.Babbage. Babbage plante den Bau einer „analytischen Maschine“, ähnlich dem Computer, und Lovelace entwickelte die Programme.

1950 ersetzte Alan Turing die Frage, ob eine Maschine denken kann, durch die Frage, ob ein Computer einen Menschen in seinem kommunikativen Verhalten imitieren kann, bzw. inwieweit ein Beobachter unterscheiden kann, ob er mit einem Computer oder einem Menschen kommuniziert. Dadurch kann jedoch nicht festgestellt werden, ob ein Computer innerhalb seiner begrenzten Aktivitätssphäre intelligent handelt, also Fragen wie Antworten versteht. Auf den sogenannten TuringTest komme ich später noch zu sprechen.

2.Entwicklungslinie

Eine andere Entwicklungsschiene betrifft das Streben des menschlichen Geistes nach formaler Regelerkenntnis. Für Philosophie und Logik bis in die Gegenwart richtungsbestimmend erwiesen sich die Schlußregeln des Aristoteles, die sich der „wenn dann“ Form bedienen. Hier wird auch auf die Regeln des Algorithmus (lat. Alghoritmi), dessen Namensgeber der persiche Mathematiker Mukhamad ibn Musa abu Abdallah al-Khorezmi al-Madjusi al-Qutrubulli (ca. 815 n.Chr.) war, zurückgegriffen. Daraus resultiert der Gedanke, dass die Rechenaufgabe, die gemäß eines bestimmten Schemas abläuft prinzipiell auch von einem Rechenautomaten gelöst werden kann. Das philosophische Modell einer Vernunft als Rechen, ratio ratiocinans, geht auf Th.Hobbes zurück. Denken ist für ihn demzufolge nichts anderes, als sich eine Gesamtsumme durch Addition von Teilen, oder einen Rest durch Subtraktion einer Summe vorzustellen.

Einen wesentlichen Abschluß erreichte formalstrukturale Erkenntnismethodologie erst in den dreißiger Jahren des 20.Jahrhundert durch die Arbeiten von D.Hilbert und K.Gödel. Die Logik wurde zum Kalkül. Doch M.Heidegger hingegen sieht in dieser technisch-wissenschaftlichen Weltkonstruktion eine große Gefahr: Sie gebiert ein rechnendes Denken, dem wir ohne Besinnung folgen, obgleich widerspruchsfreie Satzsysteme noch keineswegs den Gegenstandsbezug garantieren.

Turing-Test

Mit der heute bekannten künstlichen Intelligenz begann alles 1956, als bei der Konferenz des „Darthmouth Summer Research Projekt of Artificial Intelligence“ im Darthmouth College in Hanover, New Hampshire, der Begriff „artificial Intelligence“ (künstliche Intelligenz) geprägt wurde. Die Idee war, dass sich alle Eigenschaften der Intelligenz in Form von abstrakten Modellen nachbilden lassen können. Das erste Mal wurde darüber nachgedacht, dass Denkprozesse nicht ausschließlich dem Menschen vorbehalten sind. Als bestes „außermenschliches Instrument“ dafür entdecken sie den Computer. Durch diese Aussage stellte sich natürlich die Frage, ob der Mensch durch die künstliche Intelligenz auf der Suche nach der Ursache der eigenen Existenz einen Homunkulus anstrebe.

Es gibt heute immer noch einige Wissenschaftler, die es anstreben ein „maschinelles Gehirn“ zu bauen, dass durch hochentwickelte Motorik und Sensorik dem Menschen ebenbürtig, oder sogar überlegen sein soll.

Diese Wissenschaft basiert auf dem Turing-Test. Dieser von Alan Turing, einer der Väter der künstlichen Intelligenz, vorgeschlagene Test (1950) beruht auf folgendem Sachverhalt:

Sofern ein Computer in der Lage ist, ein Problem zu lösen, so dass ein Experte nicht mehr unterscheiden kann, ob die Leistung von einem Computer oder einem Menschen vollbracht wurde, besitzt der Computer die gleiche Fähigkeit wie der Mensch.

Abbildung in dieser Leseprobe nicht enthalten

Abb.1: Prinzipieller Aufbau des Turing-Tests: Der menschliche Interviewer soll die Antworten von Mensch und Maschine unterscheiden

Die Problematik an diesem Test ist dadurch begründet, dass ein Computer also, der z.B. eine Sprache in eine andere übersetzt, nach dem Turing-Test menschliche Fähigkeiten besitzt, obwohl er eine völlig andere Art von intellektueller Leistung erbringt. Denn der Umgang mit formalen Symbolen ist nicht mit dem menschlichen Denken zu vergleichen.

Künstliche neuronale Netze

Nachdem die klassische künstliche Intelligenz, die sich mit der Manipulation von Symbolen beschäftigt, immer mehr in Frage gestellt wird, wird verstärkt in dem Bereich Simulation von neuronalen Netzen weitergearbeitet. Bei dieser Arbeit wird verstärkt das Gehirn als Vorbild gewählt. Da stellt sich natürlich die Frage: Was sind überhaupt künstliche neuronale Netze? Künstliche neuronale Netze bestehen aus einfachen, uniformen Verarbeitungseinheiten, die im Idealfall Eigenschaften der menschlichen Nervenzellen des Gehirns (Neuronen) verkörpern. Also repräsentiert jedes künstliche neuronale Netz ein Netzwerk an Neuronen und soll so die einzelnen Funktionen des Gehirns simulieren. Es ist natürlich klar zu erkennen, dass der Versuch ein Ebenbild herzustellen durch die Komplexität des biologischen Vorbilds Grenzen gesetzt sind. Wie soll es auch möglich sein mehr als 10 Milliarden Nervenzellen mit allein in der Großhirnrinde 100 Billionen Kontakten darzustellen? Durch diese heutzutage bekannten Fakten ist die anfängliche Faszination längst verflogen und die Projekte werden mit einem viel bescheideneren Anspruchsdenken durchgeführt.

Abbildung in dieser Leseprobe nicht enthalten

Abb.2: Aufbau eines natürlichen Neurons

Was ist Intelligenz?

Eine der wichtigsten Fragen bei der maschinellen Wissensverarbeitung ist, was ist Intelligenz? Wir können dieses Wort nur Umschreiben mit seinen Eigenschaften.

-Schnelle Auffassungsgabe

-Zusammenhänge erkennen

-Findet sich in jeder Situation zurecht

-Erkennt Zusammenhänge und weiß sie zu deuten · usw.

Diese Faktoren werden sicherlich auch von Intuition, Bildungsgrad und Begabung gesteuert. Auf der Basis eines fundierten Wissensstandes läßt sich für den Menschen eine Liste von Attributen der Intelligenz anlegen:

-geistige Grundhaltungen

-komplexe Probleme lösen

-erkennen von Zusammenhängen

-Abstraktion und Generalisierung

-Verstehen mehrdeutiger Sachverhalte · Fähigkeit der Kommunikation · Grenzenbewußtsein

-Wissensaufnahme und -bereicherung (Fähigkeit des Lernens) · Wahrnehmen und verifizieren von visuellen Sinneseindrücken

Diese Liste ist wahrscheinlich nahezu unendlich fortzuführen. Als wichtigste Aspekte sehe ich die Kommunikation, die Wahrnehmung und die Wissensaufnahme. Da durch diese Attribute neues Wissen angeeignet wird.

Wenn man sich über Intelligenz unterhält, kommt zwangsläufig die Frage nach der Definition auf. Doch was ist Intelligenz?

Es gibt keine allgemein anerkannte, wissenschaftliche Definition. Trotzdem versuchen viele Wissenschaftler mit Hilfe eines Testes einen Intelligenzquotienten zu bestimmen. Der Kriterienkatalog umfaßt verschiedene Eigenschaften wie das Erkennen von Objekten, den Umfang des Vokabulars, das Identifizieren von Gemeinsamkeiten und Verschiedenheiten von Objekten, Ergänzung unvollständiger Objekte usw. Je nach dem Erfüllungsgrad wird dann anhand eines Punktesystems der Quotient errechnet. Doch können diese Tests Rückschlüsse auf das Entstehen und die Entwicklung menschlicher Intelligenz geben? Wohl eher nicht! Wenn solche Kriterien die Meßlatte für menschliche Intelligenz sein würde, könnte man heute sagen, dass es bereits Computersysteme gibt, die in Teilen des Testes sehr gut mit dem Menschen mithalten können.

-Parabeln erfinden

-Fragen über einfache Geschichten beantworten · Inhalte gedruckter Geschäftsbriefe interpretieren

-Geologische Daten auswerten und daraus Mineralvorkommen in Gesteinsschichten voraussagen

-Infektionskrankheiten diagnostizieren und eine daraus abgeleitete Therapie vorschlagen

Diese Fähigkeiten alleine können jedoch keinesfalls einen Computer als intelligent gelten lassen, obwohl er nur spezielle Aufgaben lösen kann. Es bleibt immer fraglich, ob die gleiche Methode auch auf eine erweiterte Aufgabenstellung mit gleichem Erfolg angewendet werden kann.

Daten und Wissen

Intelligentes Verhalten beruht in erster Linie auf der richtigen Verwendung von Wissen. Sei es beim Menschen oder bei einem Computer. Dabei muß man auch daran denken, dass die Verarbeitung von Wissen keine Erfindung der künstlichen Intelligenz ist. Wir Menschen sind ebenfalls in der Lage Daten aus unserer Umwelt in Form von Reizen (sehen, hören, fühlen ) aufzunehmen und sie im Gehirn zu verarbeiten und zu speichern. Wir sind dann in der Lage diese Informationen anzuwenden oder sie auch weiterzugeben. Es ist also auch ein Ziel der künstlichen Intelligenz Systeme zu entwickeln, die Wissen verwenden und erwerben können. Doch die Problematik, dass Wissen sich grundlegend von Daten unterscheidet, macht dieses Thema zu einem der wichtigsten Forschungsgebiete der künstlichen Intelligenz. Daten sind nämlich ohne Wissen nicht interpretierbar. Nehmen wir als Beispiel die Anzahl alternativer Lottozahlen: 49. Doch verwenden wir diese Daten

(49) in einem anderen Zusammenhang, so führt dies zu einer ganz anderen Interpretation. So schließen wir bei Schuhgröße 49 direkt auf „Riesenfüße“, und beim Alter 49 auf vielleicht „reifes Alter“. So läßt sich das beliebig fortführen. Also kann man Wissen als die Fähigkeit ansehen, Daten richtig zu interpretieren.

Eines der Kerngebiete der künstlichen Intelligenz ist der Entwurf Wissen so darzustellen, dass es einfach verwendet, aktualisiert und überprüft werden kann. Grundsätzlich unterscheidet man zwischen deklarativem, diskriptivem und operationalem Wissen:

Das deklarative Wissen beschreibt die Attribute von Objekten einer Domäne, z.B. die Daten eines Autos.

Das deskriptive Wissen ist die Menge von Fakten, Beobachtungen und Tatsachen. Diese lassen sich durch die Verwendung von Regeln (operationales Wissen) per Schlußfolgerung zu neuen Fakten, Beobachtungen oder Tatsachen ableiten. Dazu ein Beispiel:

Fritz hat eine Tochter. Sie heißt Monika.

Aus diesem Text lassen sich eine Reihe von Fakten definieren, die das Wissen der einzelnen Satzaussagen formalisiert wiedergeben. Unsere Wissensbasis könnte demnach wie folgt aussehen:

fritz HAT_TOCHTER 1.

monika IST_TOCHTER_VON fritz.

Wenn wir nun das künstliche Intelligenz „Auskunftssystem“ zur Verfügung haben, lassen sich nun Fragen stellen.

Hat Fritz eine Tochter?

Wie heißt der Vater von Monika?

Um die Frage an das System zu stellen muß man wieder die selbe Programmiersprache benutzen wie bei den Satzaussagen.

wer IST_TOCHTER_VON fritz?

wer IST_VATER_VON monika?

werist nun eine Variabel, und nach durchsuchen des Speichers würde das System auf das Ergebnismonika kommen. Der Schlußfolgerungsmechanismus, welcher wissensbasierten Systemen zugrunde liegt, wird allgemein als Inferenzmechanismus bezeichnet. Er durchsucht die bestehende Wissensbasis nach den entsprechenden Fakten und ermöglicht so das Beantworten der Frage mitmonika. Um aber die zweite Frage beantworten zu können, reicht dem System das deskriptive Wissen nicht mehr aus. Das System müßte als operationales Wissen die Regel kennen:

x IST_VATER_VON yfallsy IST_TOCHTER VON x

Nun könnte die Fragewer IST_VATER _VON monikabeantwortet werden

Dieses Beispiel veranschaulicht einige wichtige Aspekte der generellen Arbeitsweise eines wissensbasierten Systems. Es zeigt auf, wie aus Wissen in Form von Fakten und Regeln neues Wissen hergeleitet werden kann. Damit sind auch Architektur und wesentliche Bestandteile eines wissensbasierten Systems beschrieben. Sie sind in Abb.3 noch einmal zusammengefasst.

Künstliche Intelligenz

Bork Schiffer

Abbildung in dieser Leseprobe nicht enthalten

Abb.3: Prinzipielle Architektur wissensbasierter Systeme.

Problemlösungen

Das schwierigste und bisher am unbefriedigsten gelöste Problem ist die vollständige Erfassung des zur Lösung einer Problemstellung benötigten Wissens. Dieses Problem liegt ursächlich daran Wissen explizit zu machen. Offensichtlich wird dies am Beispiel „Kuchen“: Es ist relativ einfach, die Abfolge der Handlungen beim Zubereiten des Kuchenteiges und die verwendeten Zutaten anzugeben, aber es ist bei weitem schwerer zu sagen, wie aus dem Teig ein fertig gebackener Kuchen wird. Daraus kann man schließen, dass technisches Spezialwissen in der Regel viel einfacher erfaßbar und modellierbar ist als Allgemeinwissen. Gerade bei Dingen, die uns der Alltag lehrt. z.B. wo rechts oder links ist, was süß, bitter, salzig schmeckt. Es ist offensichtlich, weshalb es so viele Probleme bereitet, Allgemeinwissen zu formalisieren. Es ist überaus komplex und umfangreich, und ist schwer strukturierbar. Oft ist es nur unvollständig oder nur vage vorhanden, außerdem kann es in manchen Fällen auch widersprüchlich sein. Diese Eigenschaften machen deutlich, dass Allgemeinwissen schwer zugänglich ist, und so schwer einer künstlichen Intelligenz beizubringen ist.

Leider gibt es bisher in der Praxis noch keine Systeme, deren Lernfähigkeit mit der des Menschen vergleichbar ist. Menschliches Lernen ist vielfältig und daher noch nicht vollständig verstanden und deshalb auch nicht modellierbar. Einzelne eingeschränkte Fähigkeiten, z.B. das Lernen aus Fehlern und positiven Erfahrungen sind nur in einfachen Ansätzen maschinell nachvollziehbar. Große Hoffnung wird derzeit in eine andere Art von Lernen im Zusammenhang mit künstlichen neuronalen Netzen wissenschaftlich vorangetrieben. Um sich damit zu beschäftigen muß man sich erst einmal mit dem menschlichen Gehirn auseinandersetzen. Denn während der symbolische Ansatz der künstlichen Intelligenz sowohl eine Begriffswelt als auch ein Ausführungsmodell zur Verfügung stellt, versucht man mit Hilfe von künstlichen neuronalen Netzen die Modellierung menschlicher Denkprozesse am biologischem Vorbild Gehirn zu orientieren. Eine vollständige Nachbildung ist jedoch aufgrund der Größe und Komplexität des Originals nicht möglich. Die Modellbildung wird daher auf der Basis eines extrem vereinfachten Abstraktion des physiologischen Aufbaus des Gehirns durchgeführt. Diese Modelle werden als künstliche neuronale Netze bezeichnet. Dies jedoch entpuppt sich als sehr schwer, da man heute zwar alle Einzelheiten und Funktionsbereiche kennt, jedoch nur wenig von der Funktion und dem Zweck der Gesamtheit versteht. Die neuronale Informationsverarbeitung ist dazu auch noch verglichen mit den herkömmlichen Methoden kostspielig. Große Datenmengen müssen gespeichert werden, und um den extremen Rechenzeitbedarf einzuschränken muß man auf Spezialprozessoren zurückgreifen. Dadurch wird ständig auf die nächste Generation von Hardwareelementen gewartet, um bessere Netzmodelle herstellen zu können. Dadurch eröffnen sich ständig neue Anwendungen und Anwendungsgebiete

Vorteile von neuronalen Netzen

ROBUSTHEIT: In künstlichen neuronalen Systemen besteht sozusagen eine Kollektivverantwortung der einzelnen Elemente. Das Versagen einzelner Elemente hat nur einen geringen Leistungsabfall gegenüber dem Idealfall zur Folge.

PARALLELISIERUNGSMÖGLICHKEITEN: Bei den in der neuronalen Informationsverarbeitung eingeführten Netzmodellen eignen sich hervorragend Rechenarchitekturen mit mehreren Prozessoren. Ideal wäre eine 1:1 Zuordnung von Netzwerkelementen und Prozessoren. Doch dies scheitert bisher an der großen Anzahl erforderlicher Prozessoren und der noch viel größeren Anzahl von Verbindungen zwischen den Prozessoren. Heute verfügbare Lösungsansätze beruhen auf Netzmodellen mit eingeschränkter Verbindungsstruktur, bzw. mit Punktzu-Punkt-Verbindungen im hochdimensionalem Raum

ADAPTIVITÄT (LERNEN): Das Wissen des neuronalen Netzes über dessen Anwendungsgebiet wird in Verbindungsstruktur und -gewichten, also verteilt, gespeichert. Ein explizites „Programmieren“ im Sinne einer Beschreibung aller Transformationen im Netz, also einer expliziten Angabe der Paramentierung der Verbindungsstruktur, ist bei der Anwendung des Lernverfahrens nicht erforderlich.

Künstliche Intelligenz

Bork Schiffer

Matr.-Nr.:

Abbildung in dieser Leseprobe nicht enthalten

Abb.4: Vereinfachte Struktur künstlicher neuronaler Netze

Die Möglichkeit, intelligentes Verhalten mit einem Computer zu simulieren, ist im starken Maße davon abhängig, inwieweit der abstrakte Modellbildungsprozess, wie er in unserer Sprache vollzogen wird, auf einen Computer übertragbar ist. Alle bisherigen Modelle sind aber nur im reduzierten Umfang in der Lage, menschliche Denkprozesse nachzubilden. Es gibt zahlreiche Begriffe und Eigenschaften, deren Komplexität und Zusammenhänge noch gar nicht erkannt sind, z.B. die Traurigkeit eines Gesichtsausdrucks, Emotionen beim Abschied oder der Geschmack eines guten Weines. Ihre Deutung entspringt eher der Intuition als einer sprachlich faßbaren Erklärung. Doch trotz dieser Schwierigkeiten behaupten einige Wissenschaftler, dass der Konstruktion eines voll bewußten Roboters im Prinzip kein Hindernis im Wege steht. Man könnte sich eine Reihe von Gehirnamputationen vorstellen, die die Schaltkreise im Gehirn nach und nach durch Siliziumchips ersetzen. Würde dadurch der Mensch je plötzlich aufhören Mensch zu sein, anders als wenn seine Organe nach und nach durch perfekte mechanische Transplantate ersetzt würde?

Bei all diesen Ansätzen der Forschung bleiben jedoch einige Frage offen:

-Wo liegen die Grenzen unseres Denkens?

-Wie können wir mit unserem Gehirn dieses selbst vollständig verstehen? · Reicht dafür überhaupt der Platz - die Kapazität - aus?

Stand der heutigen Forschung

Durch die modernen Techniken der Wissenschaft gibt es interessante Neuigkeiten und neue Problemlösungen, sowie aber auch neue Probleme und Risiken die auftreten können. Denn mit dem Fortschreiten der Wissenschaft werden vielen neuen Möglichkeiten Tore geöffnet. Doch kommen auch Fragen auf, ob der Mensch bei dieser rasanten Entwicklung überhaupt mithalten kann, oder ob er von Robotern abgehängt wird. Auf diese und weitere Fragen wird in den folgenden Kapiteln näher eingegangen, und gleichzeitig einige der vielen verschiedenen Wege, die die künstliche Intelligenz in den letzten Jahren gegangen ist, durchleuchtet.

Auslaufmodell Mensch

Eine neue Wissenschaft schickt sich an, die Welt zu beherrschen. Unter den Forschern ist ein Streit entbrannt, wie gefährlich die modernen Techniken sind. Denn diesen Sommer ist wieder ein neuer Rekord verkündet worden: Wieder eine null mehr! Doch was sagt uns das? Es bedeutet, dass der neue Computer von IBM (ASCI White Supercomputer) nun 12 Billionen Rechenoperationen pro Sekunde (OPS) bewerkstelligen kann. Das ist eine vierzehnstellige Zahl.

Auch wenn der heutige Supercomputer heute noch eine Größe von zwei Basketballfeldern hat, und mit 8192 Prozessoren bestückt sein muß um diese Leistung zu vollbringen. 12 Billionen OPS - die Einschläge kommen näher. Das menschliche Gehirn mit seinen rund 100 Milliarden Neuronen, schätzt der Roboterforscher Hans Moravec, dürfte etwa 1000 Operationen pro Sekunde leisten, dies ergibt 100 Billionen OPS. Dies bedeutet, dass der neue Rechenkünstler von IBM muß seine Leistungskapazität nur noch dreimal verdoppeln, um sie mit unserem Gehirn gleichzuziehen. Das könnte schon 2004 der Fall sein.

Selbst diese gesteigerte Rechenleistung wird dann ein paar Jahre später auf die Größe eines normalen Chips gezwängt sein, den sich dann nicht mehr nur die Militärs leisten können. Ein Roboter mit so einem Superprozessor ausgestattet könnte viel, was heute nur Menschen vollbringen:

-Sich selbständig orientieren · Sich ohne Hilfe bewegen · Sprechen

-Vielleicht sogar komplexe Entscheidungen fällen? · Trauer verspüren?

-Zorn?

-Ehrgeiz?

-Größenwahn?

Doch ist so etwas wirklich möglich?

Die Techno-Pioniere sagen das es keine Probleme mehr gibt. Es wird vorausgesagt, dass die Rechenkraft der Computer weiter exponential wachsen wird. Bald schon werden sie uns auf breiter Front überlegen sein. Optimisten sagen, dass jemand, der sich jetzt einfrieren läßt, in 50 Jahren von einer Maschine geweckt wird, die freundlich über den Rand der Kühltruhe lächelt. Deshalb ist es auch nicht verwunderlich, dass Einfrieren bei der Hightech- Avantgarde derzeit en vogue ist.

Da stellt sich die Frage, ob dies die letzte Runde für den homo sapiens ist? Ist dieses total ineffiziente Wesen, das jeden Tag dreimal Essen und stundenlang schlafen muß, nicht ein Auslaufmodell?. Die Pioniere meinen: Man braucht sich nicht fürchten, denn der Mensch wird Schritt halten, indem er optimiert wird. Es werden neue Molekül-Cocktails gemixt, sein Genom wird geflickt, Organe werden nachgezüchtet. So wird nach Meinung der Pioniere der Mensch klüger, hübscher, robuster und

potenter. Mit den menschlichen „Ersatzteilen“ kann der Mensch 200 Jahre alt werden, und, wer weiß - dank ein paar Extra-Chips im Kopf - 17 Sprachen sprechen

Ein nüchterner Betrachter wird sich ob so üppiger Sciencefiction die Augen reiben. Die Auguren der künstlichen Intelligenz aber, die Genetiker und das Heer der Experten, die sich mit der Nano-Technologie auseinander setzen, schreiten schnell voran. Ist dies der Kathedralenbau des 21. Jahrhunderts? Vieles hängt davon ab, wie weit der Mensch gehen will.

Wird der Mensch von Robotern abgehängt?

Seit Jahren schon beflügelt die winzige Welt der Atome und Moleküle die Wissenschaftler. Mediziner, Physiker und Informatiker versuchen sich als Biobastler und Molekül-Ingenieure, auch Chemiker, Biologen und sogar Philosophen sind vertreten. Nano ist das neue Zauberwort in der Welt der künstlichen Intelligenz. Doch nicht nur „Traumhumanisten“, die der Ansicht sind, das wir möglichst schnell ins All müssen, um uns vor dem nächsten Meteoriteneinschlag zu retten, oder die „Extropians“, die die Menschheit in eine neue, bessere und längerlebige Rasse umzüchten wollen sind an dieser neuen Nano-Wissenschaft interessiert. Auch weniger schillernde Persönlichkeiten versetzen die neuen Möglichkeiten in Euphorie. Gewaltig erscheinen die Möglichkeiten, neue Gewebe und Möglichkeiten zu schaffen, winzigste Maschinen, Gefäße, Schaltkreise und Sensoren zu bauen. Atom für Atom, Molekül für Molekül. Das sei, meint Physik-Nobelpreisträger Horst Störmer von Lucent Technologies, „der ultimative Spielzeugkasten der Natur.

In den Labors entstehen mit Laserstrahl-Pinzetten neurobiologische Chips, auf denen sich Leben mit Silizium paart. Dies sind elektronische Bauteile von einem Tausendstel der Größe einer Bakterie. Ebenso wird an winzigsten „DNS-Motoren“ gearbeitet, so klein, dass 30 Millionen in einen Wassertropfen passen. Das US-Militär hat schon intelligenten Staub für Spionagezwecke in Auftrag gegeben. Auch dahin kann eine solche Entwicklung laufen.

Diese Nanotechnologie soll nach Meinung der Wissenschaftler die nächste große neue Möglichkeit für weitere technische Entwicklungen sein. Die Folgen für Gesundheit, Wohlstand und Leben der Menschen, erklärt der Nobelpreisträger Richard Smalley, sind größer, als die vereinte Wirkung der Mikroelektronik, des computergestützten Ingenieurwesens und der künstlich geschaffenen Polymere zusammen.

Bill Joy, in Computerkreisen tief verehrter Chefdenker der Firma Sun, empfindet als besonders tückisch die Kombination all der neuen Technologien. Wie sind die mörderischen Möglichkeiten von hoch intelligenten Robotern, gepaart mit unsichtbaren Nano-Kreationen und Software-gesteuerter Genetik überhaupt zu kontrollieren? Nach Joys Meinung öffnet sich hier die neue Büchse der Pandora, über deren Gefahren die Welt dringlichst reden müsse:

„Ideen können nicht einfach in eine Kiste zurückgestopft werden. Anders als Uran und Plutonium müssen diese Dinge auch nicht angebaut und verfeinert werden. Sie können einfach kopiert werden. Wenn sie draußen sind, sind sie draußen. Dafür braucht man keine Schurkenstaaten mehr sondern nur entschlossene Individualisten.“

Doch bei einer Debatte an der Stanfort University mochte sich keiner aus der Computerbranche so recht mit Joys Thesen anfreunden. Die Leute, auf deren Erkenntnisse sich Joy beruft, hielten vorsichtig Abstand zu ihm. Auch da diese neue Nachdenklichkeit gänzlich untypisch für diese beinharte Branche ist, die in Börsengängen denkt, in Dollars, Tempo und Marktmacht, die auf die Forschungstube drückt, sich als Nabel der Welt und Motor der Weltwirtschaft sieht. Man schenkt lieber den positiven Prognosen seine Aufmerksamkeit. Wie den Gedanken des Roboterforschers Hans Moravec, der glaubt, dass wir unseren Robotern schon 2030 sagen können, dass sie sich ihren Lebensunterhalt selber verdienen sollen. Moravec hat alles genau durchgerechnet , und für ihn ist es schlicht Konsequenz der Evolution. „Das ist größer als wir, wir sind nur ein Teil davon.“

Doch dank Joys Zweifel am Segen der Technik stehen nun wieder Grundfragen auf dem Programm:

Was macht Technologie mit den Menschen, der Gesellschaft, der Natur, der Weltökonomie?

Der technologische Tunnelblick, der alle Folgen gern ignoriert, scheint für den Augenblick aus der Mode. „Technorealismus“ ist gefordert. Bevor das Re-Design der Menschheit in Angriff genommen wird, darf noch einmal diskutiert werden, wer das will. Man könnte gar die Schlacht der Philosophen wieder aufgreifen, die seit Jahren streiten, was Bewußtsein ist.

Es gibt aber auch Wissenschaftler, die uns noch gar nicht so weit sehen. z.B. behauptet Rosalind Picard (Medialab des Massachusetts Institut of Technoligy), dass dieser Determinismus ziemlich armselig ist.

„Je mehr wir herausfinden, um so mehr wissen wir auch, was wir nicht wissen. Die Wissenschaft hat ein paar Stiche um das große Loch zwischen Mensch und Maschine gemacht. Aber es wird nur breiter.“

Technisches Leben, lebende Technik

Biologie und Technik schicken sich seit der nahezu vollständigen DNS-Bestimmung an, den Menschen neu umzukonstruieren. Man folgt einfach einer schon vor langer Zeit begonnenen Entwicklung. Die Technisierung seines Körpers ist dem Menschen ja nicht fremd. Begonnen hatte sie schon vor Jahrhunderten: mit Prothesen, Brillen, Zahnplomben, zurechtgenagelten Knochen. Im 20. Jahrhundert beschleunigte sich das Tempo, es kamen die Herzschrittmacher, Herzklappen, und die künstlichen Hüftgelenke. In der darauf folgenden Stufe gibt es schon computergesteuerte Körperfunktionen. Kniegelenke lassen sich mit Joystick steuern, künstliche Bauchspeicheldrüsen regeln den Insulinspiegel, implantierte Meßinstrumente alarmieren den Notarzt, Mikropumpen geben in programmierten Intervallen dosierte Medikamente ins Blut. All das ist keine Science-Fiction, die Erfindungen gibt es schon. Einige davon zwar erst als Prototypen, da das medizintechnische Erfahrungswissen noch schmal ist, aber die Anfänge sind gemacht.

Zu den hoffnungsvollsten Projekten der Biotechnik zählen die künstlichen Sinne: Implantate in Ohr und Auge versorgen Nervenbahnen mit vorverarbeiteten Signalen. Diese Entwicklung führt Medizin, Biologie und Psychologie mit Physik, Mathematik, Elektronik und Informatik zusammen.

Man muß umdenken: Biologie wird technisch, Technik biologisch.

Offenkundig ist die Doppelbewegung dort, wo Robotiker ihre Vorbilder in der Natur suchen. Den Schaben, Spinnen, Schlangen und Primaten schauen sie nicht nur ihre Fortbewegungsarten ab, sondern sie programmieren ihre Kunsttiere auch nach Prinzipien, die sie von Neurobiologengelernt haben.

Sogar die Informatik importiert ihre Methoden aus der lebendigen Natur. Seit vielen Jahren erweist es sich als sinnvoll, Computerprogramme gegeneinander antreten zu lassen. Sie mit Mutation, Rekombination und Selektion einem darwinschem Prozess zu unterwerfen, bis ein leistungsfähigeres Programm entstanden ist. Mit dieser Methode lassen sich auch technische Probleme lösen und sogar Körperformen verbessern, weitaus schneller als in der natürlichen Evolution.

So sind bereits etliche Zutaten zusammen, eine eigenständige

Entwicklungsgeschichte der Roboter zu starten. Und wenn dann nämlich Roboter ihre Nachkommen auch noch selber bauen, könnte man, wenn wir davon ausgehen, dass Intelligenz evolutionär entstanden ist und später sozialkulturell verfeinert wurde, nicht davon ausgehen, dass die Genesis des Geistes nicht ein zweites Mal einsetzen könnte, nur diesmal in einer Roboterpopulisation.

Diese Debatte taucht alle paar Jahre auf, jedesmal Mal mit gesteigerter Intensität, denn ihre technische Basis erweitert sich. Und jedesmal ist auch der klassische Einwand gegen künstliches Denken aus dem Computer zu hören: Intelligenz ist situativ, körpergebunden und sozial. Doch gegen die Idee intelligenter RoboterKollektive läßt sich dieses Argument auf Dauer nicht geltend machen. Freilich könnten, nach Meinung der Neuroinformatikerin Helge Ritter Kollektive von Softwareagenten, die durchs Internet wandern und die angeschlossenen Rechner und Menschen als ihre Sinnesorgane und Extremitäten einsetzen, und das Rennen um die künstliche Intelligenz noch vor den Robotern gewinnen.

Aber ist so etwas nicht nur Phantasie? Nicht ganz, solche beschreiben einen Möglichkeitsraum, den die Wissenschaft jetzt betreten will. Softwaretechnik und Robotik, Biokybernetik und Neuroinformatik befruchten sich derzeit gegenseitig, rekombinieren ihre Ideen und bringen unausgesetzt neue Prototypen hervor. „Living Artefacts“ - lebende Kunstprodukte - heißt ein Forschungsprogramm der europäischen Union, das derzeit vorbereitet wird. Damit sind Maschinen gemeint, die aus Erfahrungen lernen, die sich sozial verhalten und zu Mitlebewesen des Menschen werden können. Der Unterschied zwischen Biosphäre und Technosphäre wird kleiner, bis er ganz verschwindet.

Das deutet sich bereits in den Begriffen an. Biologie und Technik finden eine gemeinsame Sprache. Robotiker sprechen von „Verhalten“, Verhaltensbiologen von „fest verdrahteten“ Präferenzen, Programmierer von „Vererbung“, Hirnforscher von „Parallelverarbeitung“.

Nun mögen das nur Bilder sein, bloße Veranschaulichungen. Aber es gibt stärkere Indizien für das Zusammenwachsen von Lebens- und Technowissenschaften: Sie greifen zunehmend auf die gleiche Mathematik zurück, und sie haben ein gemeinsames Zentralthema, die Informationsverarbeitung. Ob Zelle oder Lebewesen, ob natürliches oder künstliches Wesen, jedesmal ist Innen und Außen unterschieden, es müssen Signale aufgenommen, verarbeitet und abgegeben werden; es gibt Verhalten, Kommunikation und Kooperation. All diese Prozesse können heutzutage durch Hilfe der neuen Computerleistungen simuliert werden.

Doch über all diesen Entwicklungen steht die Frage:

Darf der Mensch sich selber transzendieren? Eine schwierigere Frage gab es noch nie.

Die künstliche Evolution

Die modernen Schöpfer von Robotern, begnügen sich schon längst nicht mehr mit starr programmierten Arbeitssklaven, die eine angelernte Aufgabe etwa an einem Fließband mit nahezu beliebiger Perfektion ohne Murren erfüllen. Sie basteln an anpassungsfähigen und intelligenten Maschinen - die Lebewesen gleich - auf ihre Umwelt reagieren und agieren können. Sie träumen von mechanischen Kreaturen, die sich wie von Geisterhand selbst vervielfältigen können. Sie haben die Vision vom künstlichen Leben, in dem wie im echten Leben die Gesetze von Charles Darwin gelten und nur der Stärkste überlebt.

Und tatsächlich ist es jetzt zwei amerikanischen Wissenschaftlern gelungen, diesen Traum zu verwirklichen. Sie haben einige Zentimeter große Gebilde konstruiert, die sich allein mit einem Computer vermehren und fortentwickeln - und das fast ohne menschliches Zutun.

Wie Schnecken und Raupen wuseln die wenige Zentimeter großen Plastikgebilde auf dem Labortisch herum. Einige sehen aus wie ein Fischgerippe, andere wie ein Drahtgeflecht. Sie alle bestehen aus beweglichen und starren Stiften, die mit Kugelgelenken verbunden sind. Einige kriechen nur sehr langsam, andere , die besten, erreichen Geschwindigkeiten von einigen Zentimetern pro Sekunde. Sie sehen zwar aus wie kleine Spielzeuge, aber das ist wohl alles, behauptet Hod Lipson, einer der Entwickler, da die Roboter ja schließlich nicht von Menschen konstruiert und gebaut werden. Welche Gestalt die Wesen haben und wie schnell sie sich fortbewegen bestimmt nämlich der Computer.

Die beiden Forscher haben lediglich die Bauteile vorgegeben, aus denen die Roboter bestehen, und bestimmt, welchen physikalischen Gesetzen die Wesen unterliegen. Außerdem sollen sie sich horizontal fortbewegen. Damit es der Computer nicht all zu schwer hat, wurde ihm als kleine Hilfe eine Liste mit zweihundert möglichen Formen eingegeben, die allerdings allesamt noch nicht funktionsfähig waren. Mit einer speziellen Evolutionssoftware fügte der Computer dann die Bauteile zusammen, änderte die Designvorschläge ab und entwarf eine Reihe von Modellen, die sich allesamt fortbewegen können.

Der Prozeß läßt sich mit der Evolution vergleichen. Davon sind die Forscher überzeugt. Die Forscher sind begeistert. Es ist verblüffend, welche Vielfalt entsteht. Einige bewegen sich wie kleine Krabben, andere kriechen wie Schnecken. Sie alle aber können sich bewegen und einige sogar erstaunlich schnell.

Abbildung in dieser Leseprobe nicht enthalten

Abb.5: Sich selbständig vermehrende Roboter

In weiterführenden Forschungsreihen wollen sie die Roboter mit Sensoren ausrüsten. Dann können sie untereinander Informationen austauschen und sogar voneinander lernen. Dadurch könnten schon bald intelligente Wesen entstehen, die sich nicht nur in einer fremden Umgebung zurechtfinden und auf äußere Reize reagieren.

Kritiker sehen in diesen Forschungen große Gefahren, die eines Tages sogar die menschliche Existenz bedrohen könnten. Denn die intelligenten Wesen würden einen Weg wissen, wie sie sich unabhängig vom Menschen entwickeln und ihre eigene Evolution nützen könnten, um sich zu optimieren. Die beiden amerikanischen Wissenschaftler scheinen von dieser Entwicklung noch unberührt. Für sie zählt der Erfolg, ein Verfahren entwickelt zu haben, preisgünstig Roboter zu entwickeln, die eines Tages nützliche Dinge verrichten können.

Arbeitsgebiete sehen die Wissenschaftler z.B. in für Menschen gefährlichen Umgebungen, oder bei der Minensuche. Auch ließen sich solche Roboter auf ferne Planeten schicken. Dort könnten sie sich vermehren und lernen, Galaxien zu erforschen oder nach außerirdischem Leben zu suchen.

Quellenangabe

-Metzler Philosophie Lexikon, 1996, J.B.Metzler Verlag

-Andreas Dengel, Künstliche Intelligenz, 1994, Meyers Forum

-Roger Penrose, Computerdenken, 1991, Spektrum der Wissenschaft · John D. Barrow, Die Natur der Natur,

1993, Spektrum Akademischer Verlag

-Manfred Lindinger, Die künstliche Evolution, 2000, Neuß-Grevenbroicher-Zeitung · Tom Schimmeck, Auslaufmodell Mensch, 2000, Die Woche

-Tom Schimmeck, Sciencefiction, ganz hautnah, 2000, Die Woche

-Gero von Randow und Andreas Sentker, Technisches Leben, lebende Technik, 2000, Die Zeit

Ende der Leseprobe aus 19 Seiten

Details

Titel
Künstliche Intelligenz
Autor
Jahr
2000
Seiten
19
Katalognummer
V101571
ISBN (eBook)
9783638999878
Dateigröße
826 KB
Sprache
Deutsch
Arbeit zitieren
Bork Schiffer (Autor:in), 2000, Künstliche Intelligenz, München, GRIN Verlag, https://www.grin.com/document/101571

Kommentare

  • Gast am 5.2.2003

    Wirklich cool!.

    Wirklich cool!

Blick ins Buch
Titel: Künstliche Intelligenz



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden