Lade Inhalt...

Unbekanntes Nichtwissen in der Szenario-Technik

Zum Navigieren in den Untiefen des Nichtwissens

Diplomarbeit 2009 108 Seiten

Medien / Kommunikation - Methoden und Forschungslogik

Leseprobe

Inhaltsverzeichnis

1 Einleitung - eine Feldskizze

2 Bezugsrahmen
2.1 Der Beobachter - eine Figur
2.1.1 Der „blinde Fleck“ des Beobachtenden
2.1.2 Die wissenschaftliche Beobachtung
2.1.3 Die Beobachtung des Neuen
2.2 Die Kybernetik - eine Erkenntnistheorie
2.2.1 Kybernetik zweiter Ordnung
2.2.2 Die Autopoiese - ein Konzept
2.3 Die „Laws of Form“ - ein Kalkül

3 Unbekanntes Nichtwissen - ein Phänomen
3.1 Daten - Informationen - Wissen
3.2 Die Organisation von Wissen und Nichtwissen
3.3 Wissenschaftliche Ansätze
3.4 Nichtwissensdimensionen
3.4.1 Wissen
3.4.2 Intentionalität
3.4.3 Zeitliche Stabilität
3.4.4 Erweiterungen
3.5 Nichtwissenskulturen
3.6 Vertrauen

4 Szenarien - eine qualitative Methode
4.1 Zukunftsforschung
4.2 Strategische Frühaufklärung
4.2.1 Qualitätskriterien
4.2.2 Trends und Trendforschende
4.2.3 Wild Cards

5 Kommunikation
5.1 Szenarien als Kommunikationsinstrument
5.2 Sprache
5.3 Kunst
5.4 Hypothesen

6 Heuristik
6.1 Anforderungen
6.2 Werkzeugaktualisierung
6.2.1 Irritationsvariable [ ]
6.2.2 Sinnübersetzung
6.2.3 Kommunikation
6.3 Anwendung
6.3.1 Datenbasis
6.3.2 Datenreflexion
6.3.3 Dateninspiration
6.3.4 Beobachtung und Kommunikation

7 Fazit und Ausblick

8 Verzeichnisse

9 Anhänge

10 Quellenangabe

Erklärung

1 Einleitung - eine Feldskizze

„Ein Unternehmen, das rasche Veränderungen im Umfeld dynamisch bewältigen will, darf Informationen und Wissen nicht nur effizient verarbeiten, es muß [ sic ] sie selbst her- vorbringen. Es muß [ sic ] sich durch Auflösung des existierenden Wissenssystems und durch die Entwicklung innovativer Denk- und Handlungsmodelle selbst erneuern.“

(Ikujiro Nonaka und Hirotaka Takeuchi 1997, S. 64)

Die Zukunft ist ungewiss. Allein diese Tatsache führt zu Risiken1 im Umfeld von Entschei- dungsprozessen. Der übliche Umgang mit solchen Risiken ist geprägt vom Vertrauen darauf, dass diese Risiken eher unwahrscheinlich sind und als retrospektiv erklärbar akzeptiert wer- den. Es wird sich auf das Bekannte, als das - was sich wiederholt, konzentriert. Voraus- gesetzt wird damit die Kontrollier- und Planbarkeit künftiger Entwicklungen. Mit dem Ziel Sicherheit zu produzieren, wird von prinzipiell zeitunabhängiger objektiver Er- kenntnis ausgegangen. Wissen besitzt einen hohen Stellenwert und damit geht einher, dass die Wirkung des Unwahrscheinlichen und Unbekannten unterschätzt oder ignoriert wird. Eine solche Risikostrategie erweist sich in unserer modernen, komplexen und rekursiven Welt, mit der folgenschweren Reichweite unerwarteter Ereignisse, als immer weniger geeignet (vgl. Willke 2004, S. 53, 69). Es hat sich ein spürbares Interesse am Umgang mit Nichtwissen und an der Erzeugung von Risikowissen entwickelt.

Nicht zuletzt aufgrund unvorhersagbarer, Ressourcen verschlingender Umweltturbulenzen, scheint auch mir die traditionelle Risikobetrachtung im Kontext eindeutiger Wissensproduktion zunehmend unbefriedigend. Die Konsequenzen von Nichtwissen, von unbekanntem Nichtwissen und/oder Nicht-Wissen-Wollen, in Form von Erschütterungen sind so offensichtlich, dass ich die Beschäftigung mit Nichtwissen für dringend notwendig halte. Das Thema dieser Diplomarbeit ist daher Nichtwissen und unbekanntes Nichtwissen als eine Ausprägung systemischen Nichtwissens.

Ausgehend von den beobachtbaren Erschütterungen in der Welt, wird im theoretischen Teil, die allgemeine Präferenz von Wissen kritisch beleuchtet, um die praktischen Konsequenzen dieser bevorzugten Perspektive darzulegen. Ziel der Arbeit ist die Gestaltung eines Reflexi- onswerkzeugs für Entscheidungsprozesse in Unternehmen. Es sollte dynamisch, vital und offen sein, dadurch intuitives, phantasievolles, ideenreiches Handeln erzeugen und zur geistigen Freiheit anregen. Die beabsichtigte Erweiterung des Vorstellungshorizonts dient dem Erkennen von Überraschungen, damit mögliche Schockwirkungen unerwarteter Ereig- nisse milder ausfallen.

Der Mensch, als soziales Wesen, steht in meiner Ausarbeitung im Mittelpunkt.

Die Relevanz des Themas bezeichnend, verweise ich exemplarisch auf die komplexen Aus- wirkungen von FCKW oder radioaktivem Atommüll2 ; der Finanzarchitektur3 ; gegenwärtiger gesellschaftlicher Entwicklungen bspw. im Iran, Afghanistan oder Pakistan; des von der deutschen Bundesregierung verabschiedeten Bundeshaushalts 2010 und des Finanzplans bis 2013 am 23.06.094 sowie der Rinderseuche BSE:

» BSE « ist wesentlich eine Krise des Wissens. Wissenschaft hatte lange Zeit die Funktion, eindeutiges Wissen zur Charakterisierung und Bearbeitung von gesellschaftlichen Problemlagen zu liefern. Jedoch ist solches Wissen nicht einfach vorhanden, sondern ent- steht in einem vielschichtigen Prozess wissenschaftlicher, politischer und zunehmend auchöffentlicher Kommunikation sowie experimenteller Erprobung. Der Fokus muss also auf dem Prozess der Erzeugung von Risikowissen sowie der Konfrontation mit Nicht- wissen eingestellt werden. (Böschen/Dressel/Schneider/Viehöver 2004b, S. 107-108).

Mit der Erfindung von Derivaten - als Ergebnis von „Spielen der Dekomposition und Rekombination“ (Willke 2002, S. 155) - die ganz allgemein der Steuerung und Streuung von Preisänderungsrisiken dienen, wurden „komplexe Risikoarchitekturen“ geschaffen, die unkalkulierbare Risiken mitführen (ebd., S. 32). In der gegenwärtigen finanzpolitischen Auseinandersetzung fällt auf, dass die Entwicklung - die unter dem Begriff Finanzkrise diskutiert wird - von einzelnen Personen zwar erwartet wurde, doch tragfähige Alternativ- und Krisenreaktionskonzepte fehlen.5 Unkalkulierbar erscheinen Risiken auch aufgrund von Unsicherheit infolge mehrwertiger Erwartungen und inhaltlicher Unklarheit infolge der E rstmaligkeit von Ereignissen (vgl. Ansoff nach Liebl 2001, S. 510).

Erst im Nachhinein erkanntes Nichtwissen hat Einfluss auf das gesellschaftliche Vertrauen. Beurteilungen und Erwartungen der Bevölkerung wirken sich auf das Handeln von Akteuren aus: „Der Rahmen der Risikobetrachtung wird nicht allein durch wissenschaftliche Problem- horizonte gebildet, sondern ganz wesentlich auch durch gesellschaftlich etablierte Erwar- tungshorizonte“ (Böschen et al. 2004a, S. 285). Vertrauen stellt innerhalb risikopolitischer Diskurse eine Qualität dar, die als entscheidende Variable verstanden und gestaltet werden sollte und sich insbesondere an einem „legitim anerkannten Umgang mit Nicht-Gewusste [m] erweisen muss“ (Böschen/Kastenhofer/Soentgen/Wehling 2007, S. 19). Vertrauen dient als Steuermechanismus in komplexen, dynamischen und selbstregulierenden Kontexten.

Eine Präferenz indoeuropäischer Kulturen für Wissen gegenüber Nichtwissen wird obsolet, mit dem Umstand, dass prädikative Diagnostik nicht zu Präventionsangeboten führt (vgl. Wehling 2006, S. 13; vgl. Whorf 1999, S. 46). Der „neuen Bedeutung von Nichtwissen in komplexen, vernetzten und nicht mehr ohne weiteres dekomponierbaren Systemen“, ver- sucht das sogenannte Systemrisiko gerecht zu werden (Wehling 2006, S. 53). Systemrisiko bezieht sich auf Risiken, die die gesamte Operationsweise eines Systems betreffen „dadurch, dass bestimmte Einzelrisiken sich durch die Vernetzung der Elemente zu einer systemischen Destabilisierung aufschaukeln“ (ebd.). Dieser Risikotypus bezieht sich auf Gefahren, die sich aus systemischen Nichtwissen ergeben können: „Systemisches Nichtwissen bezeichnet ein Nichtwissen, das die Logik, die Operationsweise, die Dynamik, die emergente Qualität, die Ganzheit eines selbstreferenziell geschlossenen Zusammenhangs von Operationen betrifft“ (ebd., S. 53-54). Ein systemisches Zusammenwirken einzelner Teile lässt sich nicht vorher- sehen. Beobachten lässt sich systemisches Nichtwissen im Kontext einer Beurteilung von Folgen, beispielsweise bezogen auf gentechnisch veränderte Lebensmittel6, Nanotechno- logie7, die Erfindung von Derivaten8, Ernährungskrisen (vgl. Braun 2008), Klimawandel oder die Verschuldung des Staates.

Franz Liebl stellt, bezogen auf nicht eindeutig entscheidbare und riskante Fragestellungen fest, „wenn solche Themen in der Öffentlichkeit verhandelt werden, entscheidet nicht Wahr- heit oder wissenschaftliche Präzision, sondern letztlich die Akzeptanz des Publikums“ (2000, S. 47). Relevanzkriterien der Öffentlichkeit rücken somit in den Vordergrund.

Die genannten Kontextbeispiele systemischen Nichtwissens weisen zum Teil Interdependenzen auf und erinnern damit] an die Komplexität und Dynamik, mit welcher wir konfrontiert sind. Problematisch ist dabei, dass es uns Menschen schwer fällt, mit komplexen, intransparenten und dynamischen Situationen umzugehen.

Dietrich Dörner diagnostiziert im Umgang mit Unbestimmtheit und Komplexität9:

- Fehler bei der Zielbeschreibung, nicht formulierte Teilziele anhand von „Reparatur- dienstverhalten“ (2002, S. 88);
- unvernetzte Analyse bspw. an einer Blindheit gegenüber widersprüchlichen Teilziel- en; undynamische, irreversible Schwerpunktsetzungen;
- inadäquate Modellbildung anhand unbeachteter möglicher Nebenfolgen;
- unreflektierte, unangemessene Dokumentation;
- fehlerhafte Beurteilung von Veränderungen, zu beobachten an einer Nichtberück- sichtigung von Exponentiationen;
- Planungsdefizite, beispielsweise an undynamischen „reduktive[n] Hypothesen“ und zu kurzen Planungshorizonten (ebd., S. 131);
- inadäquate Entscheidungsfolgenbeobachtung an nicht korrigierten Fehlern „bal- listisch“ Entscheidender (ebd., S. 267, 288; Vester 2002, S. 36-37).

Eine systemische Betrachtung von Rückkopplungen und Regelkreisen, kritischen Systemvariablen und Indikatorvariablen - die abhängig von vielen Systemvariablen als Indikator für den Zustand eines Systems herangezogen werden können - erscheint im Kontext komplexer Umweltbedingungen angemessen aber operativ unökonomisch (vgl. Dörner 2002, S. 112, 290- 291). Als ökonomisch relevant lässt sich die Verschleierung von Nichtwissen vermuten, da diese in einem erheblichen Maße Ressourcen bindet.

Die Wichtigkeit von Umfeldanalysen, verstanden als Beobachtung systemischer Wechselwir- kungen und Reflexion potenzieller Interdependenzen, führt zu der Frage nach dem WIE der Umsetzung.

Die Anwendung verschiedener Szenario-Techniken10 lässt sich als eine methodische Reflexion von Entwicklungen im Umfeld von Unternehmungen beobachten (vgl. Liebl 2001, S. 507). In meiner Diplomarbeit beleuchte ich unbekanntes Nichtwissen als eine Ausprägung syste- mischen Nichtwissens. In dieser Ausprägung bezeichnet es „eine prinzipiell nicht aufhebbare Ungewissheit möglicher Ereignisse, die als Möglichkeit ins Spiel kommen“ (Willke 2002, S. 11). Mögliche Ereignisse stellen vorstellbare Ereignissen dar, denn „eine Sache ist nicht möglich, wenn sie nicht vorstellbar ist, und wir könnten niemals bestätigen, dass sie möglich war, erschiene sie nicht tatsächlich. Was möglich ist, wird somit immer existent befunden werden“ (Spencer-Brown 1997, S. xviii). Eine Berücksichtigung unbekannten Nichtwissens, impliziert die Notwendigkeit offener Risikodiskurse.

Gesellschaftlich relevante Kommunikation bezieht sich nicht nur in Krisensituationen oder innerhalb von Risikodebatten auf unbekanntes Nichtwissen ('unknown unknowns'). Eine öffentliche Thematisierung möglicher Folgen (Folgenabschätzung bspw. in ökologischen, technologischen und ethischen Kontexten) von Entscheidungen und des Umstands einer prinzipiell unbekannten Zukunft führen zu einer Auseinandersetzung mit dem Phänomen Nichtwissen.

Je weiter man in die Zukunft blickt, desto wahrscheinlicher ist ein Ü bergewicht der nicht- vorhergesehenen Folgen. Die Weite des relevanten Zukunftshorizontes ist selbst eine Variable. Einerseitsändern sich heute in der Gesellschaft Strukturen schneller als früher; zum anderen rückt die Unprognostizierbarkeitsschwelle der Zukunft näher an die Gegen- wart heran. Sachlich wie zeitlich nimmt damit die Bedeutung des Nichtwissens … in Horizonten zu, die als handlungsrelevant entworfen werden. (Luhmann 1992c, S. 185- 186).

Systemintern lässt sich eine Etikettierung „strategische[r] Frühaufklärung als Management- prozess“ (Liebl 1996, S. 11) erkennen, sowie die Entdeckung des Phänomens Nichtwissen im Bereich des Wissensmanagements, infolge einer Fokussierung auf Wissen, welches als Unter- nehmensressource und Produktivitätsfaktor verstanden wird. Daraus resultierend erscheint Strategiegestaltung als Management von Wissen und Nichtwissen (vgl. Liebl 2004). Wir haben es dauerhaft mit der Problematik des unbekannten Nichtwissens zu tun, ohne zu wissen, inwieweit sich das, was wir nicht wissen, dass wir es nicht wissen, als relevant erweisen wird (vgl. Wehling 2006, S. 123). Mit den Worten von Peter Wehling folgt daraus „die paradox anmutende, wenn nicht gänzlich uneinlösbare Forderung, sich gerade gegen solche Gefährdungen zu wappnen, die man gar nicht kennt und von denen man nicht das geringste weiß“ (ebd., S. 9).

Innerhalb eines unsicheren, unbekannten, neuen und überraschenden Ereignisumfelds be- steht die Herausforderung in einem adäquaten kommunikativen Umgang mit dem, von dem wir als Beobachtende nicht wissen, dass wir nicht wissen und der damit einhergehenden systemspezifischen Intransparenz (vgl. Willke 2004, S. 54). Die vorliegende Studie beschäftigt sich mit der Frage: WIE kann eine Reflexion dessen, was wir nicht wissen, dass wir es nicht wissen, aussehen?

Beabsichtigt ist die Gestaltung eines Reflexionswerkzeugs für Entscheidende, speziell für den Einsatz in Situationen, in denen Daten, Informationen und/oder Wissen fehlen. Die Methode soll Entscheidungsträger darin unterstützen, das Phänomen, dass sie nicht wissen, was sie nicht wissen, zu reflektieren und zu moderieren.

Szenarien, als angewandte Methode der Zukunfts- und Trendforschung, scheinen mir als be- sonders geeignet für eine Reflexion von Nichtwissen (vgl. Steinmüller 1997, S. 48). Da „hochrangige Expertise immer weniger von Einzelkämpfern erarbeitet werden, sondern von Arbeitsgruppen, Projektteams oder in anderen Formen kollegialer Kooperation“ (Willke 2002, S. 129) gewinnt die Tätigkeit des Moderierens auch innerhalb der Szenariomethode an Relevanz.

Der Dokumentation und Verbreitung des Reflexionsprozesses kommt eine entscheidende Bedeutung zu, um das generierte Wissen innerhalb der Organisation, beispielsweise im Bereich des Stakeholdermanagements11, nutzen zu können.

Die Bildung von Vertrauen generierender Kommunikations- und Entscheidungskompetenz - verstanden als Grundlage anerkannter, wertgeschätzter Unternehmungen - lässt sich im Rahmen eines entsprechend sensibilisierenden Nichtwissensmanagements erwarten, denn mit den Worten Boris Groys geht die Gefahr „von dem aus, was der Mensch nicht bemerkt, wogegen er nicht gewappnet ist, was nicht im Mittelpunkt seiner Aufmerksamkeit steht, doch aus eben dieser verborgenen Quelle kann auch das Heil kommen“ (2004, S. 133).

2 Bezugsrahmen

Bevor ich Nichtwissen als heterogenes Phänomen und unbekanntes Nichtwissen im Speziellen beleuchte, möchte ich mich einführend den Konzepten der Wissenschaftler12 widmen, die mich in meinem Denken inspirieren, und mir damit als Beobachtungsinstrumente in Form von „Denkmustern“13 (Bateson 1985, S. 105) bei der Erstellung der vorliegenden Arbeit dienen. Ich orientiere mich an der Figur des Beobachters (2.1), an der Kybernetik zweiter Ordnung (2.2) und an der Formalisierung des Unterscheidungsprozesses in den „Gesetzen der Form“ (2.3). Aus meiner Sicht handelt es sich bei den genannten Konzeptionen um begriffliche Werkzeuge, die unsere Optionen erweitern.

2.1 Der Beobachter - eine Figur

“The notion of ignorance is relevant because it reminds us of the limits to predictability which lie in the human structure of cognition.“

(Malte Faber und John Proops 1990, S. 20)

Beobachten bedeutet, etwas zu bezeichnen und stellt damit immer eine Unterscheidung, eine Abgrenzung dar.14 Ein Unterschied, der im Kontext Zeit beobachtet wird, nennen wir Veränderung (vgl. Bateson 1985, S. 580).

Die Komplexität, beispielsweise in Form von Daten, Informationen und Wissen von der Welt, nimmt mit den Beobachtungen zu, weil eine Beobachtung im Moment ihres Stattfindens selbst nicht beobachten kann, WIE unterschieden wird. Ein Fragen nach dem WIE bezieht sich auf „prozedurales Wissen“, welches „unmittelbar in Handeln umgesetzt wird“ (Guber 1999, S. 32). Nur einem weiteren anderen Beobachter ist es im Moment des Stattfindens möglich, die Form der Unterscheidung zu beobachten. Heinz von Foerster spricht vom „blin- den Fleck“ des Beobachters (1993a, S. 26). Die Figur des Beobachters lässt sich als „selbst- referentielles, beobachtungsfähiges und deshalb negationsfähiges System“ beschreiben (Baraldi/Corsi/Esposito 1997, S. 132).

Bereits auf der Ebene der Daten hängt das, was wir erkennen können, von Instrumenten und Verfahrensweisen der Beobachtung und Dokumentation ab (vgl. Willke 2004, S. 28). Mit Blick auf die Erkenntnisfähigkeit von Menschen lässt sich festhalten, dass nur die Intensität eines Stimulus von Nervenzellen kodiert wird, „aber nicht die Natur der Erregungsursache (kodiert wird nur: »So-und soviel an dieser Stelle meines Körpers«, aber nicht was“) (von Foerster 1993a, S. 31). Dieser Umstand, dass sensorische Rezeptoren, die mit den Sinnes- wahrnehmungen verbunden sind, blind sind in Bezug auf die physischen Eigenschaften und damit blind in Bezug auf die qualitativen Unterschiede des Reizes, bezeichnet von Foerster als das „Prinzip der undifferenzierten Kodierung“ (ebd., S. 273).

Menschliches Wahrnehmen ereignet sich in Relation zu einem Bezugspunkt und lässt sich an Beziehungen und Beziehungsstrukturen diagnostizieren. Wahrnehmen beruht auf Bewegung, Abtasten oder Scanning:

Eine Beziehung wird hergestellt, dann … geprüft, und von dieser Prüfung wird dann eine Abstraktion gewonnen, die unserer Ansicht nach dem mathematischen Begriff der Funktion analog ist … Funktionen machen demnach das Wesen unserer Wahrnehmung aus; und … sind … « Zeichen für einen Zusammenhang … für eine Unendlichkeit möglicher Lagen von gleichem Charakter... » . (Watzlawick/Beavin/Jackson 2000, S. 28-29).

Wir müssen das Dilemma akzeptieren, mit komplexen, vernetzten, nichtlinearen und unserer Intuition widersprechenden Entwicklungen, beispielsweise bezogen auf exponentielle Entwicklungstendenzen15 zu rechnen, trotz der kognitiven Schwierigkeiten, die wir als Menschen hier haben (vgl. Dörner 2002).

Mit dem Ziel, mich den daraus resultierenden Konsequenzen für einen adäquaten Umgang mit unbekanntem Nichtwissen zu nähern, beleuchte ich ausgehend vom „blinden Fleck“ der Beobachterin (2.1.1) im Speziellen, Implikationen für die Wissenschaft (2.1.2) und Herausforderungen im Kontext von Innovationen (2.2.3) im Allgemeinen.

2.1.1 Der „blinde Fleck“ des Beobachtenden

„Die Abhängigkeit einer Erkenntnis von persönlichen Bedingungen lässt sich nicht formalisieren, weil man seine eigene Abhängigkeit nicht unabhängig ausdrücken kann.“

(Michael Polanyi 1985, S. 31)

Eine jede Beobachtung, verstanden als Basisoperation und bestehend aus der Tätigkeit des Unterscheidens und Bezeichnens, hat ihren „blinden Fleck“16 (von Foerster 1993a, S. 26-28). Der Beobachter sieht nicht, dass er eine Unterscheidung trifft und wie er sie trifft. Damit ist der Forscher im Moment der Beobachtung erster Ordnung nicht in der Lage, bestimmte Muster zu erkennen. Dirk Baecker formuliert:

Man kann nicht etwas bezeichnen, ohne anderes unbezeichnet zu lassen man kann nicht einmal sehen, daß[sic] man anderes nicht bezeichnet, denn man sieht ja genau und nur das, was man gerade bezeichnet ... man kann nicht einmal sehen, daß[sic] man eine Unterscheidung trifft um eine Bezeichnung vorzunehmen. (Baecker 1999, S. 23-24).

Die Unterscheidung produziert eine Zweiheit, eine Zwei-Seiten-Form. Beide Seiten sind an- wesend, können aber nur nacheinander aktualisiert werden. Erst die Beobachtung der Beobachtung des Beobachters (Beobachtung zweiter Ordnung) ermöglicht den blinden Fleck der Beobachtung erster Ordnung zu erkennen. Dabei kann nur beobachtet werden, wie - mit welcher Unterscheidung - beobachtet wird, nicht was beobachtet wird. Auch die Beob- achtung zweiter Ordnung ist wiederum blind für das, was sie nicht bezeichnet. Allerdings kann die Beobachterin zweiter Ordnung aus dem, was sie sieht, auf sich selbst schließen. In dem Moment, in dem der Beobachter die Frage nach der Einheit der Unterscheidung stellt, die er verwendet, entstehen Paradoxien17. Diese Paradoxien als Einheit, die für den Beob- achter nur als Zweiheit gegeben sind, werden als konditionierte Koproduktionen bezeichnet (vgl. Lau 2006, S. 201).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Beobachtung erster und zweiter Ordnung

Der Physiker Albert Einstein18 machte auf die Relativität von Beobachtungen in Abhängigkeit zum jeweiligen Standpunkt des Beobachters aufmerksam. Die Erkenntnis, dass Beobach- tungen das Beobachtete beeinflussen und so Vorhersagen unmöglich erscheinen, da die Unsicherheit der Beobachterin absolut ist, verdanken wir Werner Heisenberg.19 Der Beobachtende zweiter Ordnung, zu finden in unterschiedlichsten Rollen, als Rivale, Dolmetscher, Vermittlerin, Bote, Forscherin, Doppelagentin, Berater etc., steht nicht mehr außerhalb des beobachteten Anderen. Als Bezugspunkt wurde die Beobachtung der Welt, welche diese erst entstehen lässt, herausgearbeitet. Daten sind als solche objektiv nicht gegeben, sondern werden von einem Beobachter erhoben. Elena Esposito formuliert: „Der Beobachter ist autonom in dem Sinn, dass er die, die Welt ordnenden Unterscheidungen trifft“ (2005, S. 299, vgl. Spencer-Brown 1997, S. xxxii).

Eine Beobachtung erster Ordnung lässt sich als Detailbeobachtung interpretieren. Der Blinkwinkel, als auch der blinde Fleck ist klein, sodann resultiert daraus eine Blindheit gegenüber Mustern. Eine Beobachtung zweiter Ordnung entspricht demgegenüber einer Vergrößerung des Blickwinkels mit einhergehender Vergrößerung des blinden Flecks. Allerdings ermöglicht die damit einhergehende Unschärfe eine Identifizierung von Mustern, wobei sich Mustererkennung an der Verflechtung von Systemkomponenten orientiert (vgl. Vester 2002, S. 21, 54).20 Erst anschliessend an eine perzeptuelle Gruppierung verschiedener Konturen findet eine Identifizierung statt. Diese Szenensegmentierungen können vieldeutige Lösungen haben (vgl. Singer 2002, S. 150).21 Dabei ist zu reflektieren, dass wenn die Prä- zision steigt, die Relevanz abnimmt:

Wenn die Komplexität eines Systems zunimmt, wird unsere Fähigkeit geringer, präzise und signifikante Aussagenüber sein Verhalten zu machen, bis ein Grenzwert erreicht wird,über den hinaus Präzision und Signifikanz (oder Relevanz) sich nahezu gegenseitig ausschließende Charakteristiken werden … . Ein zusätzliches Prinzip kann im Anschluß[sic] daran so formuliert werden … . >Je genauer man sich ein Problem der Welt an- schaut, desto fuzziger wird seine Lösung<. (Lotfi Zadeh nach Kosko 1993, S. 180).

Für die Tätigkeit reflexiven Betrachtens fasst Weick zusammen, „wenn eine Person dies tut, ist es ihr nur möglich, die Aufmerksamkeit auf das zu richten, was schon passiert ist, nicht auf das, was noch kommen wird. Jedes Verstehen entspringt aus Reflexion und Rückwärtsschauen“ (1995, S. 277).

2.1.2 Die wissenschaftliche Beobachtung

„Steigerung des wissenschaftlichen Nichtwissens bedeutet ... vor allem, dass sich die Lücken, Grenzen und Ausblendungen des wissenschaftlichen Wissens in Form unerwarteter, unerkannter und unkontrollierbarer Effekte manifestieren.“

(Peter Wehling 2002, S. 261)

Für die traditionelle Wissenschaftstheorie lassen sich folgende charakteristische Aspekte zusammenfassen:

- Ontologische Grundannahme: Es existiert vor jeder menschlichen Erkenntnis eine objektiv wahrnehmbare Realität;
- Empirische Grundannahme: Das erkennende Subjekt generiert Erkenntnis über sys- tematische Beobachtung in Form von Gesetzen und Theorien, die sich kausal er- klären lassen;
- Methodologische Grundannahme: Die Wissenschaft liefert Regeln, die stetige Lern- prozesse initiieren und kontrollieren;
- Philosophische Grundannahme: Die durch Lernprozesse entstehenden Erkenntnisse (Gesetze in Form von beschriebenen Ursache/Wirkungs- oder Input/Output Zusam- menhängen) ermöglichen die technische Lösung von Problemen, wobei die Legi- timation von Normen dem wissenschaftlichen Urteil nicht zugänglich ist (Scherer 2002, S. 10).

Diese Anforderungen möchte ich unter Berücksichtigung der dargelegten Eigenschaften des forschenden Beobachters reflektieren.

Im Hinblick auf das System Wissenschaft ermöglichen Programme, wie Theorien und Metho- den, ein Operieren. Wie generiert die forschende Wissenschaftlerin durch die Operation der Beobachtung Erkenntnis? Realität lässt sich empirisch als eine nomologische und autopoie- tische Relation beobachten. Nomologische Realität ist formal logisch beschreibbar. Denotative Theorien behandeln nomologische Realität. Sie sind „abgrenzend, zuordnend und fest- legend ... sie bieten kontextunabhängige, stabile und exklusive Muster“ (Schülein/Reitze 2002, S. 192-193).

Autopoietische Realität „ist nicht nur eigendynamisch und bringt ständig neue Variationen hervor, sie ist auch widersprüchlich, also nicht auf einen einzigen Nenner zu bringen …. auto- poietische Wirklichkeit [ist] zu umfangreich ..., um vollständig manipulierbar zu sein“ (ebd., S. 193-194; vgl. 2.2.2). Diese Realität verlangt nach konnotativen Theorien, die es er- möglichen, mit eigendynamischen, unbestimmten und widersprüchlichen Prozessen um- zugehen: „konnotative Theorien stellen Verbindungen zwischen verschiedenen und ver- änderlichen Möglichkeiten und Wirklichkeiten her; sie variieren und sind verwendungs- abhängig“ (ebd., S. 232). Qualitative Forschung scheint mir der interpretationsbedürftigen Betrachtung von Unternehmungen, verstanden als Systeme nicht-trivialer Maschinen (vgl. 2.2.1, Weick 1995, S. 128), im Besonderen gerecht zu werden. Sie hat den Anspruch, „Lebenswelten «von innen heraus» aus der Sicht der handelnden Menschen zu beschreiben“ (Flick/von Kardorff/Steinke 2004, S. 14). Ziel ist es Deutungs- und Strukturmerkmale sozialer Wirklichkeiten zu entdecken, die Nichtmitgliedern verschlossen und den Akteuren oft nicht bewusst sind. Als Basis der qualitativen Forschung gelten folgende Annahmen:

- soziale Wirklichkeit wird durch Bedeutungszuschreibungen zwischen mindestens zwei Personen konstruiert;
- dieser Prozess erfolgt reflexiv;
- Lebensbedingungen („objektive“) werden durch subjektive Bedeutungen wirk-lichkeitsrelevant;
- als Ansatzpunkt der Forschung dient der kommunikative Charakter sozialer Wirk- lichkeit (vgl. ebd., S. 22).

Für die Forschungspraxis kennzeichnend ist „die Reflexivität des Forschers über sein Handeln und seine Wahrnehmung im untersuchten Feld“, und das Erkenntnisinteresse besteht im Verstehen22 von komplexen Zusammenhängen (ebd., S. 23): „Um eine Beobachtung »von innen« zu erreichen, müssen wir uns darüber hinaus an die Bedeutung halten, die die beobachteten Ereignisse für und durch die Wissenschaftler erhalten. Um zu diesen Bedeutungen zu gelangen, müssen wir uns der Sprache bedienen“ (Knorr-Cetina 1983, S. 50). Auch wenn Konsens in Bezug auf „Hermeneutik“ als Verfahren besteht, so lässt sich Unsicherheit bezogen auf die Form beobachten (vgl. Schülein et al. 2002, S. 171).

Die Interessen hermeneutischer Forschung betreffen im wesentlichen menschliche Interaktionen. Das sogenannte „Forschungsobjekt“ ist demnach vielmehr Subjekt und Prozess (kausal zirkulär, rekursiv).

Eine objektive Betrachtung von außen erscheint nicht möglich. Von Foerster begründet die Popularität von Objektivität: „sie enthebt uns unserer Verantwortung“ (1993a, S. 289). Henri Poincaré bemerkt: „ … nur in den Beziehungen muß [ sic ] die Objektivität gesucht werden; es wäre vergeblich, sie in den Dingen selbst, ganz ohne Beziehung zueinander suchen zu wol- len“ (1906, S. 201). Konnotative Theorien, die diesen Aspekten versuchen gerecht zu wer- den, entscheiden über das Datum, welches erhoben wird, sie konstruieren ihren Gegen- stand.23 Diese Betrachtung widerspricht den ontologischen und empirischen Grundannahmen der traditionellen Wissenschaftstheorie und steht damit unter Legitimationsdruck. Es kommt erschwerend hinzu, dass in der Praxis, der sich Wissenschaft zunehmend zu stellen hat24, No- mologie simuliert wird, um Entscheidungen zu rechtfertigen. Daraus resultiert, dass ein Um- gang mit komplexen Systemen, verstanden als autopoietische Wirklichkeit, erst erlernt wer- den muss. Angenommen eine Beraterin oder ein Forscher versteht sich als einen Teil der zu erforschenden Menge, zum Beispiel als einen teilnehmenden Beobachter, so resultieren daraus Widersprüche, gekennzeichnet durch Selbstreferenz. Einhergehend wird das kulti- vierte Rationalitäts- und Wahrheitsverständnis hinterfragt und die Bedeutung sozialer Inter- aktionsprozesse und Strukturen deutlich. Olaf Behrend stellt fest: „Im Wetten ist der Her- meneut geübt, weil er häufiger in seiner Forschung wetten muss, als die an Stochastik orien- tierten Forscher“ (2005, S. 87). Die Komplexität zwischenmenschlicher Interaktionen, lässt die Vielzahl der Methoden qualitativer Forschung plausibel erscheinen.

Mit Blick auf differierende Perspektiven und im Kontext kontinuierlicher Veränderungen, erscheinen die Möglichkeiten theoretischer und zeitpunktbezogener Konzeptualisierungen vielfältig und dynamisch. Ausgehend davon, dass es kein unbezweifelbares Bewertungssystem geben kann „aus dem sich Regeln wissenschaftlichen Arbeitens ableiten und gleichsam technisch anwenden lassen, muß [ sic ] sich der Wissenschaftstheoretiker ... auf eine Diskussion seines Beurteilungssystems einlassen“ (Scherer 2002, S. 33).

Als feste Konstante lässt sich die Tradition der methodologischen Grundannahme beobach- ten, die davon ausgeht, dass Wissenschaft Orientierungssysteme in Form von Methoden und Theorien liefert, die Lernprozesse initiieren und kontrollieren. Kernkriterien qualitativer For- schung, die der Bedeutung der Wissenschaftlerin in ihrer Rolle als Beobachterin und den Besonderheiten des „Untersuchungsgegenstandes“ gerecht werden, unterscheiden sich von quantitativen Kriterien. Hilfreich scheint ein Verzicht auf die Begriffe Objektivität, Reliabilität und Validität (vgl. Steinke 2004, S. 323). Wissen kann prinzipiell auch anders sein (vgl. 3.2), je nach Intention, angewendeten Methoden oder Kontext des Beobachters. Daraus ergibt sich die Notwendigkeit von intersubjektiver Nachvollziehbarkeit in Form einer reflektierten Dokumentation des Forschungsprozesses. Dabei steht die Frage nach dem WIE der Beob- achtung im Vordergrund: „Das WARUM des Verstehens mag noch geraume Zeit ein Geheim- nis bleiben, aber das WIE, die Logik des Verstehens - der Hintergrund von Gesetzen oder regelmäßigen Zusammenhängen - ist erforschbar“ (Whorf 1999, S. 38). Beziehungen, ver- standen als Interaktionsprozesse oder „autopoietische Realität“ (Schülein et al. 2002, S. 191), können mit einer linearen Denkweise von Ursache und Wirkung, die durch die Fragen 'Was' und 'Warum' erforscht wird, nicht angemessen beschrieben werden: „Zu fragen wie erfordert oft, daß [ sic ] wir eine radikal naive Haltung einnehmen und das Offensichtliche zum Problematischen machen“ (Knorr-Cetina 1984, S. 49; vgl. Watzlawick et al. 2000, S. 125).

Linearität bezieht sich auf Quantität: „Ein Prozeß [ sic ], bei dem eine bestimmte Ursache eine bestimmte Wirkung hervorruft, ist dann linear, wenn die doppelte Ursache auch die doppelte Wirkung hat“ (Wiener 1952, S. 42).25

Datenerhebung und Datenorganisation, verstanden als Basis und empirische Verankerung der eigentlichen interpretativen Theoriebildung, sollte nachvollziehbar dokumentiert werden. Anspruch, Intention, Annahmen und Erwartungen des Forschers; angewandte und begrün- dete Erhebungsmethode(n) und -kontext(e); verwendete Informationsträger, Transkriptions- regeln, Analyse- und Auswertungsmethode; die Problematisierung von Verstehen bezogen auf Sprechakte, sowie aufgetretene Widersprüche und Irritationen etc. sind dabei von In- teresse (vgl. Steinke 2004, S. 325). Die Bedeutung der Erfahrung, die mit der Nachvollzieh- barkeit ermöglicht werden soll, ist im Kontext der Erkenntnis-/ Wissensgenerierung spä- testens seit der Erfindung des Empirismus bekannt (vgl. Maturana 2002, S. 178-179). Die Dokumentation dient dazu, das Orientierungssystem des Forschenden verstehen zu lernen, sich durch die Augen des Anderen zu sehen. Nur so ist kommunikative Interaktion überhaupt möglich (vgl. von Foerster 1993a, S. 280). Im Kontext der Datenerhebung wird eben dieser Aspekt unter der Begrifflichkeit der „Kommunikativen Validierung“ diskutiert und betont. Die Selbstreflexivität der Erkenntnissubjekte wird hierbei vorausgesetzt, das Verhältnis zwischen Beobachterin und Beobachteten ist kooperativ und von einem Gewinn durch unterschiedliche Beobachtungsperspektiven wird ausgegangen (vgl. Breuer/Reichertz 2001,19 ). Intersub- jektive Nachvollziehbarkeit ermöglicht, neben der Kompensation etwaiger Einseitigkeiten oder Verzerrungen, zudem neue Interpretationen. Dieser Aspekt, der zu einem tieferen Ver- ständnis des Beobachteten führen kann, wird für die Phase im Feld unter dem Begriff der „Triangulation“ besprochen (vgl. Steinke 2004, S. 320).

Den Kern qualitativer wissenschaftlicher Arbeit sehe ich zum einen in der Reflexion der eigenen Unterscheidungen durch den Forschenden und zum anderen in der Interpretation der getroffenen Unterscheidungen. Dabei sollten sich Theorien „der Eigenlogik ihres je- weiligen Themas anpassen, ohne die reflexive Distanz zu verlieren“ (Schülein et al. 2002, S. 197).

Auch nicht-triviale Maschinen, wie Organisationen und Menschen, bilden Muster und Strukturen in Form von Eigenwerten26. Diese lassen sich als relativ stabile Gesetze in der Form von Routinen und Gewohnheiten beobachten, „die Leistung - die Kunst -, die von Theorie verlangt wird, ist also, das jeweilige Verhältnis von denotativer und konnotativer Theoriestruktur zu finden und zu formulieren“ (ebd., S. 203).

Wissenschaftliches Denken und Forschen stellt einen Prozess dar, in dem der Beobachter die Wahl hat, Unterscheidungen zu treffen. Diese Autonomie bedeutet Verantwortung und scheint auch mir an Individuen gebunden: „Eine Gesellschaft lässt sich nicht verantwortlich machen, man kann ihr nicht die Hand schütteln, sie nicht nach den Gründen ihres Handelns fragen - und es ist nicht möglich, mit ihr in einen Dialog einzutreten“ (von Foerster 2001, S. 39). Wissenschaftliches Wissen wird nicht als Abbild verstanden, sondern als dialogabhängig und relativ: „Wissenschaft hat sich selbst bei diesem Wandel zunehmend die Möglichkeit der

Erlangung von Erkenntnissicherheit abgesprochen“ (Breuer et al. 2001,35 ). Angenommen es gäbe absolute Erkenntnissicherheit, die wie ein Schatz zu heben ist, dann stände das Sys- tem Wissenschaft über kurz oder lang vor einem existentielleren Legitimationsproblem. Beobachtbar ist der Verlust von Vertrauen in die Autonomie von Wissenschaft in der Öffent- lichkeit - beispielsweise im Zusammenhang mit einer Thematisierung von Nichtwissen im Kontext der Gentechnik. Zudem wird „interne bzw. Selbst-Kontrolle der Wissenschaft ... zu- nehmend durch externe Fremd-Kontrolle ersetzt“ (ebd.,36 ; vgl. Wynne 2001, S. 74). Die Eigenlogik des Systems Wissenschaft verändert sich und der mit diesem Wandel einher- gehende Legitimationsdiskurs findet nicht nur systemintern, sondern gesellschaftlich statt. Vielleicht ist es inspirierend sich an Francis Bacon zu erinnern, für den der wesentliche Sinn der Wissenschaft im Bezeichnen von Trugbildern beziehungsweise Vorurteilen besteht (vgl. Bacon 1990, S. 163-165).

Franz Breuer und Jo Reichertz (2001,38 ) stellen resümierend die Frage:

... ob die Wissenschaft, nachdem sie Jahrhunderte benötigte, sich von dem Zugriff durch Kirche und Staat zu befreien, sich nun freiwillig der Logik der Wirtschaft, der Politik und der Medien unterwirft - als ob die Institution „ Wissenschaft “ in Erwartung finanzieller und symbolischer Ressourcen die eigenen Kriterien der Bewertung und somit ihr bisheriges Monopol auf die Bestimmung der Verfahren zur Produktion gesicherten Wissens aufgibt.

Diese bezeichneten Szenarien würden, so lässt sich vermuten, zu einer Auflösung der Insti- tution 'Wissenschaft' führen, da ohne Eigenlogik und Autonomie systemgenerierende Gren- zen fehlen. Die Erkenntnis, dass sich Wissen permanent modifiziert und damit eine sich än- dernde Bezeichnung von wahr und unwahr einhergeht, ist letztlich so alt wie die Wissen- schaft selbst und unter vielen anderen mit David Hume und seinem Wahrheitsskeptizismus zu belegen. Neu ist die Auseinandersetzung durch die Annahme, dass der Beobachter Teil des Beobachteten ist und so die Form und Formen selbstreflektierter Beobachtungen von Prozessen diskutiert werden, das heißt, die Forscherin wird als Untersuchungsinstrument thematisiert. Der Vorwurf des Solipismus und der Beliebigkeit sowie die Reflektion wissen- schaftlicher Verantwortung ist gegenwärtig ein Indiz dieses Diskurses. Plausibilität, Nach- vollziehbarkeit und Transparenz zugrunde liegender Werturteile gewinnen einer Analyse von Amara Roy zufolge, an Bedeutung (vgl. nach Steinmüller 1997, S. 46).

Aus der Thematisierung der Eigenverantwortlichkeit des Beobachters resultiert, dass wissenschaftliche Ergebnisse keine objektive Legitimation von Normen darstellen können. Die Verantwortung des Wissenschaftlers als Teil seines Wissenschaftssystems im Besonderen und der Wissenschaft im Allgemeinen begründet, aus meiner Sicht, die entscheidende Bedeutung eines kontinuierlichen Dialogs. Dieser betrifft beide Ebenen der Kommunikation, die interne ebenso wie die externe und sollte effektiver Weise interdisziplinär geführt werden. Interdisziplinarität ermöglicht eine Zusammenführung unterschiedlicher Beobachtungsebenen, die Daten, Informationen oder/und Wissen erzeugen können und als solche beobachtbar werden, wobei sich die Notwendigkeit der Entwicklung professioneller Reflexionsmethoden auch in Bezug auf den systemimmanenten Diskurs erkennen lässt.

2.1.3 Die Beobachtung des Neuen

„Prinzipiell gilt: Keine Innovation ist ohne Risiko!“

(Arnim von Gleich 2004, S. 164)

Das Ursprungsparadoxon der Innovation - verstanden als „Neuheit“27 - formuliert Jacques Derrida mit den Worten: „Die einzige Möglichkeit der Erfindung ist ... die Erfindung des Un- möglichen“ (vgl. 2003, S. 32). Demnach muss der Erfinder zunächst das Unmögliche ent- decken und beobachten lernen. Boris Groys bezeichnet „die Umwertung der Werte“ als Form der Innovation, „das als wertvoll geltende Wahre oder Feine wird … abgewertet und das früher als wertlos angesehene Profane, Fremde, Primitive oder Vulgäre aufgewertet“ (2004, S. 14). Er erinnert daran, dass „das Neue immer aus dem Alten besteht, aus Zitaten, Verweisen auf die Tradition, Modifikationen und Interpretationen des bereits Vorhandenen“ (ebd., S. 67, 44) und, dass das Neue als Differenz zu den im kulturellen Gedächtnis28 aufbewahrten Werten des Alten, in Beziehung gesetzt wird und eine Umwertung erfolgt (vgl. ebd., S. 119). Diese Umwertung der Werte des Vergangenen zum Zweck der Abgrenzung zu Aktuellem generiert den Eigenwert von Innovationen. Das kulturelle Gedächtnis definiert Groys als die Summe archivierter kultureller Werte und Bezug nehmendes Eigenverhalten in Form von Erinnerung an erstmalige Vergleiche (2004, S. 49, 119).

Paradox ist der Umstand, dass das zukünftig Neue in der Gegenwart mit Bewertungsmaß- stäben des Alten bewertet und kommuniziert wird. Entscheidungsprämissen beruhen auf vergangenen Entscheidungen des Systems, da vergangene Entscheidungen nicht mehr rückgängig gemacht werden können. Groys resümiert, „der Ursprung des Neuen kann … nur das Vergessen der kulturellen Tradition und der Verzicht auf die Summe von Vorurteilen … sein“ (ebd., S. 29). Daraus lässt sich ableiten, dass die Moderation von Innovations- prozessen, die eigentliche Innovation darstellen kann (vgl. Jansen 2006, S. 15). Unter- nehmungen beobachten in der Regel die Umwelt, die das bestehende Geschäft betrifft. Damit liegen beispielsweise radikale Innovationen, die einen neuen Markt durch eine neue Techno- logie generieren, im blinden Fleck von Organisationen. Zudem erinnert Karl Weick: „Die Umwelt beeinflusst Organisationen durch die Art wie sie wahrgenommen wird“ (2001, S. 133). Die gleichzeitige Konzentration einer Unternehmung auf das gegenwärtige Geschäft (Routine) und die Entwicklung eines neuen Geschäfts (Innovation) erscheint als schwer realisierbar und unwahrscheinlich. Kernkompetenzen können sich beispielsweise als Kern- rigiditäten auswirken (vgl. Willke 2002, S. 152).

Auch wissenschaftliche reflektierte Zukunftsprognosen bleiben an bereits etablierten „Erfahrungsräumen“ (Koselleck 1989, S. 349-375) gebunden. Ausgegangen wird zunehmend davon, dass unser Wissen gegenüber dem Neuen versagt.

Das 'Neue' ist als Qualität aktualisierbar. Quantität als Maßstab ist wenig hilfreich da jegliche Vergleichswerte fehlen. Als Konsequenz dieser Annahme muss demnach mit Überraschungen - die unseren Erwartungshorizont kreuzen - gerechnet werden.

Die Innovation besteht bei Derivaten beispielsweise darin, dass einzelne Risiken (Zins, Kurs etc.) vom Finanzierungsgeschäft gelöst, verbrieft und damit mobilisiert werden. Die Teil- risiken werden von Finanzmarktteilnehmern unterschiedlich eingeschätzt und können gegen eine Risikoprämie veräußert werden. Risiko wird zum Geschäft. Handlungen und Entschei- dungen die auf mögliche zukünftige Entwicklungen abstellen, können hier zu einer „Koloniali- sierung der Zukunft durch gegenwärtige Wissensansprüche“ führen (Rehmann-Sutter 2002, S. 230). Der „unendlich offene Möglichkeitsraum“ (ebd.) der Zukunft wird von der Gegenwart determiniert, in dem Moment, in dem wir zu wissen glauben, was die Zukunft bringen wird. Die Szenariomethode ermöglicht eine Identifizierung von Trend- und Themenindikatoren - verstanden als Indikatorvariablen des Systems - innerhalb des Umfelds und zeichnet sich durch ihr Potenzial aus, Routinen in Form von Eigenwerten und die Existenz von blinden Flecken zu reflektieren.

2.2 Die Kybernetik - eine Erkenntnistheorie

„Wenn »Epistemologie« nicht als Theorie der Erkenntnis bzw. des Wissens an sich, sondern als Theorie des Erkenntnis- und Wissenserwerbs verstanden wird, dann ist Kybernetik - so behaupte ich - der für eine solche Epistemologie angemessene begriffliche Rahmen; denn die Kybernetik ist die einzige wissenschaftliche Disziplin, die eine strenge Behandlung kreiskausaler Phänomene ermöglicht.“

(Heinz von Foerster 1993a, S. 50)

Eine explizite Benennung der Aspekte, auf welche sich die Theorie bezieht, beziehungsweise welche Bedingungen minimal erfüllt sein müssen, damit das in der Theorie beschriebene Phänomen auftritt, ist wünschenswert, um eine Einschätzung der situativen Angemessen-heit der Regler abhängig von dem Verhalten der Regelstrecke (Black Box) auf einen gegebenen Input die Stellgrößen variiert. Durch die permanente Interaktion (Rückkopplung) lassen sich Muster der Regelstrecke erkennen, auf die der Regler gezielter einwirken kann. Die Methode der Eingangsmanipulation und Ausgangsklassifikation stellt einen kausalen zirkulären Prozess dar, wobei die Kybernetik erster Ordnung von trivialen Maschinen ausgeht. Diese sind vorhersehbar, analytisch bestimmbar und geschichtsunabhängig (vgl. von Foerster 1993a, S. 246).

Von der Idee des geschlossenen Kausalkreises ausgehend, ist ein zentrales Thema der Kybernetik Zirkularität und Rekursivität im Unterschied zu linearer Kausalität (vgl. von Foerster 1993b, S. 63; ebd. 1993a, S. 51; Watzlawick et al. 2000, S. 47).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Komplexitätsexpertise

Ein Beispiel, um die Zirkularität zu erläutern ist das Steuern eines Bootes, da der Begriff der Kybernetik auf das griechische Wort für Steuermann zurückgeht. Ein Steuermann, der ein Boot sicher in einen Hafen manövrieren will, absolviert kein ein für allemal festgelegtes Programm. Er variiert dies permanent indem Kursabweichungen ins Kalkül gezogen werden. Er steuert entsprechend gegen, gemäß seines Zieles, das er erreichen möchte, den Hafen. Das Betätigen des Steuers, eine Ursache, erzeugt eine kurskorrigierende Wirkung. Jede Wirkung wird wieder zur Ursache und stellt einen zirkulär kausalen Steuermechanismus dar. Hier findet das statt, was Ludwig Wittgenstein bezeichnet mit: „Das Resultat einer Operation [kann] ihre eigene Basis werden“ (1989, S. 100).

Bei Organisationen, Institutionen und Individuen handelt es sich um unvorhersehbare, analytisch nicht bestimmbare, synthetisch determinierte und geschichtsabhängige Systeme. Ein zentrales Problem besteht darin, dass der Mensch in Unternehmungen, aufgrund unvoll- kommener Information und beschränkter Informationsverarbeitungskapazität nicht als triviale Maschine betrachtet werden kann. Die Kybernetik, die sich mit der Selbstorganisation durch selbstreferenzielle Interaktion von nicht-trivialen Maschinen, beispielsweise Menschen oder Unternehmungen beschäftigt, bezeichnet von Foerster als Kybernetik zweiter Ordnung.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Triviale Maschine (TM) nach von Foerster 1993a, S. 245

2.2.1 Kybernetik zweiter Ordnung

„Das auszeichnende Merkmal der trivialen Maschine ist Gehorsam, das der nicht-trivialen Maschine augenscheinlich Ungehorsam.“

(Heinz von Foerster 1993b, S. 247)

Mit der Kybernetik zweiter Ordnung betritt der Beobachter die Bühne und die Möglichkeit der Selbstreflexion kommt ins Spiel, da sich Begriffe zweiter Ordnung erkenntnistheoretisch auf sich selbst anwenden lassen.

Nicht-triviale Maschinen reagieren auf einen gegebenen Stimulus nicht immer wie bereits zu einem früheren Zeitpunkt beobachtet. Gregory Bateson prägte den Begriff der „Kontext- markierung“: „Ein Organismus reagiert auf »denselben« Reiz in verschiedenen Kontexten verschieden“ (1985, S. 374). Von Foerster belegt, dass es unmöglich ist, das Verhalten einer nicht-trivialen Maschine mit einer endlichen Anzahl von Tests zu erschließen. Wenn beliebig viele nicht-triviale Maschinen interagieren, entspricht das Resultat dem einer nicht-trivialen Maschine, bei der das Ergebnis ihrer Operation zirkulär auf sich selbst zurückwirkt (ebd. 1993a, S. 358-360). Diese rekursive Operation oder operationale Schließung lässt sich als charakteristisch für selbstreferenzielle Systeme benennen. Selbstreferenz entsteht, wenn wir um das Instrument einer Analyse analysieren zu können, dasselbe als Instrument benutzen müssen. Das bedeutet, das ICH steigt als Sprecher in das, was gesprochen wird, hinein. Dies wiederum bedeutet, dass die Funktion plötzlich ihr eigenes Argument wird. Wenn das pas- siert, findet unentwegt eine Oszillation zwischen zwei unterschiedlichen Werten statt. Das beobachtbare Ergebnis einer dauerhaften Selbstreferenz33 einer nicht-trivialen Maschine be- zeichnet von Foerster als Eigenwert. Damit entsteht in einem zirkulären Prozess etwas Neues, unabhängig vom Startpunkt der Operationen, d.h. keine der nicht-trivialen Maschinen ist allein die Ursache. Dies gilt Allgemein für Nichtlinearität. Wiener erinnert: „Indessen ist keine der wirklich katastrophalen Erscheinungen in Natur und Experiment auch nur an- nähernd linear“ (1952, S. 42). Es werden potenziell vorhandene Strukturen realisiert, die sich nicht vorhersehen lassen, da sie emergent sind, d.h. sie ergeben sich durch die Inter- aktion der einzelnen Teile. Kommunikationstheoretisch folgt daraus, dass interagierende Akteure Eigenverhaltensweisen ausbilden, „die in der Sicht eines Beobachters als Kom- munikabilien (Zeichen, Symbole, Wörter usw.) erscheinen“ (von Foerster 1993a, S. 279- 280). Begriffe, Rituale, Bräuche oder auch Kulturen können als Eigenverhalten oder Eigen- d.h. der Beobachter und das Beobachtete sind miteinander verknüpft.34 Berücksichtigt wird der Zustand in welchem sich die nicht-triviale Maschine zum Zeitpunkt des Inputs befindet: „Mit Hilfe des Zustandsvektors, der sich aus dem Anfangszustand und dem bisher erfolgten Input ergibt und somit die zukunftsrelevante Vergangenheit darstellt, wird ein Verständnis für dynamische Aspekte von Systemen erzeugt“ (Debus 2002, S. 29).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Nicht-triviale Maschine (NTM) nach von Foerster 1993a, S. 248

Von Foerster beobachtet drei Strategien im Umgang mit nicht-trivialen Maschinen: Ignoranz, Trivialisierung und die Entwicklung einer Epistemologie der Nicht-Trivialität (vgl. ebd., S. 360). Der letztgenannten Strategie folgend, widme ich mich den „Laws of Form“ von George Spencer-Brown, da sie mir im Umgang mit Widersprüchen, welche sich aus rekursiven Prozessen ergeben können, hilfreich erscheinen. Spencer-Brown hat als erster einen mathe- matischen Formalismus entwickelt, der die praktisch beobachtbare Selbstbezüglichkeit legi- timierte. Zum Verständnis von Selbstreferenz, möchte ich zuvor das Konzept der Autopoiese skizzieren.

2.2.2 Die Autopoiese - ein Konzept

„Was Zukunft betrifft, heißt Autopoiesis, dass keine Entscheidung einen abschließenden Systemzustand, einen Ruhezustand erzeugt, sondern jede Entscheidung eine Zukunft mit weiteren Entscheidungen vor sich sieht.“

(Niklas Luhmann 2006, S. 181)

Autopoietische Organisation ist der grundlegende Mechanismus des Lebendigen. Sie be- zeichnet den Prozess der Selbsterschaffung und -erzeugung eines Systems und will damit die Tatsache betont wissen, dass Lebewesen grundsätzlich autonom sind. Humberto Maturana und Francisco Varela verstehen Autonomie folgendermaßen: „Ein System ist autonom, wenn es dazu fähig ist, seine eigene Gesetzlichkeit beziehungsweise das ihm Eigene zu spezi- fizieren“ (1987, S. 55). Als Konsequenz dieser Autonomievorstellung ergibt sich nun, dass Interaktionen systeminterne Reaktionen und Veränderungen nur auslösen, sie jedoch in keinerlei Weise determinieren oder vorschreiben können. Das System ist durch system- immanente Wahrnehmungs- und Verarbeitungsprozesse mit seinem Milieu verbunden. Zwi- schen beiden besteht eine strukturelle Kopplung, die sich durch stabile rekursive Inter- aktionen entwickelt hat, welche in allen Beteiligten wechselseitige Strukturveränderungen auslöst.

2.3 Die „Laws of Form“ - ein Kalkül

„Das Potential einer formalen Theorie liegt für die praktische Arbeit darin, über eine Kommunikationsebene zu verfügen, die geteilt werden kann, auch wenn sich inhaltliche Differenzen ergeben oder so verschiedene Kontexte, dass eine Verständigung auf inhaltlicher Ebene unmöglich scheint. Auf der Ebene der Form kann es möglich werden, sich über verschiedene Kulturen oder Meinungen hinweg zu treffen.“

(Katrin Wille 2004, S. 259)

Im Weiteren folge ich der Vermutung, dass die 'Gesetze der Form' das Potenzial besitzen, neue Perspektiven innerhalb der Auseinandersetzung mit Nichtwissen und unbekanntem Nichtwissen zu generieren.

Unbekanntes Nichtwissen verweist, so meine ich, auf inhaltliche Unklarheiten und Diffe- renzen sowie auf eine Präferenz der inhaltlichen Ebene. Das Potenzial formaler Theorien wird, meiner Beobachtung nach, zugunsten spezieller inhaltlicher Daten vernachlässigt. Das kann zu Verwirrungen und Verzerrungen führen, die Nichtwissen befördern und erzeugen. Deshalb halte ich eine Reflexion unbekannten Nichtwissens auf der Ebene der Form für we- sentlich. Eine Theorie kann hier Klarheit erzeugen, weil sie ein formales Fundament zur Ver- fügung stellt, dass sich hinter inhaltlich differenzierten Phänomenen verbirgt.

Mit den Gesetzen der Form ('Laws of Form') von Spencer-Brown liegt uns ein mathema- tisches Kalkül vor, das den Anforderungen einer verbindenden Theorie gerecht wird. Das Kalkül bezeichnet alle Formen als möglich und veränderlich und dass die Gesetze, die diese Formen in Beziehung bringen, stets dieselben bleiben. Als komplexitätstauglich erweist sich die formale Lösung der Selbstbezüglichkeit, die wiederum eine theoretische Begründung der Kybernetik zweiter Ordnung liefert.

In dem im Imperativ verfassten Kalkül der Bezeichnungen beleuchtet Spencer-Brown den Unterscheidungsprozess vom Ursprung her. Er begreift den Akt des Unterscheidens als eine fundamentale Operation des Denkens und Handelns, welche unsere Wirklichkeit erzeugt. Etwas Allgemeines wird veranschaulicht, etwas, das sich unserem Blick entzieht, weil es allgegenwärtig und äußerst gewöhnlich ist. Der primäre Akt der Trennung liegt verborgen in unserem Inneren (vgl. Spencer-Brown 1997, S. xxxv). Wir haben vergessen, dass wir Unterscheidungen treffen. Spencer-Brown wünscht, dass wir uns erinnern.

Bewusst verabschiedet er sich von der Beschreibung etwaiger Ist-Zustände. Der Text be- schreibt nirgendwo, was oder wie irgendetwas ist. „Unterscheidung ist perfekte Beinhaltung“ (ebd., S. 1), sagt lediglich wie wir Unterscheidung an dieser Stelle definieren sollen (vgl. ebd., S. x).

Die ursprüngliche Idee Spencer-Browns besteht darin, dass wir so tun, als ob die Grund- operation des Denkens und Handelns im Unterscheiden und Bezeichnen besteht (vgl. ebd., S. 1). Der Anweisung „Triff eine Unterscheidung!“ (ebd., S. 3) ist zu folgen, um anschliessend zu beobachten, was wie geschieht.35 Nur nach dieser Methode lässt sich, so Spencer Brown, Wissen generieren. Beschreibungen hingegen kann man glauben oder lernen, dadurch entsteht jedoch kein Wissen.

An die Stelle von Identitäten treten mit den Gesetzen der Form Unterscheidungen, d.h. eine zweiwertige Unterscheidung erscheint in dreiteiliger Form: „Jede Kennzeichnung impliziert Dualität, wir können kein Ding produzieren, ohne Koproduktion dessen, was es nicht ist, und jede Dualität impliziert Triplizität: Was das Ding ist, was es nicht ist, und die Grenze da- zwischen“ (ebd., S. xviii). Die fundamentale Unterscheidung im Kalkül ist die zwischen markiertem Zustand ('marked state', was das Ding ist) und unmarkiertem Zustand ('un- marked state', was das Ding nicht ist). Markierter und unmarkierter Zustand bilden zu- sammen die Unterscheidung, mit welchem das Kalkül operiert. Eine Anzahl von Unterschei- dungen, symbolisiert durch mehrere ineinander geschriebene Kreuze [ ], werden Ausdruck genannt. Und der Wert eines Ausdrucks soll nur ein Zustand sein, der durch nur einen Ausdruck bezeichnet wird. Der Wert des Ausdrucks ist entweder der markierte oder der un- markierte Zustand.

Spencer-Browns Kalkül der Bezeichnungen beginnt im Nichts. In dieses Nichts setzt er ein Zeichen [ ], genannt Markierung der Unterscheidung als die zentrale Form. Es entsteht die erste Unterscheidung. Bevor wir irgendetwas bezeichnen oder benennen können, so Spencer-Brown, haben wir die Welt, durch das Verlangen zu unterscheiden, geteilt. Die erste, immer schon gegebene Entscheidung ist die für eine Unterscheidung zwischen Selbst (Beob- achter) und Anderem (Beobachtetem) (vgl. Lau 2006, S. 108). Generiert wird Raum be- stehend aus zwei Seiten, synonym lässt sich von Räumen und Zuständen sprechen. Zeit existiert an dieser Stelle noch nicht. Das Gesetz des Nennens und das Gesetz des Kreuzens sind die beiden Axiome, an denen Nennung ist der Wert der Nennung“ (1997, S. 2). Das Axiom 2 lautet:„Der Wert eines nochmaligen Kreuzens ist nicht der Wert des Kreuzens“ (ebd.). Beide stehen bevor mit dem Befehl 'Triff eine Unterscheidung!' der Startschuss für den Unterscheidungsprozess gegeben wird, bestimmen sozusagen von außen die innere Entwicklung des Kalküls.

Aus dem Axiom 1 folgt die Form der Kondensation: = . Sie besagt, dass wir uns in einem derart undifferenzierten Zustand befinden, dass in einem Außenraum zwei Unter- teilungen des Innenraumes ununterscheidbar sind. Sie können daher zu einer Nennung kondensieren, ohne dass sich der Wert verändert. Der Wert, der durch die Form der Konden- sation bezeichnet wird, ist der Wert des markierten Zustands. Er wird dominanter Wert genannt. Erkannt wird dieser durch das Zeichen: , welches den Namen Kreuz ('cross') erhält, um zu bezeichnen was beabsichtigt ist. Beabsichtigt ist, die erste Unterscheidung in den Zustand zu kreuzen, der durch die Innenseite des Kreuzes markiert wird. Alle Kreuze sind von konstanter Form, identisch, mit Ausnahme ihrer räumlichen Position. Im zweite Teil von Axiom 1 heißt es, dass das Kreuzen der Grenze, ein Motiv oder eine Absicht oder An- weisung, die Grenze in den Inhalt hinein zu kreuzen, ebenso mit dem Wert des Zustandes identifiziert werden kann.

Aus dem Axiom 2 folgt die Form der Aufhebung: = . Sie besagt, dass nochmaliges Kreu- zen die Aufhebung des Wertes einer Teilunterscheidung bewirkt. Einer der beiden Zustände ist stets unmarkiert, also unbenannt und so wird die Grenze vom markierten Zustand in den anliegenden namenlosen Zustand gekreuzt. Die Form der Aufhebung bezeichnet den Wert der rezessiven Konstante. Der Wert des unmarkierten Zustands ist rezessiv (vgl. ebd., S. 14, 37). Erkannt werden kann der unmarkierte Zustand durch die Abwesenheit des Kreuzes.

Mittels der Gesetze des Nennens und Kreuzens kann jeder beliebige endliche Ausdruck, durch die Schrittfolgen von Kondensation und Aufhebung, auf einen dieser zwei einfachen Ausdrücke zurückgeführt und somit ihr Wert bestimmt werden. Denn einen Zustand gibt es nicht ohne den Anderen, obwohl unterschieden, bedingen sie sich gegenseitig. Mit diesen beiden Werten muss gerechnet werden.

Das Kalkül handelt von eindeutiger, unverwechselbarer, vollständiger Bezeichnung durch Wertbestimmung, sofern mit endlichen Ausdrücken, bzw. Gleichungen und Funktionen ersten Grades operiert wird. Immer wird definitionsgemäß 'perfekt be-inhaltet'. Wir wissen, wo wir uns in der Form befinden: eindeutige Entscheidbarkeit = markiert unmarkiert. Daran ändert sich auch nichts, wenn variable Formen in der Kalkulation erscheinen. Sobald jedoch unendliche Ausdrücke, bzw. Gleichungen und Funktionen zweiten Grades erlaubt werden, verändert sich die Situation grundlegend.

Aus einen endlichen Ausdruck generiert Spencer-Brown einen unendlichen Ausdruck. Die Lösung unendlicher Ausdrücke begründet er damit, dass der gekreuzte Teil des Ausdrucks in jeder geraden Tiefe36 identisch ist mit dem endlichen Ausgangsausdruck (vgl. Spencer-Brown 1997, S. 47-59). Dieser tritt in seinen eigenen Raum bzw. Zustand wieder ein. Die Grenze wird nicht gekreuzt, sondern unterwandert. Spencer Brown etikettiert diesen Wiedereintritt der Unterscheidung in den bezeichneten Bereich mit „re-entry“:

verboten worden. Verständlicherweise führt sie doch bekanntlich in endlichen Gleichungen zu enormen Schwierigkeiten.

Das Kalkül erlaubt, mit dem eingeführten 're-entry', die Lösung unendlicher Gleichungen in endlichen Kalkulationen. Eine Operation kann, mit dem Wiedereintritt der Unterscheidung in die eigenen Form, ihr eigenes Resultat als Basis haben und die Funktion kann ebenso ihr eigenes Argument sein (vgl. ebd., S. 84). Selbstbezüglichkeit muss nicht zwingend zu Wider- sprüchen führen. Es gibt Gleichungen, die nach wie vor mit den bekannten Zuständen [ ] und [ ], vergleichbar den digitalen Werten Null0 und eins1, gelöst werden können, aber nicht alle.

Damit alle Gleichungen lösbar sind, ist es erforderlich, einen imaginären Wert zuzulassen, der von einem der bekannten Zustände zu dem anderen oszilliert. Diese Oszillation führt zu der Einführung der Dimension Zeit. Die Gleichzeitigkeit der unterschiedenen Zustände kann mit dieser Dimensionserweiterung in ein Nacheinander transformiert werden. Es findet eine Ausdehnung in der Zeit statt, um zu beinhalten was dann sein wird.

Erst wenn ein Grenzwechsel stattgefunden hat, kann wieder klar bestimmt werden, wo wir uns in der Form befinden. Der Unterscheidungsprozess insgesamt ist für Spencer-Brown ein Wechselspiel des Aufdeckens und Verdeckens. Gemäß dem fünften Kanon „Erweiterung der Referenz“ (ebd., S. 9) kann dieser Prozess grenzenlos fortgesetzt werden. Den Anweisungen und Argumenten in den Gesetzen der Form folgend lässt sich sehen, dass der Akt des Unterscheidens Wirklichkeit schafft, indem eine Grenze mit zwei Seiten pro- duziert wird. Wir sehen eine Seite einer Ding-Grenze, weil wir die andere nicht sehen. Wir sehen nicht, damit wir sehen können. Spencer-Brown spricht von selektiver Blindheit. Sie ist der Preis, den wir für unsere Existenz zahlen (vgl. ebd., S. 191). Selektive Blindheit korreliert für mich mit Nichtwissen im Allgemeinen.

Im Unterscheidungsprozess liegt Selbstbezüglichkeit verborgen. Ein imaginärer Wert in der Zeit wird benötigt. Mit der Zeit kommt eine weitere Blindheit ins Spiel, Blindheit der Zukunft gegenüber. Sie bedeutet Nichtwissen, weil Neues in der Zeit entsteht. Die Blindheit bezüglich der Zukunft korreliert für mich mit unbekanntem Nichtwissen.

Jeder Akt des Unterscheidens generiert Existenz. Dieser Prozess impliziert Verantwortung, die fälschlicherweise in einem externen und von der eigenen Person abgelösten Raum ver- mutet wird.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Laws of Form

[...]


1 Die Etymologie des Begriffs Risiko ist nicht eindeutig geklärt (vgl. Kluge 2002, S. 267). „Ein Risiko ist ein Aspekt von Entscheidungen, und Entscheidungen können nur in der Gegenwart getroffen werden …. Risiko ist … eine Form für gegenwärtige Zukunftsbeschreibungen unter dem Gesichtspunkt, daß [ sic ] man sich im Hinblick auf Risiken für die eine oder die andere Alternative entscheiden kann“ (Luhmann 1992b, S. 142). Vgl. den Begriff des „Entwicklungsrisikos“ (Ewald 1998, S. 17).

2 Vgl. http://www.zeit.de/2009/38/DOS-Asse.

3 „Es geht darum, dass alle Marktteilnehmer, alle Produkte und alle Märkte wirklich reguliert oder überwacht werden. Es soll keine blinden Flecken geben und genau das werden wir auch schaffen“ (Angela Merkel zum Finanzgipfel in Washington am 15. September 2008). Unter http://www.tagesschau.de/multimedia/sendung/ts8570.html, am 17.09.2008.

4 Vgl. Tagesschau vom 23.06.2009 verfügbar unter: http://www.tagesschau.de/inland/rekordverschuldung106.html am 23.06.2009.

5 Beobachtungsfeld: Kapitalismuskongress, 6.-8. März 2009, Berlin, Thema „Kapitalismus am Ende?“.

6 Vgl. Saatgutkonzern Monsanto klagt gegen Genmais-Verbot unter: http://www.handelsblatt.com/unternehmen/industrie/monsanto- klagt-gegen-genmais-verbot;2248953 vom 22.04.2009 am 22.04.2009.

7 „Die Nanotechnologie könnte die erste Wissenschaft werden, in der Forscher eine größere Gefahr sehen als die Öffentlichkeit" Vicki Stone in der Süddeutschen Zeitung vom 18.02.2008. Unter: http://www.sueddeutsche.de/wissen/630/433379/text/.

8 Vgl. US-Finanzaufsicht: Warnung vor Derivaten knallhart geblockt. Unter: http://www.wiwo.de/finanzen/us-finanzaufsicht-warnung- vor-derivaten-knallhart-geblockt-377948/ vom 17.11.2008 am 22.04.2009.

9 Das Adjektiv komplex, lässt sich zurückverfolgen zu „ lat. complexus, dem PPP. [Partizip Perfekt Passiv] von lat. complect ī »umschlingen, umfassen« zu lat. plectere »flechten, ineinander flechten«“ (Kluge 2002, S. 516) . Vgl. Dörner 2002, S. 58-62.

10 Technologie verstanden als eine feste Kopplung kausaler Elemente, wobei die Elemente physische, chemische, biologische oder soziale sein können. So kann sowohl der Verbrennungsmotor als auch der Containertransport als Technologie verstanden werden (vgl. Luhmann 2006, S. 364).

11 Unter Stakeholdern verstehe ich alle Personen und Personengruppen, die an der Unternehmung (Unternehmen, Organisation, Institution etc.) Anteil nehmen.

12 In dieser Arbeit verwende ich entweder die männliche oder die weibliche Form, wobei ich mich um eine diesbezügliche Ausgeglichenheit bemühe. Die jeweils aus Gründen der Lesbarkeit nicht explizit genannte Form wird mit gemeint.

13 „Wir können sagen, daß [ sic ] die Denkmuster der Individuen so standardisiert sind, daß [ sic ] ihnen ihr Verhalten als logisch erscheint“ (Bateson 1985, 105).

14 Vgl. Selbstbeobachtung, systemtheoretisch verstanden als „Handhabung von Unterscheidungen“ (Luhmann 1987, S. 63).

15 Exponentielles Wachstum führt zu Katastrophen (vgl. Lerf/Schuberth 2004, S. 228).

16 Der blinde Fleck dient als Metapher in Analogie zum Sehnerv-Phänomen des Auges, vergleiche Selbstexperiment zur Unvollständigkeit unseres Sehfeldes Anhang 1.

17 „Die Paradoxie ist … ein epistemologisches Warnlicht, das zu blinken beginnt, wenn - im Sinne von Glasersfeld - eine Konstruktion nicht mehr paßt [ sic ] oder … wenn es sich herausstellt, was die Wirklichkeit nicht ist.“ (Watzlawick 2008, S. 231).

18 Vgl. Allgemeine Relativitätstheorie.

19 Vgl. Heisenbergsche Unschärferelation 1927 (Unbestimmtheitsprinzip): Je exakter sich die Position bestimmen lässt, desto größer erscheint die Ungenauigkeit hinsichtlich der Geschwindigkeitsbestimmung. Dieses Prinzip gilt auch umgekehrt.

20 Vgl. Selbstexperiment zur Mustererkennung Anhang 2.

21 Vgl. Selbstexperiment zur Szenensegmentierung Anhang 3.

22 Im Sinne eines methodisch kontrollierten Fremdverstehens heisst Verstehen, die Perspektive des Anderen nachzuvollziehen. 13

23 Ich entscheide mich daher formal für die erste Person Singular, um der unvermeindlichen Subjektivität meiner Beobachtungen gerecht zu werden.

24 Die Technologiefähigkeit von Forschung, die technische, ökonomische und soziale Verwertbarkeit betreffend, benennen Breuer und Reichertz (2001,21 ) als eigenständiges Wissenschaftskriterium.

25 Fortschritt ist nicht zwingend mit einer linearen Aufwärtsentwicklung verbunden (vgl. Lerf/Schuberth 2004, S. 229).

26 Die Begriffe Eigenwert oder Eigenfunktion wurden von David Hilbert (1971) eingeführt.

27 Etymologisch lässt sich Innovation auf das lat. Wort innovatio zurückführen, welches „Erneuerung und Veränderung“ bedeutet, als Abstraktum zu lat. innovare „erneuern“ und zu lat. novus „neu“ (vgl. Kluge 2002, S. 442).

28 Der Begriff Gedächtnis erinnert etymologisch an „mhd. gedæhtnisse, ahd. githrhtnissi »das Denken an etwas«. Adjektiv-Abstraktum zum Partizip von (ge)denken …. Später »Erinnerung« und »Erinnerungsvermögen«“ (Kluge 2002, S. 336). der Daten in und für die Praxis ist eine Wissenschafti von der Struktur komplexer Systeme. Diese beschäftigt sich mit Problemen der Lenkung von Systemen, die sich aiuf Maschinen und mit der Kybernetik zweiter Ordnung auch auf Menschen beziehen lassen. Navigieren ist die Tätigkeit des kybernetischen Beobachters und dient dynamischen, selbstregulierenden Systemen dazu, ein Gleichgewicht aufrechtzuerhalten und ein vorgegebenes oder immanentes Ziel zu erreichen. Zwei kybernetische Grundprinzipien sind dabei charakteristisch: Steuerung und Regelung. Bei der Steuerung wirkt ein Steuerelement auf eine Steuerstrecke ein, um von der Steuerstrecke einen gewünschten Output, den eine Führungsgröße für die Steuereinrichtung definiert, zu erhalten. Vorraussetzung dafür ist eine exakte Kenntnis des Verhaltens der Steuerstrecke und der einwirkenden Störgrößen, um den exakten Input (Stellgrößen) geben zu können. Diese Vorraussetzung ist selten gegeben, deshalb wird bei der Lenkung von Systemen oft eine Rückkopplung einbezogen. Die Rückkopplung führt zum zweiten Prinzip, dem der Rege- lung, „auf der Grundlage ihrer [der Maschine] tatsächlichen statt ihrer erwarteten Verrich-

29 Auch die traditionelle Subjekt-Objekt-Sichtweise kann sich als situativ angemessen erweisen.

30 Ich verstehe theoretische und wissenschaftliche Auseinandersetzungen im Medium der Sprache, als einen Akt praktischen Handelns.

31 Begründer der Kybernetik im modernen Kontext ist der Mathematiker Norbert Wiener (1968).

32 Der Begriff ‚Maschine’ bezieht sich hier auf „funktionale Eigenschaften einer abstrakten Größe“ (von Foerster 1993a, S. 206). tung“ (Wiener 1952, S. 23). Es ist keine exakte Kenntnis des Verhaltens mehr notwendig, da

33 Maturana/Varela (1987) verwenden synonym den Begriff der ‚strukturelle Kopplung’.

werte verstanden und beobachtet werden. Die neue Perspektive ist eine konstruktivistische,

34 Im Sinne Kants und seiner „Kritik der reinen Vernunft“.

35 Vgl. die Methode im Zusammenhang mit Partituren in der Musik, Rezepten oder Formeln in der Mathematik. 23 Spencer-Brown sein Kalkül ausrichtet. Das Axiom 1 lautet: „Der Wert einer nochmaligen

36 „In einem Arrangement a, das in einem Raum s steht, nenne die Anzahl n von Kreuzen, die überschritten werden müssen, um einen Raum sn von s aus zu erreichen, die Tiefe von sn bezüglich s.“ (Spencer-Brown 1997, S. 6) Üblicherweise wird von Selbstbezüglichkeit gesprochen, bis dato von traditionellen Logikern

Details

Seiten
108
Jahr
2009
ISBN (eBook)
9783640894178
ISBN (Buch)
9783640894246
Dateigröße
37.8 MB
Sprache
Deutsch
Katalognummer
v160471
Institution / Hochschule
Universität der Künste Berlin
Note
1,3
Schlagworte
Spencer-Brown Laws of Form Kybernetik nicht triviale Maschinen Wissensmanagement Finanzökonomie Nichtwissen Komlexität Zukunft Zukunftsforschung qualitative Forschung Risiko Krise Wissen blinder Fleck Kognition Überraschungen Entscheidung Kunstwerk Heinz von Foerster Wissenstransformation
Zurück

Titel: Unbekanntes Nichtwissen in der Szenario-Technik