Die Evolution der Informationstechnologie als Initiator gesellschaftlicher Transformation: Paradigmenwechsel von der Produktions- zur Wissensgesellschaft


Magisterarbeit, 2004

159 Seiten, Note: 1,7


Leseprobe


0. Gliederung:

0.1. Einleitung
0.2. Vorgehensweise und Begriffsbestimmungen
0.3. Anmerkungen zur Rezipierung

1.0 Informationstechnologie, Industrie und Finanzmärkte
1.1. Das rasante Wachstum des Internet sowie der Informations- u. Kommunikations Technologie - technische und ökonomische Grundlagen.
1.1.1 Die Geburtsstunde des Internet – das „Apranet“
1.1.2 Analyse der hohen Verbreitungsgeschwindigkeit des Internet in der Gesellschaft, sowie „Vorbilder“ der Technologie in der Natur
1.1.3 Die Ökonomische Bedeutung des Internet und die Euphorie der New Economy
1.2.0. Der„Internetboom“ als der „fünfte Kondratieff Zyklus“ - die Theorie der langen konjunkturellen „Wellen“
1.2.1. Die Änfänge der Ökonomie – Vom Goldstandard zu elektronischen Börsenplätzen
1.2.2. Analyse der Entwicklung der Ökonomie nach philosophischen, physikalischen und mathematischen Mustern und Homologen
1.2.3. Der Internetboom war ein prognostizierbares Ereignis – technologisch induziert und mit enormen kulturellen Auswirkungen
1.3.0. Der internationale „Börsencrash“ als Folge der „E-Commerce Euphorie“ - Börsenpsychologie und Standortfaktoren in exemplarischer Analyse
1.3.1. Die psychologischen Hintergründe der „DOT COM“ Spekulationsblase
1.3.2. Der „Shareholder Value“ als inflationäre Mentalität und der Europäische „Kopierversuch“ der Erfolgsstory des NASDAQ
1.3.3. Der „Wintelismus“ als Leitbild für eine neue Marktkultur? – versus- Ökonmomische Standortfaktoren in exemplarischer Analyse

2. Politischer Stellenwert und gesellschaftlich transformatives Potential der Informations- und Kommunikationstechnologie.
2.1.1 Aspekte der Entmaterialisierung der heutigen Arbeits- und Lebenswelt
2.1.2 Exemplarische Implikationen der Tendenz der Virtualisierung und das Entstehen einer neuen Kulturtechnik
2.1.3 Perspektiven theoretisch unbegrenzten wirtschaftlichen Wachstums
2.2 Neue Arbeitswelt auf dem Hintergrund technologischer Innovationen
2.2.1 Systemtheoretische Aspekte der Transformation von Gesellschaft durch Technologie auf dem Hintergrund ausgewählter gesellschaftlicher Funktionen
2.2.2 Arbeitsmarktpolitik und Aspekte des „Mythos“ der Vollbeschäftigung
2.2.3 Die digitale Kluft und deren mögliche Überwindung durch eine moderne Variante des „Marshall Plans“

3. Der Paradigmenwechsel von der Produktions- zur Wissensgesellschaft – ausgewählte Bewegungen
3.1.1 Aufbruch in die Wissensgesellschaft, Adaption „technischer Vorbilder“ der Natur und der „ Globale Netzwerk Leviathan “ als Metapher der Moderne
3.1.2 „ Ausblick auf Technologie von Morgen –Neuronale Netze und Künstliche Intelligenz
3.1.3 Technologie und Transzendenz – die Bewegung der „Extropianer“
3.2.0. Analyse des transformativen Potentials emergierender Basistechnologien
3.2.1 Nanotechnologie in ihrem Potential und konkreten Anwendungsbeispielen
3.2.2 Globale Perspektiven exponentiell expandierender IT Ressourcen
3.2.3 Konvergenz der wissenschaftlichen Disziplinen am Beispiel fortgeschrittener Rechenmaschinen
3.3.2 Exkurs über die Funktionsweise eines Quantencomputers
3.3.3 Quo Vadis Homo S@piens ? - Philosophische Schlussbetrachtungen und Ergebnis

4.1. Glossar
4.2. Literaturverzeichnis (Monogafien, Periodika und „Hyperlinks“)
4.3. Lebenslauf
4.4. Erklärung

0.1.Einleitung :

„Im unendlichen Raum schweben zahllose leuchtende Kugeln, um jede von welchen etwan ein Dutzend kleinerer beleuchteter sich wälzt, die, inwendig heiß, mit erstarrter, kalter Rinde überzogen sind, auf der ein Schimmelüberzug lebende und erkennende Wesen erzeugt hat – dies ist die empirische Wahrheit, das Reale, die Welt.“[1]

Arthur Schopenhauer

Das Interesse dieser Arbeit gilt der modernen Technologie und ihrem Einfluss auf die Gesellschaft. Diese Thematik ist in der heutigen Zeit des anbrechenden 3. Jahrtausends besonders relevant, weil die Transformation der Gesellschaft, die sich auf diversen ihrer Ebenen zunehmend exponentiell beschleunigt, ihre Dynamik und Inhalte zu einem eminent wichtigen Anteil, aus den Kräften einer sich evolutionär entwickelnden Technologie ableitet, heute insbesondere der Informations- und Kommunikationstechnologie (IuK bzw. IT).

Die Belegung der These, dass die Evolution der Informations- bzw. IuK Technologie als (Kern-) Initiator der beobachtbaren Transformation der Gesellschaft interpretiert werden kann, soll den Leitfaden der Argumentationsstruktur dieser Arbeit bilden.

Im Aufbau der Analyse, wird der Zusammenhang von Informationstechnologie, Industrie und Finanzmärkten den Auftakt bilden. Eine deutliche Gliederung der gesamten Arbeit in drei Hauptteile wird die Struktur klar und übersichtlich halten, dabei werden die Argumente oft bewusst assoziativ aneinander gereiht werden. Dies ist hier als Stil- und Ausdrucksmittel einzuwerten, dass den „Charakter“ der zentralen Begriffe Information, Evolution und Transformation verdeutlichen und plastisch wahrnehmbar gestalten soll.

Der mittlere Part beschäftigt sich dann anhand ausgewählter Beispiele mit der politischen Bedeutung von gesellschaftlicher Transformation, während der dritte und abschließende Part die Technologie vollends in den Mittelpunkt der Untersuchungen rückt, und die spezifischen Implikationen ihrer Entwicklung auch in die künftigen teilweise abstrakten technischen Entwicklungen hinein exemplarisch beleuchtet.

Die Dreiteilung ist insofern auch zeitlich in einer logischen Folge, als das im ersten Part vorwiegend Aspekte der Vergangenheit technologischer Entwicklung thematisiert werden, im mittleren Part Aspekte der Gegenwart und im dritten Teil schließlich Aspekte der künftigen Entwicklung, die bereits heute ihre Schatten spürbar voraus wirft, um bildhaft zu sprechen.

Neben der reinen Kraft empirischer Belege, sowie der geeigneten Auswahl von pointierten Argumenten, Zitaten und Belegen, werden auch weitere Thesen aufgestellt und erörtert, um den Verlauf der Untersuchung zu unterstützen und zu visualisieren.

Die Mittel der logischen Schlussfolgerung nach Art der Aristotelischen Syllogismen steht der Arbeitsweise dabei generell Pate, an ausgewählten Stellen, insbesondere im mittleren Part der Arbeit, wird zusätzlich ausgeprägt von dem Mittel der Systemtheorie Gebrauch gemacht, die nach der Lesart und Couleur Niklas Luhmanns interpretiert und angewendet wird.

Generell ist der Ansatz der Arbeitsweise neben ihrem Focus auf die Belange der Politikwissenschaft auch interdisziplinär orientiert. Exkurse in Themenbereiche der Informatik, der Physik und der Mathematik werden, wo angebracht, genauso Eingang in die Kombination der Argumentationslinie finden, wie die vorwiegend verwendeten politikwissenschaftlichen, soziologischen und philosophischen Argumente.

Aufgrund der Komplexität der Thematik, ist der interdisziplinäre Ansatz als einziger wirklich geeignet, wie ich nicht ermüden werde zu betonen, ein Bild der zentralen Tendenzen der beschriebenen Vorgänge zu veranschaulichen, dass weder durch fachliche Einseitigkeit geprägt ist, noch Gefahr läuft in generalisierenden Allgemeinplätzen zu verbleiben.

Es soll vielmehr, trotz des vermeintlich überzeichneten Anspruchs der These, für den knappen Raum einer Magisterarbeit, eine übersichtlicher Abriss der kumulierten interdisziplinären Foci der Transformation der Gesellschaft durch IuK Technologie geleistet werden, der schließlich klare Tendenzen und Grundströmungen herauskristallisiert, die als Arbeitshypothesen für politische konkrete Handlungsempfehlungen dienen können.

So wird in der Abfolge von Belegen und Zahlenmaterial, welche stets nur exemplarischen Anspruch zu erheben beansprucht, einen ausgesuchten aber zentralen Zusammenhang zu beleuchten, immer wieder die „Metaebene“ der Beobachtung bezogen. Von dieser aus wird mit philosophischen Abstraktionsmethoden, mathematischen und physikalischen Definitionen, sowie mit politischem Weitblick der Korridor abgesteckt, entlang dem sich die bisherige Evolution der Technologie vollzog. Von der Entstehungsgeschichte des Internet aus seinem militärisch inspirierten Vorläufer des „Apranet“, über die Gepflogenheiten eines voll elektronisierten globalen neoliberalen „Online – Börsen – Marktes“, werden die Beobachtungen, Schlüsse und Extrapolationen es gestatten, durch die Gegenwart der Transformation von Arbeits- und Lebenswelt, über die IuK Technologie, bis zu deren vorläufiger Spitze der Evolution zu leiten – zur Genese einer ubiquitären intelligenten technisierten Umwelt. Wobei stets bedacht wird, alle beschriebenen Tendenzen auch kritisch zu hinterfragen, um um auch die bestehenden Kontroversen zu beleuchten.

0.2. Vorgehensweise und Begriffsbestimmungen:

Die Herangehensweise dieser Arbeit ist zunächst primär auf die klare Verfolgung der Kernthese, „Die Evolution der Informationstechnologie ist Initiator gesellschaftlicher Transformation“, ausgerichtet. Diese These wird an geeigneter Stelle in feiner gegliederte Unterthesen differenziert, die jeweils direkt bzw. in den Fußnoten als Thesen des Verfassers kenntlich gemacht sind. Zum Ende der Arbeit werden diese Thesen zusammengeführt, um die Ordnung der Argumentationslinie in einem Ergebnis münden zu lassen.

Die Verfolgung der Kernthese immer wieder angereichert mit direkten Beispielen aus der heutigen Lebenswelt oder Welt der Technologie.

Die primär für die Arbeit verwendeten zentralen Begrifflichkeiten, möchte ich bereits hier in einer Definition vorwegnehmen. Weitere relevante Definitionen erfolgen unmittelbar im Kontext der entsprechenden Thematik selbst, im Fortgang der Arbeit.

Der Begriff der Evolution, wie er ursprünglich von Darwin zur Spezifikation seiner revolutionären Vererbungslehre eingeführt wurde, und später eine neo – darwinistische Interpretation auch in verschiedenen politischen Kontexten erfuhr, soll hier frei von interpretatorisch eingrenzendem Ballast benutzt werden. Dieser Begriff, der mit Entfaltung übersetzt werden kann, bezeichnet hier eine solche im weitesten Sinne.

Wenn er daher auch auf den Prozeß einer Entwicklung bzw. Entfaltung von technologischen Errungenschaften in einem zeitlichen Ablauf verwendet wird, dann geschieht dies, wo nötig auch kenntlich gemacht in Abgrenzung von einer rein klassich auf organische Entwicklungen definierten Evolution. Transformation ist begrifflich in der Verwendung die hier benutzt wird nah verwandt mit Evolution. Allerdings soll dieser Begriff besonders jenen Prozeß pointieren, in dem durch einen spezifischen Akt, organischer, technischer oder kultureller Wandlung ein definierbarer Schritt innerhalb des umfassenden Kontextes einer Evolution stattfindet.

Der Begriff der Information schließlich, soll in einem systemtheoretischen und physikalischen Kontext Verwendung finden. Sie bezeichnet nach der Definition der Physik alles, was nicht als Materie oder Energie bereits definitorisch erfast ist. Auch Kultur, Philosophie, Politik usw. sollen, nach dieser Lesart, prinzipiell mit dem so gefassten Begriffsinstrument einer Beschreibung zugänglich sein.

Über die letztliche Identität von Energie, Materie und Information erfolgt im Ergebnis noch eine abschließende Reflexion.

0.3.Anmerkungen zur Rezipierung:

Um in die Thematik einzuführen ist der zeitlich geordnete Ablauf der Analyse ein immer wieder kenntlich gemachtes Stilmittel. Ein weiteres Stilmittel ist die enge Verflechtung dieser Arbeit mit ihrem Untersuchungsgegenstand. Um dem vollen Umfang der hier kumulierten monatelangen Recherchearbeit in bequemer Form genießen zu können, liegt dieser Arbeit eine CD – ROM bei. Auf dieser findet sich diese Magisterarbeit als „Word – Datei“, um den optimalen Komfort für den Rezipienten zu gewährleisten. Da das Objekt der Untersuchung in breiten Teilen der Arbeit eng mit der Thematik des Internet verknüpft ist, sind die Quellen zum Beleg der angeführten Argumente, Zitate, Organisationen, usw. ebenfalls in vielen Fällen unmittelbar durch einen sog. „Hyperlink“ ins Medium des Internet gegeben. Wird diese Arbeit daher als digitale Datei auf einem Computer mit Internetanschluss rezipiert, bieten diese „Links“, die durch ihre blaue Färbung kenntlich gemacht sind, den Komfort, lediglich auf sie „Klicken“ zu müssen, um sofort in einem sich automatisch öffnenenden „Browserfenster“ die Quellenangabe begutachten zu können.

Im Literaturverzeichnis findet sich noch eine alphabetisch geordnete Liste der benutzten Hyperlinks. Es ist zur Erschließung der in dieser Arbeit gemachten Untersuchung keinesfalls nötig, die Internetquellen zu konsultieren, jedoch findet sich für den interessierten Rezipienten dort noch in erheblicher Fülle weiterführendes Material.

Insbesondere in den stark von technologischen Zusammenhängen dominierten Kapiteln, kann es hilfreich sein zuweilen das im Anhang befindliche Glossar zu nutzen. Es bietet einen komfortablen und erläuterten Überblick über sämtliche physikalischen Größen und Einheiten.

1. Informationstechnologie, Industrie und Finanzmärkte

1.1 Das rasante Wachstum des Internet sowie der Informations- und Kommunikationstechnologie - technische und ökonomische Grundlagen.

1.1.1 Die Geburtsstunde des Internet – das „Apranet“

„Auch BENZ hat einen Benzinwagen gebaut, welcher auf der Münchner Ausstellung Aufsehen erregte. Diese Anwendung der Benzinmaschine dürfte indessen ebenso wenig zukunftsreich sein wie die des Dampfes für die Fortbewegung von Straßenfuhrwerken.“[2]

Dr. von Muyden / Kaiserliches Patentamt

Wir leben heute in einer Welt, in der Kommunikationstechnologie so weit in unser Leben integriert ist, dass wir beginnen sie als Selbstverständlichkeit wahrzunehmen.

Das war noch vor kurzer Zeit anders. Das allgegenwärtige Handy, das Internet und die Computer sind in unserer Lebenswelt erst in den letzten rund zehn Jahren Begleiterscheinungen des Alltags geworden. Dies ist bereits ein Indikator dafür, wie rasant sich diese Technologie verbreitet, im Vergleich etwa zu Buchdruck, Dampfmaschine oder Elektromotor, darf die Geschwindigkeit ihrer Verbreitung als revolutionär bezeichnet werden.

Für diese Arbeit ist ein umfassendes Verständnis des geschilderten Phänomens fundamental, deshalb wird hier zunächst eine Einführung in die Zusammenhänge ihrer technischen Entstehung (1.1.1), ihrer Verbreitung in der Gesellschaft (1.1.2) und ihrer Bedeutung für die Ökonomie (1.1.3) gegeben. Als Auftakt in die Thematik soll ein Zitat des Münchner Politologen Werner Weidenfeld dienen:

„ Digitalisierung der Information bedeutet eine Aufhebung von Raum und Zeit. Betrachtet man zum Beispiel die transnationale, über Zeitzonen organisierte Herstellung und Erbringung von Produkten und Dienstleistungen, wird dieses Phänomen mehr als deutlich. Das Grundgerüst der vernetzten und digitalisierten Welt sind das Internet, seine kommerziellen Subsysteme und die wachsende Zahl der Intranets in Unternehmen und Organisationen. Hinzu kommt die sprunghafte Entwicklung weltweiter Telekommunikation. 1993 nutzten erst zehn Millionen Menschen das Netz. Gegenwärtig verdoppelt sich der elektronische Verkehr nach einer Faustregel alle hundert Tage. Bis zum Ende des Jahres 2001 wird weltweit mit 225 Millionen Internet-Nutzern gerechnet. Entgegen mancher Stimmen handelt es sich hierbei nicht einfach nur um eine neue Technologie: Gemeinsam mit weiteren hochproduktiven Wirtschaftssektoren bildet die Informationswirtschaft den Grundpfeiler einer völlig neuartigen Ökonomie. „[3]

Wenn wir das Internet also einfach nur als intelligentere Version eines Kommunikations-

mediums, oder auch als eine bloß fortschrittlichere Variante der Telekommunikation betrachten, laufen wir Gefahr es in seinem Potential, in seiner Tragweite und vor allem in seiner revolutionären Wachstumsgeschwindigkeit zu unterschätzen.

Begonnen hat das Internet in seiner Geburtsstunde als militärische Einrichtung. In den USA machte man sich in Zeiten des „kalten Krieges“ Gedanken, wie die Kommunikation zwischen den Feldherren sichergestellt werden könnte, nach einem atomaren Angriff der damaligen UDSSR. Es brauchte ein Kommunikationsmedium, dessen herausragendste Eigenschaft seine „Unverletzlichkeit“ war. Wenn man in einem Telefonnetz die Schaltzentren ausschaltet, dann liegt es lahm. Versucht man dies in einem hochgradig redundant verschalteten Internet -Netzwerk, so findet sich stets für eine zerstörte Verbindung ein Ersatz.

Nach dem natürlichen „Vorbild“ eines hochgradig redundant arbeitenden Netzwerkes, dem Neuronalen Netz des humanoiden Neokortex[4], wurde damals das sog. „Apranet“[5] konstruiert.

Bereits 1961 wurde der Grundstein gelegt für die phänomenale Wachstumsstory des Internet. Am 21. November 1961 trafen sich ein halbes Dutzend Wissenschaftler in der „Boelter Hall“ der Computerabteilung der „University of California“ in Los Angeles, um eine Netzwerkverbindung mit der „Stanford University“ in Palo Alto herzustellen.[6] Der übermittelte Text war weniger spektakulär als Samuel Morse’ erstes Telegramm 1844 „Was hat Gott getan?“, es lautete hier nur schlicht „LOG“.

Damit offenbarte es aber bereits sein Potential, denn nicht nur Information, sondern auch komplexe Befehlsketten können per Internet transportiert werden. Dabei wohnt solchen Befehlen das Potential inne, sich zu einem definierten Zeitpunkt selbständig auszuführen, was bekanntlich die Grundlage einer jeden Programmierung darstellt.

LOG steht für „Log in“, was einem Internetnutzer, Netzwerkanwender oder auch „User“, die Zugriffsrechte auf einen fremden Rechner gewährt.

Im skizzierten historischen Beispiel waren es lediglich zwei Rechner die vernetzt wurden, aber bereits 1974 waren es 62 Rechner, 1994 waren es 45.000 und um 2000 waren es bereits 40 Millionen. Woher stammt diese enorme Wachstumsgeschwindigkeit dieser neuen Technologie?

Die Wachstumsgeschwindigkeit obiger Zahlenreihe verhält sich mathematisch exponentiell, d.h. Wachstum erfolgt um einige Größenordnungen schneller als bei linearen Verhältnissen der Faktoren, wie etwa auf dem aktuellen Automobilmarkt oder dem Markt für Stahlprodukte.

Mit mathematischer Zuversicht auf die Regelmäßigkeit solchen Wachstums, lässt sich für 2005 prognostizieren, dass die Zahl der Internetnutzer die Zahl der Telefonanschlüsse weltweit eingeholt haben wird, hier wird die Zahl 600 Millionen avisiert.[7]

Man muss bei solch einem Wachstum allerdings ein nicht streng mathematisches Verhalten der Wachstumskurve zugrundelegen. Der Empirie zufolge unterliegen sog. „Trend – relationale“[8] Exponentialfunktionen dem Verhalten einer Sinuskurve, d.h. systemimmanent gehören Fluktuationen zur Definition und Natur einer solchen Wachstumsfunktion.

Zusätzlich bilden solche Kurven erfahrungsgemäß immer wieder sog. „Plateaus“ aus, an denen das Wachstum scheinbar innehält, bevor ein neuer Wachstumsschub bzw. eine neue Wachstums „Welle“ einsetzt. Etwa bedingt durch Marktsättigung oder die Entwicklung neuer Technologien. Auf die Theorie der ökonomischen „Wellen“ und „Zyklen“ werden wir in Punkt 1.2. ausführlich zu sprechen kommen.

1.1.2 Analyse der hohen Verbreitungsgeschwindigkeit des Internet in der Gesellschaft, sowie „Vorbilder“ der Technologie in der Natur

„Das Internet ist kein Ding, es ist keine Einheit; es ist eine Organisation. Niemand besitzt es; niemand betreibt es. Es ist einfach der Computer eines jeden, nur vernetzt.“[9]

Steven Miller

Was zunächst als attraktive neue Technologie begann, unter militärischen Gesichtspunkten, wurde zunehmend attraktiv für die breite Bevölkerung. Wie gelang die geradezu inflationäre Expansion des Internet, aus den Labors der Militärs und Universitäten in die Wohnzimmer oder Büros der heutigen User?

(fortan für den klassischen Internet End Nutzer, Internet - Kunden, Partizipanten).

Der Gedanke der theoretischen „Unverletzlichkeit“ eines redundanten Netzwerks hat einige interessante Implikationen. Hier lohnt sich ein genauerer Blick, denn diese Entwicklung ist auch exemplarisch für den Fortgang der Analysen sehr interessant. Ein redundant geschaltetetes Netzwerk, hat per Definition keine „Zentrale“, diese wäre stets sein neuralgischer Punkt. Vielmehr ist jeder Computer in einem Netzwerk zugleich Client (Computer auf den Zugriff erfolgt) wie auch User, während er Verbindungsglied für andere Clients bzw. User darstellt. Es wird heute zugunsten ökonomischer Erwägungen teilweise von diesem Grundkonzept abgewichen. Dezentralität ist immer noch eine der Stärken des Internet, wenn man es global betrachtet. Lokal jedoch gelten oft die Regeln oder Interessen großer Unternehmen, die Internetanschlüsse kommerziell offerieren (fortan Provider). Diese stellen große Ressourcen an Speicherplatz, Administrationsservice und Internet-Adressen bereit. Dazu werden zentral gesteuerte sog. DNS – Server benötigt. Diese Kernelemente der heutigen Adressstruktur des Internet, alias „Domain Name Server“ Konzepte, verwalten das Internet über sog. „IP Adressen“. Man kann einen DNS Server etwa prinzipiell verstehen, wenn man ihn mit dem Beruf der klassischen Telefonistinnen vergleicht, die Gespräche weiter verbunden haben, indem sie entsprechende Stecker manuell in Telefonzentralen „umgesteckt“ haben. Dabei wären dann „IP- Adressen“ das Pendant zur Telefonnummer. Natürlich erledigt ein DNS oder „Domain Name Server“ dies vollautomatisch, und nach Bedarf mit mehreren Tausend Anfragen simultan. Erhalten geblieben ist, trotz dieser Zugeständnisse an die Wirtschaftlichkeit, die Dezentralität des Internet. Man kann es nicht lahm legen, indem man gezielt etwa Bomben auf Schaltknoten oder DNS Server wirft, es fallen immer nur Teile aus, und andere Teile sind in der Lage deren Funktionen zu übernehmen. Folgende Grafik, der offiziellen „DENIC“ Domain Registrierungsstelle, soll veranschaulichen was exponentielles Wachstum für das Internet bedeuten kann. „Hosts“ sind hier analog zu „Usern“ ganz allgemein Partizipanten in einem Netzwerk.

Abbildung in dieser Leseprobe nicht enthalten[10]

Der sogenannte RIPE-Hostcount ( http://www.ripe.net/ ) ist eine Statistik, die die Anzahl der permanent ans Internet angeschlossenen Hosts (Computer) ermittelt. Untersucht werden dabei nur die Teile des Internet, die im Zuständigkeitsbereich von RIPE liegen, also Europa, der Nahe und Mittlere Osten, Teile Asiens (die frühere UdSSR) und die nördliche Hälfte von Afrika.

Vorbild für eine solch hohe „Stör – Sicherheit“ war und ist[11], wie erwähnt, das menschliche Gehirn. Diese organische Neuronen-Matrix aus ca. 100 Milliarden multipel verknüpften Neuronen und Synapsen, als Modell für eine „technische“ massive parallele Vernetzung, mit systeminhärenter maximaler „Ausfallsicherheit“. Greifen wir hier zur Illustration der ausführlicheren Darstellung dieses Themas in Punkt 3.1.2 ein wenig vorweg.

Das Gehirn kann erstaunlich gut ausgefallene Areale, etwa durch einen Schlaganfall, sukzessive ersetzen. Im Falle z.B. einer Kriegsverletzung wurde auch schon der gesamte Präfrontallappen des Neokortex operativ entfernt, und der Patient überlebte, wenn auch mit Verhaltensauffälligkeiten. Auch das Internet würde weiter funktionieren, wenn etwa durch eine nukleare Explosion ein gesamter Kontinent aus dem Netz ausscheiden würde, die Zahl der Rechenknoten wäre zwar global geringer und ein wenig Information wäre sicherlich auch verloren. Jedoch wäre der Informationsverlust vergleichsweise undramatisch, da die Information hochgradig redundant im Internet gespeichert ist, und kaum eine Information sich nicht identisch hunderte male weltweit wieder finden lässt.

Besonders attraktiv wird diese Analogie zwischen Internet und Neokortex dadurch, dass sich mit dieser Perspektive bereits im Entstehungsstadium des Internet, die prinzipielle Option darlegte die Natur zu imitieren. Nicht bloß im Labor, sondern global!

Wissenschaftler hatten bereits zur Zeit des „Apranet“ die Vision eines „planetaren Internet“ und man verfolgt diese bis heute zielstrebig weiter, wenn sich die Vision auch inzwischen zu der eines „planetaren technischen neuronalen“[12] Netzes transformiert hat.

Nichts spornt Wissenschaftler stärker an oder hat mehr Anziehungskraft als Visionen mit Tragweite. Dazu ein Zitat von Wolf Singer zum Zusammenhang von Hirnforschung und Rechenkapazität:

„Hirnforscher benötigen zum Beispiel riesige Rechenkapazitäten, um die komplexen Muster zu analysieren, die uns entgegen branden, seit wir nicht mehr nur von einzelnen Nervenzellen ableiten, sondern von vielen gleichzeitig. Hier eröffnet sich ein hochdimensionaler Datenraum, der sich ohne diese [heutigen] Rechenmaschinen einfach nicht bewältigen ließe. Die Hirnforschung die wir heute betreiben hätten wir vor zwanzig Jahren schon wegen mangelnder Rechenkapazität nicht durchführen können.“

Zitat aus einem Interview mit Wolf Singer, Direktor des Max-Planck Institut in Frankfurt, einer der weltweit renommiertesten Hirnforscher.[13]

Wie nahe die Assoziationen zum Internet an sein organisches Vorbild heran gehen, vermag man abzuschätzen, wenn man das moderne „Computer - Virus“ betrachtet. Um nur die bekanntesten Vertreter der Virus Historie zu erwähnen, reichen bereits die Schlagwörter „I LOVE YOU“ – „MS-BLASTER[14] “ oder „Michelangelo“ aus.

Auch dem Computervirus diente die Natur als Vorbild. Die organische DNS oder Desoxyribonukleinsäure ist in ihrer Strategie der Informationsverarbeitung und Multiplikation modernen Algorithmen schadhafter Computer Viren sehr ähnlich.

Es ist die Intelligenz seiner Programmierer, die das Potential eines „schädlichen“ Virus oder eines „nützlichen“ Programms definiert, aber dessen Gefahr oder nützliches Potential liegt allein in seiner Funktionsweise.[15]

Jede Zeile „Quellcode“ sowie jeder Algorithmus in einem beliebigen Programm basiert auf binärer Logik. Diese „Technik“ ist ebenfalls der Natur entlehnt, auch wenn die grundlegende „Programmiersprache“ der Natur auf Ebene der DNS die 4 elementaren organischen Aminosäuren (Adenosin, Cytosin, Guanin du Thymin) sind, hier liegt unzweifelhaft ein „Code“ vor. In einem Computerprogramm verhält es sich analog, jedoch wird hier nicht mit Aminosäuren „programmiert“, sondern mit sog. „Algorithmen“.

A "computer virus" is a program that can "infect" other programs by modifying them to include a possibly evolved version of itself.

(Definition nach „Fred Cohen“ –der Vater des Computervirus -aus seiner Dissertation 1984 )[16]

Die dargestellte Auswahl an Gedanken beschreibt den Kern der Visionen und Möglichkeiten von technischen Netzwerken und darauf operierenden Programmen.

Eine vage Ahnung davon reichte in der Anfangsphase der Entstehung des Internet aus, um einige Wissenschaftler zu faszinieren und anzuziehen, die das militärische Apranet in den Bereich ziviler Nutzung hinein weiter entwickelten. Man konnte effizient wissenschaftliche Botschaften austauschen, in Text und Bild. Um aber die breite Masse anzusprechen, musste eine zentrale Hürde verschwinden – die Komplexität der Bedienung.

Hier lässt sich beobachten, dass es eine direkte Korrelation zwischen der Abnahme der Komplexität der Bedienung des Internet zu seinem Wachstum gibt. Was zunächst nur über die klassische „Befehlszeile“[17] möglich war, dem Computer zu instruieren, wurde durch die Entwicklung der „Grafischen Bedienungsoberfläche“ (fortan GUI für Grafical User Interface) revolutioniert. Nun konnte man mit einer Maus, die nur zwei Knöpfe hat, sowie durch das klicken auf grafische „Icons“, Befehle einer Komplexität absenden, die sonst mehrere Zeilen Texteingabe im „Modus der Befehlszeile“ erfordert hätte. Eine Befehlszeile ist die Programmierebene unmittelbar im Kontakt mit der Hardware, z.B. DOS, Unix oder Linux.

Diese Entwicklung war maßgeblich für den „Quantensprung“ des Internet, aus den Labors zu den Usern, denn für die Mehrheit der User war und ist die nahezu kryptische Sprache der „Befehlszeile“ ein elaborierter Code, den zu erlernen die ganze Informationsfülle des Internet in seiner Attraktivität nahezu annulliert.

(Die Erfindung des GUI geht übrigens, wie weit verbreitet, nicht auf Bill Gates und sein legendäres „Windows“ Betriebsystem zurück, auch nicht auf Apple Macintosh, sondern auf Xerox. Im PARC (Palo Alto Research Center )

wurde dieser Meilenstein der Wachstummstory des Internet, von der heute eher für ihre Drucker bekannten Firma Xerox entwickelt.[18] Apple hat allerdings die erste Version einer grafischen Bedienungsoberfläche entwickelt, die unerwartet kommerziell enorm erfolgreich war, obwohl der bezeichnete Desktop Home – PC, oben bereits erwähnte „Lisa“, mit ca. 10.000 $ im Vergleich mit heutiger Hardware (ca. 1.000€ a Home PC Einheit) recht kostspielig war.)

Der Milliardenschwere Patentstreit[19] der heute immer noch gegen „Microsoft“, als vermeintlichen Erfinder des GUI von diversen Firmen und Organisationen geführt wird, legt eindrucksvoll Zeugnis ab, für die Wichtigkeit dieses Novums für die kommerzielle Verbreitung von Desktop PC’s und des Internet.

Ein weiter wichtiger Schritt war die Einführung der sog. www. Struktur, der W orld W ide W eb Implementation einheitlicher Adresszuweisung. Hier ist auch noch das Protokoll TCP/IP zu nennen das absolut elementar hinsichtlich des Standards fungiert, wie verschiedene „IP bzw. Internet Protocol“ Adressen kommunizieren. Eine IP Adresse muss von einem DNS Server einer Domain zugeteilt werden. Konkret bedeutet dies, dass etwa das Internetportal www.google.de , sobald man mit der Maus auf den Link klickt, vom DNS Server in eine IP-Adresse (z.B. 192.168.254.113) übersetzt wird, die der Computer „verstehen“ kann. Dann wird man durch das TCP/IP Protokoll an den entsprechenden Server im Internet weiter geleitet, dessen IP der gewählten Adresse, oder URL (U niversal R elation L ink) entspricht.

Wichtig bleibt zu erkennen, dass trotz nahezu völlig dezentraler Struktur und ohne staatliche Intervention oder Reglementierung, hier eine Technologie eine Wachstumswelle ausgelöst hat, die sich selbst durch die Partizipation ihrer User beständig weiter entwickelt.

In der Systemtheorie wird ein solches Verhalten eines Systems als „autopoietisch“[20] bezeichnet.

Die einzige nennenswerte „Institution“ die sich in den Gefilden des ansonsten nahezu anarchisch entwickelnden Internet etablieren konnte, ist die sog. ICANN[21]. Hier wurden Maßstäbe bezüglich der Neuvergabe einer weltweiten Adressbereichserweiterung für Domains verabschiedet, und zwar durch „Wahlen“ im Internet.

Aber im Vergleich, zu den ansonsten allein durch private und kommerzielle Engagements hervorgebrachten Innovationen, ist diese quasi institutionelle Einrichtung als Faktor für das Wachstum nahezu vernachlässigbar.

Es gibt also neben den bislang genannten vier Faktoren der

1.) „theoretischen Unverletzlichkeit des Internet durch Dezentralisierung
2.) „Anziehungskraft der Vision des planetaren Internet als Imitat eines neuronalen Netzes
3.) „Abnahme der Bedienbarkeitskomplexität mit der Ausbreitung des GUI “ und der
4.) „ Autopoietischen Systemerweiterung und Optimierung“ durch Partizipation der User,

noch einen entscheidenden bislang unberücksichtigten fünften Faktor:

5.) Die „ exponentielle Steigerung der Prozessorleistung in Korrelation mit einem dazu proportionalen Preisverfall der auf den Markt gebrachten Prozessoren“.

Hier haben wir es mit einem weiteren exponentiellen Wachstum zu tun, dem wir uns in späteren Kapiteln noch ausführlicher widmen werden. Einer der Mitbegründer der Firma INTEL , Gordon Moore, hat das sog. „Moore’s Law“ aufgestellt, nachdem sich die Leistung der CPU eines PC alle 18 Monate verdoppelt. (Fortan CPU – für Central Processing Unit )

Die Wachstumsgeschwindigkeit des Taktes der handelsüblichen Prozessoren, ist direkt korreliert mit der zunehmenden Verbreitung des Internet global. Im Fortgang des wirtschaftlichen Aufschwungs der Produzenten von CPU’s, erhielt die gesamte IT Branche weltweit finanzielle Spielräume um ihre Produkte zu optimieren. Dabei waren die Netzwerkausstattter wie z.B. Cisco Systems, oder AT&T Wireless aus den USA, ausschlaggebend beteiligt daran, dass Internet als kommerzielles Produkt für die Bevölkerung zu erschließen. Nicht zuletzt in der Hoffnung darauf, dass steigende Partizipationsraten im Internet letzlich auch auf das Konsumverhalten gegenüber schnelleren Prozessoren zurückwirkt. Dieser Prozeß darf insofern als autokatalytisch zyklisch interpretiert werden.

Abbildung in dieser Leseprobe nicht enthalten

[22] In dieser Grafik des Prozessorfabrikanten „Intel „(USA) ist die Wachstumskurve der Verarbeitungs-geschwindigkeit in Korrelation gesetzt mit der Zahl der Transistoren auf einem Handels-üblichen CPU Typ. Die Kurve ist in logarithmischer Notation an den Spat angetragen, was die regelmäßige exponentielle Natur der Wachstumsfunktion verdeutlicht und beeindruckend belegt.

Mit mathematischer Genauigkeit hat sich dieses Gesetz, wie die Grafik illustriert, bislang bestätigt. Erst voraussichtlich gegen 2020 wird eine physikalische Problematik dieses „Wachstum“ auf Silizium Basis stören können.

Jedoch sind bereits zahlreiche Alternativen zu dem Verfahren der sog. Fotolithographie, der Technologie aus Silizium Transistor Strukturen mit UV-Belichtung und Säuren auf Nanometer Größenordnung herauszuarbeiten, entwickelt worden. In den Labors wurden bereits Prototypen von DNS Computern[23] entwickelt, wie z.B. der funktionsfähige Typus von Prof. Shapiro vom isrealischen Weizman Institut.[24] Hier macht man sich das Faktum nützlich, das auf einem Kubikzentimeter DNS, das Äquivalent der Information über einer Billion CD – Rom’s gespeichert werden kann. Eine weitere sehr interessante Alternative zu Silizium basierten und DNS basierten Rechnern ist ein kompletter Wechsel des materiellen „rechnenden“ Substrats in den Mikrokosmos – der Quantencomputer.[25]

Die bisherige Entwicklungslinie der Prozessoren beinhaltete eine permanente Erhöhung der Zahl der Transistoren auf einer nahezu gleich bleibenden bis zuweilen abnehmenden Fläche eines sog. Halbleiter „Wafers“ aus hauchdünnen Silizium Scheiben. Dabei erhöht sich mit zunehmender Zahl der Transistoren pro Prozessorchip, ebenfalls auch die erzielbare maximale Taktfrequenz eines solchen Bauteils, woraus sich direkt proportional wiederum eine steigenden Verarbeitungsgeschwindigkeit ableitet. In den vergangenen zwanzig Jahren hat sich diese Geschwindigeit vom Urahn des Desktop PC’s, dem legendären Apple „Lisa“[26] mit damals beeindruckenden 60 Hertz auf heute handelsübliche ca. 3 Gigahertz beinahe multipliziert mit dem Faktor eine Milliarde. Diese Entwicklung ist offenbar in ihrer Geschwindigkeit sehr konstant, wie obige Grafik belegt. Künftig steht somit zu erwarten, aufgrund der epochalen technologischen Durchbrüche die in jüngster Zeit in den Laboratorien der entsprechenden Forschungseinrichtungen weltweit erzielt wurden, und nicht zuletzt aufgrund der astronomischen Umsätze die sich mit dieser Technologie in beinahe allen Marktsegmenten erwirtschaften lassen, dass die obige extrapolierbare Gesetzmäßigkeit des sog. „Moores Law“ die kommenden Jahrzehnte ihr exponentielles Wachstum in ihrem bisherigen Tempo beibehält und proportional dazu die Verbreitung des Internet global weiter zunimmt.

1.1.3 Die Ökonomische Bedeutung des Internet und die Euphorie der New Economy

„Je mehr ein vom Informationsfluss angereichertes Produkt – über Feedback Schleifen – mit seiner Umgebung interagiert, desto wahrscheinlicher wird dieser Prozess selbst innovative Möglichkeiten generieren, das Produkt effektiver zu gestalten.“[27]

Jeremy Rifkin

Nachdem wir uns nun sowohl die technische Entstehung als auch die Verbreitung des Internet in der Gesellschaft, mit besonderem Focus auf die Gründe für seine exponentielle Wachstumsgeschwindigkeit angesehen haben, wird es Zeit das Beobachtungsfeld um die wirtschaftliche Perspektive auf die Technologie Internet zu erweitern.

Wenn wir nun das Wachstum des Internet weiter in seinen Gründen erforschen wollen, dann geschieht das mit Blick auf die zu erhärtende These dieser Arbeit, dass nämlich derlei technologische Innovation als Initiator gesellschaftlicher Transformation fungiert.

Hier wird also an der Ökonomie des Internet interessant sein zu zeigen, inwieweit die Implikationen, einer sich durch neue Technologie transformierenden Weltwirtschaft, auf die Gesellschaft zurückwirken. Dieser beiderseitige, oder wie der Mathematiker sagen würden „bijektive“ Rückkoppelungsmechanismus, von Ökonomie und Gesellschaft, ist nach These dieser Arbeit noch nie so klar und ausgeprägt zu beobachten gewesen, wie in unseren Tagen, durch die Gegenwart eines weltumspannenden Netzwerkes für z.B. Information, Kapitalflüsse und Dienstleistungen.

Analog zu den geschilderten exponentiellen Wachstumsraten, von Internet User-Zahlen und Prozessor-Geschwindigkeit, hat die an Dynamik bislang unbekannte Erfolgsgeschichte der Unternehmen der IT Branche, die New Economy, um die Jahrtausendwende die Leitindizes der Weltbörsen beflügelt, allerdings gefolgt von einem herben Erwachen.

Für unsere Beobachtungen ist hier im einleitenden ersten Gliederungspunkt jedoch das Zusammenspiel zwischen Internet, Ökonomie und Gesellschaft von zentraler Bedeutung.

Es bedurfte neben dem „Boom“ an den Börsen, und den Storys in den Medien zusätzlich einer gesellschaftlichen „Grundstimmung“ der Euphorie bzw. gar der „Goldgräbermentalität“, um dieses nahezu astronomische Wachstum des Internet und seiner ökonomischen Manifestationen zu ermöglichen. Die Faktoren dieser Entwicklung waren in systemtheoretischer Sicht sowohl autopoietisch wie auch autokatalytisch[28]. Man darf sicherlich von einer Kettenreaktion reden.

Die Erfolge in der Entwicklung des Netzwerk wurden verstärkt durch die Erfolge des GUI, wurden verstärkt durch steigende Partizipation der User, wurden verstärkt durch permanent schnellere und billigere CPU’S und wurden schließlich verstärkt durch einen Markt und eine Medienlandschaft die sich wechselseitig eskalierten, um nahezu alle Bevölkerungsschichten mit Euphorie zu „infizieren“. Ein solcher Prozess der alternierenden, sich wechselseitig katalysierenden exponentiellen Faktoren, wird in der Mathematik als „Iteration“ bezeichnet. Besondere Bedeutung hat die Iteration heutzutage bezeichnenderweise in der Chaosforschung erhalten. Hier ist sie integraler Bestandteil von fraktalen Mustern, Geometrien oder auch Algorithmen.

Sich autokatalytisch fortpflanzende und beschleunigende Effekte, wie den beschriebenen psychologischen Effekt der New Economy, macht man sich auch gezielt in der Ökonomie zunutze, etwa bei der Innovationsförderung durch „Venture Capital“ (Risikokapital).

Dort lautet die Strategie:

Hat ein Unternehmen durch ausreichend Subventionierung bzw. „Anschubfinanzierung“ eine kritische „Mindestmasse“ erreicht, so wird es sich selbstbeschleunigend so lukrativ weiter entwickeln, dass der Risikokapitalgeber sein Geld mit lohnendem Ertrag zurückerhält, und obendrein der Staat mit positiven Beschäftigungs- und Steuereinnahmeffekten auf lange Sicht rechnen kann.[29]

Die psychologischen Untersuchungen zu den obigen Effekten würden sicherlich eine eigene Arbeit rechtfertigen, aber es genügt hier die empirisch belegte Tatsache, das binnen der sog. „DOT COM Euphorie“[30] an den Börsen der Welt, sowohl Banken, Fondsmanager, Privatinvestoren und auch die gemeine Hausfrau, beherzt zu Aktien und Neuemissionen griffen, auch bei Firmen wo weder Finanzierung noch Business Plan oder zumindest das Produkt bekannt waren. Kennzeichnend für einen autokatalytischen Prozess ist, dass die Träger der (ökonmomischen) Bewegung bzw. „Welle“ weniger bedeutend sind als das Phänomen der „Welle“ selbst. Ist also ein solches System in Bewegung, dann beschleunigt es sich zumeist noch selbständig weiter.

Man kann nun eine Analogie zwischen der Dynamik, der sog. „Hausse“ an der Börse sowie der beschribenen „Welle“ oder dem sog. „Kondratieff Zyklus“[31] in der Ökonomie des Internet beobachten. Wie steht Deutschland heute empirisch aufgestellt, bezüglich der Internetnutzung durch seine Bevölkerung und Unternehmen?

„Pressemitteilung des DIW Berlin vom 23.07.2003

Internetnutzung in Deutschland: Nach Boom nun langsamerer Anstieg erwartet

Zusammenfassung:

Die Zahl der Internetnutzer in Deutschland hat in den letzten acht Jahren einen rasanten Anstieg erlebt. Während es im Frühjahr 1995 in Deutschland gerade einmal 250 000 Internetnutzer gab, waren es im Mai 2003 bereits knapp 39 Millionen. Dies bedeutet, dass aktuell etwa 47 % der gesamten Bevölkerung in Deutschland online sind, so der aktuelle Wochenbericht 30/2003 des DIW Berlin.

Details:

Das Internet hat sich auch in den Unternehmen fest etabliert. Im April 2002 nutzten bereits

62 % der Firmen in Deutschland das Internet, mit weiterhin steigender Tendenz. Die Bedeutung des Internets als Wirtschaftsfaktor wird weiter zunehmen, da dieses Medium auch künftig immer stärker genutzt werden wird. Voraussichtlich wird die Zahl der Internetnutzer in Deutschland bis zum Jahre 2007 auf etwa 48 Mill. steigen.“[32]

Es zeigt sich, auch wenn wir nur exkursorisch und sehr global an die Thematik der Ökonomie des Internet herangehen, dass die Psychologie des Marktes, neben den rein politischen und technologisch Vorbedingungen eine entscheidene Rolle spielt. Die Psychologie der Märkte ist nicht erst nach langer Überlegung einer der Grundpfeiler eines jeden ökonomischen Wachstums, schließlich muss ganz subtil jede Wertschöpfung sich an dieses Faktum halten. Ein „Interessent“ für „Ware“ oder „Dienstleistung“ muss deren „Mehrwert“ anerkennen und bereit sein ihn zu zahlen, was sui generis ein psychlogisches Momentum impliziert.

Die entsprechende ökonomische Theorie des legendären „Mehrwerts“[33] hinter diesem „Allgemeinplatz“ ist hinlänglich bekannt. (Auch wenn der Autor des „Kapitals“ sich bei der aktuellen „Couleur“ der globalen Märkte „unwohl“ fühlen dürfte, an diesen Tatsachen kommt auch eine euphorische New Economy nicht vorbei.)

Da hilft prinzipiell auch kein ausgeklügelter Finanzplan oder modernes Buisness Konzept, daher sollte man obige Einsichten in jeder Marktlage achten. Dass dies offenbar in der New Economy zeitweilig ausblieb, hat eindrucksvoll die Börsen Euphorie, gefolgt vom sofortigen „Crash“ der Spekulationsblase demonstriert. Zu den näheren Zusammenhängen kommen wir dann in Punkt 1.3.

Zusammenfassend lässt sich für den Punkt 1.1.3 sowie für ganzen Punkt 1.1 hier folgendes festhalten:

Das Internet mit seinen impliziten Technologien und Industrien ist ohne Zweifel identifizierbar als der Initiator der Transformation der Industrie selbst, der Ökonomie sowie großen Teilen der menschlichen Lebenswelt, insbesondere in den jüngsten Dekaden.

Die interessante Frage ist also: Wieso kann eine technische Errungenschaft, eine Transformation, einen Boom oder eine „Welle“ initiieren? – in Gesellschaft, Ökonomie und oder Lebenswelt. Gab es solche Phänomene schon früher, kann man Parallelen finden und kann man daraus tragfähige Vorhersagen extrapolieren?

Diese Fragen sind für die Beantwortung der Fragestellung dieser Magisterarbeit von zentraler Bedeutung. Denn wenn es möglich ist, dieses Phänomen nicht bloß als singuläres oder rein technisch induziertes zu verstehen, sondern sogar als natürliches, evtl. sogar evolutionäres, dann gewinnen wir nicht bloß in sprachlicher, erkenntnistheoretischer und hermeneutischer Dimension bedeutende Aspekte hinzu, sondern auch in kultureller Dimension als Menschen.

1.2.0. Der„Internetboom“ als der „fünfte Kondratieff“ Zyklus - die Theorie der langen konjunkturellen „Wellen“

1.2.1 Die Änfänge der Ökonomie – Vom Goldstandard zu elektronischen Börsenplätzen

„Wenn GENERAL MOTORS (GM) mit der Technologie so mitgehalten hätte wie die Computerindustrie, dann würden wir heute alle 25 – Dollar Autos fahren, die 1.000 Meilen pro Gallone Sprit fahren würden.“[34]

Bill Gates

In der Geschichte kam die Problematik der Konvertibilität von Währungen erstmals auf, als die regional beliebig normierten Gold bzw. Silbermünzen der Funktion grenzüberschreitenden Handels gerecht werden sollten. Von der Antike durch das Mittelalter hindurch, fand man offenbar Mittel und Wege, die regional differenten Münzen in angebrachte Relationen zu setzen. In der Zeit der aufkommenden Nationalstaaten änderte sich dies. Da weder die Reinheit des Edelmetalls, noch das Gewicht der Münzen leicht vergleichbar war, mussten Standards der Münzprägung geschaffen werden. Die politischen Größen einigten sich so zwischen 1850 und 1875 auf den internationalen Goldstandard[35].

Die Geschichte dieser Genese ist von hier an nun immer besser bekannt. . Die bekannteste Formulierung des Goldwährungsmechanismus ist das „ price – specie flow model“ von David Hume.[36]

Es wurde aber auch mit dem Gold zunehmend unpraktischer zu handeln. Es muss physisch präsent sein, es muss bewacht werden, Länder müssen auf ihre Handelsbilanzdefizite achten – kurz, Währungen erfordern Konventionen, Interaktion der Länder und nicht zuletzt politisches diplomatisches Kalkül.[37]

So kam es dazu, dass das System von „Bretton Woods“ 1944 in New Hampshire in den USA ins Leben gerufen wurde. In dieser von 44 Staaten abgehaltenen internationalen Währungs- und Finanzkonferenz, wurde die Gründung des internationalen Währungsfonds und der internationalen Bank für Wiederaufbau und Entwicklung (Weltbank) beschlossen.[38]

Immer feiner differenzierten sich die Internationalen Beziehungen, die es hier zu beschreiben zu weit führen würde. Aber es kann festgehalten werden, dass das Geld und die Kommunikation über Handel und Währungen eine tragende Rolle bei diesem Prozess spielte.

Für Europa ist nach „Bretton Woods“ als Meilenstein dann noch „Maastricht“[39] zu nennen, und heute sind wir dann angelangt, im Stadium des „globalen freien Kapitalverkehr im Modus einer neoliberalen Hegemonie“. Das Interesse an den Kapitalmärkten hat sich vom Goldstandard zu Aktien, „Stock-Options“ und „Arbitragegeschäften“ transformiert– die heute nicht nur elektronisch sondern zusätzlich hochgradig automatisiert ablaufen. Ein Zitat:

„Der freie Kapitalverkehr ist vermutlich das zur Zeit am meisten umstrittene unter den betrachteten Zielen. Die Ursache dafür liegt allerdings nicht so sehr in einer theoretischen Debatte, denn „eigentlich“ ist unstrittig, dass der Preismechanismus ein effizienter Allokationsmechanismus ist. Dies gilt dann eben auch für internationale Kapitalmärkte. Sie stellen „im Prinzip“ sicher, dass Kapital dort investiert wird, wo es den größten Wohlfahrtszuwachs hervorbringt. Hinzu kommt, dass von den Allokationsentscheidungen der international mobilen Anleger ein positiver „Feedback“ auf die Wirtschaftspolitik der Staaten ausgeht. Gute Politik wird unmittelbar belohnt, schlechte bestraft. Dies zwingt die Staaten stärker, als es ohne freien Kapitalverkehr möglich wäre, in eine letzten Endes

wohlstandsfördernde Disziplin.“[40]

Bei der Fülle der Daten die hier relevant sind, wird eines ganz deutlich:

Technologische, kulturelle, ökonomische, soziologische, psychologische, systemtheoretische und philosophische Aspekte, lassen sich heute nicht mehr entkoppelt voneinander sinnvoll analysieren. Eine ganzheitliche Betrachtungsweise, die eine sich abzeichnende Konvergenz der wissenschaftlichen Diziplinen berücksichtigt, fördert hier mehr Erkenntnisse zu Tage, als die Bemühungen separierter wissenschaftlicher Untersuchungen. Es besteht die Gefahr sich in den Details zu verlieren, die Übersichtlickeit einzubüßen und letztlich den Untersuchungsgegnstand selbst zu verfremden. Betreiben wir die hiesige Untersuchung daher konsequent im Modus einer interdisziplinären Abfolge von Beobachtungen der wesentlichen Merkmale von Transformation von Gesellschaft.

1.2.2 . Analyse der Entwicklung der Ökonomie nach philosophischen, physikalischen und mathematischen Mustern und Homologen

„Wirtschaftspolitik im Zeitalter der Hochtechnologie darf nicht mehr auf technologische Kompetenz verzichten. ... Ziel der konzeptionellen Weiterentwicklung der Marktwirtschaft sollte sein, neben Makroökonomie und Mikroökonomie die Langwellen Ökonomie als dritte Säule der Wirtschaftspolitik zu etablieren“[41]

Leo A. Neofiodow

Wirtschaftliche Aktivität, technologische Evolution und kulturelle Transformation sind offenbar inzwischen so eng verflochten, dass ein isolierter Blick auf ein „herauspräpariertes“ Fachgebiet den Untersuchungsgegenstand schon vor der Analyse verfremdet. Diese systeminhärente „Unschärfe“, die durch die Art der Untersuchung selbst in das Objekt der Analyse „induziert“ wird, ist besonders aus der Physik bereits gut bekannt. Daher an dieser Stelle eine kleiner Exkurs in die Quantentheorie, ein umfassenderer Exkurs folgt in 3.3.2.

Mit makroskopischen Objekten (der Erkenntnis oder der Elementarteilchen, usw.) verhält es sich analog zu mikroskopischen. Aus der Quantentheorie ist bekannt, Ort und Zeit eines Quants lassen sich nicht beide exakt zeitgleich in Erfahrung bringen. Die Beobachtung selbst beeinflusst das Objekt der Beobachtung[42] – nach Heisenberg „Unschärfe – Relation“ genannt.[43]

Gegen diese systemimmanente „Unschärfe“ kann man nichts tun, sie ist nach der sog. „Kopenhagener Deutung“[44], die 1927 zuerst von Niels Bohr und Werner Heisenberg[45] formuliert wurde und über deren Inhalte sich die Physiker Albert Einstein, Max Planck, Max von Laue, Erwin Schrödinger und Louis de Broglie später erbittert stritten, ein qualitatives erkenntnistheoretisches Merkmal des Wesens der physikalischen Realität

– diese ist de Facto unscharf.

Die Unschärfe ist quantenphysikalisch sozusagen ein „a priori“ (Erkenntnis von Erfahrung und Sinne unabhängig) und kein „a posteriori“[46] (empirisch, in der Erfahrung), wollte man mit Kant argumentieren. Der Akt der Beobachtung impliziert sui generis die Unschärfe, immer und unvermeidlich und bei jedem Objekt der Erkenntnis. Da sich der Akt der Beobachtung also auf das Erkennen generell ausstreckt, gilt dies Prinzip auch für alle Wissenschaften, nicht bloß für die Physik und deren Mikrokosmos,

das Prinzip der Unschärfe ist universalgültig.

Man hat jedoch stets die Option den Beobachtungsstandpunkt zu wechseln.

Denn ist es in jeder etablierten Theorie legitim, die Metaebene zu betreten, die prinzipielle Falsifizierbarkeit einzufordern, und zu versuchen, jegliche Theorie in ein größeres Gebäude von Theorien zu inkludieren. Siehe als Beispiel etwa die Inklusion und partielle Falsifikation der Gravitationstheorie Newtons durch die allgemeine Relativitätstheorie Einsteins.[47]

Man kann diesen Wechsel des Standpunktes etwa vollziehen, indem man makro- oder mikroskopische „Objekte der Erkenntnis“, wie z.B. Kultur, Technik und Ökonomie von einer Warte beobachtet, die deren Größe dadurch Rechnung trägt, dass die Beobachtung ihre Objekte ihrer räumlichen und zeitlichen Ausdehnung nach zugleich bewertet. Beenden wir den Exkurs, und beobachten wir also hier und künftig in neuen Paradigmen.

Da der Focus dieser Arbeit auf der Evolution von Technologie und Gesellschaft liegt, beginnen wir mit der ersten kommerziell wirklich epochalen Erfindung mit ökonomischer Initialwirkung.

Es war die Dampfmaschine, für die James Watt 1769 ein Patent erhielt, und mit ihr im Gefolge dann die mechanischen Webstühle und die baumwollverarbeitende Industrie. Diese Technologien, Erfindungen und ihre kulturellen Implikationen veränderten nachhaltig die Lebensweise der Menschen. Folgende Grafik soll veranschaulichen wie andere bedeutende Erfinder, Künstler und Wissenschaftler ähnlich bedeutende Beiträge geleistet haben, die jeweils ein temporäres „Weltbild“ oder eine Epoche prägten.

Abbildung in dieser Leseprobe nicht enthalten [48]

In dieser Grafik sind ausgewählte kulturelle Disziplinen an eine Zeitachse angetragen, um die jeweiligen „Schlaglichter“ hervorzuheben.

Sicherlich muss die Auswahl als exemplarisch gesehen werden, dennoch veranschaulicht sie, dass auch hier eine „Wellenbewegung“ zu konstatieren ist.

Die nächste große kulturelle und ökonomische Transformations - „Welle“ wurde initiiert durch die industrielle Verhüttung des Stahls und der Einführung der Eisenbahn[49].

Wieder stützte sich diese Technologie auf ihre Vorläufer, perfektionierte diese, und ermöglichte mehr Effizienz. Die Industrialisierung kann letztlich betrachtet werden als Quintessenz dieser zentralen Erfindungen. Und sie wiederum war dann der Nährboden für die nächste große ökonomische „Welle“, die Petrochemie und das Automobil.

Die einzelnen Zyklen gewannen zunächst alle ökonomisch an Dynamik, beschleunigten den Absatz und Umsatz, erzielten immer bessere Renditen, bis der Markt gesättigt war.

Dann flachte die Wachstumskurve wieder ab, wobei jedoch die Versorgung mit den Gütern des Zyklus verhältnismäßig konstant blieb. Rationalisierung machte es in allen Zyklen bislang möglich, dass immer weniger Menschen den Grundbedarf der Gesellschaft decken können.

Der jüngste Zyklus war dann geprägt durch die IuK Technologie, wobei wir aktuell schon die Phase der einsetzenden Marktsättigung erleben. Die Initialzündung zu dieser Erfindung ist auf obiger Grafik durch von Neumann markiert. Er kann als geistiger Vater der modernen Computerarchitektur bezeichnet werden. Wie in der Agrarwirtschaft, und der Baumwollweberei, der Automobilindustrie so verhielt es sich anschließend auch im Computerzeitalter. Der Segen den eine neue Technologie mit ihrer Emergenz brachte, neue Arbeitsplätze, neue Marktsegmente, Prosperität und Steigerung des Bruttosozialprodukts, wurde alsbald konterkariert.

Zunehmende Rationalisierung rafft die Arbeitsplätze wieder dahin, Marktsättigung lässt die Gewinne schrumpfen und das BIP (Brutto Inlands Produkt) in dessen Folge. So kann sich dieses zyklische Muster mit der nächsten großen Erfindung ad infinitum wiederholen. Die „Quantensprünge“ der Geschichte der Evolution der Technologie und der Ökonomie lassen sich somit auf eine Weise grafisch veranschaulichen, die einer Sinuskurve ähnelt, welche als Tangente eine lineare solide Wachstumsfunktion abbildet. Die Zyklen dieser Sinuskurve dauern nach empirischen Analysen etwa 50 Jahre.[50]

Die initiierenden Erfindungen für einen solchen Zyklus werden in der Theorie der „Kondratieff Wellen“ als Basistechnologien bezeichnet. Ihr Charakter ist so „bahnbrechend“, dass in ihrer Folge die peripheren Entwicklungen in Technik und Wirtschaft allesamt „mitgerissen“ werden.

Alle Trends, alle natürlichen Prozesse und auch alle wirtschaftlichen Prozesse verlaufen stets zyklisch. Einmal gründlich nachvollzogen ist obige Theorie daher evident.

Einige ausgewählte interdisziplinäre Beispiele:

-Urknall – Expansion des Kosmos – Kollaps des Universums durch seine eigene Gravitation
-Geburt – Geschlechtsreife – Tod (betrifft nahezu alles organische Leben so stringent)
-Marktreife des „Handys“ –Exponentiell steigende Rendite für Unternehmen– Marktsättigung
-Zündung der Kernfusion einer Sonne –ca. 10 Mrd. Jahre „Brenndauer– Supernavaexplosion
-Emergenz einer neuen Gattung – Eroberung des Lebensraumes – Mutation oder Exodus

Folgende Grafik soll den Transfer dieser Zusammenhänge in die Evolution der Technologie veranschaulichen:

Abbildung in dieser Leseprobe nicht enthalten[51]

Die obigen Beispiele ließen sich beliebig fortsetzen, und dienen der Veranschaulichung.

Gut erkennen lässt sich im Vergleich mit der obigen Grafik, dass solche zyklischen Prozesse immer wieder markante Stadien durchlaufen. In der Grafik veranschaulicht durch „Boom“ und „Rezession“. Genauer handelt es sich sogar um drei Stadien:

„Rise“ – „Hybris“ – „Fall“ analog z.B. der Gerontologie: Jugend, Adoleszenz und Alter.

Darüber hinaus lassen sich solche Zyklen beliebig aneinander reihen, zumeist bedingen sie sich sogar gegenseitig, wie etwa in der Biologie, der Ökonomie, der Kosmologie, usw.

Speziell in Anwendung für die Vorhersage Ökonomischer Langzeitzyklen hat diese Gesetzmäßigkeit erkannt und als erster formuliert „Nikolai Dmitrijewitsch Kondratieff“.

Er stellte die Theorie 1926 in dem Artikel „Archiv für Sozialwissenschaft und Politik“ vor.

Damals war er Direktor des Moskauer Instituts für Konjunkturforschung, und suchte nach plausiblen Erklärungen für die Schwankungen des Marktes.

„Die Ursachen dafür vermutete Kondratieff nicht in äußeren Einflüssen wie Kriege, Revolutionen oder neue Goldfunde, wie seine Kritiker meinten. Nicht neue Goldfunde lösten lange Wellen aus, sondern weil in einem langanhaltenden Aufschwung die Goldnachfrage wächst, wird es schließlich wieder wirtschaftlich, neue Goldfelder zu erschließen. Und nicht Revolutionen oder Kriege lösten lange Wellen aus (wenn sie diese auch unterstützen können), sondern weil ein langer Aufschwung von verschiedenen Ländern unterschiedlich gut genutzt werde, komme es zu innerstaatlichen und zwischenstaatlichen Spannungen, die sich in Revolutionen und Kriegen entlüden. Sie seien daher nur Auswirkungen der langen Wellen.“[52]

Die Kausalität von Ursache und Wirkung spezifischer Zusammenhänge wird hier interessanterweise invertiert, gegenüber der traditionellen Lesart, insbesondere was jene von Krieg, Revolutionen, Goldfunden und Konjunkturzyklen betreffen. Diese Argumentation hat den sympathischen Faktor für sich, dass etwa der Krieg nicht zum „Vater aller Dinge“ inklusive der Konjukturzyklen als deren Erklärungsgrundlage überhöht wird, sondern dass z.B. Krieg hier als Folge von Konjunkturzyklen verstanden wird. Diese Invertierung der Kausalität werden wir später noch weitere Male in Anwendung finden, bei der Rolle des Geldes in der Ökonomie etwa. Die Theorie hat sicherlich auch ihre Kritiker. Man kann verschiedene Ursachen benennen die jene dargestellten Zyklen verursachen. Worüber Einigkeit herrscht ist die Existenz dieser Zyklen. Nachdem Nikolai D. Kondratieff die Theorie publizierte, hat sie der bedeutende Politikwissenschaftler und Theoretiker Joseph A. Schumpeter aufgegriffen und in dem Buch „Konjunkturzyklen“ weiter geführt. Schumpeter prägte auch den Begriff „Kondratieffzyklus“.

Als weitere Forscher, die zur Verbreitung der wissenschaftlichen Grundlagen beitrugen, kann man etwa den Nobelpreisträger „Simon Kuznets“ und auch „Jan Tinbergen“ nennen.

Diese Erkenntnis wird längst auch in der Praxis angewandt, in der stochastischen Analyse der Charts der Leitindizes der Börsen des Weltmarktes etwa.

Abbildung in dieser Leseprobe nicht enthalten[53]

Da sich die Theorie so hervorragend mit der Empirie deckt, lässt sie sich nutzen um recht Präzise Vorhersagen über die Entwicklung der Märkte zu machen. Wir sehen anhand der obigen Grafik, dass in den ersten drei „Wellen“ die Deckung von Theorie und Empirie nahezu perfekt verläuft. Allein bei der jüngsten „Welle“ übertrifft die Realität noch die Erwartungen. Um Preisverläufe, Arbeitsmarktzahlen und letztlich Aktienkurse vorherzusagen, hat man in jüngster Zeit diese Theorie noch mathematisch verfeinert und mit weiteren Indikatoren flexibler gestaltet, um die Realität der Märkte besser abzubilden.

Stochastische Analysemethoden, „intelligente“ Algorithmen bzw. Software und sog. „Fibonacci-Zahlen“[54], mit denen sich statistische Reihenentwicklungen mathematisch extrapolieren lassen, haben das Instrumentarium noch zusätzlich erweitert.

Die sog. „Elliot Wave Theorie“[55] etwa, macht konkrete Vorraussagen über die Entwicklung von Indizes und Aktien.[56]

Diese Theorie gestattet damit automatisierte Suche nach Homologen und Mustern in Aktiencharts, Leitindizes und natürlich auch Kondratieffzyklen selbst, die sich iterativ verhalten. Da dieses Verhalten alle Kurven, Graphen und Funktionen, die sich in einem Spat abbilden lassen erfüllen, sobald sie nicht linear und von multiplen Faktoren geformt sind, erhält diese Theorie immer größere Beachtung.

Das mathematische Theoriengebäude hinter diesem Zweig der Forschung ist mittlerweile außerordentlich komplex. Die Analyse von realen Indikatoren des Marktes, wie etwa der Leitzins, Umsatz – oder Import/Export – Zahlen, und stochastischen Daten wie die gemittelte Volatilität, die Häufung von typischen Chartkonstellationen und ähnlichen Faktoren mehr, lassen sich heute ausschließlich auf Computern berechnen. Insbesondere die Relation solcher Faktoren zueinander wird über mathematische Funktionen in einem Graphen abgebildet.

Trotz aller Mathematik bleibt die „Börse“ hauptsächlich ein Phänomen der Psychologie, wie selbst die Theoretiker der mathematischen Werkzeuge selbst einräumen:

„Das Thema "Chaos" beschäftigt seit einigen Jahren eine Vielzahl wissenschaftlicher Teildisziplinen. R. N. Elliott erkannte die massenpsychologische Veranstaltung "Börse" als ein Chaos entlang der Zeitachse.“[57]

Dem Analysten bleibt es aber zum Schluss immerhin noch selbst überlassen, aus einer Vielzahl von farbigen Kurven und Parametern seine Folgerungen abzuleiten. Zumindest existiert momentan noch dieser Berufsstand, denn parallel gibt es auch schon vollautomatische Analysesysteme. Diese basieren auf hochmodernen Rechenanlagen, in denen ein Neuronales Netz[58] in Form einer Software implementiert ist, die jene Arbeit eines menschlichen Analysten, der Folgerungen ableitet, per Berechnung in Algorithmen leistet.

Die Firma „ R ealtime E volution’s N euroNetwork“[59] bietet z.B. eine höchst moderne Variante eines solchen voll computerisierten Analysewerkzeuges an.

Ein Grund warum die gesamte Theorie in der Praxis längst Verwendung findet, in akademischen Kreisen aber immer noch zumeist kritisch wahrgenommen wird kann darin zu sehen sein, dass sie letztlich trotz aller bestätigenden Empirie immer nur eine extrapolierte Vorhersage liefern kann, und keine sui generis gültige Aussage etwa der Natur eines mathematischen Beweises oder Axioms. Die akademische Einwertung unterliegt letzlich jedoch ebenfalls temporal alternierenden intersubjektiven Aspekten des Diskurses per se. Darum soll in der Argumentation dieser Arbeit die Theorie der Kondratieff Zyklen als empirisch hinreichend belegt für ihre Anwendbarkeit gelten.

Ein typischer mathematischer Chart des z.B. des Indizes Dax, sieht heutzutage wie folgt aus:

Abbildung in dieser Leseprobe nicht enthalten[60]

Dieser Chart illustriert anschaulich den Grad der Komplexität heutiger Softwaregestützter Analystechniken. Hier eine Kombination aus „Candlestick – „Elliott Wave“ und „technischen Marktindikatoren“. Der Analyst „Matthias Onischka“ publiziert in einem der größten „Online Börsen Portale“ - www.wallstreet-online.de - und genießt allgemein den Ruf als Profi. Hier zeigen in der obigen Analyse alle Indikatoren eine Trendwende im Markt an.

Sehr schön sieht man auch das iterative Verhalten der „Chart-Funktion“ – wie dargetan.

Was wir also festhalten können ist für diesen Punkt folgendes:

Innerhalb der scheinbar chaotischen Dynamik der Konjunktur, gibt es Muster und Homologe. Wie durch Grafiken, Zitate und die dargelegten Argumentationen aufgezeigt.

Die Beobachtung dieser Muster gestattet Extrapolationen und Ableitungen, die sich als Vorhersagen nutzen lassen. Mit mathematischen Werkzeugen verfeinert ergibt sich aus dieser Erkenntnis das weite Feld der „Indize- und Chart Analytik“ – das Betätigungsfeld der Fondsmanager und Marktbeobachter.

Für eine globale Sicht auf den Untersuchungsgegenstand Markt, ergibt sich das Bild einer gut prognostizierbaren, zyklischen und stark auf technische Innovationen reagierenden „Mechanik“ der Finanzströme. Die These soll belegt werden, dass der Markt oder die Börse stärker von den hier benannten „Basisinnovationen“ der Kondratieffzyklen abhängt, als etwa von diversen politischen, soziologischen oder kulturellen Faktoren, was dann die Hauptthese der Arbeit unterstützen wird. Im nächsten Punkt soll dies geleistet werden.

1.2.3 Der Internetboom war ein prognostizierbares Ereignis – technologisch induziert und mit enormen kulturellen Auswirkungen

„In der Geschichte des Marktes – und in seiner kulturellen Wahrnehmung – spiegelt sich die Geschichte der Zivilisation. (...) Der Markt ist das Wesen der Kultur! Und der Stachel der Evolution.“[61]

Matthias Horx

Wie wir gesehen haben, steckt hinter dem modernen Markt ein technisches und auch ein kulturelles, „Konstrukt“. Es hat eine lange Geschichte hinter sich, hat sich mehrfach transfomiert und die es gestaltende Gesellschaft mit ihm, und somit lässt es sich losgelöst von der es konstituierenden Gesellschaft nicht mehr adäquat beschreiben.

Ziel eines Marktes ist es damal wie heute, entweder den Gewinn zu maximieren, die Arbeitskräfte möglichst effizient einzusetzen oder den Markt durch ausgefeilte Strategien und Innovationen zu „erobern“. Was früher Denker und Wissenschaftler für die Bürger leisteten, oder die Manager der führenden Unternehmen , mit Konzepten wie dem „Keynesianismus“[62], „Taylorismus“ oder dem „Fordismus“ – das leisten heute „Lean Management“ , „Just in Time Produktion“ und „Total Quality Management“. Die wirklichen Transformationen erkennt man oft daran, dass zwar ökonomisch, technologisch und kulturell alles anders bzw. neu erscheint, aber die „Axiome“ oder „Zielprojektionen“ des Marktes oder der gesellschaftlichen Entwicklungen sich beinahe detailgetreu gleichen.

So geht es heute lediglich mit neuen Mitteln darum, die alten und neuen Werte und Ziele zu verwirklichen, evtl. lediglich schneller oder anders, zumeist elektronisch und technisch.

Wenn dem so ist, und der Paradigmenwechsel von der „Old Economy“ zur „New Economy“ ökonomisch lediglich andere „Fußnoten“ trägt, ansonsten aber ablief wie jeder andere Übergang eines ökonomischen Zyklus in den nächsten, dann gestattet dies eine neue Einwertung der bisherigen und zu antizipierenden Marktschwankungen.

Die offensichtlichen Zyklen im Markt, hätten bereits im Vorfeld des letzten IT Booms um 2000, dazu genutzt werden können, sich auf die kommende Technologie und ihre Erfordernisse vorzubereiten!

Die Informations- und Kommunikationstechnologie war die logische Fortsetzung der bisherigen technologischen Evolution. Wie kann ein Staat solchen Quantensprüngen der technischen Entwicklung begegnen?

Handlungsoptionen des Staates ( zur Antizipation einer Basisinnovation)

- Die von der Basisinnovation benötigte Infrastruktur frühzeitig aufbauen
- Öffentliche Forschungs- und Entwicklungsressourcen und Programme auf die Erschließung der Basisinnovationen ausrichten
- Die Öffentlichkeit über die Anforderungen, Vorteile und Risiken der Basisinnovation informieren
- Aus- und Weiterbildungsangebote auf den Umgang mit Basisinnovationen ausrichten
- Gezielte Anreize für Investitionen in die Basisinnovation anbieten (z.B. Steuervergünstigungen, Anpassung des Rechtswesens, zinsgünstige Kredite, usw.)[63]

Für jeden Staat ist eine gut vorbereitete Antizipation einer marktumwälzenden Innovation ein enormer Wettbewerbsvorteil. Schließlich kann es nur erwünschtes Ziel einer gut funktionierenden Politik sein, zu agieren statt zu reagieren. Das Ende der politischen Realität steht als Handlungsunfähigkeit, Politikverdrossenheit oder auch verweigernde Wähler schon länger mahnend an den Horizont gemalt.[64] Angesichts der zunehmenden Virtualität der Partizipation an Demokratie, durch z.B. Fortschritte mit Internet basierten Wahlen, Meinungsumfragen online und ähnlichem mehr, wird die Gefahr versiegender Bereitschaft zur aktiven Partizipation am politischen Prozess sukzessive größer, die Tendenz droht dahin abzugleiten, Politik als mediale Präsentation lediglich noch zu rezipieren.

Wenn wir also aus den bisherigen Überlegungen ableiten wollen, dass mit an Sicherheit grenzender Wahrscheinlichkeit, der wiederum nächste Zyklus der ökonomischen Dynamik mit nahezu identischen politischen Bedingungen und kulturellen Implikationen Einzug halten wird, wie der aktuelle Zyklus sich vollzog, dann wird es bereits heute höchste Zeit diesen vorzubereiten.

Die Liste der Kandidaten für die nächste Basisinnovation ist schon heute vielversprechend.

1. Nanotechnologie (Mikroskopische Maschinen )[65]
2. Biotechnologie (Organe aus der Petrischale)[66]
3. Künstliche Intelligenz ( Der virtuelle Software-Agent)[67]
4. Optische globale Neuronale Netzwerke (G lobal C onsciousness P roject)[68]
5. Energie aus Kernfusion ( Energie nach dem Vorbild Sonne)[69]

Hier ließen sich sicher noch einige weitere Kandidaten anfügen, aber es genügt bereits um zu sehen, dass Innovationen mit „Quantensprung – Charakter“ nicht wirklich „Mangelware“ sind.

Allein, es bleibt Aufgabe der Politik diese Innovationen vorzubereiten – statt abzuwarten und auf Arbeitsplätze zu „hoffen“ – hier sind Optionen dargestellt diese proaktiv zu generieren.

„Das Geschehen in einem System kann so ausgedrückt werden, als ob die aktuellen Veränderungen von einem erst in Zukunft zu erreichenden Endzustand abhängig wären.“[70]

Obiges Zitat bringt zum Ausdruck, wie sinnvoll es sein kann, der sturen Linearität in einem System nicht sämtliche Logik unterzuordnen, auch akausale, nicht lineare, exponentielle, zyklische und auch Quanten - Prozesse „gehorchen“ einer Logik. Die moderne Disziplin der „Quantenphilososphie“[71] tritt sogar in Experimenten den empirischen Beweis an, dass sich „Zeit“ letztlich als reines „Beobachterphänomen“ beschreiben lässt.

Die Wahrheit sollte allein dadurch identifiziert werden, was sich bewährt!

Natürlich ist es schwierig den Bildungsmarkt und den Markt der Forschungsgelder auf die richtigen Technologien zu fokussieren, aber nur so lange, wie man davon ausgeht, dass eine einzelne bestimmte Technologie die sagenumwobene „Killerapplikation“ wird, und andere Technologien in ihrer Förderung lediglich Kapital vernichten.

Diese Ansicht selbst liegt fehl.

Die oft zitierte „Killer Application“ ist zum geflügelten Wort der modernen „New Economy“ geworden, dabei ist ihr Eintreffen auf multifaktorieller Ebene zu erwarten, und nicht als weiteres singuläres Ereignis der Größenordnung der Erfindung der „E-mail“.

Hier kann man zur Visualisierung der Kausalitätsparadoxa, die diese Fehlannahme begünstigen, obiges Zitat aus der Systemtheorie nutzen. Die aktuellen technologischen Entwicklungen, werden im Intertialsystem ihrer Evolution systemtheoretisch bereits von den sich abzeichnenden Ergebnissen ihrer eigenen Entwicklung antizipiert. Dieser Prozess ist auch verstehbar als ein sich selbst reinigendes, erhaltendes und förderndes ökonomisches „Ökosystem“.

Alle oben genannten Technologien, und noch einige mehr, werden nach Ansicht der entsprechenden Sachverständigen der zugehörigen Fachgebiete den Durchbruch zu einer Basisinnovation schaffen. Dabei werden sie sich in ihrer Emergenz aus bestehenden Vorläufern evolutionär abheben, wechselseitig evozieren und in ihrer Genese unterstützen.

Es gibt keinen Grund zu der Annahme, dass nur gezielte Förderung der „richtigen“ Technologien Arbeitsplätze schafft, oder das BIP anhebt, oder etwa die Neuverschuldung der BRD unter die 3%[72] Klausel von Maastricht[73] bringt. Die „Killerapplikation“ des nächsten Kontdratieff – Zyklus wird eine Konvergenz[74] aus den präsentierten Technologien sein!

Die Evolution der Technolgie verläuft offenbar entlang einer „Kaskade“.

So wie die Dampfmaschine auf dem Feuer und dem Rad aufbauen konnte, so wird die Nanotechnik auf der Fotolithographie aufbauen, sowie auf den modernen Großrechenanlagen und „Cluster-Computern“ (etwa „Deep Blue[75] “ (IBM) oder „Earth Simulator“ (NEC)). Ebenso wird die Biotechnik auf der Informatik fußen, wie die Sequenzierungscomputer der DNS heute schon vorahnen lassen, und die Energie aus Kernfusion oder weitere innovative Konzepte der Energieerzeugung werden all dies energetisch ermöglichen müssen – fossile Energie ist begrenzt verfügbar, aus Wasserstoff besteht der Kosmos aber zu über 90%.[76]

Die „Befürchtung“ der Politiker also, evtl. die „richtige“ Basistechnologie zu verfehlen, ist unbegründet. Die Option der Auswahl erschwert nicht die Vorbereitung auf den nächsten Zyklus, sondern vereinfacht sie. Jede Förderung für junge Unternehmen mit Vision, die eines der genannten Felder bedient, hilft Innovationen zu antizipieren. Es gilt hier für die Politik die Rahmenbedingungen und Standortfaktoren zu schaffen bzw. auszubauen. Für die Kapitalgeber der neuen Basisinnovationen gilt es parallel zu diesem Prozess durch kritische Beurteilung die Ideen mit dem größten Potential zu selektieren und zu fördern.

Begrenzt ist nicht das wirtschaftliche Wachstum, es ist lediglich die Vorstellungskraft.

Der nächste und sechste Kondratieff-Zyklus naht offenbar unausweichlich – und er wird, wie bereits historisch fünfmal in Folge geschehen, kaskadenartig auf den bestehenden Technologien aufbauen. Durch eine Konvergenz der genannten Aspiranten als Basisinnovation, wird mit an Sicherheit grenzender Wahrscheinlichkeit, der kommende Zyklus alle bislang bekannte Dynamik von Wachstum um weitere Größenordnungen überbieten. Die Herausforderung für die heutige Politik besteht darin, dies zu erkennen und früh genug vorzubeiten, wie erörtert.

1.3.0 Der internationale „Börsencrash“ als Folge der „E-Commerce Euphorie“ - Börsenpsychologie und Standortfaktoren in exemplarischer Analyse

1.3.1 Die psychologischen Hintergründe der „DOT COM“ Spekulationsblase

„Nach der Systemtheorie gibt es zwei und nur zwei Inputgrößen, die Wachstum ermöglichen: Energie und Information[77]

Leo A. Neofiodow

Die globale Börse ist der moderne Marktplatz geworden. Wo im Mittelalter noch geschützt durch die Hellebarden des Feudalherren, orientalische Gewürze und Seide aus Asien gehandelt wurden wie Gold oder Salz, da werden heute „Hebelzertifikate“ und Aktien gehandelt unter dem Schutz von „Firewalls“. Doch aus dem bunten „Tummelplatz“ für Händler, Gaukler und das gemeine Volk ist eine elektronische globale Plattform geworden. Physische Präsenz ist unökonomisch und langsam. Elektronische Finanzmärkte sind schnell, volatil und dynamisch. Sie bewegen astronomische Summen und die Gemüter der Menschen die dies veranlassen. Damit bildet der Markt die „Psychologie“ der Marktteilnehmer korreliert mit den technischen Innovationen angetragen entlang der Zeitachse grafisch ab. Etwa so:

Abbildung in dieser Leseprobe nicht enthalten[78]

[...]


[1] Schopenhauer, Arthur (1818/1996): „Die Welt als Wille und Vorstellung“, Zweiter Band, Insel Verlag, Frankfurt a.M., S. 11

[2] Muyden von, Dr. G. (1888/89) Bibliothekar des kaiserlichen Patentamtes, in: Herders Jahrbuch der Naturwissenschaften, Berlin

[3] Weidenfeld, Werner (31.07./01.08.1999) in: Süddeutsche Zeitung - oder:

http://www.cap.uni-muenchen.de/aktuell/medien/1999/1999_08_01.html

[4] Auf die näheren Analogien zwischen Neokortex und Internet werden wir später noch ausführlich zu sprechen kommen, in Punkt 3.1.2 im Kontext Künstlicher Intelligenz.

[5] http://www.softexsolutions.com/crc/webdev/internetHistory/history/arpaImplementation.htm

[6] Kaku, Michio (2000): „Zukunftsvisionen“, Dromer-Knauer, München, S. 66

[7] ebenda S: 67

[8] Trend – relational wird etwa die Absatzdynamik eines neuen Produkts definiert, z.B. stagniert aktuell der Markt monochromatischer Handys, wohingegen Handys mit Farbdisplay und integrierter Kamera erneut exponentielle Zuwachsraten verzeichnen, dies geschieht simultan. Trend relational ist z.B. auch das Wahlverhalten der Bürger an den Urnen.

[9] Miller, Steven E. (1996): „Civilizing the Cyberspace / Policy Power and the Information Superhighway“, New York, S. 44 f.

[10] http://www.denic.de/de/domains/statistiken/hostentwicklung/hostcount.html#

[11] http://www.heise.de/newsticker/meldung/20568

[12] (siehe auch GCP – Projekt in Punkt 1.3.1)

[13] Schirrmacher, Frank (2001): „Die Darwin AG“, Kiepenheuer & Witsch, Köln, S. 157 (fortan Schirrmacher)

[14] http://www.microsoft.com/security/incident/blast.asp

[15] http://www.bsi.de/av/virbro/kap1/kap1_1.htm (BSI = Bundesamt für Sicherheit in der Informationstechnik)

[16] http://www.all.net/books/virus/part1.html

[17] Der Modus der Befehlszeile ist die Kommunikationsebene des Users mit der Hardware, bei der er über ein sog. Terminal die Programmbefehle noch ganz rudimentär als einzelne „Zeichen- und Zahlen Kürzel“ gemäß der Programmiersprache des Betriebsystems händisch eintippen muss. Dieser Prozeß ist zeitraubend und höchst komplex – aber der direkte Weg.

[18] http://www.epischel.de/wissen/alto/alto.pdf (Die grafische Oberfläched des Xerox – Alto Systems)

[19] http://www.pressetext.at/pte.mc?pte=030812013

[20] Vgl. hierzu die entsprechenden namhaften Theoretiker - etwa Niklas Luhmann, Francisco Varela, Humberto Maturana oder Ludwig von Bertalanffy, auf die wir noch auführlicher zu sprechen kommen werden.

[21] http://www.icann.org/ (I nternet C orporation for A ssigned N ames and N umbers)

[22] http://www.intel.com/research/silicon/mooreslaw.htm

[23] http://www.zdnet.de/news/software/0,39023144,2099721,00.htm

[24] http://www.weizmann.ac.il/

[25] (Mehr zu den technischen Details und politischen Implikationen dieser Technologie in Punkt 3.3.1.)

[26] http://fp3.antelecom.net/gcifu/applemuseum/lisa2.html

[27] Rifkin, Jeremy (2000): „Access – Das Verschwinden des Eigentums“ / Campus / Frankfurt a.M., S. 32

[28] Dieses Phänomen werden wirim Fortgang als AEA bezeichnen

[29] vgl. Welfens, Paul (1995): „Grundlagen der Wirtschaftspolitik“, Springer, Berlin, S. 112

[30] vgl. Mandel, Michael (2000): „crash.com – Warum endet der Hightech-Boom? Wie heftig wird die Krise? Wer übersteht den Crash?“, Verlag Financial Times Prentice Hall, Hamburg

[31] Auf die zugehörige Theorie kommen wir im Punkt 1.2 ausführlich zu sprechen

[32] DIW – Deutsches Institut für Wirtschaftsforschung / http://www.diw.de/programme/jsp/presse.jsp?pcode=218&language=de

[33] vgl. Marx, Karl, (1976): „Das Kapital - Kritik der politischen Ökonomie“, Erster Band, Verlag Marxistische Blätter, Frankfurt am Main

[34] Horx, Matthias (2002): „Die Acht Shären der Zukunft“, Signum – Herbig, Wien – München, S. 176 (Bill Gates, Gründer des Unternehmens Microsoft, auf der Computermesse ComDex , 1998 ,vor Magnaten der Automobilindustrie)

[35] Eichengreen, Barry (2000): „Vom Goldstandard zum Euro - Die Geschichte des internationalen Währungssystems“, Berlin, S. 32

[36] vgl. Hume, David (1988): „Politische und ökonomische Essays“, Meiner, Teilband 1

[37] vgl. Keynes, John Maynard (1924): „A Tract on Monetary Reform , Macmillan, London

[38] vgl. Meyers (1989): „Das neue Dudenlexikon“

[39] vgl. Krägenau, Henry / Wetter, Wolfgang (1993): „Die Wirtschafts- und Währungsunion: Vom Werner Plan zum Vertrag von Maastricht“ , Baden Baden

[40] Frenkel, Michael / Menkhoff, Lukas (2000): „Stabile Weltfinanzen?“, Springer, S. 13

[41] Neofiodow, Leo A. (2001): „Der sechste Kondratieff“, Wege zur Produktivität und Vollbeschäftigung im Zeitalter der Information, Rhein-Sieg, Sankt Augustin, S. 36

[42] Beckermann, Ansgar (1999): „Analytische Einführung in die Philosophie des Geistes“, Walter de Gruyter –Berlin-New York, S. 267 ff

[43] vgl. Heisenberg, Werner (1990): „Physik und Philosophie“ , Frankfurt a.M., Berlin

[44] Zeilinger, Anton (2003): „Einsteins Schleier / Die neue Welt der Quantenphysik“, C.H. Beck, München, S. 160

[45] http://139.18.122.225/heisenberg/Geburt_der_modernen_Atomphysik/Die_Kopenhagener_Deutung/die_kopenhagener_deutung.htm

[46] http://www.philosophers-today.com/rezension/kant1.html

[47] vgl. Wickert, Johannes (1972): „Einstein“, Rohwolt, Hamburg

[48] Becker Boost, Erich / Fiala, Ernst (2001): „Wachstum ohne Grenzen – Globaler Wohlstand durch nachhaltiges Wirtschaften, Springer, Wien, S. 123

[49] vgl. Schivelbusch, Wolfgang (1979): „Geschichte der Eisenbahnreise. Zur Industrialisierung von Raum und Zeit im 19. Jahrhundert“, Frankfurt am Main

[50] Neofiodow, Leo A. (2001): „Der sechste Kondratieff“ / Wege zur Produktivität und Vollbeschäftigung im Zeitalter der Information, Rhein-Sieg, Sankt Augustin, S. 3

[51] http://www.union-investment.de/fonds/infoservice/infomaterialunion/edeb9040bf01cc2069724536d44cb09e.0.0/lep_uni21jahrhundert.pdf

[52] Neofiodow, Leo A. (2001): „Der sechste Kondratieff“ / Wege zur Produktivität und Vollbeschäftigung im Zeitalter der Information, Rhein-Sieg, Sankt Augustin, S. 211

[53] http://www.elliott-waves.com/deflation7.htm

[54] http://www.ijon.de/mathe/fibonacci/

[55] vgl. Prechter, Robert (2003): “Das Elliott-Wellen-Prinzip” / Finanz-Buch Verlag

bzw. auch:

http://www.finanzbuchverlag.de/buecher/autoren.php?toshow=Prechter%2C+Robert

[56] http://www.elliottrader.com/

[57] http://www.finanzbuchverlag.de/buecher/autoren.php?toshow=Prechter%2C+Robert

(Hervorhebung durch Fettdruck von mir)

[58] http://www.net-lexikon.de/Neuronales-Netz.html

[59] http://www.ren.de/Realtime.html

[60] http://www.wallstreet-online.de/ / Matthias Onischka / Elliott Waves Analyses / 27.6.2003

[61] Horx, Matthias (2001): „Smart Capitalism“, Eichborn, Frankfurt am Main, S. 14 & 15

[62] Pilz, Frank / Ortwein, Heike (2000): „Das politische System Deutschlands“, Oldenbourg, München, S. 332

[63] vgl. Neofiodow, Leo A. (2001): „Der sechste Kondratieff“, Wege zur Produktivität und Vollbeschäftigung im Zeitalter der Information, Rhein-Sieg, Sankt Augustin, S. 90

[64] Virilio, Paul (1999): „Fluchtgeschwindigkeit“, Fischer, Frankfurt a.M., S. 102 – 104 ff

[65] vgl. Drexler, Eric (1986): „Engines Of Creation / The Coming Era of Nanotechnology“, Anchor Books

[66] http://www.vistaverde.de/news/Wissenschaft/0304/07_tissue-engineering.htm

[67] http://www-2.cs.cmu.edu/~softagents/

[68] http://noosphere.princeton.edu/

[69] http://www.ipp.mpg.de/de/index.html (Max Planck Institut für Plasmaphysik) bzw. http://fusion.gat.com/iter/ oder direkt: http://www.iter.org/

[70] vgl. Bertalanffy, Ludwig von (1972): „Zu einer allgemeinen Systemlehre“, in : Organisation als System, Hrsg: Kurt Bleichner, Wiesbaden

[71] http://www.quantumphil.org/

[72] Wirtschaftsexperte „Welteke“ prognostiziert für BRD 2004 ein Verfehlen des Kriteriums zum dritten mal in Folge, dann mit über 4% des BIP­ – siehe dazu: http://www.ftd.de/pw/eu/1046346617499.html?nv=cpm

[73] vgl. Krägenau, Henry, Wetter, Wolfgang (1993): „Die Wirtschafts- und Währungsunion: Vom Werner Plan zum Vertrag von Maastricht“ , Baden Baden

[74] ausführlich wird die Konvergenz der Technologien in Punkt 3.3.1 behandelt werden

[75] http://www.research.ibm.com/deepblue/home/html/b.html

[76] Ditfurth, Hoimar von (1972): „Im Anfang war der Wasserstoff“, Hoffmann und Campe, Hamburg, S. 256 (oder auch):

vgl. Davidson, John (1996): „Das Geheimnis des Vakuums“, Omega, Düsseldorf

[77] Neofiodow, Leo A. (2001): „Der sechste Kondratieff / Wege zur Produktivität und Vollbeschäftigung im Zeitalter der Information“, Rhein-Sieg, Sankt Augustin, S. 11

(Hervorhebung durch Fettdruck von mir)

[78] http://www.belke-partner.de/fdl/investment/charts/invlang.gif

Ende der Leseprobe aus 159 Seiten

Details

Titel
Die Evolution der Informationstechnologie als Initiator gesellschaftlicher Transformation: Paradigmenwechsel von der Produktions- zur Wissensgesellschaft
Hochschule
Ludwig-Maximilians-Universität München  (GSI - Geschwister Scholl Institut)
Veranstaltung
Politik und Technologie
Note
1,7
Autor
Jahr
2004
Seiten
159
Katalognummer
V42394
ISBN (eBook)
9783638404334
ISBN (Buch)
9783638706803
Dateigröße
2308 KB
Sprache
Deutsch
Anmerkungen
Schlagworte
Evolution, Informationstechnologie, Initiator, Transformation, Paradigmenwechsel, Produktions-, Wissensgesellschaft, Politik, Technologie
Arbeit zitieren
Michael Daum (Autor:in), 2004, Die Evolution der Informationstechnologie als Initiator gesellschaftlicher Transformation: Paradigmenwechsel von der Produktions- zur Wissensgesellschaft, München, GRIN Verlag, https://www.grin.com/document/42394

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Die Evolution der Informationstechnologie als Initiator gesellschaftlicher Transformation: Paradigmenwechsel von der Produktions- zur Wissensgesellschaft



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden