Lade Inhalt...

Webkompetenz als Kulturtechnik der Wissens- und Informationsgesellschaft und die Herausforderungen für Lehre und Lernen an der EFH Freiburg

Diplomarbeit 2007 136 Seiten

Sozialpädagogik / Sozialarbeit

Leseprobe

Inhaltsverzeichnis

Einleitung

1 Die Wissens- und Informationsgesellschaft
1.1 Bestandsaufnahme
1.2 Kritik einer Epochenbezeichnung
1.3 Digitale Revolution oder digitaler Wahn
1.4 Die Neuordnung des Sozialen durch Technologie
1.4.1 Technologie durchdringt den Alltag
1.4.2 Die digitale Kluft- User oder Loser
1.4.3 Die Wissenskluft-Hypothese
1.4.4 Die globale Dimension der digitalen Kluft
1.4.5 Das 100 Dollar Laptop
1.5 Die kreative Klasse
1.5.1 Die Rolle der Hochschule in der Wissensgesellschaft
1.5.2 Reformbestrebungen zwischen Elitenbildung und Chancengleichheit

2 Betrachtungen des Netzmediums Internet
2.1 Eine kurze Geschichte des Internets
2.2 Eine Betrachtung des Internets im Theoriekontext Marschall McLuhans
2.2.1 Das Medium ist die Botschaft
2.2.2 Die Erweiterungen des Menschen
2.2.3 Das globale Dorf
2.2.4 Das Internet ist die Botschaft
2.3 Web2.0 – das Mitmach-Web Wikipedia als Beispiel des Web2.0
2.4 Die dunkle Seite des Netzes Vom Netz aufgefangen - oder gefangen im Netz

3 Lernen im Paradigma der Wissensgesellschaft
3.1 Gedanken zum Lernen
3.2 Hauptströmungen der Lerntheorien
3.2.1 Behaviorismus - Lernen als Verhaltensveränderung
3.2.2 Kognitivismus – Lernen als Erkenntnisprozess
3.2.3 Konstruktivismus - Lernen als subjektive Konstruktion
3.3 e-Learning
3.3.1 Was ist e-Learning
3.3.2 Das Wie und Warum des e-Learning
3.4 Eine neue Lernkultur durch e-Learning 2.0
3.4.1 Selbstreguliertes/ selbstgesteuertes Lernen
3.4.2 Bottom-up oder Top-down
3.4.3 Blended Learning

4 Empirische Untersuchung zu Webkompetenz als Kulturtechnik
4.1 Forschungsdesign
4.2 Qualitative und Quantitative Sozialforschung
4.3 Multimethodaler Ansatz
4.4 Das Experteninterview
4.4.1 Der Interviewleitfaden
4.4.2 Auswahl der Interviewpartner und Kontaktanbahnung
4.4.3 Interviewdurchführung
4.4.4 Datenschutz
4.4.5 Technische Hilfsmittel
4.4.6 Transkription und Auswertung
4.5 Interviewergebnisse
4.5.1 Wie gestaltete sich der Erwerb von Wissen bezüglich Computer und Internet
4.5.2 Wissens- und Informationsgesellschaft
4.5.3 User - Producer
4.5.4 Nutzungsgewohnheiten
4.5.5 Bildung und Internet
4.5.6 Politik und Recht
4.6 Der Fragebogen Zielgruppe und Vorgehensweise
4.7 Auswertung der Fragebögen
4.7.1 Basisdaten (Items 1-4) Stichprobenbeschreibung
4.7.2 Grundlagen Internetnutzung (Items 5, 6, 7, 8, 9, 31, 33)
4.7.3 Nutzungsbewusstsein (Items 10, 11, 12, 14, 37, 38, 44)
4.7.4 User-Producer Index (Items15, 16, 17, 18, 20)
4.7.5 Nutzungsgewohnheiten (13, 19, 22, 21)
4.7.6 e-Business Index (Items 23, 24, 25, 26, 27, 28)
4.7.7 Web & Bildungs Index (Items 29, 30, 32, 34, 39, 40, 42)
4.7.8 Rechtliche Fragen (Items 35, 41, 43)
4.7.9 Sonstiges
4.8 Synthese aus Interview- und Fragebogenergebnis

5 Webkompetenz eine neue Kulturtechnik?
5.1 Kulturtechnik und Internet
5.2 Zum Kompetenzbegriff und seiner Fassbarkeit
5.3 Grundmerkmale von Kompetenz
5.4 Blick auf die internationale Diskussion zu Kompetenz
5.5 Kompetenz oder Qualifikation
5.6 Webkompetenz- Definitionen und Ansätze im Babylon der Begrifflichkeiten
5.6.1 Medienkompetenz nach Baacke
5.6.2 Medienkompetenzförderung nach Gapski
5.6.3 von Hentigs Ansatz: „ der technischen Zivilisation gewachsen bleiben
5.6.4 Guraks Cyberliteracy
5.6.5 Ansätze anderer Autoren
5.7 Zusammenfassung
5.8 Wie kann man Webkompetenz messen - zwei Best Practice Beispiele
5.8.1 Der ETS iSkills-Test
5.8.2 Das Portfolio: Medienkompetenz
5.9 Ist Webkompetenz nun eine neue Kulturtechnik?

6 Pädagogische Impulse für die EFH
6.1 Die unerträgliche Leichtigkeit des Plagiierens
6.1.1 Exkurs in den Plagiatsfundus
6.2 Die Lernplattform Moodle
6.2.1 Was ist Moodle?
6.2.2 Verschiedene e-Learning- Varianten mit Moodle
6.2.3 Bedienung, Möglichkeiten und Anforderungen
6.2.4 Fazit
6.3 Plädoyer für Sozialinformatik und Neue Medien
6.4 Schlussgedanke

7 Literaturverzeichnis
7.1 Onlinequellenverzeichnis
7.2 Abbildungsverzeichnis

8 Anhang
8.1 Interviewleitfaden
8.2 Fragebogen
8.3 Interview Johannes Kleske
8.4 Interview Hanspeter Hauke

Der Nachteil der Intelligenz besteht darin, dass man ununterbrochen gezwungen ist, dazuzulernen“

George Bernard Shaw

Einleitung

Bahnbrechende gesellschaftliche Veränderungen und auch Entwicklungen im Bereich der Informations- und Kommunikationstechnologie (nachfolgend IKT), hinterlassen ihre Spuren in den Biographien von Menschen, indem sie nachhaltigen Einfluss auf Individuen und ihre Lebensgestaltung ausüben. Meist werden Veränderungen dieser Art erst retrospektiv als solche bewusst wahrgenommen, weil das Eingebundensein in den Moment für die größeren Zusammenhänge blind macht. Dieser Sachverhalt geht eng einher mit meiner eigenen Lebensgeschichte und diente als Inspiration und Motivation bei der Themenfindung zu dieser Diplomarbeit, die ich auch ein Stück weit als Biographiearbeit verstehe.

Viele der technischen Entwicklungen, die heute Standard sind, waren vor wenigen Jahren noch unbekannt. Dieser schnelle Wandel bringt es mit sich, dass auch die Forschungsergebnisse meiner Untersuchung in diesem Bereich nur vorläufiger Natur sind. Angesichts dieser Tatsache bleibt für den Forschenden die Motivation bestehen: „Das Aktuelle mag wieder versinken, worauf es ankommt ist der langfristige Prozess, der allmählich sichtbar wird, wenn man eine Momentaufnahme an die andere reiht“ (Schulze 2005, S.I)

Bei meinem Forschungsansatz möchte ich induktiv, von mir ausgehend, die durch die Nutzung des Internets veränderten Wahrnehmungs-, Denk- und Verhaltensmuster im Leben meiner Mitstudierenden[1] aufspüren und nachzeichnen. Von Interesse ist dabei, welche Rolle das weltweite Datennetz im Leben der Menschen spielt, wie sie es benutzen, und vor allem wie sie darüber denken und welche unmittelbare Bedeutung es für sie als Individuen, ihre Sozialität und den gesamtgesellschaftlichen Kontext hat. Als Ziel möchte ich verallgemeinerbare Schlüsse ableiten, die für die Beantwortung meiner Forschungsthese von der Kulturtechnik Webkompetenz von Bedeutung sind.

Diese Ausgangsthese, dass Webkompetenz in ihrer Vielschichtigkeit im Paradigma der Wissensgesellschaft den Rang einer Kulturtechnik erlangt, ist gleichzeitig auch eine Frage nach den gesellschaftlichen Bedingungen. Diese versuche ich systematisch aufzuspüren, indem ich mich ihnen von verschiedenen Perspektiven annähere. Eine Auseinandersetzung mit der Wissens- und Informationsgesellschaft ist auch zuförderst eine Auseinandersetzung mit der Rolle des Primats der Technologie. Die Tatsache, dass der Computer und das Internet scheinbar unaufhaltsam in alle menschlichen Lebensbereiche eindringen und diese mittels Datenaustausch vernetzen, löst je nach Einstellung zur Technik entweder Gruseln oder Begeisterung aus. Eine Herausforderung bei der Auseinandersetzung mit dieser Thematik ist, weder einem euphorischen Technikoptimismus noch einer technophoben Verweigerungshaltung anheim zu fallen, sondern die Bedingungen des Wandels zu benennen und durch ein Meta‑Verständnis von IKT jenseits der bloßen Funktionalität, die Verhältnisse mitgestalten zu können. Hierzu bedarf es einmal mehr der Fähigkeit, die Dinge kritisch betrachten und sich mit ihnen auseinander setzen zu können. Denn nur wer sich mit Dingen auseinandersetzt ist fähig zur Kritik und kann Positionen beziehen und vertreten.

Kaum ein Bereich der Gesellschaft wird mehr mit dem gesellschaftlichen Wandel und seinen Herausforderungen konfrontiert als das Bildungswesen. Neue Formen des Lernens und Lehrens sind erforderlich, um Menschen auf eine komplexer werdende Zukunft vorzubereiten. Bei dieser Aufgabe spielt das Internet in der Gestalt des e-Learning eine immer wichtigere Rolle. Eine bedeutsame Aufgabe wird zukünftig die Neuorganisation von Lehre und Lernen sein, die zum Ziel hat Menschen zu selbstgesteuertem Lernen, das nicht nach dem Ende der Schulzeit oder des Studiums aufhört zu befähigen. Doch was zeichnet einen kompetenten Umgang mit dem Internet aus? Sicherlich mehr als nur die rein funktionale Bedienung, sondern auch ein Verständnis der Bedingungen in die diese Technologie eingebettet ist.

Kompetenz besteht nicht nur darin, den Umgang mit dem Internet zu beherrschen oder die Inhalte bewerten und beurteilen zu können, sondern auch die Vor– und Nachteile der Nutzung zu erkennen und sein eigenes Verhalten zu reflektieren und bewerten zu können. Es bedarf der Webkompetenz, um das Potential des Internets nutzen zu können.

Hierzu brachte der Buchmarkt in den letzten Jahren eine Flut an Literatur hervor, in der eine intensive Auseinandersetzung mit der Rolle der Medien stattgefunden hat. Was sich zeigt ist, dass Literatur diese Thematik meist nur zeitverzögert wieder gibt und aufgrund der sich raschen emergent vollziehenden Entwicklungen keine allzu lange Halbwertszeit besitzt. An dieser Stelle knüpft die Ausgangsthese Marshall Mc Luhans vom Medium, das sich selbst zur Botschaft hat, an. Ihm ging es um die Verselbstständigung der Medien, weil er wusste, dass Medien ungleich mehr mit uns machen, als wir mit ihnen. Denn was sie speichern, verarbeiten und vermitteln, stellen sie jeweils unter Bedingungen, die sie selbst schaffen und sind.

Zwischen Technikphobie und Technikfaszination bewegen sich auch die Reaktionen innerhalb der Sozialen Arbeit, wobei zunehmend erkennbar wird, dass die Fähigkeit des Umgangs mit Computer und Internet zu einem immer wichtigeren Bestandteil des beruflichen Alltags der Sozialen Arbeit wird, auf den Studierende auch schon während des Studiums in ausreichendem Maße vorbereitet werden müssen. In diesem Sinne sei dieses Plädoyer für Webkompetenz den Ausführungen dieser Arbeit bereits vorangestellt.

Gliederung und Vorgehensweise

Eingangs wird die Beschaffenheit der Wissens- und Informationsgesellschaft analysiert und der Terminus einer kritischen Prüfung unterzogen. Als Basisbedingung dieser Epoche werden die Rolle der Technologie und ihre Wirkung auf die Sozialität des Menschen in Augenschein genommen. Darauf aufbauend wird das Phänomen der ungleichen Verteilung von Wissen in verschiedenen Dimensionen beleuchtet. Nach einer Ausführung über die Bedeutung der Kreativität und einem Blick auf das Hochschulwesen innerhalb der Wissensgesellschaft, schließt dieses Kapital. Mit verschiedenen Betrachtungen des Netzmediums Internet beschäftigt sich der zweite Abschnitt. Nach einem Abriss zur Entstehungsgeschichte werden die etwa 40 Jahre alten Thesen Marshall McLuhans in einen neuen Bedeutungszusammenhang mit dem Internet gebracht und auf ihre Aktualität hin geprüft. Danach wird das Schlagwort Web2.0 auf seinen Inhalt untersucht und am Beispiel der Online-Enzyklopädie Wikipedia weiter veranschaulicht. Dieses Kapitel schließt mit einer Ausführung zu negativen Phänomenen des Netzes, insbesondere der Onlinesucht.

Im nächsten Kapitel wird die Rolle des Lernens in seinen verschiedenen Ausprägungen im Kontext der Wissens- und Informationsgesellschaft untersucht. Dazu werden eingangs die Hauptströmungen der Lerntheorie diskursiv umrissen und angelehnt an das konstruktivistische Lernparadigma, verschiedene Spielarten des e‑Learnings und die Besonderheiten dieser neuen Lernkultur beschrieben. Das vierte Kapitel behandelt, die als Methodenmix angelegte sozialwissenschaftliche Untersuchung zur Bedeutung des Umgangs mit dem Internet als Kulturtechnik. Diese teilt sich auf in die Experteninterviews und die Fragebogenuntersuchung an der EFH. Beiden ist jeweils ein Methodenteil mit theoretischen Grundlagen zur Vorgehensweise vorangestellt. Die Ergebnisse aus diesen Untersuchungen werden am Ende des Kapitels grafisch aufbereitet und in einer Synthese zusammengeführt. Das fünfte Kapitel widmet sich schwerpunktmäßig dem Verständnis von Kulturtechnik, dem Kompetenzbegriff und der Definitionsannäherung von Webkompetenz. Dabei wird der Frage nachgegangen, ob Webkompetenz eine neue Kulturtechnik sei. Eingangs werden hierzu das Netzmedium Internet mit dem Begriff Kulturtechnik in Zusammenhang gebracht und vorab mögliche Sichtweisen diskutiert. Anschließend findet eine Charakterisierung des Kompetenzbegriffs statt, wie er sich fassen lässt, welche Rolle er auf internationaler Ebene spielt und was ihn von Qualifikation unterscheidet. Darauf aufbauend wird der Begriff Webkompetenz in seinem Facettenreichtum unter Hinzunahme der Ansätze einiger Autoren diskursiv untersucht, um in einer Definitionsannäherung wichtige Elemente diesbezüglich fest zu halten. Im letzten Kapitel werden auf der Untersuchung und dem theoretischen Teil aufbauend, die für die Ausbildung an der EFH relevanten Ergebnisse transformatorisch in einen größeren Zusammenhang gebracht und als pädagogische Impulse dargestellt. Dabei wird das Phänomen des Plagiarismus vorgestellt und ein möglicher Handlungsansatz erwähnt. Der Hauptimpuls wird die Präsentation der Lernplattform sein und die damit verbundenen innovativen didaktischen Möglichkeiten für Lehre und Lernen an der EFH. Abschließend wird die Praxisrelevanz der Neuen Medien und der Informatik für die Zukunft der Sozialen Arbeit anhand zweier Ausführungen dargestellt. Diese Impulse sollen auch gleichermaßen als Fazit dieser Arbeit verstanden werden.

1 Die Wissens- und Informationsgesellschaft

„Die Welt von einst war unüberschaubar, weil man so wenig wußte,

die Welt von heute ist unüberschaubar, weil man so vieles wissen müsste.“ Martin Oehlen

Jede gesellschaftsverändernde Entwicklung schafft sich einen Namen, der sich nach Aushandlungsprozessen etabliert und zum Deskriptionsbegriff einer Epoche wird. Beim heute allenthalben verwendeten Terminus der Wissensgesellschaft verläuft dies nicht anders. Problematisch dabei ist, dass nur eine Dimension einer komplexen Wirklichkeit fokussiert und zum Paradigma erhoben wird. Dieser Reduktionismus verdeutlicht jedoch die Tatsache, dass Wissen und Information in unserer Zeit, mehr als jemals zuvor, zu einer zentralen Größe gesellschaftlichen Lebens geworden sind (Bergsdorf 2007, S.9f).

1.1 Bestandsaufnahme

Im Jahre 1973 publizierte der Soziologieprofessor Daniel Bell sein Buch „ the coming of post- industrial society “, in dem er den bevorstehenden Wandel von der Industrie- zur Wissensgesellschaft beschreibt. Er prognostizierte für die nächsten 30 bis 50 Jahre in den westlichen Industrienationen einen tief greifenden Wandel der Sozialstrukturen und die zunehmende Bedeutung von Wissen, als einem weiteren Produktionsfaktor neben Boden, Arbeit und Kapital (Bell 1989, S.11ff). Seine Thesen lassen sich in fünf Kategorien unterteilen, in denen sich der Wandel manifestieren soll. 1. Wirtschaftlicher Sektor: der durch den Übergang von einer Güterproduktions- zu einer Dienstleistungsgesellschaft geprägt sein wird . 2. Berufstruktur: der Professionalisierungsschub, durch den technisch qualifizierte Berufe eine Vorrangstellung erlangen werden. 3. Axiales Prinzip: theoretisches Wissen wird Ziel und Quelle aller Innovationen und politischer Programmatik. 4. Zukunftsorientierung: wird durch die Steuerung des Fortschritts und die gesellschaftliche Bewertung von Technologie vollzogen. 5. Entscheidungsbildung: durch die Schaffung einer intellektuellen Technologie zur Steuerung (Kybernetik) komplexer großer Organisationen und Systeme (Ebd. S.32).

Betrachtet man die Bedingungen unserer Gesellschaft im Jahre 2007, erweisen sich Bells Voraussagen als sehr präzise und richtungweisend. Der Soziologe Wolfgang Bergsdorf (2006) greift in seine Publikationen die skizzierten Prognosen auf und bringt sie in neue aufschlussreiche Zusammenhänge. Tatsächlich leben wir in einer Welt der Wissensexplosion, in der ein Teenager mit Internetanschluss über Zugang zu mehr Informationen verfügt als die Universalgenies Voltaire, Kant und Goethe zusammen. Neun von zehn Wissenschaftlern, die jemals gelebt haben sind unsere Zeitgenossen. Dieses Heer an Wissensarbeitern, das unentwegt damit beschäftigt ist, das Wissen auf allen Gebieten zu erweitern und miteinander zu verknüpfen, trägt dazu bei, dass sich verfügbares Wissen in manchen Fachbereichen alle zehn Jahre verdoppelt (Bergsdorf 2006, S.10f). Der damit einhergehende Wandel, der sich flankiert durch Effekte der Globalisierung und Individualisierung vollzieht, hat zur Folge, dass der Mensch in vielfältiger Weise neuer Kompetenzen bedarf, um entscheidungs- und handlungsfähig zu bleiben. Das wird deshalb notwendig, weil altbewährte tradierte Übereinkünfte und Regelungen an Gültigkeit verlieren und das Erfahrungswissen, das früher von Eltern an die Kinder weitergereicht wurde, bei der Bewältigung der alltäglichen Aufgaben nur noch wenig hilfreich ist. Bergsdorf schlussfolgert, dass durch diesen Bedeutungsverlust von Alltagswissen, den er als brisantesten Effekt der Wissensgesellschaft sieht, das Leben zu einem permanenten Prozess der Weiterbildung werde. Die Bereitschaft dazu sowie die Kompetenzen dies zu bewerkstelligen werden zu Schlüsselqualifikationen in der Wissensgesellschaft (Ebd. S.12). Früher brachte Technologie dem abendländischen Menschen in erster Linie körperliche Entlastung, wohingegen heute durch den Einsatz moderner IKT vor allem seine geistigen Fähigkeiten erweitert und ausgelagert werden und sein Wissen mit Lichtgeschwindigkeit ubiquitär auf dem gesamten Planeten verfügbar wird. Bolz den Bergsdorf erwähnt resümiert, „…dass Wissen die ultimative Ressource der künftigen Kultur sei“, woraus er die übergeordnete Bedeutung von Kommunikations- sowie Medienkompetenz ableitet, die zu Schlüsselqualifika-tionen in der Wissensgesellschaft würden (Ebd. S.13).

Lyotard (1979) geht noch einen Schritt weiter, wenn er als Folge der beschriebenen Entwicklung von einer „ Merkantilisierung “ des Wissens spricht, die unter der Hegemonie der IKT gedeiht. Im Hinblick auf den weltweiten Konkurrenzkampf um Macht erhalte Wissen die „… Form einer für die Produktionspotenz unentbehrlichen informationellen Ware… “, um die zukünftig genauso gerungen werde wie um die Verfügbarkeit und Ausbeutung von Rohstoffen (S.495).

Die Chancen und Möglichkeiten, die den skizzierten Entwicklungen immanent sind, beflügeln nicht wenige Akteure aus Wirtschaft, Wissenschaft und Politik dazu, das kommende Zeitalter mit messianischen Erwartungen auszuschmücken und als Trittbrettfahrer auf den Zug des Zeitgeistes aufzuspringen, der sie ihren Interessen näher bringen soll.

In einer kritischen Auseinandersetzung mit dem Phänomen der Wissensgesellschaft wird nachfolgend auf die Irrtümer und Trugschlüsse einer vielleicht allzu euphemistischen Verwendung des Begriffs eingegangen.

1.2 Kritik einer Epochenbezeichnung

Das Label Wissensgesellschaft dient zum einen als einfacher Deskriptionsbegriff zur Beschreibung von Alltagsphänomenen, wie auch als umfassender Funktionsbegriff, mit dem der Antrieb der gegenwärtigen gesellschaftlichen Entwicklung und ihre Bedingungen erfasst werden soll. Bauer (2006) konstatiert jedoch in der Wissensgesellschaftsdebatte die Gefahr der Ideologisierung des Begriffes und sieht in dem fortwährenden Diskurs um den gesellschaftlichen Transformationsprozess die Möglichkeit des „ Ausdruck[s] einer kollektiven Selbstsuggestion “ (S.224). Das wiederholte Heraufbeschwören eines gesellschaftlichen Erneuerungsprozesses, kann auch als Versuch gedeutet werden über eine tatsächliche Stagnation hinwegzutäuschen. Bauer erkennt im dauerhaften Proklamieren des gesellschaftlichen Wandels, der zugleich ersehnt, wie auch befürchtet wird eine „ fetischisierte Neigung… …den gesellschaftlichen Status Quo - oder eben seine dauernde Veränderung- als etwas historisch Einzigartiges zu stilisieren.“ (Ebd.). Diese konstruierte Einzigartigkeit wird in ihrer Rückkopplung zum Mehrwert der Interessengruppen, die Wissen, wo es ihren Zwecken opportun ist, den Parametern einer kapitalistischen Ökonomie unterwerfen wollen. Gleichzeitig wird im Sinne einer Fortschrittsideologie, die Handlungslogik einer forcierten Alternativenlosigkeit propagiert, die kritikresistent jedem der nicht handelt, suggeriert die Zukunft zu verspielen (Rötzer 1991, S.9f).

Die Wissens- und Informationsgesellschaft hat neben ihrer wirtschaftlichen und politischen Prägung auch Effekte im Schlepptau, die sich als Phänomene in der Populärkultur niederschlagen. Im neuen Gewand des Info- oder Edutainment wird Wissen zu einem bedeutenden Moment der Unterhaltungsindustrie. Das prominenteste Beispiel ist die Wissens-Quiz-Show „Wer wird Millionär“, die seit Jahren weltweit zum beliebtesten und erfolgreichsten Format dieser Art gehört. Keiner der großen Fernsehkanäle kann es sich heute erlauben, keine eigene Science-Sendung oder kein Wissens-Quiz im Programm zu haben. Ein wesentlicher Erfolg dieser Quiz-Shows führt Liessmann (2007) darauf zurück, dass alle Wissengebiete ungeachtet ihrer Trivialität gleichberechtigt nebeneinander stehen und folglich alles Bildung sein kann, aber Bildung längst nicht mehr alles ist (S.15). Wissen ist jedoch mehr als nur Information. Es entsteht dort, wo durch Erklären und Verstehen Zusammenhänge erkannt werden und Information somit Bedeutung erfährt. Dadurch wird Wissen zu einer Form des Zugangs und der Durchdringung der Welt. Eine reine Flut an Informationen, wie sie uns durch die digitalen Medien im Übermaß zugänglich sind, tragen ohne die Filter- und Bedeutungsleistung des Menschen eher zur Desinformations- als Informationsgesellschaft bei (Ebd. S.27ff). Im Sinne Neil Postmanns (1985) bewirkt ein kontextloses Überangebot an Informationen nur Zerstreuung deren Nährwert nicht über den trivialer Unterhaltung hinausreicht.

Liessmann konstatiert indes, dass es sich bei dem Titel Wissensgesellschaft um eine rhetorische Geste handle, die nicht die Industriegesellschaft ablöse, sondern auf eine Industrialisierung und Ökonomisierung des Wissens abziele, mittels derer das von Wilhelm von Humboldt postulierte humanistische Ideal zweckfreier Bildung, in sein krasses Gegenteil verkehrt werde (Liessmann 2007, S.8). Als schnell herstellbar, schnell anzueignen, schnell unnütz und entsorgbar lässt sich Wissen in der Wissensgesellschaft leicht in Analogie zu Massenprodukten der Konsumgesellschaft darstellen. Liessmann sieht die Dialektik unserer heutigen Wissensgesellschaft darin, dass Wissen im Grunde keinerlei Wert mehr besitze. Gelernt werde um des Lernens willen, was zu einem pädagogischen Nihilismus führe. Die Kapitalisierung des Geistes reduziere Bildung auf Ausbildung zu einer bilanzierbaren Größe des Humankapitals, die in den Zustand münde, den Adorno in seiner Theorie der Unbildung beschrieben hat (Ebd. S.10). Er beklagte das prekär gewordene Bildungssystem im Nachkriegsdeutschland, in dem die Ideale humanistischer Bildung zwar noch normativ anerkannt und rhetorisch beschworen würden, aber dem Bewusstsein vollkommen äußerlich geworden seien. Bildung sei vergegenständlicht zu einem Sammelsurium von Kulturgütern (Fähigkeiten und Kompetenzen) verkommen, das man sich zwar aneignen, aber nicht mehr durchdringen könne. Diese Entfremdung des Geistes führe zur Halbbildung, welche durch die Reformen der Bildungssysteme weiter institutionalisiert würden (Ebd. S.68f). Bildung kann als die Ideologie der säkularen Gesellschaft angesehen werden, auf der die Hoffnungen zur Bewältigung sämtlicher Probleme ruhen. Ihr wohnt das Versprechen auf ein besseres Zeitalter inne. Deshalb reagiert man auch in keinem anderen Bereich so sensibel auf Missstände (PISA), welche als Stimulus fungieren, die modernistische Utopie am Leben zu halten. Gelänge Bildung indes würde offenbar, dass sie ihre Heilsversprechen nicht einlösen könnte (Ebd. S.51).

1.3 Digitale Revolution oder digitaler Wahn

Fundamentale Umwälzungen einer Gesellschaft vollziehen sich nur nach Maßgabe oder in Beteiligung eines grundlegenden
Medienwandels
“ Werner Faulstich

Über Jahrhunderte hinweg galt das gedruckte Buch als dominierendes Medium. Im Verlauf des 20. Jh. begann sich dies zu verändern und mündet bisweilen in der so genannten vierten Medienrevolution, die sich durch die Dominanz der digitalen Medien auszeichnet (Faulstich 2007, S.168f). Ihre Anfänge führen uns zurück ins Jahr 1941, als Konrad Zuse mit dem Bau seiner programmierbaren Rechenmaschine den ersten Computer erfand. Wenige Jahre später wurde darauf aufbauend, mit der Erfindung des Transistors, die digitale Revolution ausgelöst (Bürdek 2001, S.182). Die Möglichkeit Informationen als Spannungsmuster von Nullen und Einsen in elektronischen Systemen darzustellen, erwies sich als epochal, sodass diese Technologie innerhalb weniger Jahrzehnte die Welt unwiderruflich verändern sollte. Es begann das Wettrennen, um die immer höhere Verdichtung und schnellere Durchführung der Rechenoperationen, die den Gründer der Firma Intel, Gordon E. Moore in den 1970er Jahren voraussagen ließ, dass sich die Anzahl der Schaltelemente auf einem Chip regelmäßig alle 18-24 Monate verdoppeln werde. Durch dieses nach ihm benannte Moorsche Gesetz evozierte er mit erstaunlicher Genauigkeit, in Gestalt einer selbsterfüllenden Prophezeiung, den Innovationsdruck, der die Hersteller der Branche aus Angst vor der Konkurrenz seit nunmehr 30 Jahren zu Höchstleistungen anspornt (Spiegel 2006, S.9). Dieser Prozess stoße nach Meinung von Experten in etwa 15 Jahren aufgrund der verwendeten Materialen und des erreichten Miniaturisierungsgrades an seine physikalischen Grenzen (Bürdek 2001, S.180f). Mit dem rasanten Entwicklungstempo der IKT kann der Mensch aufgrund seiner anthropologischen Konstituierung nur asynchron Schritt halten, was zu einem Auseinanderdriften zwischen anthropologischer und technischer Entwicklung führe (Ebd. S.208f). Neue Hard- und Softwaregenerationen, die fortwährend auf den Markt drängen, lassen uns kaum Zeit mit den Vorgängerversionen vertraut zu werden und verdammen diese im besten Falle zur Redundanz oder gar Inkompatibilität. Der Innovationsdruck besteht nicht nur zwischen Herstellern von IKT, sondern wird auch auf den Anwender ausgelagert, der sich ungeachtet des tatsächlichen Bedarfs, ständig mit neuen Produktversionen auseinandersetzen muss. Der Psychologe Norman bezeichnet die Tendenz Hard- und Software gerade im Telekommunikationsmarkt mit immer mehr Funktionen vollzustopfen pathologisierend als „ Featuritis “, der sich gleich einer Seuche kein Anbieter entziehen könne. Eine Studie in Australien diesbezüglich ergab, dass rund 80% aller Features bei Telefonanlagen ungenutzt blieben (Bürdek 2001, S.185ff). Bei den gängigen Softwareanwendungen im Officebereich ergäbe eine ähnliche Untersuchung mindestens einen ebenso hohen Anteil an ungenutzten Funktionen. Rötzer (1991) beschreibt den Menschen heute treffend „ als technologischen Laien in einer Welt, die mehr und mehr von Artefakten bevölkert wird, in deren Umgebung wir uns zwar bewegen und mit denen wir umgehen, ohne aber ein genaues Wissen über ihr Innenleben zu besitzen “ (S.15). Dieser Zustand in Kombination mit dem biographischen Wandel unserer Gesellschaft bringt manche Hersteller von IKT neuerdings dazu, Anwendungen eigens für die Zielgruppe der Senioren zu konzipieren, die mit abgespeckten und leicht zu bedienenden Geräten erreicht werden soll.

Eine weitere Herausforderung der digitalen Revolution besteht darin, Informationen für künftige Generationen zu bewahren. Schon nach wenigen Jahren sind Hard- und Softwareformate derart veraltet, dass gespeicherte Informationen nur noch schwer zugänglich sind. Will man Datenbestände dauerhaft erhalten, bedeutet das eine regelmäßige Datenmigration auf neue Formate vorzunehmen. Selbst dann ist eine informationelle Nachhaltigkeit nicht kategorisch gesichert, da im Gegensatz zu Büchern aus vergangenen Jahrhunderten, der Zugriff auf CD-ROMs oder Festplattenspeichern durch äußere Einflüsse unter Umständen schon nach wenigen Jahren nicht mehr möglich ist. Ein Datenverlust stellt im digitalen Zeitalter das „worst case scenario“ dar und kann für Firmen den Bankrott und auf kultureller Ebene Amnesie bedeuten (Grassmuck 2002, S.96f).

1.4 Die Neuordnung des Sozialen durch Technologie

„Jede Gesellschaft verfügt immer über die Technologie, die sie verdient“

Arno Bammé

Der seit vier Jahrzehnten in der wissenschaftlichen Öffentlichkeit geführte Diskurs um die Wissensgesellschaft, war von Anfang an “technikoptimistischer“ Natur (Bergsdorf 2007, S.533). Durch das Zusammenspiel von Wissenschaft, Technologie und Wirtschaft erlangte unsere Gesellschaft einen allgemeinen Lebensstandard, der in der Vergangenheit unerreicht war und das soziale Gefüge nachhaltig verändert hat. Bammé (2007) beschreibt Technologie als Synthese aus Technik und Wissenschaft, durch die das gesellschaftliche operationalisierbare Wissen der postmodernen Gesellschaft gebündelt wird. Dieses Wissen befindet sich nicht mehr in den Händen einiger Weniger, sondern manifestiert sich in Maschinen und technischen Systemen. Die Anwendung von Technologie generiert ein Machtgefälle und verändert die Herrschaftsverhältnisse zwischen Mensch/Mensch und Mensch/Natur. Durch ihre Indifferenz gegenüber den gesellschaftlichen Vorbedingungen ist es Technologie „… gelungen abendländische Rationalität in Gestalt von Maschinen und Maschinensystemen weltweit zu implementieren und dadurch wiederum die Welt umzugestalten …“ (S.26). Ein Unterschied dieses Umgestaltungsprozesses bezüglich IKT im Vergleich mit bspw. der Einführung der Dampfmaschine ist ihr universeller Wirkungsbereich, der sich nicht wie damals nur verändernd auf den Produktionssektor auswirkte, sondern heute nahezu alle Bereiche der Gesellschaft durchdringt und sich dergestalt ihre verändernde Kraft potenziert.

IKT hat unser Leben derart penetriert und umgestaltet, dass selbst kritische Akteure sich ihrer bedienen müssen, wollen sie sich in der Öffentlichkeit Gehör verschaffen (Jones 2007). Es verwundert deshalb nicht wenn Medien allenthalben als die vierte Gewalt im Staat bezeichnet werden. Latour, den Bammé anführt behauptet gar, dass ohne Partizipation von Nicht-Menschen, zu denen er die Informations- und Kommunikationskultur mit ihren technischen Hilfsmitteln zählt, kein soziales Leben mehr denkbar sei. Er meint damit die menschliche Fähigkeit Kommunikationsstrukturen herzustellen, die nicht mehr von face-to-face Präsenz abhängig sind und das gesellschaftliche Leben jenseits von Raum- und Zeitbarrieren stabilisieren. Kondensiert bringt er dies in folgender Aussage zum Ausdruck ` Technology is society made durable´. (Bammé 2007, S.110).

1.4.1 Technologie durchdringt den Alltag

Ubiquitous Computing “ oder „ Pervasive Computing “ bezeichnet die nächste Generation von IKT, die unsere alltägliche Lebenswelt unsichtbar durchdringen und in so genannte „smarte Umgebungen“ verwandeln wird. Ziel dieser umfassenden Informatisierung des Alltags ist die Verbesserung der menschlichen Lebenskultur, in welcher der Mensch mit seinen individuellen Anforderungen und Wünschen in den Vordergrund und die Maschine mit ihren Möglichkeiten und Grenzen in den Hintergrund tritt (Friedewald u. Lindner 2007, S.207). Wurden die Vordenker des Ubiquitous Computing vor wenigen Jahren noch als Utopisten belächelt, scheint die Informatisierung des Alltags aufgrund der rasanten Entwicklung im Bereich der Mikroelektronik und dem gleichzeitigen Preisverfall, mehr als in greifbarer Nähe zu sein (Mattern 2007, S.11). Mancher Bürger fragt sich angesichts solcher Visionen zu recht, welche Risiken und Nebenwirkungen damit verbunden sind und ob die Omnipräsenz von Technologie in RFID-Chips, Überwachungssystemen und Nanotechnologie nicht einem potentiellen Technoterror den Weg bereite, der zu einer fortschreitenden Entmenschlichung des Lebens führen könnte (Jones 2006, S.8f). Er sollte innehalten und nachdenken was uns die kurze Geschichte der IKT bereits gelehrt hat. In der Vergangenheit zeigten sich bereits unerwartete paradoxe Phänomene[2], die aufgrund komplexer Wechselwirkungen an der Schnittstelle Mensch-Maschine aufgetreten sind und nicht antizipiert wurden (Ebd. S.189f). Hilty (2007) nennt Pervasiv Computing angesichts der nicht quantifizierbaren individuellen und gesellschaftlichen Risiken einen „ gesellschaftlichen Selbstversuch “ und bedient sich der Analogie des Patienten, der ein Medikament einnehmen soll, zu dem noch keine Erfahrungen vorliegen. Er merkt an, dass im Falle der Mobilfunktechnologie ein ähnlicher Versuch schon seit Jahren laufe und obwohl noch keine gravierenden Probleme feststellbar seien, mahnen Interessengruppen immer wieder zur Vorsicht und erinnern an die möglichen Langzeitwirkungen der Strahlenbelastung durch den Gebrauch von Mobilfunk (S.199f).

1.4.2 Die digitale Kluft- User oder Loser

Medienpolitische Relevanz erlangen die erwähnten Theorien zur Wissengesellschaft und der damit verbundenen Technologie, wenn man beachtet, dass eine ungleiche Wissensverteilung immer auch eine Ungleichverteilung von sozialen Chancen nach sich zieht. In diesem Zusammenhang hat die Hypothese der wachsenden Wissenskluft durch den Aufstieg des Internets aktuelle Bedeutung erlangt. Hinsichtlich der Prognosen lassen sich sowohl optimistische als auch pessimistische Tendenzen ausmachen. So ist bspw. Bill Gates der Meinung, dass sich soziale Gerechtigkeit gerade mit Hilfe des Internets herstellen lässt und auch die FAZ titelte einst in einem Werbeslogan, dass Unwissenheit freiwilliges Unglück sei. Die Umkehrung der Sender-Empfänger-Konstellation, die den Nutzer zum aktiven Element macht und die Diffusion der neuen Medien in der Gesellschaft, werden als günstige Voraussetzungen zur Verkleinerung der Wissenskluft betrachtet. Allerdings werden die Chancen der Anhebung des Informationsniveaus auch von zahlreichen Faktoren erheblich eingeschränkt. Neueste Untersuchungen zeigen das Bild einer neuen Zwei-Klassen-Gesellschaft. Denn es sind vor allem formal höher Gebildete, die von den Multimedia-Angeboten profitieren. Der Zukunftsforscher Opaschowski (1999) sieht in den unterschiedlichen Zugangsbedingungen die Gefahr, dass sich die Informationsgesellschaft in höher gebildete Bevölkerungsschichten, die problemlos mit neuen Medien umgehen können "User" und Bürgern, die mit der technologischen Entwicklung nicht mehr mithalten können "Loser" aufspaltet (S.8f).

Im Jahre 2006 nutzten nach Ergebnissen der ARD/ZDF Online Studie 59,5% der Bundesbevölkerung das Internet. Im Vergleich zu früheren Erhebungen konnte ein Zuwachs jedoch nur noch in den weniger technik- und medienaffinen Bevölkerungsgruppen, wie etwa bei den Senioren verzeichnet werden. Mit 97,3% Internetnutzung kann bei der Bevölkerungsgruppe der Jugendlichen nicht mehr mit einer weiteren Zunahme gerechnet werden.

1.4.3 Die Wissenskluft-Hypothese

Bereits Anfang der 1970er Jahre formulierten einige Forscher der Minnesota University die Wissenskluft- Hypothese (engl. knowledge gap), mit der sie der damals vorherrschenden Meinung widersprachen, ein Zuwachs an durch Massenmedien zur Verfügung stehenden Informationen habe automatisch eine Zunahme an Wissen zur Folge. Im Gegenteil prognostizierten sie, dass im Laufe der Zeit die bestehende Wissenskluft innerhalb der Gesellschaft sogar dadurch noch vergrößert werde (Marr 2005, S.78).

Während Bessergebildete die neuen IKT neben dem beruflichen, auch im privaten Bereich vielfältig und produktiv nutzen, gebe es eine wachsende Gruppe von Menschen, die an den neuen Medienentwicklungen nur eingeschränkt teilhabe und „aufgrund umfassender Desorientierung auf ablenkende Unterhaltungsnutzung sowie triviale Betätigung ausweicht. “ (Baacke 2003, S.24). Im Klartext bedeutet dies, dass einem formal höher gebildeten Menschen durch den Einsatz des Internets noch schneller, noch mehr Informationen zur Verfügung stehen, die er sich durch seinen weiteren Horizont erschließen kann. Dem gegenüber wird jemand, der sich noch nie die Printausgabe der Süddeutschen Zeitung am Kiosk geholt hat, auch sehr wahrscheinlich trotz des potentiellen Zugangs durch einen Internetanschluss keinen Nutzen aus der Onlineausgabe ziehen können, weil er das Angebot nicht wahrnimmt.

Kinskofer und Bagehorn (2006) führen diesen Gedanken noch weiter aus, indem sie bemerken, dass Wissenszuwachs in hohem Maße mit Interesse und Motivation gegenüber einer Thematik korreliere. Dies darf allerdings nicht in dem Sinne verstanden werden, dass die Wissenskluft-Hypothese lediglich ein „ Spaßproblem “ sei. Durch Bildung steigt ein Grundinteresse an der Auseinandersetzung mit geistigen Themen, was zu Erfolgserlebnissen führt, die wiederum die Lust am Lernen verstärken. Höhergebildete können durch ihren größeren Wissensfundus, auf den sie zugreifen können, schneller komplexe Sachverhalte durchdringen und eher induktiv vom Einzelnen auf übergeordnete Zusammenhänge schließen. Dadurch gelingt es ihnen besser als kritische mündige Bürger aktiv am Demokratieprozess einer Gesellschaft zu partizipieren (S.198ff).

Der medienpolitischen Diskussion um die digitale Spaltung der Gesellschaft ist auch die Auseinandersetzung mit den sozialen Auswirkungen einer ungleichen Wissensverteilung implizit. Um medienpolitisch nachhaltige Ziele zum Wohle benachteiligter Bevölkerungsschichten operationalisieren zu können bedarf es eines detaillierten Problemverständnisses. Durch theoriegestützte Differenzierungs- und Bestimmungsmethoden der digitalen Kluft, wird der unscharfe Begriff wissenschaftlich verwendbar gemacht (Marr 2005, S.22). Das Schaubild zeigt verschiedene Spaltungsvarianten des Phänomens und vollzieht auf nationaler Ebene weitere Binnendifferenzierungen, wie bspw. Junge-Alte, Männer-Frauen etc., unter denen Disparitäten untersucht werden können (Ebd. S.26).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1 Digital Divide

1.4.4 Die globale Dimension der digitalen Kluft

Ein Vergleich zwischen der Nutzung des Internets in den Industrie- und den Entwicklungsländern offenbart die globale Dimension der digitalen Kluft. Für jede zweite Person in unseren Breiten ist das Internet wie Elektrizität und fließendes Wasser zu einem festen Bestandteil des Alltags geworden. Global gesehen haben jedoch nur etwa 10 Prozent der Weltbevölkerung Zugang zum Web. Die erhoffte weitere Diffusionssteigerung des Internets wird sich aufgrund struktureller Rahmenbedingungen und Adoptionsbarrieren eher verlangsamen und eine Verbreitung, wie etwa die des niederschwelligen Mediums Fernsehen unwahrscheinlich machen (Marr 2005, S.74). Filzmeier (2001) illustriert diesen Zustand mit der Tatsache, dass der afrikanische Kontinent schwächer im Internet vertreten sei als die Stadt New York. Setzt man die Zahl der Internetnutzer in absolute Proportionen, wie auf der Weltkarte dargestellt, verschwindet Afrika fast völlig und Deutschland schwillt auf mehr als die Größe, des von über einer Milliarde Menschen bewohnten Subkontinents Indien an.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2 Weltkarte Internetnutzung

1.4.5 Das 100 Dollar Laptop

Ein erwähnenswertes Beispiel, wie der digitalen Kluft auf globaler Ebene begegnet werden kann, ist das Projekt One Laptop Per Child (OLPC). Die vom Computerforscher Nicolas Negroponte ins Leben gerufene Bildungsinitiative verfolgt das Ziel, Kindern in Entwicklungsländern durch die Bereitstellung eines Laptops, Zugang zu modernem Wissen und Bildung zu ermöglichen. Der Laptop ist ein kindergerechtes digitales Lernwerkzeug, das mit freier Software ausgestattet ist. Es verfügt über eine WLAN Funktion und ist durch seine robuste Bauart für den Schulalltag unter extremen Bedingungen geeignet. Ein wichtiges Kriterium bei der Konzipierung war es, die Produktionskosten auf 100$ pro Gerät zu beschränken. Dieses Ziel konnte aufgrund steigender Einzelkomponenten- und Rohstoffkosten nicht erreicht werden. Trotzdem werden die Geräte mittlerweile in Serie produziert und ausgeliefert. Durch Aktionen wie „ Give One Get One “ können Menschen aus reichen Ländern zwei Geräte bezahlen, erhalten jedoch nur eines und finanzieren dabei einem benachteiligten Kind ein weiteres (OLPC 2007).

1.5 Die kreative Klasse

Durch den bereits zuvor beschriebenen gesellschaftlichen Wandel zur Wissens- und Informationsgesellschaft rückt neben Fach (Wissen) als Produktionsfaktor eine weitere Größe in den Mittelpunkt der Betrachtung. In seinem Bestseller „The Rise of the the Creative Class“ postuliert der US-amerikanische Wirtschaftswissenschaftler Richard Florida (2002) “Human Creativity is the ultimate economic resource.” (S.200).[3]

Er beschreibt und analysiert die gesellschaftlichen Verflechtungen und Interdependenzen, welche eine Kultur des kreativen Handelns generieren und dadurch als Standortfaktor zum ökonomischen Wachstum einer Region beitragen können (Ebd. S.XIII ff). In seinen Ausführungen, die dezidiert wirtschaftlicher Natur sind, beruft sich Florida auf die Thesen Daniel Bells (1989), wonach die Grundlagen der Industriegesellschaft natürliche Rohstoffe, Land und Arbeitskraft waren. Im kreativen Sektor der Wissensgesellschaft sind in den USA schon etwa 30% der Erwerbstätigen beschäftigt (S.72). Dazu gehören Wissenschaftssektor, Ingenieurswesen, Design, Bildungswesen, Kunst, Medien und ähnliche Bereiche. Von zentraler Bedeutung sind dort menschliche Intelligenz, Wissen und Kreativität, die als Rohstoffe angesehen werden, welche im Gegensatz zu ihren physischen Pendants nicht versiegen können, sich jedoch auch nicht unabhängig von ihrem Träger, dem Menschen nutzen lassen. Florida differenziert noch weiter, indem er Kreativität ihrer Beschaffenheit nach von physisch greifbaren Rohstoffen unterscheidet, weil man sie weder abbauen noch horten könne. Kreativität ist ein dem Menschen immanentes Charakteristikum seines Menschseins. Es ist eher mit Gemeingütern wie Freiheit oder Sicherheit zu vergleichen, welche man zu ihrem Gedeihen fördern oder durch bestimmte Maßnahmen ihrem Zerfall entgegenwirken kann. Deshalb braucht Kreativität in ihrer Multidimensionalität ein sozio-kulturell gedeihliches Umfeld, in der sie sich entwickeln kann (Ebd. S.5f).

Bei Untersuchungen verschiedener Regionen der USA stellte Florida fest, dass ein höheres Wirtschaftswachstum mit einer höheren Dichte an Menschen, die im kreativen Sektor beschäftigt sind, korrelierte. Wenn Kreativität demnach zum Standortfaktor einer Region wird, aus dem Mehrwert erwächst und sie sich nicht unabhängig von ihrem Träger nutzen lässt, stellt sich die Frage, warum Menschen, die im kreativen Sektor tätig sind bestimmten Regionen bei der Wahl ihres Arbeits- und Wohnortes den Vorzug geben und welche Größen dabei eine Rolle spielen. Im Rahmen seiner Forschung entwickelte Florida ein Instrumentarium zum Messen des besagten Phänomens, das er den „Creativity Index“ nennt. Teil davon sind die 3T, die für Technologie, Talent und Toleranz stehen. In Regionen, in denen diese drei Größen mit ihren Binnendifferenzierungen kumulieren, zeigte sich im Vergleich zu anderen, ein deutlicher Vorsprung im Wirtschaftswachstum (Ebd. S.249ff). Die Erkenntnis, die aus Floridas Forschung erwächst, deutet einen wirtschaftlichen Paradigmenwechsel an. Menschen folgen nicht mehr nur den Jobs, sondern die Jobs den Menschen. Obwohl sich dieses Phänomen zumindest in der westlichen Hemisphäre in anderen Wirtschaftsregionen zu wiederholen scheint, klingt m. E. an vielen Stellen der Impetus des modernistischen Heilsversprechens durch, dass mit der kreativen Gesellschaft alles besser würde, wenn wir nur alles darauf ausrichteten. Als Wirtschaftswissenschaftler blendet Florida soziale Belange und die Möglichkeit des Marktversagens angesichts einer globalisierten Wirtschaft bei seinen Betrachtungen zu sehr aus. Sein Augenmerk liegt eher auf der Erhaltung der heimischen nationalen, gar lokalen Wirtschaft. Der Hochschulausbildung widmet er jedoch wie folgt besondere Aufmerksamkeit.

1.5.1 Die Rolle der Hochschule in der Wissensgesellschaft

Florida misst Hochschulen als Schlüsselinstitutionen in der kreativen Gesellschaft eine zentrale Rolle bei. Nicht nur als Ort der Forschung, sondern als Treibhaus des kreativen Zeitalters in dem sich die 3T, in Wechselbeziehung zueinander stehend, wieder finden sollen. Im Bereich der Technologie soll die Hochschule eine Voreiterrolle bei der Entwicklung im Hochtechnologiebereich spielen. Hochschulen sollen Orte sein, die durch ihre Attraktivität talentierte Menschen anziehen, was als Effekt hervorragende Forscher und Wissenschaftler nachfolgen lässt. Daraus entstehen sich verselbständigende „spin off“ Unternehmen, die sich in der Nähe der Hochschule ansiedeln und ihrerseits von dort auch wieder qualifizierte Mitarbeiter rekrutieren. Des Weiteren soll die Hochschule dabei helfen ein Klima der Offenheit und Toleranz zu schaffen (Szene-Faktor), das Menschen des kreativen Sektors anzieht und auch am Ort halten kann (Ebd. S.292).

1.5.2 Reformbestrebungen zwischen Elitenbildung und Chancengleichheit

Repräsentanten aus Wirtschaft und Politik werden nicht müde zu betonen, dass der Standort Deutschland in der Wissensgesellschaft nur dann Zukunft habe, wenn es uns gelingt die so dringend erforderlichen Spitzenqualifizierten heranzubilden. Dieser Ruf nach Elite ist somit auch die Forderung nach Eliteuniversitäten. Rekurriert man in konservativen Kreisen dabei auf traditionelle Gesellschaftsvorstellungen, gerät man im sozialdemokratischen Lager bei dem Begriff Elitenbildung in ideologische Erklärungsnot und differenziert, „ dass sie selbstverständlich der Bildung von Leistungseliten dienen solle(n) und nicht der Reproduktion von sozial privilegierten Herkunftseliten “ (Hartmann 2007, S.471). Trotzdem scheint auch hier zukünftig nicht mehr das Marx’sche Proletariat, sondern Tofflers Kognitariat bestimmend zu sein. (Baacke et al. 1999, S.25).

In jüngerer Zeit ist der Balanceakt in der deutschen Bildungspolitik durch die Diskussion um die Studiengebühren wieder mehr in das öffentliche Bewusstsein gerückt. Vereinfacht stellt sich dabei die Frage, ob Bildung ein Bürgerrecht ist und damit Marktorientierung als Grundlage der Bildungspolitik unangebracht, gar asozial wäre, da ein ökonomisiertes Bildungs- bzw. Hochschulwesen einem Humboldtschen Bildungsideal und dem Verständnis eines freien Menschen widersprächen. Da Bildung ein menschliches Grundbedürfnis sei, müsse der Staat durch die Schaffung gedeihlicher Rahmenbedingungen diesem Rechnung tragen. Die Qualität der Bildungsstruktur gebe demnach Aufschluss über den erreichten zivilisatorischen Zustand einer Gesellschaft (Chomsky 1974, S.65).

Dem gegenüber stehen die oben genannten Interessengruppen, die Hochschulen hauptsächlich als Fabriken zur Produktion des Standortfaktors Wissens sehen, der uns als Deutschlands einziger Ressource, im internationalen Wettbewerb vor dem Abrutschen in die Zweitklassigkeit bewahren soll. Auf dieser Argumentationsgrundlage steht die Forderung nach Wettbewerb der Universitäten, Elitenbildung und folglich auch nach Elitenuniversitäten, um im internationalen „ war of Talents “ bestehen zu können (Hartmann 2007, S.471).

Diese grob skizzierte Debatte ist nicht neu, sondern führt uns zurück in die 1960er Jahre in denen man bereits nach Lösungen für strukturelle Mängel im Bildungswesen suchte. Damals Begann ein Prozess des Umdenkens, der wesentlich auf die Untersuchungen Georg Pichts zurückzuführen ist. Er stellte fest, dass sich das westdeutsche Bildungssystem in einem katastrophalen Zustand befand und prognostizierte, wenn sich nichts verändere, einen wirtschaftlichen Notstand und Deutschlands Rückfall im Wettbewerb mit seinen europäischen Nachbarn. Durch seine Untersuchungen konnten erstmals Zugangsbarrieren zu Bildung empirisch belegt werden, wodurch die Diskussion zur Chancengleichheit angestoßen wurde. Im Zuge dessen kam es zu größeren Veränderungen im westdeutschen Bildungssystem. Die Hochschulen öffneten sich und man versuchte bisher benachteiligten Bevölkerungsschichten, vor allem den einkommensschwächeren, ein Hochschulstudium zu ermöglichen. Dies geschah im Wesentlichen durch drei Instrumentarien. Zum einen durch den Zweiten Bildungsweg, der geschaffen wurde, um Menschen zusätzlich zur konventionellen Bildungsbiographie den Zugang zu höherer Bildung zu ermöglichen. Des Weiteren durch das Bundesausbildungsförderungsgesetz BAföG, das 1971 ins Leben gerufen wurde und die damalige Bildungsoffensive flankierte, indem die finanziellen Spielräume der Studierenden durch staatliche Unterstützung erweitert wurden. Etwa zeitgleich fand auch die Gründung der ersten Fachhochschulen statt, die als Alternativen zu den bestehenden Hochschulen fungieren (Kupfer 2004, S.22ff).

Trotz der Bildungsexpansion ist in Deutschland weiterhin ein sehr starker Zusammenhang zwischen der sozialen Herkunft und dem wahrscheinlichen Bildungserfolg zu beobachten (2.Armutsbericht 2005). Angesichts des dargestellten Interessenkonflikts wird den Gestaltern des Hochschulwesens nichts Weiteres übrig bleiben als Kurs zwischen Skylla und Charybdis zu nehmen.

2 Betrachtungen des Netzmediums Internet

“If you thought the Internet was nothing more than an interactive version of television, think again”

Laura J. Gurak

Die Zeit der Mythologisierung des Internets als Cyberspace, der nach und nach vom Menschen kolonialisiert werden wird, ist vorbei. Eine Medienrevolution hat sich vor unseren Augen vollzogen und das Internet ist binnen weniger Jahre zu einer gesellschaftlich akzeptierten Basistechnologie und Praxis herangereift (Münker 2001, S.8). Durch die Kombination des Netzes mit dem Schlüsselmedium Computer wird dieser als Zugangs- und Endgerät, um seine individuellen Fähigkeiten erweitert, zu einem Hybrid- oder Netzmedium (Hickethier 2003, S.315). Faulstich (2007) weist auf die terminologische Verwirrung hin, welcher das Internet häufig unterliege, wenn es fälschlicherweise als Medium bezeichnet werde. Er illustriert dies anhand der Institutionen Post, Rundfunk und Presse, die zwar Medien benutzten selbst aber wiederum keine seien (S.172). Im Verlauf der 1990er Jahre entstanden verschiedene Netzmedien, die sich zu autonomen Kommunikationssystemen mit spezifischen Möglichkeiten entwickelt haben, welche Faulstich als Quartärmedien (digitale Medien) bezeichnet. Zu diesen zählen e-Mail, das World Wide Web, Chat, Intranet und sämtliche Multimediaanwendungen (Faulstich 2002, S.25.). Viele Applikationen wie e-Learning, Homebanking u. a. werden heute noch dem World Wide Web zugeordnet, könnten sich jedoch durch Weiterentwicklung und Ausdifferenzierung in den nächsten Jahren zu eigenständigen Medien entwickeln (Faulstich 2006, S.172). Eine andere Perspektive erlaubt den Schluss, dass durch die digitale Verfügbarkeit von Informationen in Kombination mit den Möglichkeiten des Computers, durch das Internet ein Supermedium entstehe, mit der Fähigkeit, alle anderen Medien unter sich zu vereinen (Hickethier 2003, S.309). Diese Sicht ist m. E. richtungweisend, da durch die zunehmende Verfügbarkeit von Breitbandanschlüssen und eine weitere Hybridisierung von Geräten auf Hardware-Ebene bspw. IP-TV, VoIP-Telefonie etc. das Potential dieses Supermediums erst richtig zur Entfaltung kommen wird.

Kulturgeschichtlich kann das Phänomen Internet in seiner Geschichtsmächtigkeit mit dem Übergang ins Buchdruckzeitalter im 15./16. Jahrhundert verglichen werden, wobei der dabei verwendete Bergriff Medienrevolution nicht die Schnelligkeit, sondern die Fundamentalität der Transformation charakterisiere (Schmale et.al 2007, S.24).

2.1 Eine kurze Geschichte des Internets

Dem rasanten Siegeszug des Internets, den man seit etwa Mitte der 1990er Jahre mitverfolgen kann, liegt eine unmerkliche und langsame Entwicklung zugrunde. Ausgangspunkt war das ideologische Wettrennen der beiden Supermächte USA versus Sowjetunion, um die Vormachtsstellung in der Welt, das die Entwicklung von Technologien auf beiden Seiten extrem forciert hat. Dieser Aspekt des militärisch motivierten Innovationsdruck aufgrund der geopolitischen Situation des Kalten Krieges, als Ausgangssituation der Entwicklung des Vorläufers des Internets, wird von sämtlichen Autoren in unterschiedlicher Detailschärfe konstatiert. Münker (2001) betont, dass bereits der Sputnikschock 1957 die USA in Angst versetzte, beim Wettlauf ins All gegenüber die Sowjetunion ins Hintertreffen zu geraten, woraufhin das Pentagon ein Forschungsprojekt namens ARPA (A dvanced R esearch P roject A gency) lancierte, um diesen Befürchtungen entgegen zu wirken. Obwohl sich der Kampf ums All zugunsten der USA entwickelte, blieb die Situation zwischen den Supermächten anfangs der 1960er Jahre angespannt und brandgefährlich. Mit dem Mauerbau 1961 und der Kubakrise 1962 erreichte der Kalte Krieg seinen Höhepunkt. Aufgrund der immanenten Gefahr eines thermonuklearen Krieges, angesichts der realen russischen Bedrohung vor der Haustür, stellte man Überlegungen an, wie unter Gefechtsbedingungen nach einem Nuklearschlag militärische Kommunikation aufrecht zu erhalten wäre. Im Zuge dessen antizipierte man die Verwundbarkeit einer dezentralen wie auch zentralistischen Kommunikationsinfrastruktur und begann Konzepte zu entwickeln, wie Computer verschiedener Militärstützpunkte miteinander vernetzt werden können, damit die Kommunikation auch bei der Zerstörung einzelner Knotenpunkte nicht abreißen würde. Der amerikanische Informatiker Paul Baran legte mit seiner Idee der verteilten Netzwerke (siehe Abbildung) Anfang der 1960er Jahre den maßgeblichen Grundstein für die Entwicklung des anfänglich vom Militär finanzierten ARPANETs, das als Vorläufer des Internets angesehen werden kann.

Trotz der nicht zu leugnenden Verquickung der Anfänge des Internets mit militärischen Bestrebungen, entwickel­te sich nahezu parallel auch ein Zweig der zivilen Nutzung, an dem insbesondere Universi­täten Interesse zeigten.

Die neu entstehenden Anwendungsmöglichkeiten, die den bisher nur als Rechenmaschine genutzten Computer zu einem Kommunikationsmedium werden ließen, weckten die Aufmerksamkeit der Wissenschaft, die das innewohnende Potenzial dieser neuen Technologie erkannte und nutzen wollte. Schröter (2004) weist dabei auf den historischen Prozess der Ausdifferenzierung hin, dem besonders der Computer als universelles Instrument unterworfen sei. Er führt an, dass die Feststellung, der Krieg resp. das Militär initiiere und beschleunige technische Entwicklungen, als „ Vater aller übertragungstechnischen Innovationen “ leer sei, wenn man nicht auch annehme, dass diese Technikgenese die Struktur der Technik und die damit einhergehenden Effekte, über den direkten militärischen Einsatz hinaus, im Sinne eines „ dual use “ bestimme (S.357). Diese Dynamik wird besonders bei der Entwicklung des Internets deutlich, das sich in drei Stufen von einem strategischen Experiment des US-Militärs im Kontext des Kalten Krieges, zu einer Kommunikationsplattform universitären Experimentierens und Forschens, zu einem kommerzialisierten Massenmedium entwickelt hat (Münker 2001, S.15). Der Durchbruch zum Massenmedium gelang dem Internet mit der Erfindung des World Wide Web, das heute zum Synonym für Internet geworden ist, obwohl es eigentlich einen speziellen Dienst darstellt, der als Oberfläche zur Navigation durch das Netz dient (Hickethier 2003, S.315f). Diese Entwicklung, durch welche das Internet 1991 ein Gesicht erhielt und benutzerfreundlich wurde, steht in enger Verbindung mit dem englischen Physiker Tim Berners-Lee vom Kernforschungszentrum CERN in Genf. Durch die neue Möglichkeit multimediale Elemente einzubinden, waren die bild- und tonlosen Tage des Netzes vorüber und das eigentliche Internetzeitalter brach an (Münker 2001, S.15).

2.2 Eine Betrachtung des Internets im Theoriekontext Marschall McLuhans

Gesellschaften sind immer stärker von den Beschaffenheiten der Medien, über die Menschen miteinander kommunizieren, geformt als vom Inhalt der Kommunikation

Marshall McLuhan

Zahlreiche Medienwissenschaftler sind heute damit beschäftigt, das junge Netzmedium Internet medientheoretisch zu deuten und fachspezifischen Konzepten zuzuordnen. Faulstich (2002/2007), Hickethier (2003), Ludes und Hörisch (2003) u. a. tun dies als Zeitzeugen einer Entwicklung an der sie selbst teilhaben und mitwirken.

Im Folgenden soll unter Bezugnahme einiger Thesen des kanadischen Pioniers der Medientheorie Marshall McLuhan eine Betrachtung des Internets vorgenommen werden. Dazu wird ein Zeitsprung vollzogen, der uns zur Blütezeit seines Schaffens in die 1960er Jahre zurückführt, als das Fernsehen zum Leitmedium heranreifte und das Internet noch Zukunftsmusik war. McLuhan selbst starb 1980 und konnte nicht mehr erleben, wie seine visionären Überlegungen und Metaphern zur Wirkung elektronischer Medien nach 40 Jahren noch Gültigkeit besitzen und wie folgend dargestellt, sogar mit dem Internet noch an Bedeutungstiefe gewonnen haben.

Typisch für McLuhans Theorien ist sein häufig als unwissenschaftlich gebrandmarkter essayistisch gehaltener Stil, der eine Vielfalt an Bedeutungen zulässt und durch den unvollständigen Charakter seiner Aussagen, den Rezipienten mit einbezieht. Er war der Ansicht, dass (Rede)Kunst mit Aphorismen, Wortspielen und Metaphern eher in der Lage sei, die mediale Situation des 20. Jh. zu erfassen als eine hermetisch lineare Logik, die den Reichtum an Wahrnehmungsmöglichkeiten einschränkt. McLuhans Denken ist nicht auf Beweis angelegt, sondern auf transdisziplinären Ideenreichtum, welchen er mosaikartig entfaltet (Kloock u. Spahr 2007, S.41ff).

2.2.1 Das Medium ist die Botschaft

McLuhans wohl bekannteste These „ Das Medium ist die Botschaft “ darf als kategorischer Imperativ jeder Medientheorie verstanden werden. Für ihn stellt das Wesentliche eines Mediums nicht sein Inhalt dar, sondern die Wirkung, die es auf seine Umwelt und den Status Quo des sozialen Gefüges ausübt. Er vertritt einen sehr weit gefassten Medienbegriff, den er auf alle Technologien als Ausweitungen des menschlichen Körpers anwendet, die mächtig genug sind eine neue Umgebung für den Menschen zu schaffen (McLuhan 2001, S.100). Dies wird besonders an zwei Beispielen deutlich. Niemand plante bei der Erfindung des Automobils, dass binnen weniger Jahrzehnte das Antlitz ganzer Nationen durch den Ausbau von Straßennetzen, Tankstellen und Werkstätten für immer verändert werden würde. Auch dachte man bei der Erfindung des Buchdrucks wohl nicht daran, dass dadurch ein Bildungsschub eingeleitet werden würde, der schließlich in Reformation und Aufklärung mündete. Die Botschaft (Wirkung) dieser Medien, ist für McLuhan nicht die Mobilität oder was dem Leser inhaltlich vermittelt wird, sondern die individuellen und gesellschaftlichen Veränderungen, die daraus hervorgehen (Ebd. S.104). McLuhan konstatiert, dass man sich der gesellschaftlichen Wirkung eines einflussreichen Mediums nicht entziehen könne, da es die Umwelt verändere und auf jeden Lebensbereich rückkopple (Ebd. S.255).

2.2.2 Die Erweiterungen des Menschen

McLuhan sieht in jeder Erfindung oder Technologie eine Erweiterung und gleichzeitige „Amputation“ des natürlichen menschlichen Körpers und der Sinne, die durch das zentrale Nervensystem gesteuert werden. Die Erfindung des Rades bspw. erweiterte den menschlichen Körper, resp. die Füße in ihrem Aktionsradius, was jedoch auch gleichzeitig ihre „Amputation“ bedeutete. Mit dieser Dramatik entfaltet McLuhan den Umstand, dass jede Entlastung eines Organs zu seiner Ausgrenzung führe, die als schwerer Eingriff in den Körper einen Schock verursache. Dies führe zu einem Betäubungszustand, in dem der Mensch sich der Wechselwirkung zwischen ihm und der Technologie nicht mehr bewusst sei, sie ihn jedoch ebenso zu bestimmen beginnt, wie seine natürlichen Organe (Kloock u. Spahr 2007, S.52). McLuhan illustriert dies indem er die Verbindung Mensch-Technologie mit dem symbiotischen Verhältnis zwischen Biene und Pflanze vergleicht. Der Mensch werde zum Geschlechtsorgan der Maschine „und ermöglicht so deren Reproduktion und fortwährende Weiterentwicklung immer höherer Formen.“ (McLuhan 2001, S.234). Aus „Dankbarkeit“ belohne die Maschinenwelt den Menschen mit Waren, Dienstleistungen und Wohlstand und halte ihn so in einem Zustand dienender Herrschaft (Ebd.).

Während frühere mechanische Technologien nur bruchstückhafte Erweiterungen des Menschen waren, denen der besagte Effekt der Narkotisierung innewohnte, ist die elektronische Technologie, die im Computer als Ausweitung des Gehirns, ihren bisherigen Abschluss findet, total und allumfassend. McLuhan sieht den Computer analog zum menschlichen Körper als Medium in das alle anderen Medien integriert werden können, wodurch eine ultimative Ausweitung aller Sinne ermöglicht wird. Folglich erlange der Mensch die Fähigkeit sich der Bedingungen seiner technischen Allianzen nun bewusst zu werden und so die „ mechanistischen Zergliederungen “ zu überwinden (Ebd. S. 256 f).

McLuhan vertrat eine technikoptimistische Sicht der Dinge und sah im Computer sein Ich-Ideal. Er war der Überzeugung, dass ein Verständnis der Medien als Ausweitungen des Menschen bedeute, ein gewisses Maß an Kontrolle über sie zu gewinnen. Er postulierte dies als lebenswichtige Aufgabe, um den „ Blitzkrieg der technologischen Umwelt gegen die gesamte Zivilbevölkerung “ zu gewinnen (Ebd. S.236).

2.2.3 Das globale Dorf

Durch Anwendungen, die auf den Prinzipien der Elektrizität beruhen, wird die Welt gleich einer Implosion auf die Größe eines Dorfes geschrumpft. Dies geschieht indem Raum- und Zeitbarrieren durch globale Vernetzung mit elektronischen Systemen überwunden werden. McLuhan hatte diesbezüglich vor allem das Fernsehen vor Augen. Er sah das 20. Jh. als Phase kulturellen Umbruchs, in dem die Gutenberg-Galaxie von einer integralen elektronischen Kultur abgelöst werde (Kloock und Spahr 2007, S.71). Durch die elektronisch erzeugten, technologischen Erweiterungen des zentralen Nervensystems wird der Mensch in einen globalen Pool an Informationen geworfen, in dem er die gesamte Menschheit in sich selbst aufnimmt. Er erfährt darin eine intensive und tiefgehende Beteiligung am Leben anderer Menschen, mit denen er sich durch die medial inszenierte Unmittelbarkeit verstrickt und sich für sie verantwortlich fühlt (Ebd. S.72). McLuhan bezeichnete eine Öffentlichkeit, die aus der bloßen Addition von distanzierten Individuen besteht als überholt. Er sah die Möglichkeit einer Erneuerung des bisherigen politischen und gesellschaftlichen Systems, als Ergebnis eines durch die elektronischen Medien bewirkten Prozesses der Retribalisierung, durch den die Erde in ein globales Dorf verwandelt werde (McLuhan 2001 S.197). Als typische Erscheinungsformen der Buchdruckkultur nennt er Individualismus, Nationalismus und die Teilnahmslosigkeit des alphabetisierten Menschen zu Aktion und Reaktion (Ebd. S.177). Die Antithese dazu stellt die orale Stammeskultur dar, deren Leben von der Unmittelbarkeit und aktiven Partizipation geprägt ist. Diese Art tribaler Lebensform sieht McLuhan durch die Unmittelbarkeit elektronischer Informationsübertragung am Erstarken. Folglich werden die Wahrnehmungsschemata der Gutenberg-Galaxie anachronistisch und somit Neuen weichen müssen. Diese Übergangsphase bezeichnet er als hochtraumatischen Prozess des Zusammenpralls der alten, unterteilten, visuellen mit der neuen, integralen, elektronischen Kultur, die zu einer Identitätskrise, einer Leere des Ichs führen werde (Ebd. S.198).

2.2.4 Das Internet ist die Botschaft

Gemäß McLuhans berühmtem Einzeiler „ Das Medium ist die Botschaft “, haben Medien unabhängig von ihrem Inhalt eine verändernde Wirkung auf die Wahrnehmung, das Umfeld und das soziale Gefüge der Menschen, die sie benutzen. Was McLuhan für das Automobil und das Fernsehen erkannt hat, lässt sich ohne weiteres auch auf das Internet anwenden. Der Rückblick auf eine Dekade Internet lässt dies unzweifelhaft deutlich werden. McLuhan hatte nie die Chance das Internet zu untersuchen, trotzdem soll nachfolgend versucht werden die dargestellten Thesen in den Kontext des Jahres 2007 zu integrieren.

McLuhan sprach hinsichtlich des wachsenden Einflusses elektronischer Medien vom Ende der Gutenberg-Galaxie. Ihm ging es dabei jedoch nicht um das Abschaffen oder das Ende des Buches als Medium, sondern um einen Wahrnehmungswandel. Auch im Internet spielt die Schrift, oft in hypertextueller Einbindung, eine grundlegende Rolle. Jedoch sah er durch den Einsatz audiovisueller Medien eine Ablösung der Fixierung lediglich auf den Sehsinn, hin zur Verwendung mehrerer Sinne, wie sie in gängigen Multimediaanwendungen allenthalben zum Tragen kommt.

McLuhans Analogie vom Menschen als dem Geschlechtsorgan der Maschine hat sich nirgends deutlicher manifestiert als im Bereich der IKT. Neue Software, die noch leistungsstärkere Hardware benötigt, verspricht uns noch mehr Effizienz bei der Verrichtung unserer Aufgaben. Gleichzeitig dreht sich der Teufelskreis des Innovationsdrucks angesichts des Moorschen Gesetzes weiter und verlangt nach noch besserer Technologie und besseren Anwendungen.

McLuhan sah den Computer als Ausweitung des Gehirns. Vergleicht man die Rechner der sechziger Jahre in ihrer Leistungsfähigkeit mit den heutigen, mutet einem diese Sichtweise geradezu krotesk an. Um wie viel deutlicher sind Computer heute durch ihre enorme Leistungsfähigkeit und Speicherkapazität in allen Lebensbereichen als Extension menschlicher Denk- und Merkfähigkeit im Einsatz. In Verbindung mit dem Internet wird der Computer zum Supermedium, das alle anderen Medien unter sich zu subsumieren vermag und erwächst zur ultimativen Erweiterung des Gehirns und des zentralen Nervensystems. Das Netzmedium Internet wird, in seiner dem neuronalen Netz des Gehirns ähnlichen Form, zum kollektiven Gedächtnis der Menschheit, auf das jeder der angeschlossen ist zugreifen kann. Zugegebenermaßen sind bei diesem Vergleich die kurze Lebensdauer von Webseiten und andere strukturelle Probleme außer Acht gelassen.

McLuhans Voraussagen zur Entstehung des globalen Dorfes (global village) haben sich auf verblüffende Weise erfüllt. Die räumliche und zeitliche Wahrnehmung des Menschen hat sich im Paradigma der elektronischen resp. digitalen Medien, insbesondere des Internets zu einer globalisierten Gleichzeitigkeit verdichtet. Anwendungen wie Skype u. a. die Telefonie mit Video und Chat kostenlos und global möglich machen, schaffen ein Gefühl der virtuellen Omnipräsenz. In einer durch das Internet mediatisierten Welt entstehen tatsächlich dorfähnliche Kommunikationssituationen, in denen Menschen (un)mittelbar am geschehen und am Leben anderer teilhaben können. Durch die dezentralen Strukturen und vereinfachten Zugangsmöglichkeiten der tribalen Netzwelt, verändern sich soziale Handlungsstrukturen. Der Medienberater Boyd geht sogar davon aus, dass an der permanenten Online-Anwesenheit, als dominantem Modus sozialer Interaktion praktisch kein Weg mehr vorbeiführe. Für diese offene und transparente Online-Existenz benutzt er den Begriff "Lifestreaming", da zukünftig alle Online-Aktivitäten eines Users ins Netz einfließen werden (Merschmann 2007). Die Nutzer werden gleichermaßen zu Produzenten, wie sie auch Konsumenten sind und gebrauchen die neuen Medien als Ausweitung ihrer Psyche. Ein gutes Beispiel dazu sind die zahlreichen Weblogs, (Onlinetagebücher) Social Software Anwendungen wie Myspace oder Youtube u. v. a., durch die Menschen multimedial aus ihrem Alltag und Privatleben berichten, um mit anderen in Kontakt zu treten. Das US- Bloggermagazin Blog Herald ermittelte 2006 eine Zahl von mehr als 70 Millionen Webtagebüchern weltweit (Grönling 2006, S.118). Die von McLuhan antizipierte gesellschaftliche und politische Erneuerung vollzieht sich eher unauffällig, indem sich im Internet als Alternative zu den Mainstream-Medien eine Gegenkultur entwickelt. Engagierte Menschen betätigen sich überall auf der Welt als Graswurzeljournalisten, um in der Blogosphäre ihre Sicht der Dinge zu kommunizieren. Besonders aus Krisengebieten oder Regionen der Welt, in denen Meinungsfreiheit und Demokratie unterdrückt werden, kann auf diese Weise Interesse und Beteiligung anderer Menschen oder Organisationen erreicht werden.

McLuhan sah in der rasanten Geschwindigkeit der Entwicklung elektronischer Medien das erste Mal die Chance, dass der Mensch sich medialer Auswirkungen bei sich und seiner Umwelt bewusst wird, was bei längerfristigen medialen Veränderungen bisweilen nur in der Retrospektive geschah. Wie der Fisch das Wasser in dem er lebt nicht bemerkt, sorgt das zentrale Nervensystem im Menschen für einen betäubenden Effekt der Wahrnehmung, sodass er sich der Auswirkungen seiner Technologien nicht mehr bewusst wird. Diesem Diktum wäre der Mensch tatsächlich nicht mehr ohnmächtig unterworfen, denn noch nie war es einfacher als im Zeitalter der Suchmaschinen Informationen aufzuspüren, zu verarbeiten und im globalen Netz interdisziplinär mit Menschen in Kontakt zu treten, um ein globales Bewusstsein für eine bessere Welt mitzugestalten. Ob der Mensch jedoch angesichts der Möglichkeit zu einem emanzipierten Umgang mit Technologie und Medien findet, wie McLuhan antizipiert, ist durchaus fragwürdig. Allerdings darf, wie ich meine, die Entstehung und rasche Entwicklung der Medienwissenschaften und -theorien auf die Entdeckung und Überwindung dieser McLuhanschen Form der medialen Selbsthypnose „ Narziss-Narkose “ zurückgeführt werden.

Der Versuch die 40 Jahre alten medientheoretischen Betrachtungen McLuhans im Lichte des Jahres 2007 zu sehen, konnte im Rahmen dieses Kapitels nur fragmentarisch erfolgen. Trotzdem erwies sich die Auseinandersetzung mit seinen Perspektiven m. E. als sehr ergiebig. Sein zeitloses Anliegen war und bleibt es postum, die Wahrnehmung des Menschen für den Umgang mit seinen Medien zu schärfen, damit er fähig bleibt die Kontrolle über sie zu bewahren.

2.3 Web2.0 – das Mitmach-Web

Seit einiger Zeit kursiert in der Web-Welt ein neues Buzz-Word, an das Vorstellungen von der Neuerfindung des Internets gekoppelt sind. Die Rede ist von Web2.0. Was verbirgt sich dahinter? Handelt es sich dabei um einen geschickt neu inszenierten Hype der Vertreter der New Econonmy, die nachdem sie sich vom Dotcom-Crash der Jahrtausendwende erholt hat nun alten Wein in neue Schläuche füllen will oder sollte es sich wirklich um eine neue Generation des Internets handeln, in welcher der User mit seinen Bedürfnissen und Ideen in den Mittelpunkt rückt? Die Grundcharakteristika des Web2.0 sind im folgenden Abschnitt analog zu vielen Web2.0 Anwendungen schlagwortmäßig (Tagcloud) gekennzeichnet.

Die Suche nach einer eindeutigen Definition was Web2.0 ist und was nicht, ist Gegenstand vieler Diskussionen, die vor allem im Cyberspace von unzähligen Usern fortwährend geführt wird und dadurch eine endgültige Eindeutigkeit schuldig bleibt. Damit wäre auch schon ein Charakteristikum von Web2.0 genannt, den Zustand der fortwährenden Entwicklungsversion (Perpetual Beta) (Alby 2007, S. XI). Der Begriff Web2.0 kann auf den Verleger Tim O’Reilly zurückgeführt werden, der ihn 2004 auf einer Tagung das erste Mal verwendet hat, um die Prinzipien und Praktiken der Firmen zu identifizieren, die den besagten Dotcom-Crash überlebt hatten. Der Grundgedanke ist dabei das Web als Plattform zu nutzen und nicht mehr bloß als Ansammlung von Webseiten, wobei installierte Software an Bedeutung verliert, da viele Anwendungen browserbasiert arbeiten. Dabei gilt es die Anwendungen so zu gestalten, dass sie durch das kollektive Wissen ihrer Nutzer lernen und kontinuierlich verbessert werden. Die Netzwerkstruktur des Internets (dezentral) ermöglicht den Nutzern gleichzeitig auch zu Produzenten oder Anbietern zu werden (User generated content), was zu einer Demokratisierung des Netzes beiträgt. Ein weiteres wichtiges Prinzip das Web2.0 kennzeichnet, ist die Nutzerfreundlichkeit der Anwendungen und die Idee der Social Software, die Nutzern neue Wege der Kommunikation und Kollaboration ermöglicht (Ebd. S.15ff). Die dargestellten Entwicklungen sorgen hinsichtlich ihrer Möglichkeiten für einen didaktischen Innovationsschub im Bereich des e-Learning, worauf in Kapitel 3.4 näher eingegangen wird.

2.3 Wikipedia als Beispiel des Web2.0

Im Jahre 2001 hatten Jimmy Wales und Larry Sanger die Idee, auf Grundlage einer Wikiplattform[4] eine gigantische freie Online-Enzyklopädie zu schaffen, welche den kommerziellen Anbietern überlegen sein sollte. Heute zählt Wikipedia ohne Zweifel zu den meistgenutzten Internetangeboten, auf das auch 70% der EFH-Studierenden zurückgreifen. Innerhalb von 6 Jahren ist die Online-Enzyklopädie auf über 5,3 Millionen Artikel in über 200 Sprachen angewachsen. Führend ist die englischsprachige Wikipedia mit 1,4 Millionen Einträgen gefolgt von der deutschen mit 595'000 (Wikimedia Statistik 2007). Nicht nur quantitativ hat Wikipedia sämtliche anderen Enzyklopädien überholt. Bei einem 2005 vom Wissenschaftsmagazin Nature durchgeführten Vergleichstest mit der renommierten Encyclopædia Britannica zu 42 wissenschaftlichen Themen, lagen die beiden Lexika in ihrer Genauigkeit oder besser Ungenauigkeit nicht sehr weit auseinander. Die Britannica-Artikel enthielten im Durchschnitt drei Fehler, die Wikipedia-Artikel vier. Für Wikipedia war das Ganze ein großer Erfolg und zeigte einmal mehr, dass es das perfekte Lexikon nicht gibt (Kohlenberg 2006).

Doch wie lässt sich dieser Erfolg erklären?

Wikipedia ist ein Vorzeigeprojekt für das, was Social Software leisten kann. Da jeder Besucher Artikel verfassen oder entdeckte Fehler korrigieren kann, entfaltet sich die kollektive Intelligenz (Wisdom of Crowds) aller Nutzer nach dem Prinzip- viele Wissen mehr als einzelne (Alby 2006, S.88). Neben diverser Systematisierungen und Standardisierungen des Wiki-Konzeptes, wurde Wikipedia durch die Einführung verschiedener sozialer Verfahren zu einer selbstorganisierenden Gemeinschaft. Dadurch konnte der hohe Qualitätsstandard der Artikel erreicht werden. Strittige Beiträge, Probleme mit der Neutralität von Artikeln oder Vandalismus sind einige der Schwierigkeiten mit denen sich die Wikipedia-Gemeinde dauerhaft beschäftigen muss (Möller 2006, S.173ff).

Im akademischen Lager begegnet man der Wikipedia häufig mit Skepsis. Zwei Mankos fallen dabei besonders ins Gewicht. Aufgrund der Unstetigkeit der Beitragsversionen, die nicht eingefroren werden können, gelten Artikel als nicht zitierfähig. Darüber hinaus ist durch den kollektiven Charakter der Wikipedia eine Autorenschaft nicht mehr eindeutig zuzuordnen. Ferner bemängelt Weber (2007) die Tendenz bei Studierenden, Themen nur noch oberflächlich anzukratzen und Wikipedia als Kopiervorlage für akademische Arbeiten zu missbrauchen, was in Kapitel 6.1 weiter vertieft wird (S.28ff).

Trotz diverser Schwachstellen, die in der Natur des Wikipedia-Konzepts begründet sind, überzeugen m. E. die Vorteile eindeutig. Wikipedia besticht durch die Aktualität der Beiträge, da professionelle Anbieter Artikel nur zeitverzögert veröffentlichen können. Auch eignet sich keine andere Quelle so gut einen Erstüberblick zu bestimmten Themenbereichen zu erlangen oder Hypertext gestützt im Schneeballsystem Wissenslücken zu schließen sowie Grundlagen zu erarbeiten.

2.4 Die dunkle Seite des Netzes

Das Internet besitzt eine hybride Natur, die sowohl aus Denken als auch aus Handeln in menschlicher Interaktion besteht. Als Spiegel der Gesellschaft manifestieren sich Probleme des Menschseins, seien sie individueller oder sozialer Natur dort ebenso, wie in der nichtvirtuellen Welt und lassen den Ruf nach ethischen Übereinkünften laut werden. Vorangetrieben wurde die Debatte um eine Cyberethik in den letzten Jahren vor allem durch brisante Themen wie Kinderpornographie, Rechtsradikalismus oder Terrorismus. In einem grenzüberschreitenden Netz treffen verschiedene Moralvorstellungen aufeinander, die sich sehr leicht staatlicher Einflussnahme entziehen. Die ethischen Herausforderungen des Internets sind jedoch von größerer Tragweite als nur der Wunsch nach einer Netiquette. Diese Auseinandersetzung befasst sich viel grundlegender mit Spannungsfeldern im Bereich informationeller Selbstbestimmung, dem Recht und dem Schutz der materiellen und geistigen Arbeit, der digitalen Manipulation von Waren und Dienstleistungen sowie dem demokratischen Recht auf ungehinderten Informationszugang (Capuro 2003, S.12ff).

Der Cyberethikdiskurs wird hier mit dem Verweis auf Capuro nicht weiter vertieft, indes werden die subjektiven Auswirkungen der Internetnutzung näher betrachtet.

2.4 Vom Netz aufgefangen - oder gefangen im Netz

Im Jahre 1994 hat der amerikanische Psychiater Ivan Goldberg als erster das Phänomen der Internetsucht entdeckt, von dem er damals in Mailinglisten scherzhaft als einer neuen Krankheit, der Internet Addiction Disorder (IAD) gesprochen hat. Seine Symptombeschreibungen, die er an der Spielsucht angelehnt hat und seinen Ausführungen über die ungeheure Anziehungskraft des Internets, die manche Menschen zum Rückzug aus der realen Welt verleite und negative Auswirkungen auf ihr Sozialverhalten habe, führte dazu, dass sich eine wachsende Zahl von Betroffenen selbst als solche erkannte und das Thema zum Gegenstand ernsthafter Untersuchungen wurde (Walter 2003, S. 166f).

13 Jahre später beziffert der Verein Hilfe zur Selbsthilfe bei Onlinesucht e.V. auf seiner Webseite onlinesucht.de die Zahl der Onlinesüchtigen in Deutschland auf 1,5 Millionen Menschen. Obwohl die Krankenkassen in Deutschland das Krankheitsbild Onlinesucht noch nicht anerkennen (Grönling 2006, S. 48), da man sich in Fachkreisen noch nicht darüber im Klaren ist, ob es sich um eine Sucht im medizinischen Sinne oder um pathologischen Internetgebrauch handle (Kolb 2002, S.91), darf davon ausgegangen werden, dass alles was prinzipiell eine starke persönliche Bedeutsamkeit erlangt, einen Menschen fesseln und Suchtverhalten auslösen kann. Kolb führt an, dass besonders psychisch anfällige oder selbstunsichere User gefährdet seien, in eine Scheinwelt des Internets zu geraten, um dort Ängsten, Sorgen, Depression, Einsamkeit oder schlicht der Langeweile des Alltags zu entfliehen. Zahlreiche Autoren sind sich einig, dass Einsamkeit, Rückgang sozialer Kontakte, Beziehungsprobleme und Verhaltensstörungen durch das Internet verstärkt würden (Ebd. S.92). Auch bei meiner Erhebung an der EFH- Freiburg gaben 13% der Befragten an häufig zu viel Zeit im Internet zu verbringen. Gröning entgegnet einem Alarmismus der ansteigenden Internetsucht, bei der ein Leitkriterium die im Internet verbrachte Zeit darstellt, mit dem Argument, dass man einem passionierten Musiker, Briefmarkensammler oder Modellbauer trotz unzähliger Stunden Hingabe an sein Hobby, nicht in gleichem Maße mit pathologischem Verdacht begegnet, wie es Psychologen dem Internet gegenüber zu tun pflegen. (Grönling 2006, S.47)

Mittlerweile wurden aus dem öffentlichen Bewusstsein um diese neue „Volkskrankheit“ heraus, auch im deutschsprachigen Raum eine Menge an Beratungs- und Behandlungsangeboten, Foren und Selbsthilfegruppen geboren, die webbasiert arbeiten, um die Menschen dort abzuholen wo sich ihr Problem lokalisiert, nämlich im Web. Besonders Bekenntnisse und Biographien über gescheiterte Existenzen und zerbrochene Beziehungen, als Konsequenz der Internetsucht erregen dort, nicht zuletzt durch ihre Dramatik und den Realitätsfaktor, das Mitgefühl und Interesse der Öffentlichkeit. Foren und Webseiten verstärken demzufolge durch diese „ …Darstellung den Problemcharakter dieser Sucht und förder[n] damit die Karriere der Problemwahrnehmung.“ (Walter 2003, S.171).

Dieses Phänomen der Problemgenese der Internetsucht wurde von Susanne Walter untersucht. Sie schlussfolgert, dass „…die relativ erfolgreiche Karriere des sozialen Problems Internetsucht, auf die netzwerktypischen Kommunikationsstrukturen...“ des Internets zurückgeführt werden kann, in denen durch einen „medial vermittelten Identifizierungsprozess“, bei dem der Internetzugang per se, für jeden Teilnehmer schon ein potentielles Suchtrisiko birgt, Nutzer zu Opfer werden und durch ihre Selbstdarstellung wiederum anderen Nutzern beispielhafte Details liefern, um sich ihres eigenen Suchtstatuses gewiss zu werden (Ebd. S.172ff). Bei Restzweifeln ob der eigenen Internetsucht führt der Selbsttest von Dr. Kimberly Young auf netaddiction.com zu ultimativer Klarheit.

Betrachtet man gewisse gesellschaftliche Entwicklungen im Bereich der Verbreitung von ITK unter der Prämisse, McLuhans (1973) „The medium is the message“ oder Bammés (2006) „ Die Neuordung des Sozialen durch Technologie “, könnten Verhaltensweisen im Umgang mit dem Internet m. E. weniger pathologisierend gedeutet werden. Die Frage nach dem was als Nutzung normal und was abnormal sei wird dann angesichts des rasanten Wandels und der Möglichkeiten im Bereich der IKT weniger bestimmend. Die Basisdefinition für Internetsucht die onlinesucht.de gebraucht „Der Betroffene wird vom Internet beherrscht, statt es selbst zu beherrschen“, könnte positiv formuliert als Maxime zum Umgang mit dem Internet gelten und auch als Leitsatz bei der Vermittlung von Webkompetenz dienen. In diesem Sinne wird ein besseres Verständnis des Internets und seiner Wechselwirkungen mit dem Menschen dazu beitragen, dass der (Betroffene) Nutzer das Internet beherrscht, statt von ihm beherrscht zu werden.

3 Lernen im Paradigma der Wissensgesellschaft

"Bildung ist das, was übrig bleibt, wenn man alles, was man in der Schule gelernt hat, vergisst." Albert Einstein

Bildung ist in unseren Tagen das Zugangs- bzw. Ausschlusskriterium, aufgrund dessen Menschen zu Verlierern oder Gewinnern der Wissensgesellschaft werden. Logisch gekoppelt damit, entwickelte sich Lernen zum zentralen Topos der Erziehungswissenschaften. Zu beobachten ist dabei eine Ausdifferenzierung des Lerndiskurses, woraus eine Vielzahl von Ansätzen hervorgeht. Von einem einheitlichen wissenschaftlichen Gegenstand „Lernen“ zu reden ist in Anbetracht dessen schwierig geworden (Höhne 2003, S.23). Trotzdem verlangt man unter dem Damoklesschwert von PISA unisono nach einer neuen Lernkultur, in der Bildung gelingen soll und versucht Bildungsoffensiven zu lancieren, die nicht wieder im gefürchteten deutschen Reformstau erstarren. Dergestalt befindet sich das deutsche Bildungswesen zwischen Scylla und Charybdis, muss Altvertrautes in Frage stellen, gar aufgegeben, obwohl für wirkliche Veränderungen zuweilen der Mut fehlt. Oder anders ausgedrückt es soll was geschehen, aber es darf nichts passieren. Nicht zuletzt deswegen wird die Bildungslandschaft in Deutschland immer vielfältiger und reicht vom Versuch religiös motivierter Heimbeschulung, über reformpädagogische Schulinitiativen, bis zur bildungsmarktorientierten Eliteuniversität. Begriffe oder Konzepte, wie bspw. e-Learning, auf die man in diesem Zusammenhang trifft, erschließen sich vielmals nicht sofort und werden durch gebetsmühlenartige Wiederholung schnell zu leeren Worthülsen. Im folgenden Kapitel wird deshalb Lernen im Kontext der Wissensgesellschaft insbesondere unter der Anwendung von IKT diskutiert und Orientierung im Schlagwortdschungel der Lernbegriffe gegeben.

3.1 Gedanken zum Lernen

Also lautet der Beschluss, dass der Mensch was lernen muss

Wilhelm Busch

Lernen gehöre zu den Aktivitäten, zu denen der Mensch wie kein anderes Lebewesen optimiert sei, konstatiert der Neurowissenschaftler Manfred Spitzer (2007, S.10). Es ist ein allgegenwärtiger Prozess unseres Lebens, der manchmal bewusst und gezielt, häufig aber auch nebenbei abläuft. Die Ursache dafür ist unser etwa 1,4 Kilogramm schweres Gehirn, das unentwegt über die Sinne, gleich einem Staubsauger Informationen aus der Umwelt absorbiert und äußerst effektiv verarbeitet. Deshalb können wir gar nicht anders als zu lernen (Ebd. S.11). Trotzdem bleibt die Gretchenfrage des Lernens, wie der Lerninhalt in unserem Kopf zu Wissen wird, da beim zielgerichteten Lernen (Schule oder Studium) Lerninhalte bekanntlich nicht ohne Aufwand und Anstrengung, einfach von draußen nach drinnen transferiert werden können.

Spitzer sieht im boomenden Markt für Lernsoftware und Multimediaprodukte die Gefahr, dass sie zum „ Äquivalent des Nürnberger Trichters “ werden. Er weißt darauf hin, dass multimedial dargebotene Lerninhalte nicht automatisch einen besseren Lerneffekt erzielten,
da Lernen kein passiver Prozess sei, sondern ein aktives Auseinandersetzen mit der Umwelt bedeute (Ebd. S.1f).

3.2 Hauptströmungen der Lerntheorien

In den Erziehungswissenschaften und darüber hinaus unterscheidet man drei große lerntheoretische Ansätze, die gleichsam auch die wichtigsten erkenntnistheoretischen Ansätze des 20. Jh. repräsentieren, aus denen sie hervorgegangen sind: Behaviorismus, Kognitivismus und Konstruktivismus. Alle drei Theorien versuchen die Arbeits- und Funktionsweise des menschlichen Gehirns modellhaft darzustellen und zu erklären. Alles pädagogische Handeln basiert letztlich auf erkenntnistheoretischen Grundannahmen. Nachfolgend werden die drei lerntheoretischen Ansätze in ihren Grundlagen vorgestellt. In jüngerer Zeit erwies sich innerhalb der Sozialwissenschaften und auch der Pädagogik das konstruktivistische Lernparadigma als einflussreich, was zu didaktischen Implikationen bei der Gestaltung von Lernumgebungen geführt hat (Baumgartner u. Payr 1999, S.100).

3.2.1 Behaviorismus - Lernen als Verhaltensveränderung

Ausgangspunkt der behavioristischen Lerntheorie ist die Arbeit des russischen Physiologen Pawlow. Seine Theorie der Klassischen Konditionierung entstand aus Versuchen mit einem Hund, der einem äußeren Reiz (Fleischpulver) ausgesetzt wurde, was bei ihm eine unkontrollierte Reaktion (Speichelfluss) auslöste. Danach wurde mehrere Male ein weiterer neutraler Reiz (Glockenton) mit der Fleischpulverausgabe gekoppelt, worauf das Tier wie zuvor mit Speichelfluss reagierte. Präsentierte man dem Hund danach den Glockenton ohne Fleischpulver, reagierte er ebenfalls mit Speichelfluss, da der neutrale Stimulus nun zum konditionierten Reiz geworden war. (Steiner 2006, S.159f) Pawlows Arbeit inspirierte in der ersten Hälfte des 20. Jh. eine Vielzahl von vor allem amerikanischen Wissenschaftlern. Der Fokus ihrer Arbeit lag explizit nur auf der externen Beobachtung von Verhalten (engl.: behavior), worauf sich auch der Name Behaviorismus begründet (Ebd. S.140). Prozesse, die sich im Inneren des Gehirns auf mentaler Ebene abspielen, werden ausgeblendet. Das Gehirn wird als black box aufgefasst, die auf äußere Impulse im Sinne eines Reiz- Reaktions Schema deterministisch reagiert (Baumartner u. Payr 1999 S.101).

Abbildung in dieser Leseprobe nicht enthalten

Die aus behavioristischer Sicht wohl wichtigste Art des Lernens, stellt Skinner in seiner Theorie der Operanten Konditionierung dar. Pawlows Reiz- Reaktions Schema wird darin um die Dimension eines diskriminierenden Reizes erweitert, wodurch dem Lernenden eine Wahlmöglichkeit signalisiert wird. Erwünschtes Verhalten wird mit einem angenehm empfunden Stimulus (positiver Verstärker) gefördert, unerwünschtes soll durch das Ausbleiben des Stimulus verhindert werden. Dieses Verfahren ist ein elementarer Bestandteil der Pädagogik, mit dem man relativ zuverlässig in kleinen Schritten Verhaltensveränderungen herbeiführen kann (Ebd. S.142). Jedoch sind die Einsatzmöglichkeiten der Operanten Konditionierung eher auf automatisierbare Lernprozesse wie Maschinenschreiben oder Frage-Antwort Aufgaben begrenzt, die nach dem Drill- und Practice-Muster konzipiert sind. Um komplexere menschliche Lernprozesse darzustellen fehlt dem Behaviorismus die Erklärungskraft, da er die Qualität geistiger Zustände, die sich nicht nur in Verhalten manifestieren vernachlässigt. Lernen wird reduziert als konditionierter Reflex und Wissen als eine korrekte Input-Outputrelation angesehen (Ebd. S.102).

3.2.2 Kognitivismus – Lernen als Erkenntnisprozess

Abbildung in dieser Leseprobe nicht enthalten

Das heute viel dominantere Paradigma des Kognitivismus betont im Gegensatz zum Behaviorismus die inneren Prozesse des menschlichen Denkens im Gehirn des Subjekts. Es stellt nicht nur einen passiven Behälter (black- box) dar, in dem Informationen lediglich gelagert werden, sondern kann in Analogie mit dem Computer als „Gerät“ zur Informationsverarbeitung verstanden werden. Dadurch lassen sich innerpsychische Vorgänge des Wahrnehmens, Erkennens, Lernens und Entscheidens viel besser erklären als mittels behavioristischer Modelle. Diese Problemlöse- oder Erkenntnisfähigkeit ist das Pendant des obig beschriebenen Reiz- Reaktions-Schemas im Behaviorismus (Ebd. S.104f).

Abbildung in dieser Leseprobe nicht enthalten

Die Annahme, dass der menschliche Geist und ein programmierter Computer zwei Varianten des gleichen Datenverarbeitungssystems seien, führte in den 1960er Jahren zu einer Neuorientierung in der Psychologie, die als kognitive Wende bezeichnet wird. (Krapp et al. 2006, S.17). Da ein direktes Beobachten der Vorgänge im Gehirn nicht möglich ist, musste die Forschung adäquate Methoden entwickeln, um die Wissensrepräsentation im Gehirn indirekt darstellen zu können. Dabei spielt wiederum der den kognitiven Prozessen wesensverwandte Computer eine wichtige Rolle.

Abbildung in dieser Leseprobe nicht enthalten

Einer der bedeutendsten Vertreter kognitivistischer Lerntheorie ist Piaget. Er sieht Lernen als aktiven handelnden Umgang des Subjekts mit seiner Umwelt. Mit seinem Konzept der Äquilibration erklärt er den Aufbau von immer komplexeren kognitiven Strukturen, die aus der Erfahrung eines Ungleichgewichts entstehen. Der Gesamtprozess der Adaption des Individuums an seine Umwelt vollzieht sich demnach durch zwei Teilprozesse der Assimilation und der Akkomodation. Durch Assimilation werden Objekte in ausgebildete offene kognitive Schemata integriert, während die Akkomodation die Anpassung an die Objekte und damit auch die Veränderung oder Neubildung kognitiver Schemata bezeichnet (Staemmler 2006, S.50). Baumgartner und Payr beobachten im Kognitivismus eine Überbetonung geistiger Vorgänge, reduziert auf das Gehirn. Dies kann als eine dialektische Überreaktion des zu starken Fokus auf körperliches Verhalten im Behaviorismus gedeutet werden. Kognitivistische Modelle können körperliche Fähigkeiten und Fertigkeiten jedoch nur schwer erklären oder simulieren. Bezeichnend dafür ist die Tatsache, dass zwar mittlerweile Schachcomputer existieren, die dem Menschen weit überlegen sind, es aber nur rudimentär möglich ist den menschlichen Gang mit einem Roboter zu simulieren (S.105).

3.2.3 Konstruktivismus - Lernen als subjektive Konstruktion

Im erziehungswissenschaftlichen Lerndiskurs der letzten Jahre hat der Konstruktivismus allenthalben Aufsehen erregt. Von vielen Akteuren wird er als neues theoretisches Paradigma ihrer Arbeit offenherzig rezipiert, während andere ihm eher mit Misstrauen entgegentreten. Worauf dieses Potential zu polarisieren beruht und was der Konstruktivismus als Lernparadigma bedeutet wird nachfolgend analysiert.

Der Konstruktivismus beschäftigt sich als erkenntnistheoretischer Ansatz mit den Fragen worauf unser Wissen über die Welt beruht, wie es zu Stande kommt und welche Grenzen ihm gesetzt sind. Er untersucht somit die Rolle der Wahrnehmung bei der Entstehung von Wissen und Wirklichkeitserfahrung (Beck u. Krapp 2006, S.38). Dabei lehnt er in seiner ursprünglichen Variante, dem radikalen Konstruktivismus, die Gültigkeit einer objektiven Beschreibung oder Erklärung von Realität ab. Er postuliert, dass Wirklichkeit nicht objektiv vorhanden und damit zugänglich sei, sondern vom Individuum subjektiv konstruiert werde. (Baumgartner u. Payr 1999, S.107) Der Mensch wird als autopoietisches (selbst erschaffendes), strukturell geschlossenes System gesehen, das nicht zu direktem Informationsaustausch mit der Umwelt fähig ist. Die Sinneswahrnehmungen werden nur als Energieaustausch zwischen der Umwelt und dem Gehirn des Individuums verstanden. Erst durch kognitive Konstruktionsprozessewerden die übertragenen Signale zu Information und Bedeutung interpretiert und in ihrer Summe zu Erkenntnis oder Wissen. Auf diese Weise konstruiert das System in seiner informationellen Geschlossenheit im Laufe des Lebens ein subjektives Bild der Wirklichkeit, ohne zu wissen, ob die Wirklichkeit jenseits der eigenen Erfahrung tatsächlich dergestalt ist (Grotlüschen 2003, S.39).

Abbildung in dieser Leseprobe nicht enthalten

[...]


[1] Aus Gründen der besseren Lesbarkeit verwende ich in meiner Arbeit anstelle weiblicher und männlicher Formen das generische Maskulinum oder Partizipkonstruktionen (Studierende, Lehrende). Alle weiblichen grammatischen Formen sind dabei jedoch ausdrücklich eingeschlossen.

[2] Besonders erwähnenswert ist der gut erforschte Rebound- Effekt, an dem sich kontra-intuitiv die Auswirkung technischer Effizienz zeigt. Er entsteht, wenn durch eine Effizienzverbesserung, eingesparte Ressourcen bspw. Zeit, Energie oder Geld, eine Ausweitung der Nachfrage entsteht und absolut gesehen überhaupt keine Einsparung mehr vorliegt. Im Bereich der Mobilität manifestiert sich das insofern, dass der Mensch durch moderne Verkehrsmittel viel schneller, viel weitere Strecken zurücklegen kann, er aber auch dadurch gezwungen wird, seinen Aktionsradius erheblich zu erweitern. Musste er die drei Kilometer zu seinem Arbeitsplatz früher in 40 Minuten zu Fuß laufen, verbringt er heute dieselbe Zeit im Auto, um die 30 Kilometer zur Arbeit zurückzulegen (Hilty 2007, S.185f).

[3] Die Frage nach einer Definition was Kreativität sei und was sie nicht sei hat viele Facetten und ist Gegenstand unzähliger Arbeiten verschiedener akademischer Disziplinen. Goldenbergs und Mazurskys (2002) Ansatz soll nicht atomisieren, sondern hebt Kreativität als eine den Menschen konstituierende anthropologische Besonderheit hervor: „ Creativity is considered the ultimate of human qualities, one of the key measures of human intelligence that separates us from the rest of the animal kingdom. Our ability to create or to innovate is believed to be Godlike-described by some religions as one of those divine qualities endowed to man, who was created in the image of God, the Creator. Anyone who has had a spark of inspiration, a flash of genius, or even just an odd good idea, understands this seeming divinity of creative energy.” (S.29).

[4] Ein Wiki (hawaianisch: schnell) ist eine Webseite auf der Besucher Text eingeben und verändern können. Dieses Prinzip liegt der Online-Enzyklopädie Wikipedia zugrunde. (Alby 2006 S.220)

Details

Seiten
136
Jahr
2007
ISBN (eBook)
9783638029612
ISBN (Buch)
9783638927703
Dateigröße
9.9 MB
Sprache
Deutsch
Katalognummer
v88572
Institution / Hochschule
Evangelische Fachhochschule Freiburg
Note
1.0
Schlagworte
Webkompetenz Kulturtechnik Wissens- Informationsgesellschaft Herausforderungen Lehre Lernen Freiburg

Autor

Teilen

Zurück

Titel: Webkompetenz als Kulturtechnik der Wissens- und Informationsgesellschaft und die Herausforderungen für Lehre und Lernen an der EFH Freiburg