Lade Inhalt...

Das Internet in der Pädagogischen Arbeit - Hilfestellung zur Planung eines Internetcafes

Diplomarbeit 2000 158 Seiten

Pädagogik - Medienpädagogik

Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Das Internet - was verbirgt sich hinter diesem Schlagwort ?
2.1. Die Geschichte des Internet
2.2. Aufbau und Struktur des Internet
2.3. Dienste des Internets
2.3.1. E-Mail
2.3.2. File Transfer Protocol (FTP)
2.3.3. Telnet
2.3.4. News
2.3.5. Internet Relay Chat (IRC)
2.3.6. Multi User Dungeon (MUD)
2.3.7. World Wide Web (WWW)
2.4. Verwaltung im Internet

3. Kommunikation via Internet ... und die Folgen
3.1. Psychologische Theorien zu computervermittelter Kommunikation (computer-mediated communication (CMC))
3.1.1. Kanalreduktionsmodell
3.1.2. Herausfiltern sozialer Hinweisreize
3.1.3. Rationale Medienwahl
3.1.4. Normative Medienwahl
3.1.5. Soziale Informationsverarbeitung
3.1.6. Simulation
3.1.7. Imagination
3.2. Zusammenfassung
3.3. Selbstdarstellung, Identität, Beziehungen und Gemeinschaften im Internet
3.3.1. Identität und Selbstdarstellung im Internet
3.3.2. Beziehungen im Internet
3.3.3. Gemeinschaften im Internet – virtuelle Gemeinschaften
3.4. Demokratisierung oder Kommerzialisierung ?

4. Medienkompetenz
4.1. Inhaltsbereiche von Medienkompetenz
4.1.1. Dimension A: Orientierungs- und Strukturwissen
4.1.2. Dimension B: Kritische Reflexivität
4.1.3. Dimension C: Fähigkeit und Fertigkeit des Handelns
4.1.4. Dimension D: Soziale, kreative Interaktion
4.2. Realisationsmöglichkeiten

5. Die Umsetzung in die Praxis
5.1. Kurzvorstellungen der Einrichtungen
5.1.1. LogIn Essen
5.1.2. zakk in Düsseldorf – Café Internezzo
5.1.3. VHS-Oldenburg – Senioren im Internet
5.1.4. BAJ e.V. Bielefeld - Netcafé @ Tor 6
5.2. Die Methode des Leitfadeninterviews
5.2.1. Persönliche Einschätzung und Stellungnahme zu den durchgeführten Interviews.

6. Hilfestellungen zur Konzeption eines Internetangebotes
6.1.1. Kompetenzen der Mitarbeiter
6.1.2. Lebenswirklichkeit des Klientels zugrunde legen
6.1.3. Unterschiedliche pädagogische Begleitformen
6.1.4. Kritische Reflexion fördern (Medienkompetenz)
6.1.5. Pornographie und Gewalt im Netz
6.1.6. Vernetzung mit anderen Bereichen und Aktivitäten des Hauses
6.1.7. Der Faktor Zeit – alles braucht seine Zeit
6.1.8. Überlegungen zur Reglementierung der Nutzungszeiten
6.1.9. Aspekte der Raumgestaltung
6.2. Bemerkungen zu diesem Kapitel

7. Schlußbetrachtung (oder: eine Aufforderung zum Handeln)

8. Anhang
8.1. Glossar
8.2. Interviews (Volltexte)
8.2.1. BAJ Bielefeld
8.2.2. LogIn Essen
8.2.3. VHS Oldenburg
8.2.4. zakk Düsseldorf

9. Literaturangaben

Erklärung

1. Einleitung

„Erkennen heißt nicht zerlegen und

auch nicht erklären.

Es heißt Zugang zur Schau finden.

Aber um zu schauen, muß man teilnehmen.

Das ist eine harte Lehre.“

(A. de Saint-Exupéry, Flug nach Arras)[1]

Übertragen auf das Thema dieser Diplomarbeit, deutet das Zitat darauf hin, daß ohne praktisch erworbene Erfahrung, und ohne eine konkrete Auseinandersetzung mit dem Medium Internet, eine ausgewogene Beurteilung nicht möglich ist.

Viele Menschen haben ihr Bild und ihre Vorstellungen vom Internet aber nicht durch direkte Beschäftigung mit dem Medium erworben. Sie beziehen sich bei ihrer Meinungsbildung auf Informationen, die sie aus ihrem sozialen Umfeld und vermittelt durch andere Medien, erhalten haben. Das erklärt auch die weitverbreiteten Vorstellungen von einem fremden und geheimnisvollen, fast schon mystischen Medium, welche oft Berührungsängste hervorrufen.

Diese Entwicklungen sind jedoch nicht außergewöhnlich. Die Einführung des Radios bspw., hat ebenfalls Ängste und Hoffnungen in übertriebenem Maße geweckt. Erst wenn das Internet zu einem allgemeinen „Gebrauchsgegenstand“ geworden ist, und alle sozialen Schichten erreicht hat, wird es nicht mehr diese exponierte Stellung unter den Medien einnehmen. Diesen Prozeß voranzutreiben und im Fluß zu halten, ist auch Aufgabe von (Medien-)Pädagogen. Doch finden sich auch hier die gleichen Vorstellungen und Ängste wieder.

Den teilweise irrationalen Ängsten und übertriebenen Hoffnungen eine nüchterne Betrachtungsweise entgegenzustellen, ist ein Ziel dieser Diplomarbeit. Das zweite Ziel ist, dem Leser, neben der Einführung in das Thema, konkrete Hilfestellungen und Empfehlungen für die Konzeptionierung eines pädagogisch orientierten Internetangebotes zur Verfügung zu stellen.

Somit richten sich die Ausführungen vornehmlich an alle pädagogisch Ausgebildeten und pädagogisch Interessierten, die sich mit dem Gedanken beschäftigen, ein Internetangebot zu planen und anzubieten.

Einführend soll durch theoretische Betrachtungsansätze ein erster Überblick über das Thema verschafft werden:

Unter der Überschrift „Das Internet – was verbirgt sich hinter diesem Schlagwort?“ wird neben der Geschichte des Mediums und dessen Diensten, sein Aufbau und seine Struktur erläutert. Da dieses nicht ohne technische Fachausdrücke möglich ist, befindet sich im Anhang ein Glossar, in welchem versucht wird, die verwendeten und darüber hinausgehende Begriffe, relativ einfach zu erklären. Dieser Einstieg in die Arbeit ist bewußt kurz und oberflächlich gehalten. Eine tiefere Auseinandersetzung mit den technischen und strukturellen Aspekten des Internets ist sinnvoll, in diesem Kontext jedoch nicht möglich.

Im Abschnitt „Kommunikation via Internet ... und die Folgen“ wird der Frage nach den Auswirkungen des neuen Mediums auf das menschliche Kommunikationsverhalten nachgegangen. Hierzu werden verschiedene psychologische Betrachtungsweisen herangezogen. In wieweit hat computervermittelte Kommunikation (CMC) Auswirkungen auf unser Kommunikationsverhalten? Und hat dieses Effekte auf die Bildung von Gemeinschaften und Beziehungen im und außerhalb des Netzes?

Weiterhin befaßt sich dieses Kapitel mit den möglichen Folgen für bestehende Gesellschaftssysteme. Wohin wird die Entwicklung gehen: Mehr Basisdemokratie, oder werden kommerzielle Interessen überwiegen?

Mit „Medienkompetenz“ ist der Teil der Arbeit überschrieben, der sich darum bemüht, zu verdeutlichen, warum es immer wichtiger wird, kompetent mit Medien umgehen zu können, und was Kompetenz in diesem Zusammenhang eigentlich bedeutet. Neben der Erläuterung des Konzeptes wird versucht, einen Bezug zur praktischen Arbeit herzustellen.

„Die Umsetzung in die Praxis“ leitet in den praxisbezogenen Abschnitt der Arbeit über. Nachdem Medienkompetenz theoretisch erläutert wurde, sollen hier Einrichtungen vorgestellt werden, die es sich unter anderem zur Aufgabe gemacht haben, Medienkompetenz zu vermitteln. Zu diesem Zweck sind Leitfadeninterviews durchgeführt worden. Diese Methode wird ebenfalls kurz dargestellt.

Mit dem Abschnitt „Hilfestellungen zur Konzeption eines Internetangebotes“ findet die Arbeit ihren inhaltlichen Schluß. Dieser Teil bietet anhand 9 konkreter Punkte und den jeweiligen Ausführungen, die Möglichkeit, schon bei den ersten Überlegungen bzgl. eines Internetangebotes, auf die Erfahrungen der interviewten Einrichtungen zurückzugreifen. Diese Erläuterungen eignen sich jedoch nicht dazu, ohne individuelle Veränderungen und Anpassungen übernommen zu werden, sie dienen vielmehr dazu, die Reichweite der nötigen Überlegungen zu verdeutlichen, und erste Hilfestellungen zu geben.

Die „Schlußbetrachtung“ verfolgt den Zweck, die Relevanz der Umsetzung in die Praxis noch einmal zu verdeutlichen. Denn erst in der Praxis erfüllt jegliche pädagogische Arbeit ihre wesenhafte Aufgabe.

2. Das Internet - was verbirgt sich hinter diesem Schlagwort ?

Ein Medium zu definieren, welches sich mit solcher Geschwindigkeit entwickelt und eigentlich noch im Begriff ist zu entstehen, ist nur sehr global möglich. Insofern ist dieser gesamte Abschnitt als Definitionsversuch zu verstehen. Durch kurze Darstellung der Geschichte, des Aufbaus bzw. der Struktur, der Dienste und der Verwaltung des Internets soll ein erstes Grundverständnis dieses abstrakten Begriffes vermittelt werden, auf das sich die folgenden Kapitel aufbauen werden.

2.1. Die Geschichte des Internet

Nachdem die Sowjetunion am 4.10.1957 den ersten Satelliten ins All befördert hatte, standen die USA unter dem sogenannten „Sputnik-Schock“. Eine von mehreren Reaktionen des amerikanischen Verteidigungsministeriums auf den Erfolg der Sowjetunion, war die Gründung einer Forschungsbehörde namens Advanced Research Projects Agency (ARPA). Die ARPA hatte zur Aufgabe, im Dienste der Landesverteidigung, den technologischen Vorsprung der USA durch Unterstützung hierzu dienlicher Projekte zu sichern. Neue, innovative und visionäre Technologien sollten entwickelt und auf ihre Realisierbarkeit hin überprüft werden. Die von der ARPA verfolgte Politik sah vor, keine eigenen Forschungseinrichtungen zu unterhalten, sondern mit Universitäten und der Industrie zu kooperieren und die finanziell von ihr getragenen Projekte zu koordinieren. Zu diesen Projekten zählten auch Grundlagenforschungen ohne direkten Anwendungsbezug.

Es genügten wenige spezifische Hinweise auf eine potentielle militärische Nutzung der neuen Technologie, um eine Förderung zu erreichen. Im Widerspruch zu den Sorgen vieler Wissenschaftler, verhielt sich die ARPA den Forschungsprojekten gegenüber, neutral. Den Wissenschaftlern war es freigestellt ihre Arbeiten zu publizieren und auf Konferenzen vorzustellen. Die ARPA fungierte somit als eine Einrichtung, die Forschung und Industrie weitestgehend förderte. Sie sorgte damit für bestmögliche Voraussetzungen, um den technologischen Vorsprung wieder herzustellen.

Parallel zur Gründung der ARPA kam langsam Bewegung in die Computerszene der USA. Die Verbreitung von (zu damaliger Zeit) immer leistungsfähigeren Rechnern führte zu einer intensiveren Auseinandersetzung und Diskussion über die Computertechnologie. Einer der Visionäre der damaligen Zeit war J.C.R. Licklider. Der studierte Mathematiker, Physiker und Psychologe träumte von dem Computer als ein, die menschlichen Möglichkeiten erweiterndes, Denkwerkzeug. Er formulierte seine Idee in einem 1960 geschriebenem Manuskript mit dem Titel „Man-Computer Symbiosis“:

„The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today. (...) Those years should be intellectually the most creative and exciting in the history of mankind.“ (Licklider zit. nach Musch, Jochen. 1996)

Hiermit entwarf er die Perspektive einer Neuorientierung der Computertechnik an den Bedürfnissen der Nutzer, was insofern einen Wandel bedeutete, als daß der Umgang mit Computern bisher sehr kompliziert und nur Fachleuten vorbehalten war.

Licklider wurde 1962 Leiter des von der ARPA neu gegründeten Büro für informationsverarbeitende Technologien (IPTO, Information Processing Techniques Office). Er wollte den interaktiven Umgang mit dem Computer realisieren und die zeitaufwendigen Vorbereitungen von Lochkarten im Stapelbetrieb beenden. Mit seinen weiterführenden Gedanken legte er unbewußt den Grundstein für das Internet: Die Vernetzung der Computer erschien ihm als logischer evolutionärer Schritt zur Erreichung eines interaktiven Dialogs zwischen den Nutzern.

Die Computertechnologie hatte mittlerweile die Möglichkeit des Time-Sharings hervorgebracht. Time-Sharing in Bezug auf Computer meint die gleichzeitige bzw. serielle Nutzung eines Computers durch mehrere Nutzer. Ein Zentralrechner wurde mit mehreren Terminals (Rechner mit geringerer Rechenleistung als der Zentralrechner) verbunden (Abbildung 1). Mit diesem Netzwerkkonzept waren allerdings einige gravierende Nachteile verbunden: Ein einzelner Leitungsfehler führte zum völligen Ausfall des betroffenen Rechners; fiel der Zentralrechner aus, hatte das den Ausfall des gesamten Netzes zur Folge. Auch ließ sich solch ein Netzwerk nur begrenzt erweitern. Inwieweit dies möglich war, war von der Leistungsfähigkeit und der Kapazität des Zentralrechners abhängig. Außerdem konnten nur Rechner desselben Herstellers oder sogar desselben Typs verbunden werden. Dennoch entstand eine Vielzahl von lokalen Netzen, die diese Technologie verwendeten.

Abbildung 1: Sternförmige Netzwerktypologie

Abbildung in dieser Leseprobe nicht enthalten

Eine zweite, 1964 von Paul Baran vorgeschlagene, Netzwerktypologie sorgte für eine zuverlässigere und ökonomischere Alternative. Baran konzipierte ein Netzwerk, welches der Sorge der US Airforce, eine Kommandostruktur auch im Fall eines Atomschlages aufrechtzuerhalten, Rechnung tragen sollte. Die Idee war, die einzelnen Rechner untereinander zu verbinden. Die Daten sollten, unter Verzicht auf einen Zentralrechner, gleichmäßig im Netzwerk verteilt werden. Aufgrund der Vielzahl an möglichen Wegen, die den Daten durch die Verknüpfung aller Rechner zur Verfügung stand, sollte, auch bei einem Ausfall einiger Leitungen, die Funktion des Netzes kaum beeinträchtigt werden (Abbildung 2).

Abbildung 2: Verteilte Netzwerktypologie

Abbildung in dieser Leseprobe nicht enthalten

1966 griff das IPTO Barans Konzept auf und vernetzte 1969 die landesweit verstreuten ARPA-Computerzentren miteinander. Das ARPANET war entstanden. Dieses erste, nach neuerer Typologie, entstandene Netz kann als Vorläufer des Internet betrachtet werden. Bei der Entwicklung des ARPANET stand von vornherein die Absicht im Mittelpunkt, ein Netz aus heterogenen Hardwareplattformen zu entwerfen, Kompatibilitätsprobleme sollten kein Hindernis mehr darstellen. Außerdem wurde hierbei eine neue Technologie der Datenübermittlung eingesetzt: „packet switching“. Packet switching bedeutet, daß die Daten nicht in einem Stück verschickt, sondern in Datenpakete aufgeteilt werden. Jedes Paket „sucht“ sich seinen eigenen Weg zu seinem Ziel. Dort angekommen werden die Datenpackete wieder zu der ursprünglichen Form zusammengefügt. Diese Methode sorgt für eine gleichmäßigere Auslastung des Netzes.

1971 waren bereits mehr als dreißig verschiedene Computerzentren in das Netz eingebunden. Die ersten Anwendungsprogramme, die für das ARPANET zur Verfügung standen, waren ein Programm zur Fernsteuerung fremder Rechner (telecommunicationsnetwork: „Telnet“) und ein Programm für den Austausch von Dateien mit anderen Rechnern (file transfer protocol: „FTP“). Das ARPANET hatte aber nicht den von den Erbauern erwarteten Durchbruch. Erst als eine neue Anwendung, an die man im Vorfeld überhaupt nicht gedacht hatte, aufkam, änderte sich dieses schlagartig. Die neue Anwendung entwickelte sich, zur Überraschung der Konstrukteure, zur wichtigsten Ressource des Netzes: die elektronische Post („E-Mail“). Die Vorteile der E-Mail waren offensichtlich: Sie war viel schneller als die normale Post, billiger als Ferngespräche und konnte an einem, von dem Empfänger gewählten, Zeitpunkt gelesen und weiterverarbeitet werden. Eine landesweite Kommunikationsmöglichkeit, nicht nur zwischen den Computern, sondern auch und im Besonderen zwischen den Fachleuten war entstanden. Dieses ist ein bemerkenswerter Sachverhalt: Der Erfolg des Netzes basierte nicht auf der geplanten Fähigkeit, Computer zu verbinden, sondern auf seiner nicht vorhergesehenen Möglichkeit, Menschen miteinander in Kontakt zu bringen!

Diese Fähigkeit der Kommunikation traf allerdings anfangs nicht nur auf Zustimmung. Es wurde versucht, die ersten Diskussionsgruppen, die sich jenseits der Forschungsprojekte mit Themen wie Science Fiction befaßten, zu verbieten. Selbst die offenste Auslegung von Wissenschaft machte es schwer, solche Diskussionsforen mit der erwünschten Forschung in Einklang zu bringen. Die Verantwortlichen der ARPA wurden aber schließlich mit dem Argument überzeugt, daß die Diskussionsgruppen als wichtiges Pilotprojekt zur Erforschung der Verwaltung und des Betriebes großer Mailinglisten benutzt werden könnten. Aufgrund der daraufhin andauernd steigenden Datenmenge mußte das System wiederholt aufgebaut werden. Der eigentliche Durchbruch des ARPANET stand allerdings noch bevor. Im Oktober 1972 wurde die Technologie des ARPANET bei der International Conference on Computer Communications (ICCC) einer breiten Fachöffentlichkeit präsentiert. Diese Vorführung überzeugte die anwesenden Experten dermaßen, daß anschließend das Wachstum der Datenmenge im ARPANET von wenigen Prozent auf 67 % im Monat anwuchs.

Der nächste logische Schritt, nachdem es gelungen war, verschiedene Rechner zu einem Netz zusammen zu schalten, war die Verknüpfung von ganzen Netzwerken („Internet-working“). Um die Übergänge bzw. die Kompatibilitätsprobleme, die zwischen den Netzen bestanden, aufzuheben, mußte ein neuer Standard (ein einheitliches Datenformat) eingeführt werden. Dieser Standard durfte nur sehr geringe technologische Anforderungen an die verschiedenen Netzstrukturen stellen, um möglichst viele vereinigen zu können. 1973 wurde eine Verbindung zwischen dem ARPANET und dem PRENET, einem kommerziell entworfenen und geführten Netz, welches eine völlig andere Technologie benutzte und auf Rundfunkwellen basierte, geplant. Der dabei eingesetzte Standard, der den Namen „Transmission Control Protocol“ (TCP) erhielt, fand nun seine erste Anwendung. Dieses Protokoll übernahm ursprünglich auch die Aufgabe, die Adressierung der verschiedenen Rechner zu koordinieren (keine Adresse darf doppelt auftreten). Ab 1980 wurde aber zu diesem Zweck ein weiteres Protokoll eingeführt, das „Internet Protocol“ (IP). Durch die Kombination der beiden Protokolle wurde es verschiedenen Netzen ermöglicht, untereinander zu kommunizieren. Der Name dieses neu entstandenen Netzes wurde im Laufe der Zeit von „ARPA Internet“ in den heutigen Begriff „Internet“ umgewandelt. Nach und nach bedienten sich auch andere Netzwerkbetreiber dieses neuen Standards (TCP/IP) und somit wuchs das Internet immer mehr an. In das öffentliche Bewußtsein gelangte das Internet aber nicht vor einer weiteren wichtigen Entwicklung: dem WWW (World Wide Web).

1991 stellte Tim Berners-Lee die von ihm entwickelte Anwendung im europäischen Kernforschungszentrum CERN in Genf vor. Seine Idee beruht auf dem seit längerem bekannten Konzept nichtlinearer Hyper-Texte. Sein Hypertextsystem war mit einer graphischen Oberfläche versehen und äußerst einfach zu bedienen. Das Potential dieses Systems, weltweit verteilte Informationen per Tastendruck zugänglich zu machen, wurde schnell erkannt. Erstmals war es durch die WWW-Browser möglich geworden, ohne umfassende technische Vorkenntnisse das Internet zu nutzen. Durch die schnell voranschreitenden technologischen Entwicklungen, angetrieben durch das Interesse der Öffentlichkeit und den dadurch entstandenen Markt, werden immer neue Anwendungsmöglichkeiten ausgelotet und angeboten.

Das Medium Internet gewinnt, seit der Einführung des WWW zunehmend mehr an gesellschaftlicher Aufmerksamkeit. Es dringt in Bereiche der Öffentlichkeit, der Wirtschaft und Politik ein und beeinflußt diese. Gleichzeitig wird es dadurch ebenfalls verändert. Das Internet ist geschaffen worden bzw. aus dem Wunsch entstanden, eine offene, weltweite Kommunikation und Verfügbarkeit von Informationen über Grenzen hinweg möglich zu machen. Ob dieses Ideal trotz der aufkommenden Kommerzialisierung des Netzes beibehalten werden kann, erscheint jedochfragwürdig (siehe Kapitel 3.4.).

2.2. Aufbau und Struktur des Internet

Wie das vorherige Kapitel verdeutlicht, resultiert die Vielschichtigkeit und Pluralität des Internets aus dem Zusammenschluß vieler kleiner lokaler und regionaler Netze. Diese Vernetzung unterliegt einer hierarchisch aufgebauten Struktur.

Die unterste Ebene dieses Gefüges bilden die sogenannten Local Area Networks (LAN) (Abbildung 3). Ein LAN ist ein Netzwerk, welches beispielsweise einzelne Computer einer Institution oder Firma miteinander verbindet. Diese Vernetzung spart viel Verwaltungsaufwand und erleichtert die Arbeitsabläufe, weil jeder Computer auf zentral verwaltete Daten zurückgreifen kann.

Abbildung 3: Beispiel eines Local Area Network (LAN)

Abbildung in dieser Leseprobe nicht enthalten

Auf dieser einfachsten Art der Vernetzung von Computern baut die nächste Ebene des Internet auf. Werden die LANs untereinander vernetzt, entstehen regionale Netzwerke, die Metropolitan Area Networks (MAN) (Abbildung 4). Hierdurch wird die Möglichkeit geschaffen, daß z.B. Firmen einer Region miteinander kommunizieren können: Ein Mitarbeiter der Firma A kann nun von seinem Computer Informationen, die nicht in dem LAN der Firma A vorhanden sind, aus dem LAN der Firma B abrufen und weiterverarbeiten. Voraussetzung hierzu ist allerdings eine Zugangserlaubnis.

Abbildung 4: Beispiel eines Metropolitan Area Network (MAN)

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Beispiel eines Wide Area Network (WAN)

Abbildung in dieser Leseprobe nicht enthalten

Die dritte und höchste Ebene bilden die Wide Area Networks (WAN) (Abbildung 5).

Sie bestehen aus dem Zusammenschluß der einzelnen MANs. Um die Datenmengen, die zwischen den MANs ausgetauscht werden, bewältigen und verwalten zu können, sind sogenannte Supercomputer mit enormer Leistung von Nöten. Sie bilden das Rückgrat (Backbone) des Internet und verbinden einzelne Länder sowie Kontinente miteinander. Hierbei wird teilweise der klassische Datenträger, das Kabel, durch Satellitenübertragungen ersetzt.

Die Daten, die an einem beliebigen Rechner beispielsweise von Deutschland nach Australien geschickt werden, durchlaufen alle drei Ebenen des Internets bevor sie in Australien ankommen.

Um diese Verknüpfungen noch zu verdeutlichen, sollen die derzeitigen Verbindungen innerhalb Deutschlands, Österreichs sowie der Schweiz als Beispiel angeführt werden (Abbildung 6, siehe nächste Seite).

Daß der Datenaustausch nicht ohne festgelegte Regeln funktionieren kann, ist im vorherigen Kapitel schon kurz angesprochen worden. Was auf den ersten Blick nicht sehr komplex erscheint (ein System aus drei Ebenen sollte nicht schwer zu strukturieren sein), wird jedoch durch die Tatsache, daß die Datenmenge, die jede Sekunde durch das Netz geschickt wird, enorme Ausmaße angenommen hat, stark relativiert. Die Methode des „packet switching“ sorgt zwar für eine bessere Verteilung der Daten im Netz, läßt die Komplexität des Systems aber ebenfalls enorm anwachsen. Da es keine zentrale Einrichtung (vergleichbar mit Sammelstellen der Post) im Internet gibt, und für jeden Datensatz die optimale Strecke immer wieder neu errechnet werden muß, ist ein einheitliches System von Adressen nötig.

Die Adressen wurden nur nach den Erfordernissen der Computer und des Internets erstellt. Jeder Computer erhält eine eindeutige IP-Adresse, die aus einer binären Zahl mit 32 Ziffern besteht. Diese Darstellungsweise der Adressen erschwert jedoch den Umgang mit ihnen sehr stark. Eine Adresse hat nur dann einen Sinn, wenn man sie ohne viel Mühe zuordnen und sich merken kann. Auch die Umwandlung der 32 Ziffern in eine, in vier Blöcke aufgeteilte und in dezimaler Schreibweise verfaßten, Adresse (bspw.: 123.45.67.89), führte nicht zu einer besseren Handhabung und Benutzerfreundlichkeit. Erst die Einführung des Domain Name System (DNS) brachte eine Erleichterung im Umgang mit den Adressen.

Abbildung 6: Verbindungen innerhalb Deutschlands, Österreichs, der Schweiz sowie Anbindungen an weitere Länder bzw. Kontinente.

Abbildung in dieser Leseprobe nicht enthalten

Das DNS sorgt dafür, daß die vom Benutzer eingegebene Adresse von einem Name-Server, auf dem die DNS-Adressen und die dazugehörigen dezimal dargestellten Adressen gespeichert sind, in die von den Computern verwendbare Form umgewandelt wird. Um diese verwirrende Adressgebung zu verdeutlichen, ist hier ein Beispiel angebracht:

Die IP-Adresse ist vergleichbar mit einer Postadresse (dieser Vergleich dient nur der Veranschaulichung des Adressensystems und läßt keine weiteren Analogien zu).

Abbildung in dieser Leseprobe nicht enthalten

Ist die Adresse bekannt und eingegeben, sorgen das Transmission Control Protocol (TCP) und das Internet Protocol (IP) für die Einteilung der Daten in Datenpakete und die richtige Reihenfolge beim Zusammensetzen am Ziel. Alle Angebote und Dienste des Internet basieren auf der TCP/IP-Technologie.

2.3. Dienste des Internets

Nachdem die grundlegende Struktur des Internets angesprochen wurde, ist deutlich geworden, daß man unter dem Begriff „Dienste des Internets“ Anwendungen versteht, welche den zweckmäßigen Umgang mit dem Netz erst ermöglichen. Via Internet ist es möglich, Nachrichten zu verschicken (E-Mail), Programme auf die eigene Festplatte zu kopieren (FTP), Großrechner vom eigenem PC aus zu bedienen (Telnet), Informationen verschiedener Anbieter abzurufen (WWW) oder auch mit anderen Nutzern auf der ganzen Welt zu kommunizieren (News / IRC / MUD). Im folgenden werden diese Dienste näher erläutert.

2.3.1. E-Mail

Die Geschichte des Internet hat gezeigt, daß dieser Dienst bzw. diese Anwendung einen großen Einfluß auf den Erfolg des gesamten Netzes ausgeübt hat. Prinzipiell kann man E-Mail mit der gewohnten Post vergleichen. Wie bei einem Brief muß auch jede E-Mail mit einer Adresse versehen werden. Hier endet aber auch schon jegliche Analogie.

E-Mail vereint viele Vorteile: Die Nachrichten sind schneller beim Empfänger, die elektronische Sendung ist kostengünstiger und die Mails können direkt elektronisch weiterverarbeitet werden. E-Mails können über sogenannte Mailinglists an viele Adressen gleichzeitig geschickt werden und dienen so der schnellen Verbreitung von Informationen. Es besteht auch die Möglichkeit, einen Anhang zu erstellen. Dadurch können auch Bilder, Grafiken oder Töne per E-mail verschickt werden.

Die E-Mail-Adresse ist im Vergleich zur Internet-Adresse etwas anders aufgebaut. Zwar benötigt die E-Mail-Adresse ebenfalls die Kennzeichnung des Empfängerrechners durch das Domain Name System, zusätzlich wird jedoch noch eine Benutzerkennung verlangt. Benutzerkennung und Domainkennung werden durch das @-Zeichen (gelesen wie das englische at) getrennt. Beispiel: grevenst@sozialwesen.fh-bielefeld.de.

2.3.2. File Transfer Protocol (FTP)

Das FTP ist ein Standard, der für den (relativ) problemlosen Transfer von Daten zwischen Computern sorgt. Dieses Protokoll ermöglicht den direkten Austausch von Daten, das heißt, die Informationen müssen nicht in ein anderes Format umgewandelt werden und können sofort nach dem Erhalt verwendet werden. Hierbei ist es möglich Bilder, Grafiken und Töne zu transferieren.

FTP-Server (das sind Computer auf denen Daten zum Herunterladen (Download) gespeichert sind) sind in LANs eingebunden und dienen in erster Linie den Nutzern dieses LANs. Beispielsweise stehen die FTP-Server der Universitäten den Wissenschaftlern und Studenten der Hochschulen per Paßwort zur Verfügung. Aber auch Nutzer, die keine Zugangsberechtigung zu dem jeweiligen LAN besitzen, können gewisse Daten auf den FTP-Servern nutzen: Ihnen steht das sogenannte Anonymous FTP zur Verfügung. „Hinter Anonymous FTP verbirgt sich ein Service, ja sogar eine Philosophie im Internet, die es auch nicht autorisierten Benutzern ermöglicht, freien Zugang zu den unterschiedlichsten Servern und Daten auf der ganzen Welt zu erhalten.“ (Pusch, Thorsten. 1995:42)

Als Kennwort muß vom Nutzer in diesem Fall das Wort „Anonymous“ eingegeben werden, und er erhält Zugriff auf die Programme, die für diesen Bereich freigegeben sind. Im Zuge der voranschreitenden Kommerzialisierung des Internet steigt die Zahl der FTP-Server, die Gebühren für das Downloaden von Daten erheben, stetig an. Die freie Verfügbarkeit dieses Dienstes wird in Zukunft wohl weiter einschränkt werden.

2.3.3. Telnet

Um Daten nicht auf den eigenen Rechner zu überspielen, sondern sie direkt auf dem Computer zu nutzen, auf dem sie gespeichert sind, ist der Dienst Telnet entwickelt worden. Oft werden auch die Begriffe „remote login“ oder „Network Virtual Terminal“ (NVT) für diese Anwendung benutzt. Ein Anwendungsbereich dieses Dienstes ist z.B. die somit mögliche Nutzung von Superrechnern vom eigenen, in der Leistung schwächeren, Computer. Aber auch die Büroarbeit kann folglich nach Hause verlegt werden, wenn mittels einer Telnetverbindung der Zugang zum Großrechner des Betriebes sichergestellt ist. Universitätsbibliotheken auf der ganzen Welt stellen Informationen auf Telnetrechnern bereit. Eine einfache, menügesteuerte Recherche nach Titel, Autor usw. ist damit möglich. Telnet kann also als eine Fernbedienung verstanden werden, die jedem Nutzer den Zugang und die Nutzung von verschiedensten Datenbanken ermöglicht.

2.3.4. News

Der News- oder Netnewsdienst ist unabhängig von der Entwicklung des Internets entstanden. 1979 begannen Studenten der Duke University und der University of Carolina, über Telefonleitungen Nachrichten zwischen den Computern ihrer Hochschulen auszutauschen. Es entwickelten sich schnell Themenschwerpunkte, die es sinnvoll machten, die Nachrichten zu sortieren und somit Diskussionsgruppen (Newsgroups) zu schaffen. Dieses Nachrichtensystem ist unter dem Namen Usenet bekannt geworden. Mittlerweile wurden Knotenpunkte zwischen dem Internet und dem Usenet eingerichtet. Da das Usenet ein anderes Übertragungsprotokoll als das Internet verwendet, mußte für die Verbindung der beiden Netze ein neuer Standard entwickelt werden. Der Zugriff auf das Usenet ist daher nur von Network News Transfer Protocol (NNTP) – Rechnern möglich. Als Nutzer des Internet bemerkt man den Wechsel in das Usenet allerdings nicht.

Die Themenvielfalt im Usenet ist praktisch nicht erfassbar. Diese Variationsbreite macht es notwendig, die Diskussionsgruppen, analog den DNS-Adressen, hierarchisch zu adressieren. Beispiel (vgl. Fasching, Thomas. 1997:27): Hinter der Adresse comp.graphics.animation verbirgt sich ein Forum, das die Möglichkeiten bewegter Computergrafik behandelt. Die Angabe „comp“ deutet auf ein Computerthema, „graphics“ zeigt an, daß Computergrafik thematisiert wird, und „animation“ macht klar, daß nur der Teilaspekt „bewegte Computergrafik“ Gegenstand der Diskussion ist. Alle Beiträge sind mit einem kurzen und aussgekräftigen Titel versehen, so daß es ermöglicht wird schnell und gezielt spezielle Themen zu finden.

Jede Newsgroup hat ihre eigenen, selbstaufgestellten Regeln und Verhaltensabsprachen. Diese Absprachen sollen die Umgangsformen unter den Nutzern beeinflussen. Teilnehmer, die sich nicht an die Normen der jeweiligen Gruppe halten, können aus dem Forum ausgeschlossen werden. Vor der ersten Nutzung von Newsgroups sollte man sich die Rubrik „Frequently Asked Questions“ (FAQ) durchlesen. Diese Rubrik enthält die angesprochenen Verhaltensweisen, auf die sich die Nutzer des Diskussionsforums geeinigt haben. Somit werden unbeabsichtigte Regelverstöße vermieden.

2.3.5. Internet Relay Chat (IRC)

IRC ist, ähnlich dem Newsnet, eine Möglichkeit mit mehreren Nutzer gleichzeitig in Kontakt zu treten. Auch hier gibt es verschiedene themenorientierte Gruppen (bei IRC Channels genannt), allerdings ist die Trennung der einzelnen Gebiete nicht so streng wie bei den Newsgroups. Der eigentliche Unterschied resultiert aber aus der zeitlichen Komponente: Während bei den Newsgroups die Diskussionsbeiträge manchmal ein bis zwei Tage versetzt erscheinen, läuft die Kommunikation per IRC live ab. Gerade junge Nutzer bevorzugen IRC als Freizeitmedium zum Plaudern über vermeintlich belanglose Themen oder zum Flirten.

2.3.6. Multi User Dungeon (MUD)

(Die Namensgebung hängt stark mit den Vorlieben der Entwickler dieses Dienstes für Fantasy-Rollenspiele wie Dungeons & Dragons zusammen.)

Grundprinzip von MUDs ist die Möglichkeit der Erforschung und Mitgestaltung einer textorientierten, virtuellen Umgebung. Im Unterschied zum IRC, haben die Teilnehmer die Möglichkeit, sich in der durch die Programmierer beschriebenen Umwelt virtuell zu bewegen, mit anderen Teilnehmern in Kontakt zu treten und ggf. gemeinsame Handlungen auszuführen. Die Umwelt entspricht meistens Sciencefiction oder Fantasy-Geschichten. Jeder Mitwirkende entwirft für sich einen eigenen Charakter und gibt sich einen mehr oder weniger phantasievollen Namen. Aktionen werden durch entsprechende Befehle ausgeführt (gehe, öffne, töte, umarme, schau usw.). Es besteht sogar die Möglichkeit gestaltend in die Umwelt einzugreifen, indem man sich bspw. ein Haus baut. Für die Nutzer solcher MUDs steht die virtuelle Welt im Vergleich mit der realen Welt qualitativ auf fast einer Ebene. Die Erlebnisse im virtuellen Raum werden von ihnen als sehr real empfunden.

2.3.7. World Wide Web (WWW)

Das WWW ist zwar der jüngste Internetdienst, dennoch steht er in der öffentlichen Diskussion, die um das Internet „entbrannt“ ist, als Synonym für selbiges. Die Bedienerfreundlichkeit der Browser und die Tatsache, daß das WWW die anderen Dienste des Internet in sich integriert, tragen dazu bei, daß es einer wachsenden Anzahl von Nutzern zu einer vertrauten „Umgebung“ wird. Der Trend, daß sich immer mehr Unternehmen, Verbände und auch Privatleute im WWW darstellen, hält weiterhin an und hat das WWW dadurch zu einer bequemen Informations- und Distributionsplattform werden lassen.

Das WWW präsentiert sich dem Nutzer als eine Ansammlung von Seiten (welche Informationen in Form von Schrift, Grafiken, Bildern oder Tönen aufweisen können), die durch Verknüpfungen in Verbindung stehen. Diese Verbindungen sind durch einen einfachen Mausklick zu nutzen; der Browser öffnet jede neue Seite selbständig. Realisiert wird diese Art der Darstellung durch die HyperText Markup Language (HTML) und das HyperText Transfer Protocol (HTTP). Das HTTP ist die Grundlage für die Adressierung der Seiten, der sogenannten Uniform Ressource Locator (URL) – Adressierung (ähnlich der DNS-Adressen).

Die Beschreibungen der Dienste wirken ohne praktische Erfahrung sehr abstrakt. Auch hier verweise ich auf das, in der Einleitung angeführte, Zitat: Nur eine konkrete Auseinandersetzung ermöglicht eine angemessene Erschließung des neuen Mediums!

2.4. Verwaltung im Internet

Das Internet ist ein Medium, welches sich aufgrund seiner Struktur prinzipiell jeglicher zentralistischen Sanktionierung entzieht. Dennoch existieren im wesentlichen drei ehrenamtliche Organisationen, die es sich zur Aufgabe gemacht haben, das „System Internet“ nicht zu einem „chaotischen System“ verkommen zu lassen (die eigentliche Kontrolle liegt aber bei den Nutzern selbst). Diese drei Einrichtungen sind die Internet Society, das Internet Network Information Center (interNIC) und die Internet Engineering Task Force (IETF).

Die zentralen Aufgaben des Aufbaus des Netzwerkes beschäftigen die Internet Society. Da keine juristische Handhabe der Organisation existiert, beschränken sich die steuernden Maßnahmen auf Empfehlungen, die allerdings zum größten Teil befolgt werden. Somit ist ein reibungsloser Datenverkehr gewährleistet.

Das interNIC ist für die Verwaltung der Adressen der einzelnen Rechner verantwortlich. Keine Adresse darf doppelt vergeben werden. Aufgrund der enormen Menge der angeschlossenen Rechner, ist es notwendig geworden, Teilaufgaben der Institution an untergeordnete Stellen zu delegieren. Für die Vergabe der deutschen Adressen im Netz zeichnet sich beispielsweise das deNIC an der Universität Karlsruhe verantwortlich.

Die dritte Einrichtung, die IETF, ist ganz nach dem Bild der Selbstverwaltung im Internet aufgebaut. Hier werden die Internetstandards entwickelt. Diese Standards stellen keine verbindlichen Vorgaben dar, sondern haben den Charakter einer Empfehlung. Die Vorschläge werden in der IETF-Mailinglist erarbeitet und nur unter Einvernehmen der Mitarbeiter erstellt. Mitarbeiter ist, wer sich an der eben erwähnten Mailinglist beteiligt.

Alle drei Zusammenschlüsse machen das selbstauferlegte Prinzip der Internetnutzer deutlich: Niemand soll über andere hinweg Entscheidungen treffen und umsetzen können. Dieses Ideal ist genuiner Bestandteil des Netzes, was sich auch in der Struktur widerspiegelt. Ob die Selbstverwaltung auch unter dem gigantischen Wachstum des Netzes aufrecht erhalten wird, ist eine Frage, die noch nicht beantwortet werden kann. Skeptiker sehen eine Übernahme der außerhalb des Netzes gewachsenen tendenziell zentralistischen Strukturen voraus. Steve Crocker (Net-Soziologe) vertritt die Meinung, daß je mehr Teilnehmer das Internet nutzen, „desto größer wird die Gefahr, daß kulturelle Traditionen, die durch Versuch und Irrtum im Laufe der Zeit entwickelt worden sind, verdrängt werden.“ (Herz zit. nach Fasching, Thomas. 1997:35)

3. Kommunikation via Internet ... und die Folgen

Nachdem der Einstieg durch eine Darstellung der Entstehung und Aufbaus des Internets erfolgt ist, verläßt dieses Kapitel die technischen Aspekte des Netzes und befaßt sich mit der Frage, welche Folgen das neue Medium für die Kommunikation und letztendlich auf die Entwicklung der dadurch betroffenen Gesellschaft hat.

Die neuen Möglichkeiten der Multimedialität, der Interaktion und der weltweiten Vernetzung führen unweigerlich zu Veränderungen im Kommunikationsverhalten. Ein verändertes Kommunikationsverhalten hat wiederum Auswirkungen auf die Gesellschaftsstruktur.

Wie stark sich unsere Gesellschaftsform verändern wird, ist noch nicht abzusehen. Die Diskussion ist geprägt durch euphorischen Optimismus (Stichwort „Basisdemokratie“) einerseits, sowie der Befürchtung, daß das neue Medium jegliche sozialen Bindungen und damit die Grundfesten unserer Gesellschaft zerstören wird. Beide Positionen treffen nicht die reale Entwicklung, ihre Gegensätzlichkeit sorgt jedoch für eine kritische Analyse der Effekte und beginnenden Veränderungen, die der Kommunikationsträger Internet auslöst.

Dieser Abschnitt setzt sich mit den verschiedenen Positionen auseinander und versucht Chancen und Gefahren, die mit dem Internet und seinen spezifischen Eigenschaften verbunden sind, gleichermaßen darzustellen. Der Betrachtungsrahmen der Auswirkungen und Veränderungen umfaßt die individuelle, gesellschaftliche und damit ebenfalls die politische Ebene.

3.1. Psychologische Theorien zu computervermittelter Kommunikation (computer-mediated communication (CMC))

„Wenn die „Virtualität“ der „Realität“ oder die „Netzwelt“ dem „wirklichen Leben“ (real life) gegenübergestellt werden, will man damit zu recht andeuten, daß sich soziale Erfahrungen „im Netz“ von denen „außerhalb des Netzes“ unterscheiden und drückt sich doch insofern irreführend aus, als auch Netzkommunikation „echte“ soziale Kommunikation darstellt, durch die wir Wirklichkeiten konstruieren, Identitäten aushandeln, Beziehungen und Gemeinschaften bilden – oder dabei scheitern, wie das auch sonst so üblich ist.“ (Döring, Nicola in Batinic, Bernad. 1997:267)

Die grundlegende Frage in diesem Abschnitt lautet: Was zeichnet computervermittelte Kommunikation aus sozialpsychologischer Sicht aus ?

Zur Beantwortung dieser Frage ist es sinnvoll, Unterschiede zwischen CMC und der „natürlichen“ Grundform zwischenmenschlicher Kommunikation (Face-to-Face oder Body-to-Body Situation) zu erörtern. Weiterhin muß geprüft werden, inwieweit bestehende Konzepte der Kommunikationsforschung für CMC übernommen werden können oder modifiziert werden sollten. Netzkommunikation als völlig neue Art der Kommunikation darzustellen, ist ebenso unangemessen, wie der Versuch, durch Analogien zu den bestehenden Kommunikationsmöglichkeiten (Telefon, Briefwechsel ...), die Andersartigkeit des neuen Mediums zu unterschlagen. CMC basiert auf den traditionellen Kommunikationswegen und Kommunikationsmodalitäten. Durch die spezifischen Eigenarten der Vernetzung werden diese allerdings erweitert und verändert. Sie erleben, überspitzt formuliert, eine technisch-evolutionäre Weiterentwicklung, der sich auch die psychologische Beschreibung der damit eintretenden Änderung des Nutzungsverhaltens neu nähern muß.

Ausgangspunkt ist also die Face-to-Face Situation, bei der die Kommunikationspartner zur gleichen Zeit am gleichen Ort zusammenkommen (Kopräsenz). Es werden in einem wechselseitigen Verständigungs- und Aushandlungsprozeß verbale und nonverbale Botschaften ausgetauscht. Hierbei sind potentiell alle Sinnesmodalitäten (sehen, hören, reichen, schmecken, fühlen) miteinbezogen. Verläuft die Kommunikation über ein Medium (Telefon, Brief, E-Mail, Telefax, Viedeokonferenz usw.) wird die Bedingung der Kopräzens aufgehoben. Die Möglichkeit mit räumlich weit entfernten Personen in Kontakt zu treten ist somit durch die Telekommunikation gegeben. Dabei sind zwei Formen zu unterscheiden: Die asynchrone Telekommunikation, die aufgezeichnete Botschaften mit zeitlicher Verzögerung zum Adressaten befördert und erst dann eventuell von ihm rezipiert und beantwortet werden (Brief, E-Mail, Telefax usw.) und die synchrone Telekommunikation. Hierbei sind die Kommunikationspartner zeitgleich aktiv, und eine unmittelbare Reaktion ist möglich (Telefonieren, Chatten, Videokonferenzen usw.). CMC bietet durch die verschiedenen Internetdienste die Möglichkeit der asynchronen sowie der synchronen Kommunikation.

Eine systematische Unterscheidung der Dienste zum besseren Verständnis ist nun angebracht. Die Unterscheidungskriterien sind einerseits die Synchronität bzw. Asynchronität, andererseits die Anzahl der Beteiligten am Austauschprozeß. Infolge dessen lassen sich im Wesentlichen sechs texstbasierte Kommunikationsszenarien im Internet differenzieren (Tabelle 1) (vgl. Döring, Nicola in Batinic, Bernad. 1997:273):

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Textbasierte Kommunikationsszenarien im Internet

Die Fähigkeit die Einwegkommunikation der Massenmedien (Zeitung, Fernsehen, Radio) aufzubrechen und jeden Nutzer in die Rolle eines Senders zu versetzen, der eine breite Netzöffentlichkeit erreichen kann, ist eine spezifische Eigenart des Internet. Die Grenzen zwischen Massen- und Idividualkommunikation verschwimmen dadurch und können sich potentiell sogar ganz auflösen. Diese Tatsachse ist aus sozialpsychologischer Sicht sehr interessant.

Der Wegfall der Face-to-Face Situation, das Verschwimmen der Grenzen zwischen Massen- und Individualkommunikation, das Verständnis der Internetdienste als Kommunikationsräume, die durch die Nutzer ausgestaltet werden und die Entstehung virtueller Gemeinschaften, sind neue Phänomene, auf die die folgenden Theorieansätze Bezug nehmen. Die verschiedenen Näherungsversuche werden nacheinander angesprochen und miteinander verglichen. Die Anzahl der Ansätze spiegelt die enorme Bandbreite der wissenschaftlichen Positionen wider.

3.1.1. Kanalreduktionsmodell

Ent-Sinnlichung, Ent-Räumlichung und Ent-Zeitlichung sind die Schlagwörter des Kanalreduktionsmodelles. Im Vergleich zur Face-to-Face Situation findet während CMC eine Kanalreduktion auf der physikalischen Reizebene statt, welche eine Verarmung und Entleerung der Kommunikation zur Folge hat. Ebenfalls werden dadurch die Handlungsmöglichkeiten und Ausdrucksmöglichkeiten des Subjekts eingeschränkt und dauerhaft gemindert. Zu dieser Ent-Sinnlichung kommen, hervorgerufen durch die teilweise Asynchronität der Kommunikation und die Möglichkeit der Überwindung großer geographischer Distanzen, eine Ent-Zeitlichung sowie eine Ent-Räumlichung.

Generell wird die Textbasierte Telekommunikation innerhalb des Kanalreduktionsmodells als defizitär angesehen und unter dem Motto der „Ent-Wirklichung der Kommunikation“ zusammengefaßt. Diese Sichtweise prophezeit eine Verdrängung der Emotionalität, Ambiguität (Doppeldeutigkeit), Unkalkulierbarkeit und der Stimmungen aus der Kommunikation, zugunsten von Ökonomie, Kommerz, Effizienz, Geschwindigkeit, Kontrollierbarkeit, Manipulierbarkeit, Überschaubarkeit und Logik, als „eingebaute“ Rationalität der Computer.

Da das Kanalreduktionsmodell eine sehr technikkritische und plakative Argumentationslinie verfolgt, fällt auch die Kritik an ihm dementsprechend aus: Die Nutzungsformen und –anlässe werden zuwenig differenziert, Metaphern sollen Phänomenologie[2] ersetzen. Häufig bezieht sich die Kritik nicht auf reale CMC-Situationen, sondern auf technikorientierte CMC-Visionen, die computergestützte Lösungen für alle denkbaren Probleme propagieren.

Die generell ablehnende Haltung des Reduktionsansatzes gegenüber CMC kann wenig dazu beitragen, die bestehenden Chancen zu nutzen und kritisch mit den gleichzeitig auftretenden Gefahren umzugehen.

3.1.2. Herausfiltern sozialer Hinweisreize

Theoriegebilde, die unter diesem Sammelbegriff vereint werden, können ebenfalls, wie das Kanalreduktionsmodell mit der Bezeichnung „Filtertheorien“ betitelt werden. Sie bauen auf der Grundidee des Kanalreduktionsmodells auf, daß mit einer Verringerung der Kommunikationskanäle ein Informationsverlust verbunden ist, der die Wahrnehmung des Kommunikationspartners verändert. Filtertheorien sind aber im Gegensatz zur Kanalreduktion differenzierter, sie verstehen unter dem Informationsverlust die Tatsache, daß man bei textbasierter Telekommunikation wenig über den psychosozialen Hintergrund (Alter, Aussehen, Bildung, Status usw.) einer anderen Person erfährt. Dieser Wegfall, der im Alltag sehr entscheidenden Merkmale, sorgt für einen Angleichungseffekt bezüglich solcher sozialstrukturellen Kennzeichnungen bei rein textbasierter Kommunikation via Internet. Die Filtertheorie geht davon aus, daß solch eine Nivellierung soziale Hemmungen, Hürden, Privilegien und Kontrollen abbaut. Dies begünstigt einerseits verstärkte Offenheit, Ehrlichkeit, Freundlichkeit, Partizipation und Egalität, als auch andererseits verstärkte Feindlichkeit, Anomie, sowie normverletzendes und antisoziales Verhalten.

Diese möglichen Effekte der Anonymität sind allerdings auch schon aus Face-to-Face Situationen bekannt und keine neuen Phänome der CMC. Deshalb ist, entsprechend der Filterthoerie, CMC nicht pauschal als defizitär gegenüber der Face-to-Face Kommunikation zu betrachten. Beide beeinhalten spezifische Vor- und Nachteile. Die Frage, ob ein Phänomen durch Enthemmung hervorgerufen wird und, ob es wirklich netzspezifisch ist oder nur durch den Netzkontext Aufmerksamkeit erringt, ist noch klärungsbedürftig.

3.1.3. Rationale Medienwahl

Auch die Theorien der rationalen Medienwahl basieren auf dem Kanalreduktionsmodell. Sie postulieren ebenfalls eine Verarmung medial vermittelter Kommunikation aus subjektiver Sicht. Je nach Wahl des Mediums fällt die Verarmung jedoch verschieden stark aus. Eine somit ermöglichte Wertung der unterschiedlichen Medien wird mit den Begriffen „soziale Präsenz“ und „mediale Reichhaltigkeit“ erfaßt. „Soziale Präsenz“ bzw. „mediale Reichhaltigkeit“ sind also der Maßstab, nach dem die Menschen entscheiden, welches Medium für ihre jeweilige Kommunikationsintention am geeignetsten ist.

1991 haben Schmitz und Fulk unter 655 Mitarbeitern eines intern vernetzten wissenschaftlichen Forschungsinstituts eine Umfrage zur Bewertung und Nutzung unterschiedlicher Individualmedien durchgeführt. Das Ergebnis ist in der folgenden Tabelle zusammengefaßt (Tabelle 2) (Schmitz u. Fulk. 1991:503 zit. nach Döring, Nicola in Batinic, Bernad. 1997:280). Je höher die Wertung ausfällt (maximal 5), umso größer ist die mediale Reichhaltigkeit.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Mediale Reichhaltigkeit unterschiedlicher Individualmedien

Wie die aufgeführte Befragung andeutet, wird die Theorie der rationalen Medienwahl hauptsächlich auf Kommunikationsstrukturen von Organisationen angewendet. Die Medienwahl und der Medieneinsatz unterliegen dabei einer Kosten-Nutzen-Abwägung. Daher ist diese theoretische Näherung nicht automatisch auf den privaten Bereich zu übertragen. Kommunikation, als humanes Grundbedürfnis, unterliegt auch immer der Irrationalität der menschlichen Natur. Die Medienwahl ist daher immer subjektiv und von den jeweiligen Bedingungen und Umständen der Kommunikation abhängig. Auch die Vertrautheit mit dem Medium spielt bei der Wahl eine große Rolle. Dieser Gegebenheit folgt das Konstrukt der normativen Medienwahl.

3.1.4. Normative Medienwahl

Das normative Medienwahl- oder Social Influence Modell widerspricht dem Ansatz der rationalen Medienwahl Theorie. Es sagt aus, daß die Wahl des Mediums von der Bedienungskompetenz und den vorherrschenden sozialen Normen abhängt. Gilt ein Medium als besonders nützlich, und wird es im Kollegium häufig eingesetzt, paßt sich die eigene Medienwahl dieser Norm an.

Die Entscheidung für ein Medium, als Folge sozialer Konstruktionen, ist damit auch abhängig von dem vorherrschenden Zeitgeist (Beispiel: Handys). Wenn Medien jedoch nur einseitig anerkannt sind oder nur aus Prestigegründen genutzt werden, liegt hierin auch eine Gefahr der Störung der Kommunikation. Normative Medienwahl beschreibt also die Einflüsse, die ein Individuum dazu bewegen, ein bestimmtes Medium zur Kommunikation zu wählen. Doch ob das gewählte Medium auch dauerhaft benutzt wird, hängt von der Resonanz ab, die durch die Kommunikationspartner erfolgt.

3.1.5. Soziale Informationsverarbeitung

Die Theorie der sozialen Informationsverarbeitung verläßt die technikorientierte bzw. technikdeterminierte Ebene (Kanalreduktion, Filtertheorie) und wendet sich dem Individuum als selbstbestimmten und handelnden Wesen zu. Es wird behauptet, daß es nicht unbedingt zu einer medienbedingten Verarmung der Kommunikation kommen muß. Je nach Vertrautheit mit dem Medium wird das Nutzungsverhalten so angepaßt, daß mediale Einschränkungen kompensiert werden. Als Beispiel hierfür dienen die sogenannten Emoticons (emotional icons) (Tabelle 3), die im Netz weit verbreitet sind. Durch sie werden Gefühle, Stimmungen und Betonungen verdeutlicht, die durch den textbasierten Charakter der Kommunikation sonst verloren gehen würden. Die Form des neuen Mediums hat bei den Nutzern neue soziale Fertigkeiten in Bezug auf Textproduktion und Interpretation hervorgebracht, die es ihnen erlaubt, eine befriedigende Kommunikation zu realisieren.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 3: Einige Beispiele für Emoicons (keine erschöpfende Darstellung)

Der Ansatz der sozialen Informationsverarbeitung erfaßt das Internet also als neuen, sozialen Handlungsraum, der es erlaubt, Gefühle kreativ darzustellen, Beziehungen aufzubauen und soziale Fertigkeiten zu erlernen, ohne daß dabei die Qualität der Kommunikation zwingend sinken muß.

Die Wahrscheinlichkeit, daß Kommunikationsstörungen auftreten, wächst jedoch mit dem Maße der Unsicherheit und Unvertrautheit mit dem benutzten Medium. Auch ist es zweifelhaft, ob Textzeichen, wie ausgefallen und kreativ sie auch sein mögen, im Vergleich zur Face-to-Face Situation, wirklich eine „eins zu eins“ Übersetzung der Gefühle und Mimik zulassen. Bei Überlastung des Netzes entstehen Verzögerungen, die bei synchroner Kommunikation störende und verwirrende Auswirkungen haben können: „Hat mein Gesprächspartner keine Lust mehr mit mir zu plaudern? Oder kann er nicht so schnell tippen wie ich? ...“ Diese Verzögerungen können jedoch auch eine gewisse Spannung erzeugen, welcher, vergleichbar dem Zettelschreiben in der Schule, ein gewisser Charme nicht abgesprochen werden kann.

3.1.6. Simulation

Die Grundidee der Kompensierbarkeit medialer Einschränkungen läßt eine Annäherung an das Thema „Kommunikation via Internet“ zu, die durch die vorangegangenen Theorien nicht gegeben war. Die menschliche Komponente, die Lern- und Anpassungsfähigkeit, rückt verstärkt in das Zentrum des Interesses. Die Fähigkeit, sich die Möglichkeiten eines neuen Mediums anzueignen und interessenorientiert einzusetzen, steht im Mittelpunkt des Simulationsmodells.

Geht man davon aus, daß der Textkanal den Menschen im Netz eine maximale Kontrolle darüber gibt, welche Informationen sie über ihren Lebenszusammenhang offenbaren wollen, so erlaubt dieser Umstand auch, Identitäten in nahezu beliebiger Weise zu simulieren. Merkmale wie Geschlecht, Alter, Aussehen usw., die in Face-to-Face Situationen nur schwer vorgetäuscht bzw. verborgen werden können, verlieren insoweit ihre Bedeutung, als daß im Prinzip jeder Nutzer im Netz sich (s)eine Identität selbst neu erschaffen kann. Diese Freiheit, die auf den ersten Blick verlockende Möglichkeiten verspricht und einen gewissen Kontrollgewinn über die eigene Darstellung bedeutet, bringt auf der anderen Seite einen Kontrollverlust mit sich: Man ist gleichzeitig den eventuellen Simulationen der anderen Nutzer ausgesetzt, und somit unterliegt die Kommunikation immer einer Ungewißheit und Skepsis dem anderen gegenüber.

Welche Sichtweise (Kontrollgewinn oder Kontrollverlust) eingenommen wird, hängt nicht zuletzt von dem jeweiligen Verständnis von Realität bzw. Wirklichkeit ab. Ist die Face-to-Face Situation realer als eine Begegnung im Netz? Wie wird Realität konstruiert? Wird Realität nicht immer subjektiv „erzeugt“ und damit tendenziell virtuell erlebt?

Angenommen, daß man nicht generell zwei Welten (reale Welt / Cyberspace) unterscheiden kann, so läßt sich sagen, daß die Konstruktion der Wirklichkeit von der Situation und dem Medium abhängig ist. CMC-Konstruktionen sind genauso „echt“ oder „unecht“ wie Face-to-Face Situationen. Das Spezifische an der CMC-Konstruktion ist aber eine Veränderung der Grenzen zwischen Subjekt, Körper und Technologie: Der „virtuelle“ Körper ist schwer zu lokalisieren, er ist ein technisch-soziales Konstrukt.

Die (Selbst-)Darstellungen im Netz können dazu genutzt werden die unterschiedlichsten Seiten eines Charakters zu erleben und auszuleben. So sagt Turkle: „The goal of healthy personality development is not to become a One, not to become a unitary core, it´s to have a flexible ability to negotiate the many - cycle through multiple identities.“ (Turkle zit. nach Döring, Nicola. 1997 in Batinic, Bernad. 1997:287)

Dieses Zitat fügt sich in die postmoderne Denkweise ein. Sie versteht die „Vielheit“ nicht als Zerfall einer erstrebenswerten Einheit, sondern als wichtiges Element, welches in die Persönlichkeit integriert werden muß. Somit fördern, nach diesem Ansatz, Internetszenarien eine flexible, multiple Identität.

Welche weitreichenderen Auswirkungen eine Simulation von Wirklichkeit und Identitäten in CMC-Räumen hat, ist noch nicht hinreichend geklärt. Ob Wirklichkeit zerstört, Wirklichkeit verändert wird, oder ob man sich mit dem neuen Medium „verwirklichen“ kann, ist auch eine Frage des Standpunktes. Kritiker sehen oft zuviel Negatives während Befürworter allzu begeisterungsfähig sind.

3.1.7. Imagination

Beschäftigt sich das Simulationsmodell mit der Frage nach der Darstellung von personenbezogener Information, so liegt hier das Interesse auf der interpersonalen Wahrnehmung. Gerade die Informationen, die bei CMC wegfallen, sind die Auslöser eines kognitiven Konstruktionsprozesses. Dieser Prozeß unterliegt im besonderen Maße der Vorstellungskraft bzw. Phantasie (oder Imagination) des jeweiligen Subjekts. Somit geht eine durch das Medium hervorgerufene Reduktion der Sinneskanäle oftmals einher mit einer Intensivierung des Empfindens. Diese, so zustande kommende Intimität, begünstigt durch den Wegfall eventuell störender Eigenschaften des Kommunikationspartners, die durch eigene Erwartungen ausgefüllt werden, kann dazu veranlassen, sich intensiver mit dem „Gegenüber“ zu beschäftigen.

Dies widerspricht dem Kanalreduktions- und dem Entsinnlichungsmodell. Geht man dort davon aus, daß das Gefühl der Nähe zu einem Menschen stark mit dem räumlichen Abstand und der Anzahl der dabei beteiligten Sinnesorgane zusammenhängt, so ist hier die empfundene Nähe zu einem Menschen das Produkt der eigenen Vorstellungskraft (vgl. Tabelle 6, Seite 37). Natürlich birgt dies Gefahren. Eine Face-to-Face Begegnung von Menschen, die sich „nur“ aus dem Netz kennen, kann Enttäuschung hervorrufen. Doch ist dies nicht auch oft der Fall, wenn man sich außerhalb des Netzes kennengelernt hat?

3.2. Zusammenfassung

Die aufgeführten Theorie- und Erklärungsmodelle decken ein weites Spektrum von Standpunkten ab. Wird einerseits die Technik zur bestimmenden und destruktiven Determinante erklärt, betonen andere Ansätze das kreative Potential und die positiven Möglichkeiten die sich dem Individuum via CMC offenbaren. Grundsätzlich läßt sich jedoch festhalten, daß textbasierte Kommunikation anders erlebt wird als Face-to-Face Kommunikation. Somit erübrigt sich eine Diskussion, die pauschal in Entweder-Oder-Kategorien einteilt. CMC kann die bisherigen Formen der Kommunikation nicht ersetzen und wird es auch in Zukunft nicht. Vielmehr wird eine neue Möglichkeit der Kommunikation dazu addiert, welche die „alten“ Verständigungssysteme ergänzt und beeinflußt. So sind also auch die aufgeführten Ansätze nicht innerhalb eines Konkurrenzverhältnisses zu verstehen, sondern als sich ergänzende Teilstücke eines Erklärungsmodells, des sich im Wandel befindenden Kommunikationsverhaltens.

Um die verschiedenen Standpunkte noch einmal deutlich zu machen, werden die Kernaussagen der unterschiedlichen Ansätze in folgender Tabelle (Tabelle 4, siehe nächste Seite) (vgl. Döring, Nicola in Batinic, Bernad. 1997:291) systematisch gegenübergestellt.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 4: Kernaussagen der aufgeführten CMC-Theorien

Deutlich wurde, daß die Unterschiede, die sich zwischen CMC und Face-to-Face Kommunikation ergeben, nicht nur das Produkt des jeweilig benutzten Internet-Dienstes sind, sondern stark von den medienbezogenen Fertigkeiten und Erfahrungen der Kommunikationsteilnehmer, die sich mit bestimmten Motiven und zu konkreten Anlässen im Netz begegnen, abhängen.

Eine interessante Folge der durch die verstärkte Nutzung von CMC Systemen vorangetriebenen Diskussion ist, daß nun auch die „bewährten“ Theorien zur Face-to-Face Kommunikation ansatzweise in Frage gestellt werden. Die Auseinandersetzung fördert somit nicht nur das Verständnis von CMC-Kommunikation, sondern von Kommunikation allgemein.

[...]


[1] Zit. nach Faßler: Makromedien. In: Faßler u. Halbach (Hrsg.): Geschichte der Medien. S. 269.

[2] Phänomenologie meint das streng objektive Aufzeichnen und Beschreiben des Gegebenen, der Phänomene.

Details

Seiten
158
Jahr
2000
ISBN (eBook)
9783638101707
Dateigröße
1 MB
Sprache
Deutsch
Katalognummer
v224
Institution / Hochschule
Fachhochschule Bielefeld – FB Pädagogik
Note
1,3
Schlagworte
Internet Internetcafe Medienkompetenz Medienpädagogik

Autor

Teilen

Zurück

Titel: Das Internet in der Pädagogischen Arbeit - Hilfestellung zur Planung eines Internetcafes