Lade Inhalt...

Wearable Computing. Benutzerschnittstellen zum Anziehen

Bachelorarbeit 2006 211 Seiten

Informatik - Internet, neue Technologien

Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Grundlagen
2.1 Was ist Wearable Computing
2.1.1 Idee und Merkmale nach Steve Mann
2.1.2 Grenzen des Wearable Computing
2.1.3 Visionäre des Wearable Computing
2.2 Klassifikation von WearComps
2.2.1 Systemkomponenten
2.2.2 Entwicklungstendenzen
2.2.3 Wearable-Typisierung
2.2.4 Anwendungsbereiche
2.3 Meilensteine des Wearable Computing
2.3.1 Grundsteinlegung: 1960-1980
2.3.2 Medienpräsenz: 1981-1996
2.3.3 Marktdurchdringung: ab 1997
2.4 Wearability
2.4.1 Humanoide Grundlagen
2.4.2 Benutzerszenarien

3. Energieversorgung
3.1 Energiespeicher
3.1.1 Batterien
3.1.2 Folienbatterien
3.1.3 Brennstoffzellen
3.2 Mobile Energieerzeugung
3.2.1 Photovoltaik
3.2.2 Menschlicher Körper
3.3 Energieverbraucher
3.3.1 Durchschnittlicher Verbrauch
3.3.2 Beispielverbraucher für Anwendungen
3.4 Energiemanagement

4. Vernetzung
4.1 On-body communication
4.1.1 Body Area Network
4.1.2 Menschliche Elektrofelder
4.1.3 Nahbereichs-Funknetze
4.1.4 Leitende Textilien
4.1.5 Gewebebänder
4.2 Near-body communication
4.2.1 Personal Area Network
4.2.2 Bluetooth
4.2.3 ZigBee
4.3 Off-Body communication
4.3.1 Wireless LAN

5. Kontext
5.1 Kontext Grundlagen
5.1.1 Kontextbezogene Szenarien
5.1.2 Definition von Kontext
5.1.3 Kontextspezifische Klassifizierungen
5.2 Kontextmodelle
5.2.1 Erfassung von Kontextinformationen
5.2.2 Strukturierung und Interpretation durch Kontextmodelle
5.3 Kontextquellen zur Position
5.3.1 Positionssysteme
5.3.2 Satellitengestützt (GNSS/GPS)
5.3.3 Zellenbasiert (GSM/UMTS)
5.3.4 Innenraumsysteme (IR/Funk/US)
5.3.5 Relative Bewegungsmessung
5.3.6 Visuelle Marker (VisualTags)
5.3.7 Beobachtung der Umgebung
5.3.8 Verbundlösungen
5.4 Kontextquellen zur Identifikation
5.4.1 Identifikationssysteme
5.4.2 Funketiketten (RFID)

6. I/O-Schnittstellen
6.1 Ausgabegeräte
6.1.1 Head-Mounted-Displays (HMD)
6.1.2 Alternative Displays
6.1.3 Lautsprecher
6.1.4 Taktile Ausgaben
6.2 Eingabegeräte
6.2.1 Tastaturen
6.2.2 Zeigegeräte
6.2.3 Zeichengeräte
6.2.4 Mikrofone & Kameras
6.3 I/O-Software
6.3.1 Gestenerkennung
6.3.2 Objekterkennung
6.3.3 Spracherkennung

7. Ausblick

Anhang
Abbildungsverzeichnis
Tabellenverzeichnis
Literaturverzeichnis
Publikationen
Präsentationen
Linkverzeichnis
Homepages
Sonstige Links

1. Einleitung

Trotz einem rasanten Fortschritt im Bereich von Miniaturisierung und zunehmenden Leistungskapazitäten der meisten mobilen Geräte weisen diese bis heute doch zumeist eine eher sperrige und wenig benutzerfreundliche Gestaltung im Hinblick auf eine dynamische Nutzung auf. PDAs als auch Mobiltelefone sind klein und damit leicht tragbar, müssen aber in einer Tasche oder der Hand platziert werden und schränken den Benutzer oftmals nicht nur im Hinblick auf Ein- bzw. Ausgabe, sondern auch Leistung und Bewegung ein. Aufwendigere Multimedia-Geräte (z.B. SmartPhones bis hin zu Laptops) erlauben zwar die Bewältigung von anspruchsvolleren Aufgaben, ihre Größe steigt jedoch wiederum proportional mit ihren Fähigkeiten an und macht sie damit allein aufgrund ihres Formfaktors immer weniger geeignet für eine wirklich mobile Nutzung.

Den überwiegenden Teil der Zeit bleiben heutige mobile Geräte deshalb inaktiv und werden mehr von Ort zu Ort getragen als dass sie unterwegs in Anspruch genommen werden. Wearable Computing setzt hier an und möchte dem Benutzer eine Möglichkeit zur Verfügung stellen auch außerhalb statischer Aufenthalte die Fähigkeiten eines Rechnersystems zu nutzen. Dabei stehen vor allem Aspekte im Bereich der Mensch-Maschine-Interaktion (HCI, Human-Computer-Interaction) im Vordergrund: Um den Benutzer nicht zu behindern oder abzulenken müssen Systeme dieser Art beispielsweise möglichst unsichtbar bleiben, d.h. klein, leicht und unaufällig wie ein Kleidungsstück, gleichzeitig müssen sie sich jedoch mitteilen oder Eingaben entgegen nehmen können und dafür entspechende Schnittstellen anbieten.

Allein aus physiologischen Gründen kommen auch im Bereich des Wearable Computing meist visuelle Ausgaben und taktile Eingaben zum Zuge. Anders als bei herkömmlichen mobilen Rechnern können sie sich der menschlichen Wahrnehmung jedoch nur überlagernd darstellen und damit einen Teilbereich der humanen Sinne in Anspruch nehmen um den Benutzer nicht von der realen Umwelt abzuschneiden. Für eine wirklich mobile Nutzung erfordern Computer dieser Art darüber hinaus einen permanenten Betrieb – nur so kann gewährleistet werden, dass der Benutzer nicht seine bisherige Tätigkeit für eine Aktivierung unterbrechen muss und damit in einen statischen Modus wechselt. Gerade dieser Umstand führt letztendlich jedoch auch dazu, dass direkt am Körper getragene Computer einen ausnehmend persönlichen Interaktionsraum zwischen Mensch und Computer formen – jeder Nutzer ist gewissermaßen von einer Wolke digitaler Informationen umgeben.

Beide Aspekte – der hohe Individualisierungsgrad und als auch permanente Betriebsmodus – haben dazu geführt dass am Körper getragene Systeme Probleme und Aufgaben bewältigen können, die den meisten anderen Computern eher fremd sind. Sie können direkt ermessen in welchem Zustand sich der Benutzer befindet (beispielsweise mittels Körpersensoren) und gleichzeitig Feststellungen zu Ort, Zeit und vielen anderen Umweltfaktoren des Benutzers treffen und ihre Verhalten danach ausrichten, kurz: sie können den jeweiligen Kontext erfassen und auch darauf reagieren. Diese eher ungewohnte Funktionalität hat mittlerweile zu einer Vielzahl an Visionen für neuartige Benutzerszenarien und Anwendungsbereiche geführt und zeigt sich auch in der praktischen Anwendung als einer der einflussreichsten Aspekte des Wearable Computing. Aus diesem Grund wurde das Thema Kontext auch im Rahmen dieser Arbeit als ein wesentlicher Schwerpunkt gewählt und anhand aktueller Konzepte und Verfahren näher beleuchtet.

Gleichzeitig steht Wearable Computing jedoch einer Vielzahl an mehr oder minder massiven Problemen gegenüber: so existieren bislang keine wirklich überzeugenden Ein-/Ausgabe-Geräte für diese neuartige Mensch-Maschine-Schnittstelle und die derzeit größte Hürde – eine ausreichende Energieversorgung die den Ansprüchen eines Dauerbetriebes gerecht wird – scheint ebenfalls noch in weiter Ferne. Beide Themenbereiche wurden deshalb ebenfalls exemplarisch herausgegriffen um auch die aktuellen Herausforderungen des Wearable Computing aufzuzeigen.

Herkömmliche Lösungen versagen jedoch oftmals nicht nur im Bereich der direkten Mensch-Maschine-Kommunikation, sondern auch bezüglich potentieller Architekturen. Im Gegensatz zu Desktop- oder Notebook-Rechnern sind kompakte Einzelboxen meist nur wenig wünschenswert, da sie die Bewegungsfreiheit des Benutzers in einem zu hohen Ausmaß einschränken würden. Etabliert haben sich mittlerweile Modulsysteme deren einzelne Komponenten möglichst tragefreundlich über den Körper verteilt werden. Diese Herangehensweise bringt jedoch ein anderes Problem mit sich: die jeweiligen Elemente benötigen nun ein neuartiges Bussystem über welches sie miteinander kommunizieren können ohne den Benutzer zu stören. Um die aktuellen Lösungen aus diesem Bereich aufzuzeigen wurden Aspekte der Vernetzung als letztes Kapitel für eine Vertiefung gewählt.

Kapitelaufbau

Nachfolgend wird ein grober Überblick zu jedem Kapitel gegeben. Darüber hinaus findet sich im Einleitungsbereich jedes (längeren) Kapitels ebenfalls eine kurze Zusammenfassung der jeweils behandelten Themenbereiche (s.d.). Die digitale PDF-Version dieser Arbeit verfügt außerdem über entsprechende PDF-Bookmarks um direkt zwischen den verschiedenen Kapiteln zu navigieren.

Kapitel 1. Einleitung [Seite 7 ff.]

Dieses kurze Kapitel gibt eine grobe Vorstellung zum Inhalt der vorliegenden Arbeit und – im Rahmen dieser Übersicht – auch einen Leitfaden zum Inhalt der jeweiligen Kapitel.

Kapitel 2. Grundlagen [Seite 10 ff.]

Das einführende Grundlagenkapitel zeigt wesentliche Aspekte des Wearable Computing auf, insbesondere auch seine Potentiale und Grenzen in Gegenüberstellung zu vergleichbaren Technologien wie Ubiquitous Computing. Darüber hinaus werden neben einem historischen Abriss auch grobe Einblicke in Grundlagenverfahren für eine erhöhte Tragefreundlichkeit ("Wearability") gegeben und sowohl der typische Aufbau eines Wearable Computing-Systems als auch seine aktuellen Typen vorgestellt.

Kapitel 3. Energieversorgung [Seite 62 ff.]

Im Rahmen dieses Kapitels werden wesentliche Technologien für eine Energieversorgung im Bereich des Wearable Computing beschrieben, allen voran Batterien, aber auch mögliche Nachfolger wie beispielsweise Brennstoffzellen. Kurz gestreift werden auch Methoden zur mobilen Energieerzeugung, welche sich allerdings meist nur für Niedrigenergiesysteme eignen. Ergänzt wird das Kapitel darüber hinaus durch einen Überblick zu typischen Energieverbrauchern und mögliche Effizienzsteigerungen durch ein verbessertes Energiemanagement.

Kapitel 4. Vernetzung [Seite 85 ff.]

Dieses Kapitel behandelt skalierte Methoden für eine Vernetzung im Bereich des Wearable Computing, die von busähnlichen Topologien am Körper ("On-body") über körpernahe Netzwerke ("Near-body") bis hin zu Verbindungstechnologien außerhalb des Humanbereiches ("Off-body") reichen. Obwohl zu allen drei Bereichen Anwendungsbeispiele und Technologien vorgestellt werden, liegt ein wesentlicher Schwerpunkt im Rahmen dieser Arbeit auf direkten Verbindungen am Körper selbst, die nebst drahtgebundener Lösungen vordergründig auch drahtlos erfolgen können und sollen.

Kapitel 5. Kontext [Seite 111 ff.]

Ein wesentliches Kernthema dieser Arbeit findet sich in diesem Kapitel, das sowohl den allgemeinen Begriff von Kontext im Hinblick auf Wearable Computing erläutert als auch dessen mögliche Bedeutung in der Praxis. Dazu werden zunächst typische Herangehensweisen zur Dechiffrierung von Kontext als auch die daraus resultierenden Kontextmodelle vorgestellt und anhand von exemplarischen Beispielen erläutert. Anschließend werden die beiden wichtigsten Kontextquellen – Position als auch Identifikation – herausgegriffen und mittels aktueller Technologien konkretisiert.

Kapitel 6. I/O-Schnittstellen [Seite 148 ff.]

Wearable Computing ist in vielen Fällen mit einer neuartigen Definition der Maschine-Mensch-Schnittstelle verbunden. Im Rahmen dieses Kapitels werden deshalb innovative Geräte zur Ein- als auch Ausgabe beschrieben und im Hinblick auf ihre Nutzbarkeit im Bereich von Wearable Computing bewertet. Das Kapitel schließt mit einigen typischen Applikationssbeispielen aus dem Bereich der Eingabedecodierung (Sprach-, Gesten-, Objekterkennung), welche die Vor- aber auch Nachteile einer softwareseitigen Lösung von Eingaben aufzeigen.

Kapitel 7. Ausblick [Seite 190 ff.]

Im abschließenden Kapitel findet sich ein kurzer Ausblick zu möglichen Entwicklungen im Bereich des Wearable Computing, ergänzt um eine persönliche Einschätzung der Technologie.

2. Grundlagen

Wearable Computing zeigt sich heute als eine stark in Entwicklung befindliche Technologie mit Wurzeln in den 1960er Jahren und Zukunftsperspektiven zwischen Ubiquitous Computing und SmartClothing. Entwickelt für militärische Anwendungen finden sich aktuelle Systeme v.a. in industriellen Bereichen wie Wartung / Instandhaltung und Logistik, darüber hinaus wurde in den letzten Jahren aber auch zunehmend der Endkonsumentenmarkt durch Produkte im Bereich von Unterhaltung und Multimedia fokussiert.

Im Rahmen dieses einführenden Kapitels sollen wesentliche Grundlagen des Wearable Computing aufgezeigt werden, beginnend bei einem Definitionsrahmen in 2.1 [Seite 10 ff.], welcher nebst einer Einführung in die Schriften Steve Manns auch eine Abgrenzung gegenüber nahestehenden Technologien umfasst und mit einem Überblick zu verschiedenen Visionen einschlägiger Forschungsinstitute schließt. Im daran anschließenden 2.2 [Seite 33 ff.] werden typische Architekturen klassischer Systeme vorgestellt und bestehende Lösungen nach unterschiedlichen Richtlinien klassifiziert als auch ihre potentielle Entwicklung aufgezeigt. Nach einem historischen Überblick in 2.3 [Seite 44 ff.] werden abschließend Richtlinien für Systeme mit einer hohen Tragefreundlichkeit / "Wearability" in 2.4 [Seite 56 ff.] behandelt und im Hinblick auf ihren praktischen Nutzen bewertet.

2.1 Was ist Wearable Computing

2.1.1 Idee und Merkmale nach Steve Mann

2.1.1.a Definitionsrahmen

Wearable Computing (engl. to wear = tragen), kurz WearComp, ist ein etwas unscharfer Sammelbegriff für verschiedenste Computersysteme, die während der Benutzung analog einem Kleidungsstück am Körper getragen werden und den Benutzer (bei Bedarf) kontextabhängig unterstützen können ohne jedoch seine Aufmerksamkeit oder Mobilität im Allgemeinen zu beeinträchtigen. Wie ein zusätzlicher Teil des Körpers sollen sie die humanoide Wahrnehmung erweitern (indem sie beispielsweise Informationen liefern, die durch unsere herkömmlichen Sinne nicht oder nur unscharf erfassbar wären) und gleichzeitig verschiedenste andere Rechnerdienste auf eine möglichst mobile Art und Weise leisten, während sie dabei selbst (sowohl was Hardware als auch Software betrifft) möglichst "unsichtbar" bleiben.

Steve Mann [siehe Abbildung 1] – der geistige Vater des Wearable Computing – beschrieb Wearables 1998 [Man98a] als eine Art individueller Mini-Computer der immer in Betrieb ist und seinen Besitzer unauffällig überallhin begleitet. In seinem bis heute häufig zitierten Einführungsvortrag zur zweiten ISWC [Isw_HP], der bedeutendsten internationalen Messe des Wearable Computing, nannte er die wesentlichen Grundzüge des Wearable Computing:

Wearable computing facilitates a new form of human--computer interaction comprising a small body--worn computer (e.g. user--programmable device) that is always on and always ready and accessible. In this regard, the new computational framework differs from that of hand held devices, laptop computers and personal digital assistants (PDAs). The 'always ready' capability leads to a new form of synergy between human and computer, characterized by long-term adaptation through constancy of user--interface. [Man98a]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Steve Mann bei der Verwendung eines seiner Wearables [Man_HP]

Zwar ähneln Wearables nach Mann den bekannten Accessoires wie Armbanduhr oder Brillengläsern, da auch sie stets zur Verfügung (jedoch nicht im Mittelpunkt) stehen, sind aber genau wie herkömmliche Desktop-Computer oder Großrechner programmier- und rekonfigurierbar. Da sie in vielen Fällen unmittelbar auf Ort, Zeit, Benutzerverfassung u.a.m. reagieren können, stellen sie auch eine sehr persönliche Ausprägung der Mensch-Maschine-Interaktion dar.

Als Armbanduhr, die permanent den Puls misst und im Bedarfsfall eine medizinische Notfalleinrichtung kontaktiert, kann das Wearable für Herzkranke oder Tourengeher hilfreich sein. Brillen, deren Innenseiten als Display ausgeführt sind, können zusammen mit Miniaturkameras die verschiedensten Dienste leisten – von der Unterstützung für Sehbehinderte durch Objekterkennung bis hin zu mobilen Informationssystemen, die die Umwelt des Benutzers mit weiteren Daten zu Gebäuden, Wegen oder sogar Ausstellungsobjekten versorgen. Eingearbeitet in Kleidungsstücke wie T-Shirts, Jacken oder sogar Unterwäsche und unter Ausnutzung der elektronischen Leitfähigkeit des Körpers oder der jeweiligen Materialien ergeben sich die unterschiedlichsten Wearables, die von mobilen Musikanlagen bis hin zu kompletten Computersystemen reichen.

2.1.1.b Operationsmodi Mensch-Maschine-Interaktion

Wearables kennzeichnen sich zu einem Teil mit Sicherheit allein durch ihre Hardware-Miniaturisierung – nur kleine und leichte Wearables können den Anforderungen der Tragbarkeit entsprechen und nur eine effiziente Energieauslastung und kabellose Vernetzung können die nötige Mobilität gewährleisten. Wenn ein Computer jedoch so klein und benutzerspezifisch wird, wie es Wearables per definitionem sein sollen (im optimalen Fall empfindet der Benutzer das Wearable nahezu als Teil seines Körpers), ist es nur konsequent sie auch zu individualisieren – d.h. sie für den jeweiligen Besitzer zu optimieren und das gesamte System benutzerzentriert zu gestalten.

Dies bedingt jedoch eine veränderte Betrachtungsweise der herkömmlichen Mensch-Maschine-Interaktion, in welcher meist die Maschine im Mittelpunkt steht, auch wenn Aufgaben des Benutzers gelöst werden sollen. Mann hielt diese veränderten Bedingungen durch die drei Operationsmodi Constancy, Augmentation und Mediation fest [siehe Abbildung 2] und beschrieb damit gleichzeitig die drei wesentlichen Basiseigenschaften des Wearable Computing. Nachfolgend wird ein grober Überblick über diese drei Faktoren gegeben, welcher über weite Strecken [Man98a] folgt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Die drei Operationsmodi in der Interaktion Mensch-Maschine nach Mann [Man98b]

1. Constancy (Konstantheit):

Ein Wearable Computer ist immer eingeschaltet ("always on"), immer bereit ("always ready") und immer verfügbar wenn der Benutzer es möchte ("always accessible"). Er muss also nicht wie ein Laptop erst aktiviert oder anderweitig eingerichtet werden. Anstatt dessen findet ein permanenter Informationsaustausch zwischen Computer und Mensch statt [siehe Abbildung 2, links]. Dies bedeutet nicht, dass ein Wearable nie ausgeschaltet oder deaktiviert werden kann, sondern lediglich dass eine permanente Schnittstelle angeboten wird, die eine Aktivierung nach Bedarf bzw. Kontext erlaubt.

2. Augmentation (Erweiterung, Überlagerung):

Herkömmliche Computersysteme beanspruchen nach Mann einen Großteil der Aufmerksamkeit des Benutzers. Wearable Computing geht vom genauen Gegenteil aus: der Benutzer führt primär eine andere Aufgabe aus (beispielsweise geht er einkaufen oder repariert ein Fahrrad) und benutzt zusätzlich den Computer (beispielsweise um das nächste Einkaufszentrum nachzuschlagen). Folgerichtig darf die Information seitens des Computers das Denken und die Wahrnehmung des Benutzers lediglich überlagern, jedoch nicht zur Gänze beanspruchen [siehe Abbildung 2, mittig].

3. Mediation (Vermittlung):

Aus den beiden bisher genannten Faktoren resultiert auch eine gewisse Mediatorenfunktion des Wearable: der Computer überlagert die bisherige Umgebung des Menschen durch weitere Informationen und bildet eine neue, transparente Zusatzschicht, er kapselt den Benutzer [siehe Abbildung 2, rechts]. Wie dicht diese Kapsel ist, bleibt dem Benutzer überlassen. Beispielsweise kann er sich vor der Umwelt mit Hilfe des Wearable in Teilen verschließen, indem ihm das Wearable dabei hilft, bestimmte Informationen auszublenden (z.B. Werbung) oder er kann seine Umwelt virtuell durch Objekte ergänzen bzw. bestehende Objekte ersetzen (z.B. vertrocknete Blumen durch frische): das Wearable kann also den Grad jener Informationen die von "Außen" zum Benutzer vordringen variieren. Zum zweiten kann das Wearable aber auch den Informationsfluss von "Innen" zur Umwelt regulieren und dadurch eine verstärkte Privatheit sichern: Durch die enge Verbindung zum Wearable wird die leicht angreifbare Distanz zwischen Mensch und Computer denkbar gering und sensible Daten können leichter geschützt werden (beispielsweise müssen Passwörter nicht mehr über die Tastatur eingegeben werden). Parallel dazu kann das Wearable bei entsprechender Ausstattung mit Sensoren auch die Körperfunktionen des Besitzers überwachen (z.B. Herzschlag) und so im Notfall selbständig die Kapsel durchbrechen (z.B. indem es bei einem Herzinfarkt eine Notrufzentrale verständigt).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Gesamtes Framework des Wearable Computing nach Mann [Man98b] (Farbbereiche ergänzt)

2.1.1.c Kennzeichen des Wearable Computing

Aus diesen drei Benutzermodi leitete Mann in weiterer Folge auch 6 primäre und zwei sekundäre Eigenschaften des Wearable Computing ab, die als attributive Verbindung in dem von ihm aufgestellten Framework aus [Abbildung 3] agieren sollen. Noch stärker zeigt sich hier Manns Vision einer sinneserweiternden Prothese, die für den Benutzer beinahe unsichtbar bleibt und sich wie eine zweite Haut über die Wahrnehmung legt. Der WearComp soll demnach sensibel auf seinen jeweiligen Kontext reagieren ("attentive"), womöglich sogar als Kommunikationsorgan ("communicative") einsetzbar sein, die Aufmerksamkeit des Benutzers auf Ausgabeseite jedoch nicht zu sehr beanspruchen ("unmonopolizing") und auch den Eingabemodus nicht behindern ("unrestrictive"). Alle seine Aktivitäten obliegen dabei im Wesentlichen der Benutzerkontrolle ("controllable"), während seine physische Ausbildung und Anbringung dergestalt erfolgen soll, dass das Wearable bei Bedarf stets in das Bewusstsein des Nutzers dringen kann, also observierbar bleibt ("observable").

Alle sechs Eigenschaften zusammen bringen darüber hinaus zwei wichtige Folgeeigenschaften des Wearable Computing mit sich: WearComps müssen permanent in Betrieb sein (da sie nur so kontextspezifisch reagieren können), d.h. sie müssen über eine konstante Bereitschaft verfügen ("constant"). Und – als wichtige Folgerung aus dem Genannten – sie formen einen ausnehmend persönlichen Interaktionsraum zum Benutzer hin ("personal"). Alle primären als auch sekundären Kennzeichen sind nochmals in [Tabelle 1] gelistet und beschrieben.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Die sechs primären und zwei sekundären Kennzeichen von Wearable Computing nach Mann [Man98a]

Die Auflistung in [Tabelle 1] zeigt jedoch auch, dass es sich bei Wearable Computing in seinen theoretischen Grundfesten nicht nur um eine Computer-Technologie handelt, die den Umstand ausnutzt, dass Rechner immer kleiner und kleiner werden bzw. geworden sind (sodass sie schließlich auch am Körper getragen werden können), sondern vielmehr um eine hardwarebasierte Computer-Denkart, die - wie einige andere Richtungen auch – nach einem neuen Umgang mit dem Computer streben. Der Benutzer soll nicht das Gefühl haben, dass der Computer für ihn eine Aufgabe löst, sondern das Wearable soll ihn dabei unterstützen, selbst eine Aufgabe zu lösen. Im Idealfall liefern ihm die Schnittstellen des Wearable genau jene Informationen und Fähigkeiten, die ihm dazu fehlen – es stellt also vereinfacht ausgedrückt eine Art Prothese dar, während der Benutzer jedoch selbständig agiert, d.h. selbst Entscheidungen trifft und Aktionen vornimmt. Das Wearable soll auf diese Art und Weise auch gewissermaßen ein Stück Benutzerfreiheit zurückgewinnen und effizienzsteigernd für den Benutzer agieren – es löst den Benutzer nicht nur von einem speziellen Ort, sondern soll vor allem so unmittelbar Dienste und Inhalte zur Verfügung stellen, dass der Benutzer den größten Nutzen daraus ziehen kann und sowohl sein Wissen erhöhen (z.B. indem im Display Informationen zu einer Statue angezeigt werden während der Benutzer sie betrachtet) als auch seine (v.a. sinnlichen) Fähigkeiten ergänzt werden (z.B. indem ein Infrarotfilter für die Umwelt zur Verfügung steht).

Rather than attempting to emulate human intelligence in the computer, as is a common goal of research in Artificial Intelligence (AI), the goal of wearable computing is to produce a synergistic combination of human and machine, in which the human performs tasks that it is better at, while the computer performs tasks that it is better at. Over an extended period of time, the wearable computer begins to function as a true extension of the mind and body, and no longer feels as if it is a separate entity. In fact, the user will often adapt to the apparatus to such a degree, that when taking it off, its absence will feel uncomfortable, in the same way that we adapt to shoes and clothing to such a degree that being without them most of us would feel extremely uncomfortable whether in a public setting, or in an environment in which we have come to be accustomed to the protection that shoes and clothing provide. This intimate and constant bonding is such that the combined capabilities of the resulting synergistic whole far exceeds the sum of either. Synergy, in which the human being and computer become elements of each other's feedback loop, is often called Humanistic Intelligence (HI). [Man98b]

Die realen Ausführungen von Wearables decken sich freilich nicht unbedingt mit diesen hehren Visionen; in vielen Fällen wird der Begriff des Wearable sogar darauf reduziert in Gegenüberstellung zu herkömmlichen PDA's vordergründig einen freien Gebrauch der Hände zu erlauben oder einfach externe Geräte mehr oder minder einfallsreich in ein Kleidungsstück zu integrieren.

Andererseits hat die Idee von Wearables jedoch auch zu einer reichhaltigen Entwicklung von stellenweise sehr innovativen Ein- bzw. Ausgabegeräten geführt und in vielen Fällen wurden auch softwarebasierte Ideen entworfen, die nur in diesem Kontext denkbar und sinnvoll sind und einen echten Mehrwert für den Benutzer darstellen (und teilweise auch in anderen Bereichen Anwendung finden). Obwohl sich viele Projekte noch in der Entwicklungsphase befinden ist in zahlreichen Fällen doch ansatzweise erkennbar, dass einige Systeme tatsächlich zu einer starken Effizienzsteigerung und den von Steve Mann erhofften Synergieeffekten führen können.

2.1.2 Grenzen des Wearable Computing

2.1.2.a Wearable vs. Ubiquitous Computing

Wearable Computing wird oftmals im gleichen Atemzug wie Ubiquitous Computing, kurz UbiComp, genannt, mitunter auch als spezielle Ausprägung desselben. Der Begriff wurde von Mark Weiser [siehe Abbildung 4] bereits 1988 eingeführt und kann in etwa mit "allgegenwärtig" bzw. "überall verbreitet" übersetzt werden, beschreibt also die Vision einer überall vorhandenen Informationsverarbeitung. Ein breites Publikum erreichte Weiser 1991 durch einen Grundlagenartikel im Scientific American [Wei91] in welchem er seine Vision schilderte, dass Computer in einer derart hohen (aber miniaturisierten) Anzahl präsent seien, dass sie nicht mehr wahrgenommen werden:

The most profound technology are those that disappear. They weave themselves into the fabric of everyday life until they are indistinguishable from it. … In our experimental embodied virtuality, doors open only to the right badge wearer, rooms greet people by name, telephone calls can be automatically forwarded wherever the recipient may be, reciptionists actually know where people are, computer terminals retrieve the preference of whoever is sitting at them, and appointment diaries write themselves. [Wei91]

Ubiquitous Computing enhances computer use by making computers available throughout the physical environment, while making them effectively invisible to the user.[Wei93a]

Dieses "Netzwerk intelligenter Gegenstände" wie es Weiser vorschwebt führte bereits kurz nach der Veröffentlichung zu einer umfassenden Diskussion. In seiner idealen Ausprägung sollte es nach Weiser sogar den herkömmlichen (Personal-) Computer zur Gänze ersetzen und zu einem "Internet der Dinge" führen, welches einen ständigen Informationsaustausch der Objekte ermöglicht und so den Menschen unmerklich bei seinen alltäglichen Tätigkeiten unterstützt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Mark Weiser und seine Vorstellung des Ubiquitous Computing [Vol_HP]

Dabei nannte Weiser vor allem zwei Aspekte welche ihm von maßgeblicher Bedeutung erschienen: Ort und Maßstab. Einerseits müssten diese Geräte ihre Umgebung kennen - sie müssten also beispielsweise wissen "wo" sie sind -, andererseits sollten sie die unterschiedlichsten Größen aufweisen, je nach zu bewältigender Aufgabe. Um seine Ideen zu demonstrieren, entwickelte Weiser in den Jahren 1988 bis 1994 eine Reihe von "Tabs", "Pads" und "Boards" [vgl. Abbildung 5]. Sie alle erfüllten den Zweck die Umwelt zu "aktivieren" [Vol_HP] – jedem Menschen sollten auf diese Art und Weise Hunderte von drahtlos vernetzten Rechnern zur Verfügung stehen, die von Notizzettel-Größe bis hin zu Geräten in Größe einer ganzen Bürowand reichen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Xerox PARCtab (li. [Xyb_HP]) und Xerox LiveBoard (mi.+re. [Ans_LI])

Weisers Ideen beeinflussten vor allem Hard- und Softwareansätze für neue Bürolösungen. Beide Ansätze, sowohl Ubiquitous Computing als auch das etwas später entstandene Wearable Computing distanzieren sich dabei von einer virtuellen Realität (Virtual Reality, VR) und streben stattdessen eine überlagerte Realität (Augmented Reality, AR) an. Gemäß beiden Auffassungen soll der Benutzer nicht mehr an eine Box an einem bestimmten Ort gebunden sein, sondern der Benutzer soll überall wo er hingeht auf eine Vielzahl von Computer treffen (UbiComp) oder im Wesentlichen einen einzigen individualisierten Computer am eigenen Körper tragen (WearComp). Gemein ist ihnen auch eine eher nüchterne Betrachtung bezüglich den Fähigkeiten einer Assistenten-Funktion durch Künstliche Intelligenz, welche bei keiner der beiden Lösungen als wesentlich oder unbedingt notwendig erachtet wird. In beiden Bereichen spielen darüber hinaus Aspekte wie energiearmer Verbrauch, drahtlose Verbindung, geeignete Netzwerkprotokolle und neuartige Displays eine wichtige Rolle.

Dennoch unterscheiden sich die Ideen in wichtigen Grundsätzen. Ganz offensichtlich ist zunächst das Mobilitätsschema bei beiden Visionen sehr unterschiedlich [vgl. Abbildung 6]: in UbiComp muss der Benutzer im Wesentlichen keine Hardware mit sich tragen – stattdessen erkennt ihn das System und kann ihm an unterschiedlichsten Stellen verschiedene Dienste anbieten: der Benutzer bewegt sich in einer "intelligenten" Umgebung. Damit wird der Benutzer einerseits von vielen Routineaufgaben befreit und kann zahlreiche Services nutzen, ist aber andererseits stark vom Vorhandensein dieses Umfeldes abhängig. Der typische WearComp-Benutzer benötigt umgekehrt zunächst eine entsprechende Hardware, kann sich mittels derer aber anschließend relativ frei bewegen. Vernetzung ist im Bereich von Wearables zwar möglich, aber nicht zwingend notwendig, weshalb ein Benutzer dieser Version zunächst vordergründig auf die Fähigkeiten seines Wearable angewiesen ist. Ist das Wearable unhandlich, schwer oder energieintensiv, setzt sich seine Brauchbarkeit stark herab. Auch ist ein Wearable-Benutzer meist von einer miniaturisierten Hardware umgeben, während einem UbiComp-Benutzer die volle Bandbreite an Ein- und Ausgabegeräten in sämtlichen Maßstäben zur Verfügung steht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Mobilitätsschema UbiComp vs. WearComp

Auf den ersten Blick scheint der UbiComp-Benutzer wesentlich mehr Vorteile zu genießen: er muss nichts mit sich tragen und kann wesentlich mehr Soft- und Hardware nutzen. Dort wo keine "intelligente" Umgebung vorhanden ist, kann diese geschaffen werden. Kritiker warfen deshalb relativ rasch ein, dass es sich bei Wearable Computing nur um eine unnötige Spielart handeln würde, die im Prinzip auch durch Ubiquitous Computing abgedeckt werden könnte. Vereinfacht ausgedrückt: Wozu Displays oder Kameras mit sich tragen, wenn überall, wohin man geht, bereits Displays und Kameras vorhanden sind? [Man01a]

Der größte Vorteil des Wearable Computing in Gegenüberstellung zum Ubiquitous Computing liegt ganz offensichtlich nicht im Grad der Mobilität, sonder vielmehr im Grad der Informationskontrolle [vgl. Abbildung 7]. In einer UbiComp-Umgebung werden zahlreiche Daten an die Umgebung selbst übertragen bzw. diese sammelt personenbezogene Informationen um eine entsprechende Individualisierung zu erreichen. Gleichzeitig entsteht damit jedoch eine immense Datenmenge und diese ist zudem auf eine Vielzahl von Objekten verteilt: Probleme der Datenkontrolle wachsen durch diese Kombination explosionsartig an. Selbst wenn diese Daten nicht gespeichert werden, so ist es doch einer der Grundpfeiler des Ubiquitous Computing, dass mehr oder minder "intelligente" Objekte miteinander kommunizieren und so das alltägliche Leben des Benutzers erleichtern. Ein simples Abhören würde also bereits reichen, um beispielsweise relativ exakte Benutzerprofile zu erhalten. Der größte Vorteil des Ubiquitous Computing – eine allwissende und allgegenwärtige Computerumgebung – wird damit gleichzeitig zum größten Nachteil, da kaum jemand wissen bzw. kontrollieren kann wo sich welche Informationen befinden. Je mehr der Informationsgrad bzw. Informationsfluss eingeschränkt wird, desto mehr ähneln die einzelnen Objekte alleinstehenden und abgeschlossenen Einheiten und desto größer wird die Entfernung von der Grundidee des UbiComp. Zwar kann das Risiko eines Missbrauchs durch entsprechende Absicherung reduziert werden, es verhindert jedoch kaum das prinzipielle Entstehen solcher Informationen bzw. ihrer Verteilung.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Informationsfluss bzw. -kontrolle bei UbiComp vs. WearComp

Wearable Computing steht diesem Prinzip beinahe diametral gegenüber. Durch die starke Verbindung von Mensch und Computer werden Informationen regelrecht gekapselt, statt vieler Informationswege kommen einige wenige zum Einsatz. Zwar entstehen auch hier sehr sensible und möglicherweise wesentlich persönlichere Daten, jedoch nicht auf vielen, sondern lediglich auf einer Station. Die Kontrolle dieser Informationswege ist damit maßgeblich einfacher und reduziert sich auf die Verbindung zu externen Geräten bzw. Teilstationen untereinander. Auch kann der Benutzer wesentlich einfacher kontrollieren welche Informationen entstehen und welche er an die Außenwelt weiterleiten möchte.

Am Rande sei jedoch erwähnt, dass datenschutzrechtliche Bedenken im Bereich des Wearable Computing vor allem für die Umgebung entstehen können – so erlauben "unsichtbare" WearComps nicht nur das Aufzeichnen von Gesprächen oder das unauffällige Ablichten von Umgebungen u.a.m. (ohne explizites Wissen anderer Personen), sondern auch die für das Umfeld nicht unbedingt einsichtige Nutzung von computergenerierten Informationen – beispielsweise als Schummelzettel bei Prüfungen oder zum Einsagen mittels externer Teilnehmer.

Trotz aller Unterschiede bleibt zusammenfassend jedoch festzuhalten dass beide Ideen – sowohl Ubiquious Computing als auch Wearable Computing – weniger auf einer revolutionären Technologie basieren, als vielmehr eine logische Konsequenz infolge der zunehmenden Miniaturisierung von Hardware-Elementen und dem Verlangen der Benutzer nach mehr Mobilität sind. Zusammen mit den Auswirkungen und Möglichkeiten des Internet als weitverteilte Computernutzung und den Problemen und Grenzen herkömmlicher Personal-Computer erscheint die Entwicklung beider Trends nur konsequent [vgl. Abbildung 8].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Die drei großen Trends in der Computernutzung [Wei_HPa]

Mark Weiser bezeichnete es als "dritte Ära der Computernutzung" [BLT03] und betitelte sie auch zugleich mit dem von ihm eingeführten Begriff des Ubiquitous-Computing. Demgegenüber stellte er Mainframes ab 1950 (1:n, d.h. viele Menschen bedienen einen Computer) und Personal Computer um 1975 (1:1, d.h. ein Computer wird von einem Menschen benutzt). Die Ära des Ubiquitous-Computing (n:1, d.h. jeder Mensch benutzt viele Computer) erscheint aus dieser Sicht nur logisch, auch wenn hier wohl zwischen der Weiser'schen Defintion und der Allgegenwart im Allgemeinen unterschieden werden muss.

Gerade letzteres geschieht jedoch häufig nicht, sodass das irreführende Bild entsteht dass allein die weite Verbreitung von Computerchips den Begriff des UbiComp bereits fassen könnte. Aus dieser Sichtweise würde jedoch beinahe jeder Rechner – vom herkömmlichen Desktop über Mainframes bis hin zu Mini-Computern in Kaffeemaschinen – nur mehr ein Teilsegment von einer allgegenwärtigen UbiComp-Landschaft darstellen und jede Rechnertypisierung hätte Ubiquitous Computing zur Wurzel. Diese Herangehensweise scheint deshalb nur wenig fruchtbar. Eine andere, vielfach übersehene Perspektive ist jedoch die Nutzung von WearComps als einzelner UbiComp-Spot. Dieser Anwendungsfall könnte beispielsweise dann auftreten, wenn ein WearComp andere Rechnereinheiten eines Netzwerkes als Kontextinformation nutzt um sein eigenes Verhalten daran auszurichten, etwa wenn Wearables (ohne explizite Aufforderung) die Standortdaten der jeweils eigenen Benutzer abgleichen. Für Wearables ist diese Vorgangsweise eher untypisch, für UbiComp vorstellbar, wenn hierfür auch kaum die Leistungsfähigkeit eines ganzen WearComps nötig scheint. Letztendlich handelt es sich in diesem Fall demnach mehr um eine weitere Spielart von UbiComp – ein (weiterer) "intelligenter" Gegenstand, der nun eben "anziehbar" bzw. "tragbar" ist. Mit der Grundidee von Wearable Computing hat dies (zumindest im Sinne Steve Manns) jedoch nur noch wenig zu tun.

2.1.2.b Wearable vs. Mobile Computing

Wesentlich mehr Nähe weist Wearable Computing vielfach zu Mobile Computing auf. Obwohl Mobile Computing oftmals nur als sehr unscharfer Begriff für mobile Rechner im Allgemeinen eingesetzt wird, sind beide Bereiche doch maßgeblich durch die Vorteile als auch Probleme humaner Mobilität dominiert, Faktoren die bei UbiComp nur bedingt von Bedeutung scheinen. Fast alle Projekte und Anwendungen sind dabei vordergründig von zwei Fragen bestimmt: wie kann die vorhandene Energie optimal genutzt werden und gleichzeitig ein größtmöglicher Bedienkomfort für den (mobilen) Nutzer erreicht werden, ohne zu stark an Leistung einzubüßen. Letzteres bezieht sich in vielen Fällen neben allgemeinen Faktoren wie Gewicht oder Größe auch auf geeignete I/O-Schnittstellen, da beispielsweise weder Tastatur noch Display endlos klein werden können um noch bedienbar zu bleiben.

In gewisser Weise könnten WearComps als mobilste aller mobilen Rechner gesehen werden [vgl. Tabelle 2]. Die Evolution vom Notebook zum Handheld kann beispielsweise anhand zahlreicher Faktoren auch in Richtung WearComp weiter gedacht werden: Miniaturisierung von Hardware, allen voran Ein- und Ausgabeschnittstellen, Effizienzsteigerung vorhandener Software bei Einschränkung bzw. Spezialisierung von Applikationen (nicht alle Anwendungen können auf Handhelds transportiert werden), Verringerung von Gewicht, leichtere Aktivierung (Notebooks müssen vielfach ausgepackt und ausgeklappt werden, Handhelds nur mehr aus der Tasche gezogen) u.a.m. Anziehbar im eigentlichen Sinne sind Handhelds zwar nicht und sie reagieren auch wenig bis gar nicht auf kontextuelle Informationen, für den Benutzer ist dieser Unterschied derzeit in der Praxis jedoch kaum ersichtlich, da auch die meisten WearComps nur mangelhaft über diese Eigenschaften verfügen, obwohl sie es von ihrer Definition her müssten.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Vergleich mobiler Endgeräte

Hinzu kommt dass auch viele Handhelds zwischenzeitlich immer stärker kontextsensitive Funktionen integrieren, auch wenn dies im überwiegenden Teil der Fälle lediglich im Sinne eines Zusatznutzens geschieht. Gleichzeitig nähern sich andererseits auch immer stärker Mobiltelefone an herkömmliche Computersysteme an und übernehmen Aufgaben die eigentlich domänenfremd sind, beispielsweise indem sie einfache Organizer- oder Büroanwendungen anbieten, interne Schnittstellen zu Digitalkameras u.a.m. Der Platz im Bereich mobiler Mini-Computer ist demnach schon relativ eng, die Unterschiede nivellieren sich zunehmend.

Im Gegensatz zu Handhelds oder Mobiltelefonen fokussieren WearComps jedoch eine Funktion, die bei beiden eigentlich nicht im Zentrum des Interesses steht: Wearables sind dazu gedacht, während einer anderen, mobilen Aktivität genutzt zu werden. Für den einzelnen Nutzer agieren sie demnach wirklich als allgegenwärtige Computerlandschaft, da er von seinem WearComp ununterbrochen assistierend umgeben ist, allerdings nicht außerhalb, sondern innerhalb seines Persönlichkeitsraumes. Ein privater Butler, eine individuelle Prothese, die sowohl zum Nutzer als auch der Umgebung Kontakt hat und auf beide Faktoren reagieren kann [siehe Abbildung 9].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: Fokus auf Interaktion User-System-Environment [Law05_PR]

In diesem kleinen Unterschied zeigt sich die eigentliche Neuerung des Wearable Computing. Denn wenn ein Rechner nicht mehr explizit aktiviert wird und er gleichzeitig auch Zugriff auf Informationen aus der Umgebung benötigt, muss er sich dem Nutzer zwangsweise wie eine zweite Haut anpassen: er muss "anziehbar" sein, damit er den Benutzer nicht stört, zugleich aber sehen, hören bzw. wahrnehmen kann was der Benutzer sieht, hört oder anderweitig wahrnimmt.

2.1.2.c Wearable vs. Biohybrid Computing / Cyborgs

Ein immer wieder auftauchender Begriff im Bereich des Wearable Computing ist jener des Cyborgs (cybernetic organism). Dies überrascht zunächst, definiert sich ein Cyborg doch prinzipiell als Mensch-Maschine-Hybrid, d.h. als Mischwesen zwischen biologischen und künstlichen Teilen im Sinne von Implantaten. Der Begriff stammt ursprünglich aus den 1960er Jahren [CK60] und wurde v.a. durch zahlreiche Science-Fiction-Filme wie "Der Sechs Millionen Dollar Mann" (1974-78), "Terminator" (1984) oder die Endlosserien "Star Wars" und "Star Trek" geprägt, wobei letztere sogar ein ganzes Volk von Cyborgs (die sog. Borg) erschufen [vgl. Abbildung 10].

Im Großteil der Fälle ist das Äußere eines Cyborg visuell gut erkennbar in Teilen durch künstliche Elemente ersetzt, vorzugsweise im Bereich von Augen oder Gliedmaßen, während unterstützende Hardware entweder in die Kleidung integriert wird oder der Einfachheit halber ganz entfällt. Im Gegensatz zu Robotern oder Androiden ist ihr Kern biologisch und in Gegenüberstellung zu Menschen die sich lediglich einer bestimmten Technik bedienen werden bei Cyborgs elektronische Teile i.d.R. implantiert bzw. anderweitig dauerhaft am / im Körper verankert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10: Einige Cyborg-Varianten aus "Star Trek" [Par_LI]

Genau dies ist bei Wearable Computing jedoch ganz offensichtlich nicht der Fall. Hardwareelemente werden hier auf der Körperoberfläche oder in der Kleidung angebracht, jedoch nicht unter der Haut. Dies scheint auch allein aufgrund des Begriffes naheliegend, bringt ein "Anziehen" doch stets ein potentielles "Ausziehen" mit sich. Ein Umstand der sich bei Implantaten jedoch nicht ganz so einfach gestaltet, abgesehen davon dass ihnen auch die Basischarakteristik des "Anziehbaren" schlichtweg fehlt. Dennoch verwenden selbst Leitfiguren des Wearable Computing wie Steve Mann oder Thad Starner [siehe Abbildung 11] diesen Begriff immer wieder und bezeichnen sich nicht selten selbst mehr oder minder ironisch als Cyborg. Mann ging 2002 sogar soweit Air Canada verklagen zu wollen, da diese aus Sicherheitsgründen seinen WearComp vor einem Flug entfernt hatte. Sein medienwirksam vorgebrachter Grund: er fühle sich als Cyborg benachteiligt und wolle wie alle anderen Menschen mit einer besonderen Ausstattung behandelt werden [Roe_LI].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 11: MIT-"Cyborgs", Thad Starner markiert [Mit_HPe]

Zwar gibt es mittlerweile auch Arbeiten, die den Begriff des Cyborg weiter fassen – Zimmerli [Wik_LI2] geht beispielsweise soweit, dass selbst Personen die sich einfach nur mit Technik umgeben, also beispielsweise im Auto sitzen oder eine Brille tragen, bereits Cyborgs sind – es ist aber bis heute umstritten ob eine derartige Ausdehnung des Begriffes wirklich zielführend ist. Dem Duden [SEM05] zum Trotz, welcher im Übrigen ebenfalls von einem Einbringen "in" den Menschen spricht, versucht Mann in seinen zahlreichen Statements (vgl. [MN01], [You_LI], [Man01b]) zum Thema Cyborg eine etwas variierte Brücke zu schlagen: demnach gelte als Cyborg der, der den WearComp als immanenten Teil seines Körper empfinde – ein Umstand der zumindest auf Mann mit Sicherheit zutrifft, trägt er seinen WearComp doch mittlerweile seit rund 20 Jahren beinahe ohne Unterbrechung.

Subjektives Empfinden allein hilft allerdings nur bedingt bei einer Konkretisierung der Thematik. Richtig ist, dass es bis heute keine fundierte Studie zu langfristigen körperlichen Auswirkungen von WearComps gibt, insbesondere ist bislang nicht geklärt wie sich das jahrelange Benutzen eines physisch sehr nahen Microdisplays auf das menschliche Auge auswirkt. Insofern könnte Mann indirekt sogar nicht ganz Unrecht haben, könnten WearComps aus dieser Sicht doch vom sinneserweiternden zum lebensnotwendigen Instrument mutieren, der Nutzer vom freiwilligen Prothesennutzer zum körperlich Beeinträchtigten, der sich ohne seinen WearComp unvollständig fühlt oder tatsächlich ist.[1]

Diese Perspektive scheint jedoch weder wünschenswert noch realistisch. Vielmehr ist es gerade die Stärke des Wearable Computing, sich des WearComps auch entledigen zu können, quasi ein Recht "Offline" zu gehen – ein Vorteil der bei einem Implantat i.d.R. verloren geht. Letztendlich scheint die bewusste Verwischung der Begrifflichkeiten mehr auf eine persönliche Technikbegeisterung und bewusste Inszenierung zurück zu führen sein, denn auf einen ernstzunehmenden philosophischen geschweige denn technologischen Hintergrund. Hinzu kommt dass Wearable Computing mit dieser Sichtweise zu einer Art notgedrungenen Vorstufe des Biohybrid Computing reduziert wird – ein Umstand der weder der Technologie gerecht wird noch der simplen Tatsache Rechnung trägt, dass Implantate wohl auch in näherer Zukunft nicht zum Verkaufsschlager mutieren werden.

Letztendlich ist es vielleicht ironisch, dass ausgerechnet Mann, der Ende der 1990er Jahre Wearable Computing wesentliche Starthilfe leistete, indem er es immer wieder gegenüber Ubiquitous Computing als selbständige Disziplin verteidigte [Man01a], nun diese enge Freundschaft zu implantatnahen Idealen entdeckt hat. Ob durch diese doch etwas altbackenen 1970er Cyborg-Ideen eine breitere Akzeptanz bei potentiellen Käuferschichten erreicht wird, bleibt ebenfalls dahingestellt. Hinzu kommt dass gerade Mann immer wieder den höheren Freiheitsgrad von WearComps betont hat – der Nutzer sollte von seinem "sklavenhaften" Dasein befreit werden und in eine neue Ära der Mensch-Maschine-Schnittstelle eintreten. Ist ein WearComp-Nutzer jedoch ohne sein entsprechendes Elektronikgerüst unvollständig bzw. beeinträchtigt, so kann wohl kaum noch von einem hohen Freiheitsgrad gesprochen werden.

In dieser vorliegenden Arbeit wird dieser gedanklichen Haltung nicht gefolgt – Wearable Computing wird hier ausnahmslos als "außerhalb" des menschlichen Körpers definiert, folgerichtig werden WearComp-Nutzer (trotz eventueller Gewohnheiten, die denn wohl auftreten mögen) auch nicht in die Nähe von Cyborgs gestellt. Um die für WearComps typische Mobilität zu gewährleisten kann die Lokalisierung darüber hinaus auch in die andere Richtung begrenzt werden – WearComps müssen sich demnach nahe dem Körper befinden, d.h. entweder Teil der Kleidung sein oder sich direkt unter bzw. über dieser befinden (siehe umrandeter Bereich in Abbildung 12).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 12: Lokalisierung von WearComps (Umrandung ergänzt) [Man01a]

2.1.3 Visionäre des Wearable Computing

Mann's größter Verdienst war mit Sicherheit ein erstes gedankliches Gerüst für Wearable Computing zu schaffen und unter Ausnutzung verschiedenster Ausdrucksformen (die nicht selten im Schnittbereich von politischem Statement und Kunst anzusiedeln sind) eine mögliche Alternative zum allgegenwärtigen Ubiquitous Computing aufzuzeigen: Nicht die Umgebung sollte intelligenter werden, sondern der Benutzer. Seine größte Schwäche kann jedoch gleichzeitig darin gesehen werden, Wearable Computing zu sehr als Projektionsfeld für seine doch sehr persönlichen Idealvorstellungen eines neuartigen Computers zu begreifen und über weite Strecken auf eine Miniaturisierung von herkömmlichen Desktoprechnern zu beschränken, ein Umstand, den bereits Konrad Lischka [Lis_LI] 2001 aufzeigte:

(Das) ist das Problem bei Manns und einigen anderen Entwürfen. Sie sind eine Projektion der Gegenwart in die Zukunft nach den Maßgaben eines James Bond Films. Technik muss zugleich vertraut und spektakulär sein. Und sie muss aus dem Gebiet der aktuell führenden Leittechnologie kommen. Raketen sind ein ebenso altes Konzept wie der PKW. Raketen am PKW hingegen sind spektakulär, ja geradezu futuristisch – waren es zumindest im Kalten Krieg. Genauso verhält es sich mit IBMs Prototyp eines Thinkpads, der am Gürtel getragen und über Sprache gesteuert werden kann. Letztlich ist dies dasselbe Konzept wie es heute schon auf jedem Schreibtisch steht, nur eben kleiner. … Neu an Anziehcomputern wird nicht ihre Größe sein. Entscheidend ist, dass sie kein Computer mehr sind. [Lis_LI]

Lischkas Schlussfolgerung zielt zwar auf Ubiquitous Computing als Lösung ab und subsumiert hierunter auch Smart Clothing, diese singuläre Schlussfolgerung ist jedoch nicht zwangsweise korrekt bzw. vollständig, da in dieser Betrachtungsweise ein wesentlicher Aspekt des Wearable Computing übersehen wird: WearComps kapseln Informationen im Bereich des Nutzers, UbiComps verteilen sie auf eine nicht näher definierte Umgebung – so zumindest in der Idealvorstellung. Fraglich ist allerdings wie WearComps in naher Zukunft aussehen oder konstruiert werden sollen, wenn sie einerseits als unabhängiges, weitgehend universelles Gebilde fungieren und andererseits anziehbar bzw. möglichst unscheinbar sein sollen. Steve Manns Vision ist hier relativ klar und im Schnittbereich zwischen Cyborg und Inspector Gadget angesiedelt [vgl. Abbildung 13] – der Nutzer wird mit einer Reihe elektronischer Tools ausgestattet, die seine Wahrnehmung erweitern und völlig neue Formen der Kommunikation ermöglichen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 13: Steve Manns Entwürfe (li. [Man_HP4d]) vs. Inspector Gadget (re. [Tre_LI])

Weit weniger klar ist jedoch wie dies im Detail aussehen soll – hier blieb Mann eine konkrete und technologisch interessante Lösung über weite Strecken schuldig. Ganz offensichtlich scheint zwar ein modularer Aufbau naheliegend – aber: Wie sollen Komponenten vernetzt werden bzw. überhaupt aussehen? Welche Funktionen sollen sie übernehmen? Und wem sollen Wearables überhaupt nutzen bzw. was können Wearables was andere Computer nicht können? Die Vision als Cyborg allein scheint hier weder besonders verkaufsträchtig noch revolutionär. Alternative Vorstellungen entwickeln hier seit Anfang der 2000er Jahre verschiedene andere Institute, allen voran das Media Lab des MIT und die ETH Zürich.

2.1.3.a MIT Media Lab: Cooles Outfit mit Mehrwert (Pentland / Schwartz)

Eine stark interdisziplinäre Betrachtungsweise verfolgt die Wearable-Projektgruppe am MIT Media Lab [Mit_HP] unter der Leitung von Sandy Pentland: wie kaum eine andere universitäre Einrichtung versucht sie Mode- und Produktdesigner in mögliche Visionen von Wearable Computing mit einzubeziehen und daraus potentielle Entwicklungen abzuleiten. Dementsprechend vielfältig zeigen sich auch die daraus resultierenden Entwürfe: Display-artige Kleidung die ihr Erscheinungsbild permanent ändert, interaktive Anzüge, vibrierende Oberflächen für Sehbehinderte u.a.m. [siehe Beispiele in Abbildung 14]. Kleine Kästchen oder unhandliche Hardwareelemente wird man in den Entwürfen vergeblich suchen, stattdessen beschränken sie sich entweder einige wenige Funktionen oder agieren möglichst zielgruppenorientiert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 14: MIT Media Lab - Entwürfe in Zusammenarbeit mit verschiedenen Designschulen [Mit_HPb]

Daneben entstanden in Kooperation mit der Designagentur IDEO 2003 auch sehr realistische Visionen für eine zukünftige Anwendung von WearComps [Mit_HPf]: Anhand eines Benutzerszenarios für eine 19-jährige Studentin zeigte das MIT wie bereits kleine Accessoires sehr effizient für eine WearComp-Umgebung genutzt werden können [siehe Abbildung 15, Reihe 1]. Im Zentrum steht die Systembox welche analog einem Gürtel getragen wird und drahtlos per Funk mit den diversen, am Körper verteilten Accessoires kommuniziert. Für kleinere Eingaben wie beispielsweise der Änderung der Lautstärke dienen mehrere, jeweils sechsteilige Ringe, die durch das Bewegen der Hand auch für andere symbolische Eingaben genutzt werden können - beispielsweise wenn das System angewiesen werden soll nicht zu stören. Texteingaben erfolgen durch die "Message Wand", ein stiftartiges Gerät welches auch Nachrichten anzeigen kann und zur Navigation des virtuellen Displays dient. Dieses ist in eine kompakte Brille integriert und soll dem Benutzer auch das Ansehen von Videos erlauben oder beim Abhalten von Videokonferenzen unterstützen.

Ein ähnliches Szenario entwickelte das MIT auch für eine ältere Zielgruppe mit weniger Unterhaltungsfokus, die Funktionen sind bei beiden Systemen jedoch weitgehend identisch [siehe Abbildung 15, Reihe 2]. In beiden Entwürfen ist das System darüber hinaus nicht hermetisch abgeriegelt, sondern kommuniziert nach Außen: so soll durch die Systembox beispielsweise auch eine Identifikation in vorhandenen Netzwerken möglich werden, etwa um (externe) Computerumgebungen automatisch an den jeweiligen Nutzer anzupassen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 15: Benutzerszenarien MIT Media Lab [Mit_HPf]

Neben diesen designorientierten Entwürfen arbeitet das MIT derzeit vordergründig an der Entwicklung von Software für WearComps. Dazu zählen neben kommunikations- und kollaborationsorientierten Applikationen auch Implementierungen die es erlauben sollen die Unmenge an Information die ein Wearable erhält, sinnvoll zu strukturieren oder den Benutzer leichter zu verstehen. System-Hardware scheint thematisch für das MIT zwar relevant, ist im Verhältnis zu den bereits genannten Themen aber eher unterrepräsentiert und findet sich am ehesten in diversen Spin-Offs. Die größte Stärke des MIT liegt damit mit Sicherheit in der teils sehr unkonventionellen Herangehensweise, die die Nutzungsaspekte unterschiedlichster Zielgruppen und Anwendungen möglichst breit und unvoreingenommen zu beleuchten versuchen. Zentral scheint die Frage wofür und in welchen Situationen WearComps passend erscheinen, während die konkrete Implementierung entweder eher in den Hintergrund rückt oder ausnehmend unscheinbar ausfällt.

2.1.3.b GeorgiaTech: Der persönliche Assistent (Starner)

Ideen und Projekte zu Wearable Computing sind am Georgia Institute of Technology, kurz GeorgiaTech [Git_HP], vordergründig im Rahmen der Contextual Computing Group (CCG) [Git_HP2] zu finden, eine Projektgruppe die seit mittlerweile fast einem Jahrzehnt stark durch die Arbeit des dort tätigen Thad Starners geprägt wird. In vielerlei Hinsicht scheint Starner Mann vergleichbar: so begann auch seine Ausbildung und Karriere am Media Lab des MIT, wie Mann integrierte auch Starner einen WearComp in seinen Alltag (und trägt diverse Versionen seit mittlerweile 1993) und auch in manchen Ansichten finden sich durchwegs Parallelen. Anders als Mann liegt Starners Schwerpunkt jedoch weniger im philosophisch-künstlerischen Bereich, denn in der Entwicklung konkreter Anwendungen für Wearable Computing.

In seiner Vision können WearComps vor allem als persönliche Assistenten eingesetzt werden, die den Nutzer analog einer intelligenten Atmosphäre umgeben und damit eine variierte Form des (sehr persönlichen) Ubiquitous Computing darstellen. Irgendwann, so Starner, sollte jedem Menschen diese Form der individuellen Unterstützung zwischen virtueller Sekretärin und persönlichem Butler zur Verfügung stehen und die Abwicklung alltäglicher Aufgaben erleichtern:

The exciting thing about wearable computers is the fact that they're with you everywhere and they have access to the same sort of sensory information that you do … The display in your eyeglasses might also integrate a camera so the computer can see as you see. If you use a headphone for listening to music or for cellular phone calls, that headphone could also incorporate a microphone, so the computer can hear as you hear. Suddenly, for the first time, our computers have the ability to see and hear the world from our perspective. Instead of being deaf, dumb, and blind sitting on our desks or in our pockets, our computers might be able to observe what we do all day, understand what is important to us, and act as a virtual assistant who helps us on a second-by-second basis. [Git_HPa]

Anders als Mann schreibt Starner diesem Assistenten dabei eine durchwegs vernetzte und auch starke künstliche Intelligenz zu: so soll das System beispielsweise erkennen wenn der Benutzer gerade beschäftigt ist und einen einlangenden Anrufer auf die Mailbox vertrösten. War das Telefonat wichtig genug, kann dieses in Textform auf dem Display des Benutzers angezeigt werden und so eine direkte Reaktion - etwa einen Rückruf - ermöglichen. Auch während des Gespräches soll das Wearable immer aktiv sein: beispielsweise kann es relevante Informationen anzeigen oder auf wichtige Ereignisse und Termine hinweisen [siehe Abbildung 16]. Als Zielgruppe fokussiert Starner v.a. mobile Menschen die keinen Zugriff auf einen Desktop-Rechner haben und dennoch schnell Daten ablegen oder aufrufen möchten. Der WearComp soll dabei auch direkt als Kommunikationsmediator zu anderen Netzwerken oder Personen dienen, etwa indem Informationsbestände abgeglichen werden oder die Umwelt mehr oder minder mit Notizen gespickt wird, die auch für andere Personen zugänglich sind.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 16: Benutzerszenario Thad Starner[2] [Git_HPa]

Mit dieser Öffnung zu Ubiquitous Computing zeigt sich eine völlig andere Perspektive von Wearable Computing. Der größte Vorteil liegt mit Sicherheit darin durch die Anbindung an diverse Netzwerke auch eine wesentliche Erhöhung potentieller Datenbestände zu erlangen. Broker könnten beispielsweise stets aktuelle Kurse abrufen und vom Assistenten informiert werden wenn ein Kurs besonders günstig liegt, Manager durch ihre virtuelle Sekretärin über aktuelle Aufgaben und Telefonate (während sie sich in Wirklichkeit in der Karibik sonnen) und moderne Hausfrauen werden von ihrem persönlichen Butler daran erinnert dass die Tomaten beim Supermarkt um die Ecke heute besonders günstig sind. Dies alles setzt, wie stets bei Ubiquitous Computing, natürlich voraus dass diese intelligente Umgebung im gesamten Anwendungsfeld vorhanden ist und bringt darüber hinaus auch alle mit diesem Fachbereich verbundenen Probleme des Datenschutzes mit sich.

Dennoch bleibt der WearComp im Kern nach Starner unabhängig und agiert nicht als reiner UbiComp-Spot – die potentiellen Informationen aus der Umwelt werden demnach lediglich als Zusatzwissen genutzt, während der Rechner selbst wesentlich mehr Nähe zu einem herkömmlichen Desktop-Rechner denn einem einfachen Sensor aufweist. Um in dem von Starner vorgegebenen Zeitrahmen von 2 Sekunden jedoch reagieren zu können, muss der WearComp "seinen" Benutzer kennen. Ein wesentliches Forschungsgebiet an der CCG umfasst deshalb auch Applikationen und Algorithmen die aus dem Verhalten des Benutzers auf bestimmte Muster schließen oder seine Emotionen anhand von visuellen und physiologischen abzuschätzen lernen. Die meisten dieser Ideen finden sich zwar auch an anderen Instituten, nur selten wird die Idee eines intelligenten Assistenten jedoch so stark in den Mittelpunkt gerückt wie bei Starner.

2.1.3.c ETH Zürich: Unsichtbare Module (Tröster / Lukowicz)

Ähnlich wie das MIT nähert auch das Wearable Computing Lab an der ETH Zürich [Eth_HP] Wearable Computing in vielen Arbeiten Smart Clothing an, versucht jedoch einen über weite Strecken hardwarebasierten Weg. Dazu konzentriert sich das Team um Gerhard Tröster v.a. auf zwei Technologien: elektronische Stoffe und funktionsreduzierte, aber energiesparende Microchips. Die Erwartungen an Wearable Computing sind dabei denkbar hoch – die ETH spricht sogar von einer potentiellen Revolution, die mit den neuen Minicomputern einhergehen könnte:

The vision behind (wearable computing) is that a mobile computer should not just be a machine that we put into our pocket when we plan on doing some office work while on the road. Instead it will be an integral part of our every day outfit (hence wearable), always operational and equipped to assist us in dealing with a wide range of situations. … Initial results … indicate that wearable computing indeed has the potential to be the next stage of computing revolution. The 'wearable revolution' could well influence on our lives as profoundly as the emergence of the PC and the Internet. [Eth_HPa]

Das größte Problem von Wearable Computing sieht die ETH Zürich weniger in fehlenden oder unscharf definierten Anwendungsbereichen, denn in der starken Kluft zwischen theoretischer Vision und praktischer Realität. Aus diesem Grund hat sie auch einen 6-Punkte-Plan entwickelt, der in den nächsten Jahren die wesentlichen Hürden für eine Marktreife überwinden soll. Dazu gehören neben miniaturisierten Ein-/Ausgabegeräten und Sensoren auch geeignete Oberflächen für eine realitätsüberlagernde Darstellung, d.h. Augmented Reality (AR), eine kompakte, energiesparende Systembox und eine kabellose Netzwerktechnologie um die unterschiedlichen Komponenten miteinander am Körper zu vernetzen. Interessant scheint hier dass die ETH Zürich als Ziel der Entwicklung definitiv von einem kleidungsstückähnlichen Computer ausgeht oder doch zumindest von einem WearComp, der sich analog einem Kleidungsstück dem Körper anpasst:

Despite all progress wearable computing today must be described as 'a very exciting field very much in its in infancy'. In particular there still is large disrepancy between the vision and the reality of wearable computing. Even the simplest systems are still much too bulky and intrusive for widespread, all-round use. More complex applications usually require hardware that weights several kilos has the user wired by meters of cables or even needs a large stationary server to run on. … Today implementing all this features in a machine so compact that it can be worn like a normal piece of clothing is not possible. The best that can be achieved are reasonably wearable systems for narrowly defined simple tasks. [Eth_HPa]

Zwar implizieren auch die Arbeiten am MIT über weite Strecken eine Annäherung an die formale Sprache von Kleidungsstücken oder Accessoires, die ETH Zürich geht in ihrer Vision bezüglich der Sichtbarkeit von Systemkomponenten jedoch noch einen ganzen Schritt weiter und reduziert die bislang gut sichtbare Hardware auf ihr absolutes Minimum: die potentielle Unsichtbarkeit. So entwarf sie beispielsweise eine Jacke die durch integrierte Sensoren als virtuelle Trommel eingesetzt werden kann – ihr wesentlichstes Kennzeichen für den unwissenden Betrachter ist jedoch weniger ihre futuristische Hardware, denn der schlichte Umstand dass sie sich kaum von jeder anderen, x-beliebigen Jacke unterscheidet [siehe Abbildung 17, re.].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 17: Benutzerszenario ETH Zürich: Schema (li. [Eth_HPb]) und Anwendungsbeispiel "Music Jacket" (re. [Eth_HP])

Hier liegt vielleicht auch der größte Unterschied der beiden Forschungsgruppen: Im Gegensatz zum Media Lab des MIT stechen die Entwürfe der ETH Zürich meist weniger durch ein auffallendes Äußeres hervor, denn durch die ausgefeilten und teilweise sehr innovativen Ansätze im Inneren. Wie die meisten anderen Forschungsinstitute zerlegt zwar auch die ETH Zürich die für einen WearComp nötige Hardware in einzelne Module und verbindet sie anschließend über einen lokalen Bus [siehe Abbildung 17, li.], die Herangehensweise ist jedoch wesentlich stärker an neuartigen Technologien und Algorithmen orientiert und bildet damit eine wesentliche Beitrag im Bereich der Grundlagenforschung zu Wearable Computing.

2.1.3.d Hollywood: Science-Fiction der Gegenwart

Ein Grund warum Wearable Computing heute gerade für viele Nicht-WearComp-Nutzer so vertraut erscheint liegt sicher nicht zuletzt im Umstand dass die Filmindustrie bereits seit Jahrzehnten mögliche Anwendungen von Wearable Computing aufzeigt und relativ aufwendig zu visualisieren versteht. Selbst Thad Starner gab beispielsweise in einem Interview [Git_HPa] an, dass ihn die überlagernde Benutzeroberfläche des Films "Terminator" aus dem Jahr 1984 derart beeindruckt hatte, dass er kurz darauf beschloß in diesem Fachbereich tätig zu werden um dieses Interface in der Realität zu entwickeln.

Aber auch kaum ein James Bond Film wäre wohl ohne die zahlreichen technologische Spielereien denkbar, die der mobile Held bei seinem Kampf gegen das Böse benötigt. Die Filmfigur des "Q" entwickelte dabei seit 1962/63 sämtliche Accessoires, die ein moderner Geheimagent im Alltag benötigt: Uhrenkollektionen mit eingebautem Geigerzähler, Sprengsatz bzw. als Kommunikationswerkzeug oder alles durchdringende Röntgenbrillen sind nur einige wenige Beispiele [siehe Abbildung 18]. Sonderlich innovativ zeigten sich die Setdesigner zwar selten (überlagernde Oberflächen entdeckte 007 beispielsweise erst 11 Jahre nach dem Terminator), dafür erreichten die familienfreundlichen Filme jedoch seit jeher ein breites Publikum und prägten damit auch Vorstellungen und Erwartungen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 18: Utensilien aus 007-Filmen: Uplink-Sendekamera, 1995 (li. [Hal_LI]) und Röntgenbrillen, 1999 (re. [Jbm_LI])

Die Technologie an sich steht bei den meisten 007-Filmen jedoch eher im Hintergrund und auch der Einsatz von Wearables erfolgt eher kurz und sporadisch. Nicht so jedoch bei dem auf einer Kurzgeschichte von Philipp K. Dick basierenden "Minority Report" aus dem Jahr 2002, welcher zahlreiche UbiComp- und WearComp-Ideen aufgreift und zu einem Gesamtbild vereinigt: Herkömmliche Eingabegeräte wie Tastatur oder Maus sind durch Datenhandschuhe ersetzt, gearbeitet wird nicht mehr an einem Schreibtisch, sondern frei bewegend im Raum, Monitore sind wandfüllend und erlauben eine einfache Interaktion mittels Gesten bzw. Sprache [siehe Abbildung 19]. Auch im Außenbereich sind die Darsteller mit entsprechenden WearComp-Systemen ausgestattet, sodass eine nahtlose, "intelligente" Umgebung im weitesten Sinne entsteht. Inhaltlich mag der von Regisseur Steven Spielberg inszenierte Film zwar weniger beeindruckend sein, die unmittelbare Kommunikation zwischen Mensch und Rechner im Sinne einer ubiquitären Computerlandschaft wurde jedoch vordem nur selten derart breit als Thema aufgegriffen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 19: Mensch-Maschine-Kommunikation in "Minority Report" [Tcf_LI]

Minority Report als auch der etwas früher entstandene Film "Strange Days" (1995) nutzen darüber hinaus anziehbare I/O-Schnittstellen für den Kopf. Während diese bei Minority Report jedoch nur als Sensornetzwerk eingesetzt werden um Gehirnströme abzutasten [siehe Abbildung 20, li.], dient das in Strange Days eingesetzt elektronische 'Haarnetz' auch zur unmittelbaren Ausgabe im Sinne eines erlebbaren Videodisplays [siehe Abbildung 20, re.]. Zumindest letzteres scheint als Idee zwar interessant, seine reale Umsetzung ist dem heutigen Stand neurologischer Forschung jedoch um einiges voraus.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 20: Elektronische 'Haarnetze' in "Minority Report" (li. [Tcf_LI]) und "Strange Days" (re. [Tcf_LI2])

Von Bedeutung sind Filme dieser Art jedoch meist weniger aufgrund innovativer Visionen (die meisten Accessoires wurden bereits vordem an Universitäten als Prototypen entwickelt oder von Forschen in den jeweiligen Bereichen zumindest angedacht), denn vielmehr aufgrund der hohen visuellen Kraft die durch das Medium Film möglich wird - die entsprechenden Wearables müssen nicht 'funktionieren', sondern nur eine Vorstellung davon geben wozu sie eingesetzt werden könnten.

2.2 Klassifikation von WearComps

2.2.1 Systemkomponenten

WearComps werden vom Benutzer am Körper getragen und müssen deshalb nicht nur klein und leicht sein, sondern sich auch den Bewegungen des Trägers anpassen können. Zwar ist es theoretisch auch möglich die für einen WearComp benötigte Hardware im Wesentlichen in einem Rucksack am Rücken zu tragen, wesentlich tragefreundlicher ist jedoch die Aufgliederung in verschiedene Module, die an geeigneten Stellen am Körper oder in der Kleidung integriert werden und über ein entsprechendes Bussystem miteinander kommunizieren. Etabliert hat sich mittlerweile eine vierteilige Ausführung, bestehend aus Systemeinheit, Energiespeicher (Akku-Pack) und Ein- bzw. Ausgabegerät wie sie auch in [Abbildung 21] dargestellt ist. [Lob02]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 21: Typische Systemkomponenten eines WearComp am Beispiel Xybernaut [Ava_LI]

Im Zentrum eines WearComps steht – wie auch bei Desktoprechnern – die eigentliche Systembox, welche meist am Gürtel befestigt wird. Sie enthält nicht nur Prozessor, Grafikkarte und Primär- bzw. Sekundärspeicher, sondern auch alle nötigen Schnittstellen zum Anschluss entsprechender Peripheriegeräte. Die Leistung der meisten Systemboxen liegt im Bereich von Laptops, sodass je nach Architektur auch alle gängigen Betriebssysteme zum Einsatz kommen. Meist in der Systembox integriert ist darüber hinaus ein entsprechender Energiespeicher, fallweise wird er jedoch auch in Form von Akku-Packs separat angeboten.

Zur Ausgabe dient in fast allen WearComps eine visuelle Anzeige in Form von Head Mounted Displays, kurz HMD. Dabei handelt es sich um Mikrodisplays, die entweder mit einer Halterung am Kopf befestigt werden oder direkt in eine Brille eingebracht werden. Nur selten decken diese Displays jedoch den gesamten Sichtbereich des Nutzers ab, meist nehmen sie nur einen Ausschnitt in Anspruch und auch hier wird oft lediglich ein Auge adressiert. So kann gewährleistet werden dass der Benutzer zwar die Informationen des WearComp wahrnimmt, aber dennoch mit der realen Welt verbunden bleibt. Kombiniert werden HMDs darüber hinaus häufig mit Kopfhörern und Mikrofonen, sodass auch eine akustische Schnittstelle zum Rechner vorhanden ist.

Damit der Nutzer seinerseits mit dem Rechner kommunizieren kann, bieten WearComps die unterschiedlichsten Eingabegeräte an. Im einfachsten Fall wird lediglich eine Tastatur am Arm befestigt, manche Systeme verfügen jedoch auch über Sprach- oder Gestenerkennung. Für letzteres wird eine Videokamera benötigt, die, da sie häufig auch zum Aufzeichnen von Informationen dient, eines der häufigsten Zusatzgeräte bei WearComps darstellt. Auch sie wird i.d.R. wie das HMD am Kopf befestigt, sodass der Rechner im Wesentlichen die gegenwärtige visuelle Wahrnehmung des Benutzers mit- bzw. nachempfinden kann.

Nicht unbedingt ist das äußere Erscheinungsbild derart auffällig wie in [Abbildung 21] dargestellt. Die Tendenz im Wearable Computing geht eindeutig in Richtung "unsichtbarer" Hardware, sodass die eigentliche Benutzung für Dritte zunehmend schwerer erkennbar wird. Dennoch muss letzendlich jedoch ein gewisser Anteil an Hardware-Elementen am Körper angebracht werden, sodass derzeit vordergründig zwei Herangehensweisen unterschieden werden können: die Integration in ein Kleidungsstück (beispielsweise durch Einnähen) oder in Accessoires wie Ringe, Ketten oder Uhren (sog. "Digital Jewelry"). Gerade letzteres bietet den Vorteil nicht unbedingt "waschbar" sein zu müssen und auch durchwegs härtere Formen annehmen zu dürfen. "Intelligente" Kleidungsstücke können hingegen eine Vielzahl von Elementen aufnehmen und die nötigen Kommunikationswege zwischen den Modulen oftmals auch recht elegant verstecken.

2.2.2 Entwicklungstendenzen

Möglich wurde Wearable Computing erst durch die zunehmende Miniaturisierung von Hardware-Elementen, vorangetrieben in nicht geringem Ausmaß durch immer stärker werdende Forderungen nach Individualisierung und Mobilität: Laptops erlauben es dem Benutzer einen Rechner mitzunehmen und an anderer Stelle einzusetzen, PDAs können unterwegs relativ schnell ausgepackt und verwendet werden – aber kein System erlaubte bislang eine (permanente) mobile Nutzung unterwegs im Sinne eines persönlichen Assistenten und den Fähigkeiten eines Desktoprechners.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 22: Entwicklungslinie von Wearable Computing im Vergleich zu Uhren nach [Bei01_PR][3]

Nicht selten wird das zuküntige Potential von Wearable Computing deshalb in Analogie zur Entwicklung der Uhr gesehen [vgl. Abbildung 22]: auch sie wurde mit der Zeit immer kleiner, billiger, für jeden handhabbar und intimer. Heutige Armbanduhren werden wie ein Kleidungsstück am Körper getragen und können auf Wunsch jederzeit Zeitinformationen zur Verfügung stellen. Computer scheinen sich in eine ähnliche Richtung zu entwickeln, ihr Informationspotential ist jedoch – gerade in Gegenüberstellung zu herkömmlichen Uhren – um ein Vielfaches höher. Sie können nicht nur einfache Daten ausgeben, sondern komplexe Eingaben verarbeiten und dem Nutzer zur Verfügung stellen.

Beide Technologien unterscheiden sich jedoch noch in einem anderen Bereich: Uhren können i.A. nicht auf ihre Umwelt reagieren und überlagern ihre Information auch auf Ausgabeseite nicht wirklich der realen Welt. Ob ein Flugzeugpassagier in der gleichen oder einer anderen Zeitzone aus seinem Flugeug aussteigt, bleibt einer herkömmlichen Armbanduhr meist verborgen, vorausgesetzt sie ist nicht vernetzt. Bezüglich "Anziehbarkeit" und Miniaturisierung ist der Vergleich mit einer Uhr damit mit Sicherheit zutreffend (auch Brillen oder Hörgeräte haben sich ähnlich entwickelt), das gesamte Potential von WearComps kann damit aber nicht erfasst werden.

Am ehesten kann Wearable Computing vielleicht als Ergebnis mehrerer Trends korrekt eingeschätzt werden: verstärkte Individualität (infolge Personal Computing), Mobilität (infolge Mobile Computing), Allgegenwart (infolge Ubiquitous Computing) und Körpernähe/Unsichtbarkeit (infolge Miniaturisierung) [vgl. Abbildung 23]. Natürlich beeinflussen sich diese Strömungen auch gegenseitig: so begünstigen miniaturisierte Bauteile beispielsweise die Mobilität, während eine starke Verbreitung tendenziell auch eher zu Individualisierung führt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 23: Entwicklungslinie von Wearable Computing im Vergleich zu Uhren nach [Bei01_PR][4]

Der größte Einfluss für WearComps könnte sich in den nächsten Jahren jedoch durch neuartige Textilien – "Smart Textiles" / "Smart Clothing" – oder die verstärkte Modulisierung in Form von Schmuckstücken – "Digital Jewelry" – ergeben. Beide Sektoren bringen einen Aspekt in den Bereich des Wearable Computing ein, der bislang nur ungenügend berücksichtigt wurde: die Tragefreundlichkeit. Umgekehrt könnten sie ihrerseits auch durch die hohe Komplexität bzw. Rechnerkapazität von WearComps bereichert werden, welche den meisten Systemen aus dem Bereich "intelligenter" Textilien bislang eher fehlt. Demnach könnten sich zukünftige WearComps letztlich als synergetisches Produkt aus Desktop/Laptop auf der einen und Kleidungs- bzw. Schmuckstücken auf der anderen Seite zeigen [vgl. Abbildung 24].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 24: Zwei sich beeinflussende Trends: Wearable Computing und Smart Clothing (Bildquellen nach [Pcw_LI][5] )

2.2.3 Wearable-Typisierung

Wearable Computing zeigt sich heute als eine stark in Entwicklung befindliche Technologie mit unterschiedlichsten Ausprägungen, denen oftmals nur die Anziehbarkeit (analog einem Kleidungsstück) und die Rechnerleistung (analog einem Desktop Computer) gemeinsam ist. Und auch hier zeigen sich teilweise nicht wenig Unterschiede: so sind viele derzeit im Handel befindliche WearComps [vgl. Abbildung 21] mehr tragbar denn anziehbar, während neuere Lösungen oftmals zwar einen höheren Tragekomfort aber dafür weniger Rechnerleistung anbieten – sensibel auf ihre Umwelt reagieren beide Varianten nur eingeschränkt und auch der permanente Betrieb ist bislang aufgrund unzureichender Energiespeicher mehr Vision denn Realität.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 25: Typisierung von WearComps

Gerade im Hinblick auf die bisherige Entwicklung von Wearable Computing können aber dennoch im Wesentlichen 2 Kategorien eruiert werden: Klassische WearComps, die eine starke Nähe zu Desktop- und Mobile-Computing aufweisen und nach Außen hin meist mehr oder minder gut sichtbar in Form von diversen Boxen am Körper befestigt werden (WearComps der ersten Generation) [vgl. Abbildung 21] und neuere WearComps, die durch Einflüsse aus dem Bereich SmartClothing und DigitalJewelry zunehmend unsichtbar in Kleidung oder anderen Accessoires verschwinden (WearComps der zweiten Generation) [vgl. Abbildung 26]. Klassische WearComps lassen sich darüber hinaus nach [ALT+01] auch in am Arm getragene Wrist-Systeme (z.B. Wearable WWPC von Eurotech[Eur_HP]), PC-104 Systeme (z.B. Jumptec [Kem_HP] oder MIT Lizzy [Mit_HPd]), Notebook- bzw. konventionelle Systeme (z.B. Xybernaut [Xyb_HP]) und Palm-Systeme unterteilen. Alle Systeme sind überblicksartig in [Abbildung 25] dargestellt. Am Rande sei erwähnt, dass gerade die ersten drei Gruppen auch mitunter als reine Sonder- bzw. Randformen des Wearable Computing betrachtet werden.

Der wesentliche Unterschied zwischen beiden Kategorien liegt darin, dass letztere durch ihre Miniaturisierung und oftmals auch neuartige Verbindungstechnologie für Benutzer kaum störend und für Außenstehende gleichzeitig nur bedingt wahrnehmbar sind – beide Faktoren stellten bislang nicht unerhebliche Hürden für einen breiten Marktgang dar. Die Entwicklung des Wearable Computing ist jedoch auch über weite Strecken maßgeblich durch einen anderen Faktor bestimmt: eine geeignete, d.h. kleine, leichte, kostengünstige und intuitiv zu bedienende Hardware, die sowohl eine Massenfertigung erlaubt (geeignet für eine große Zielgruppe) als auch erhöhte Rechnerfunktionalitäten bietet und darüber hinaus einen permanenten Betrieb im weitesten Sinne erlaubt, d.h. in etwa gleichen Zeitrhythmen "aufgeladen" werden kann wie ein herkömmliches Mobiltelefon.

Einen WearComp der alle diese Anforderungen erfüllt gibt es derzeit nicht, wohl aber erste Prototypen, die diese Entwicklung bestätigen. Eines der bekanntesten Systeme dieser Art ist "MIThril" [Mit_HPg] [DSG03], eine am Media Lab des MIT entwickelte Weste, in welche nahezu ein kompletter (universeller) WearComp integriert ist. Nach Außen hin sichtbar sind jedoch nur noch die zentralen Ein- und Ausgabegeräte, in [Abbildung 26] handelt es sich beispielsweise um eine Twiddler-Tastatur und ein Head Mounted Display des Herstellers MicroOptical.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 26: MIT: "MIThril" – Komponenten (li.) und Prototyp (re.) [Mit_HPg]

Alle miniaturisierten Bestandteile sind so in der Weste platziert, dass sich das Gewicht möglichst gleichmäßig auf beide Schultern verteilt. Zudem sind die Module an der Vorderseite der Weste untergebracht, damit weder Sitzen noch die Beweglichkeit an sich eingeschränkt werden - Rücken oder Schultern bleiben überwiegend frei. Ein weiterer Vorteil ist die durch die Miniaturisierung und Segmentierung bedingte Rekonfigurierbarkeit des Systems – die Einbindung neuer Elemente kann schnell und mit verhältnismäßig geringem Aufwand erfolgen. Verbunden werden die Komponenten über ein eigens entwickeltes Bussystem ("MIThril-Body-Bus"): er stellt den wesentlichen Kommunikationsweg zwischem dem Systemkern und Peripheriegeräten bzw. Sensoren dar und besteht lediglich aus einem einzelnen, verzweigten Kabel, welches sowohl Strom als auch Daten transportiert. Für den Anschluß von weiteren Peripheriegeräten kam das USB-Protokoll zum Einsatz, für Komponenten mit geringer Bandbreite (wie beispielsweise Sensoren) wird darüber hinaus ein I2C-Protokoll angeboten. [DSG03]

Aus architektonischer Sicht besteht das LINUX-basierte MIThril derzeit aus 4 zentralen Computerkernen: der BSEV-Core (Single-Board-Computer mit einer entsprechenden Schnittstelle für das HMD), das CerfBoard (agiert zusammen mit einem 1 GB MicroDrive von IBM als NFS File-Server), eine 802.11 Bridge (WaveLAN-Ethernet-Umwandler) und das SAK-Board (Micro-Controller-basierte Data-Acquisition-Plattform für diverse Anwendungen aus dem Bereich Biomedizin als auch Umwelt- bzw. Benutzererkennung). Sie alle kommunizieren über das Ethernet/Strom-Netzwerk (sog. "MIThril-Body-Network") miteinander und erlauben durch den veränderten Ethernet-Hub (welcher sowohl Daten als auch Strom verteilen kann) auch eine einfache Vernetzung mit Geräten die sich nicht direkt am Körper befinden. Im Prinzip handelt es sich dabei um ein Peer-to-Peer-Netzwerk, da die Daten zwischen den Computing Cores direkt, d.h. ohne zentrale Speicherung ausgetauscht werden können. Neue Komponenten bzw. Cores müssen deshalb einige (wenige) Anforderungen erfüllen, um in das Netzwerk aufgenommen zu werden, u.a. wird eine Datentransferrate von 10 MBit/s benötigt und mindestens einer der Kerne muss das MIThril-Body-Network unterstützen – im derzeitigen Prototyp wird dies durch den BSEV-Core gewährleistet. [Lot03]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 27: ETH Zürich / Media Lab MIT: "WearARM" Blockdiagramm [ALT+01]

Mittlerweile entstand in Kooperation mit der ETH Zürich auch ein Folgemodell des vorhandenen Kernsystems – der "WearARM"-Core [DSG03][ALT+01][LAT+01]. Er vereinigt die Funktionalitäten von BSEV-Core, CerfBoard und 802.11 Bridge, bleibt aber trotz Einzelkernlösung der grundsätzlichen Idee von kleinen, austauschbaren Modulen auf flexiblen Substraten treu [siehe Abbildung 27]. Wesentliche Verbesserungen konnten im Rahmen von WearARM v.a. im Bereich des Energieverbrauchs durch einen Niedrigenergie-Prozessor auf RISC-Basis (206-MHz StrongARM SA-1110 mit 128 MB SDRAM [LAT+01]) und ein erweitertes Energiemanagement mittels DSV (Dynamic Voltage Scheduling) erreicht werden. Darüber hinaus wurde die bereits vorhandene Software (z.B. eine Whiteboard-Applikation) weiter verbessert und umfassend ergänzt. Beide Systeme – MIThril als auch WearARM - werden derzeit von den jeweiligen Universitäten v.a. zu Testzwecken eingesetzt, ein Marktgang ist jedoch in naher Zukunft nicht geplant.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 28: ETH Zürich / Media Lab MIT: "WearARM" Prototyp [Eth_HPk]

Neben technischen Änderungen zeigt WearARM noch eine weitere Tendenz auf: die westenartige Gestaltung von MIThril wurde beim WearARM in Richtung eines gurtartigen Designs aufgelöst [siehe Abbildung 28]. Dadurch ist der WearComp nicht nur einfacher zu tragen, sondern vermeidet auch über weite Strecken die rein modische Beurteilung eines potentiellen Nutzers - ohne jedoch den einer Kleidung vergleichbaren Komfort zu verlieren. Darüber hinaus erwarten die wenigsten Anwender bei derartigen Systemen, dass sie waschbar sind oder besonderen Umweltwitterungen widerstehen können; ein Umstand der jedoch oftmals mit SmartClothing-Produkten verbunden ist und die meisten WearComp-Systeme im Highend-Bereich vor beinahe unlösbare Probleme stellt.

Eine ähnliche Entwicklungstendenz findet sich auch in einem Parallelprojekt der ETH Zürich – dem "QBIC" (Belt Integrated Computer) [ALO+04][Eth_HPl][Eth_HPm], einem in Form eines Gürtels ausgebildeten WearComp der v.a. zur Überwachung von Vitaldaten, als Touristenführer oder für Spiele im realen Raum gedacht ist. Rein äußerlich ist er kaum von einem herkömmlichen Gürtel zu unterscheiden [siehe Abbildung 29], im Inneren der Gürtelschnalle versteckt sich jedoch ein 400 MHz starker Xscale-Prozessor (Intel PXA263B1C400) mit 256 MB SDRAM und ein dem WearARM vergleichbares Energiemanagement-System, das den Gesamtverbrauch auf rund 1 Watt senken kann.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 29: ETH Zürich: "QBIC" Prototyp (li.+re.u. [Eth_HPl]) mit schematischer Darstellung (re.o. [Eth_HPm])

Ein zweites Board, welches ebenfalls in der Schnalle untergebracht wurde, bietet darüber hinaus Bluetooth-Funktionalität, einen USB-Controller und eine MMC-Card [siehe Abbildung 30]. Je nach Anwendungsfall kann das Erweiterungsboard im Übrigen auch durch ein anderes System ergänzt werden, sodass trotz der Kompaktheit ein ausnehmend flexibles System entsteht. Nicht mehr in der Schnalle finden sich nur noch die Schnittstellen für Peripheriegeräte (USB-Ports, VGA-Anschluss), welche in den umlaufenden Gürtel ausgelagert wurden. An diesen kann auch die 60x40x20 mm große Batterie mit einer maximalen Betriebszeit von 10 Stunden angeschlossen werden. Mit 44x55 mm gelang der ETH Zürich mit dem Mainboard des QBIC ein ausnehmend kleines System das bei der Größe des Erweiterungsboards mit 48x31 mm sogar noch übertroffen werden konnte. Möglich wurde dies durch einen möglichst umfassenden Einsatz von High-Density-Packaging (HDP) anstatt dem herkömmlichen PCB/SMD-Ansatz.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 30: ETH Zürich: "QBIC" Systemarchitektur [ALO+04]

Im Gegensatz zum WearARM wird der QBIC derzeit auch bereits außerhalb der universitären Praxis erprobt. Im Rahmen des EU-Forschungsprojektes "Wear-IT@Work" [Wea_HP] – dem im Übrigen derzeit größten Forschungsprojekt im Bereich des Wearable Computing - wird das System beispielsweise von Feuerwehrleuten zur Überwachung der eigenen Vitalwerte eingesetzt. Außerhalb des Gefahrenbereiches befindliche Koordinatoren können so jederzeit überprüfen wo sich die jeweiligen Mitglieder des Teams befinden und ob ihre physiologischen Daten eine Gefahrensituation andeuten.

2.2.4 Anwendungsbereiche

Wearable Computing eignet sich für jene mobilen Benutzergruppen, die während der Bewegung selbst (bzw. einer mobilen Aktivität im Allgemeinen) die Funktionalitäten eines Rechnersystems benötigen und ihre aktuelle Tätigkeit für deren Nutzung nicht unterbrechen wollen oder können [vgl. Abbildung 31]. Da WearComps über die Fähigkeit verfügen auf ihre Umgebung zu reagieren und Informationen dazu zu liefern besteht in den meisten Fällen darüber hinaus ein unmittelbarer Wissensbedarf zum direkten Umfeld oder der eigenen Person.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 31: Aspekte von Bewegung und Nutzung bei mobilen Systemen

Die älteste und derzeit immer noch erfolgreichste Anwendung von WearComps findet sich im militärischen Sektor – Soldaten im Feld können über ihr HMD beispielsweise Informationen zum aktuellen Einsatz abrufen, Lagepläne einsehen, mit dem Leiter der Operation kommunizieren u.a.m. Aber auch für Feuerwehrleute, Astronauten oder Taucher wäre eine Unterbrechnung ihrer Tätigkeit nur wenig geeignet um einen Computer zu bedienen. Im zivilen Bereich konnte sich Wearable Computing mittlerweile v.a. im Bereich von Montage und Wartung etablieren. Die meisten Anlagen im Flugzeug- oder Automobilbau sind heute relativ komplex, sodass das zusätzliche Einblenden von Informationen (z.B. welcher Bestandteil geprüft oder ersetzt werden muss) eine nicht zu unterschätzende Hilfe für eine möglichst effiziente Bewältigung einer Aufgabe darstellt. Darüber hinaus können WearComps auch warnen wenn der Monteur einen möglicherweise gefährlichen Fehler begeht oder über eine Netzwerkschnittstelle Hinweise und Anleitungen von einem entfernten Instrukteur erhalten.

Relativ spezialisierte Geräte finden sich mittlerweile auch häufig im medizinischen Bereich, allen voran um Vitaldaten von Patienten zu überwachen, im Bereich von Notfallmedizin um eine möglichst schnelle und optimale Beförderung ins nächste Krankenhaus zu gewährleisten (und damit wertvolle Zeit zu sparen) oder als elektronische Krankenakte und Rehab-Trainer. Auch für behinderte und chronisch kranke Menschen sind mittlerweile Lösungen am Markt bzw. in Entwicklung - Sehhilfen für Blinde oder Exoskelette für Gehbehinderte sind nur einige davon.

Relativ neu sind Anwendungen im Bereich des Wissensmanagements in Form von Touristenführern – sie sollen es Benutzern erlauben individuelle Informationen über Gebäude (Städteführer), Bilder bzw. Skulpturen (Museumsführer) und auch Veranstaltungen u.a.m. abzurufen, während sie durch den urbanen Raum streifen. Auch archäologische Führer die zerfallene Gebäude wieder auferstehen lassen, während sich der Benutzer durch das Gelände bewegt, wurden bereits angedacht und Routenplaner für den Innen- oder Außenbereich finden sich ebenfalls im WearComp-Sortiment. Beinahe seit Anbeginn des Wearable Computing wird darüber hinaus die Idee einer Gedächtnisstütze verfolgt: als Notizblock für Journalisten oder Blog-Reporter sollen WearComps dabei helfen Gedanken und Ideen aufzuzeichnen oder die Umwelt mit Kommentaren und Note-It's zu versehen.

Bei allen diesen Anwendungen steht i.d.R. stets die Aufnahme oder Ausgabe von Daten in Echtzeit im Mittelpunkt. Spezielle Berufsfelder – wie Aktienbroker – für die der Zugang zu Informationen vordergründig unter zeitkritischen Aspekten erfolgt, stellen eine weitere Zielgruppe für WearComps dar. Ergänzt werden sie durch jene Nutzer, die sich zwar im Raum bewegen bzw. Aufgaben ausführen, aber darüber hinaus Zugang zu vernetzten Informationen oder Personen benötigen, sei es um Daten an diese weiterzugeben oder abzurufen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 32: Aktuelle Anwendungsbeispiele von Wearable Computing

Das vielleicht größte Potential für die nahe Zukunft liegt jedoch im Bereich von Unterhaltung bzw. Multimedia. Eine Vielzahl an unterschiedlich skalierten Systemen – vom einfachen in eine Jacke integrierten MP3-Playern bis hin zu aufwendigen Musikinstrumenten oder einem "tragbaren Internet" – wurden inzwischen schon konzipiert und teilweise auch vermarktet, die volle Funktionsfähigkeit eines WearComps ist jedoch meist nicht gegeben. So reagieren die wenigsten Geräte derzeit kontextsensitiv und nähern sich eher etwas aufwendigeren Smartphones an – wenngleich sie auch meist anziehbar sind.

Eine grobe Übersicht zu den wichtigsten Anwendungsfeldern des Wearable Computing findet sich in [Abbildung 33]. Ergänzend sind darüber hinaus aktuelle Beispiele und Systemlösungen in [Abbildung 32] dargestellt – sie fassen im Wesentlichen auch die derzeitige Marktabdeckung und zukünftigen Potentiale zusammen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 33: Anwendungsfelder im Bereich des Wearable Computing [Lob02]

2.3 Meilensteine des Wearable Computing

Vorläufer des WearComp sind zahlreich und können – je nach Dehnung des Definitionsrahmens – bereits in der Einführung von Brillengläsern oder Taschenuhren im 18. Jahrhundert gesehen werden (vgl. [Mit_HPa]). Die eigentliche Entwicklung begann aber erst ab Mitte der 1960er Jahre, schlief danach (v.a. infolge mangelnder Hardware) ein wenig ein, erreichte ihren öffentlichwirksamen Höhepunkt in den 1980ern Jahren um sich schließlich in den letzten Jahrzehnten zum stillen aber effizienten Nischenprodukt für Industrie, Forschung und Militär zu entwickeln und auch langsam den privaten Sektor zu erobern. Da die Geschichte des Wearable Computing in starkem Zusammenhang zum jeweiligen Stand der Hardwareproduktion zu sehen ist, werden nachfolgend neben den wichtigsten Systemen auch wesentliche Einflüsse allgemeiner Natur genannt, während Randprodukte, welche den Bereich nicht längerfristig maßgeblich beeinflussten, vernachlässigt werden.

2.3.1 Grundsteinlegung: 1960-1980

1961/66: Thorp und Shannon entwickeln den ersten WearComp

Um 1955 entwickelte der Physikstudent Ed Thorp [siehe Abbildung 34] die Idee eines Gerätes zur Spielchancenermittlung beim Roulette, die er schließlich in Zusammenarbeit mit dem am MIT tätigen Mathematiker Claude Shannon Anfang der 1960er Jahre realisieren sollte. Das Ergebnis war ein kompaktes, ca. zigarettenschachtelgroßes Gerät mit 12 Transistoren, welches zu einer durchschnittlichen Chancensteigerung von 44% führte. Für einen erfolgreichen Einsatz wurden zwei Personen benötigt: ein aufmerksamer "Observer", welcher sich in der Nähe des Rouletterades befand und die Aufzeichnungen per Computer vornahm und ein eher unaufmerksam wirkender "Bettor" am Tischende, welcher das vom Observer ermittelte Ergebnis per Funk empfing und setzte [Tho98].

Beide mussten jeweils ein Exemplar des Computers mit Mikroschaltern zur Eingabe und einen ohrstöpselgroßen Lautsprecher zur Ausgabe tragen. Thorp und Shannon nutzten dabei zwei Casino-Gewohnheiten aus: einerseits die mechanisch fein gearbeiteten Rouletttische großer Casinos, welche eine relativ genaue Vorhersage erst möglichten und andererseits den Umstand, dass Croupiers entgegen den einschlägigen Richtlinien oftmals keinerlei Einspruch gegen Wetteinsätze erhoben, die nach dem eigentlichen Werfen der Kugel vorgenommen werden. Bei jedem Wurf stoppte nun der Observer die vom Rad bzw. dem Ball benötigte Zeit zum Passieren an bestimmten Markierungen (anfangs per Hand, später per Fuß), indem er die entsprechenden Schalter betätigt und übermittelt das Ergebnis der Bahnberechnung als musikalischen Ton an das auditive Output des Bettors. Dieser setzte anschließend (so spät wie möglich aber so früh wie nötig) in den vermuteten Feldbereich.

Zum Einsatz kam das Gerät erstmals 1961 in Las Vegas. Allerdings blieben die Gewinne zu Beginn eher bescheiden, da die hauchdünnen Kabel der Kopfhörer wiederholt brachen. Nach mehrmaligen Verbesserungen und Ausweitungen auf andere Spielsysteme wie Black-Jack stellten Thorp und Shannon das eingesetzte System 1962/1966 [Tho62] einem größeren Publikum vor und lösten damit eine breite und langandauernde Nachahmerwelle aus [vgl. Abbildung 34], auf die die zunehmend nervöser werdenden Casinobetreiber mit wiederholten Änderungen der Spielregeln reagierten. Weder Thorp noch Shannon ahnten Mitte der 1960er jedoch vermutlich, dass ihre Algorithmen einen rund zwanzigjährigen Kampf zwischen Spielhallen und Spielern eingeleitet hatten.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 34: Ed Thorp (li.) und ein typisches Wearable zur Spielchancenermittlung (re.) [Pen_LI]

Infolge technologischer Verbesserungen bildeten sich in den Folgejahrzehnten immer wieder neue Gruppen mit verbesserten Geräten, welche die bisherigen Casinoregeln stets aufs Neue übertölpeln konnten. Höhepunkt fand diese Entwicklung schließlich 1983 durch Keith Taft, welcher einen regelrechten Handel mit Z-80 basierten Rechnern zum Zählen von Karten betrieb (auch diese wurden per Zehe bedient). Kurz darauf verabschiedete der Staat Nevada ein Gesetz, welches die Verwendung sämtlicher Geräte zur statistischen Vorhersage zukünftig verbot. Die meisten WearComp-Nutzer hatten allerdings schon vordem ein weltweites Casinoverbot erhalten; und auch Ed Thorps Interesse an Roulette- oder Kartenspiel war zwischenzeitlich vergangen: er konzentrierte sich später auf nicht weniger einträgliche Wahrscheinlichkeitsermittlungen an der Börse.

1965: Sutherland entwickelt computerbasierte HMD-Systeme

Bereits 1960 hatte Morton Heilig den ersten Datenhelm als "stereoskopischen Fernsehapparat zum individuellen Gebrauch" erfunden, welchen er 1962 auch patentieren ließ. Sein nie verwirklichter Entwurf eines "Stereoscopic Television" [siehe Abbildung 35] bestand aus einem zentralen optischen Bereich zum Anbringen von dreidimensionalen Fotodias, übermittelte Akustik in Stereo und sogar Gerüche durch einen eigenen "Duft-Generator". Als Filmemacher verfolgte Heilig vordergründig die Entwicklung von Methoden und Maschinen, die es dem Betrachter ermöglichen sollten, sich als Teil der Projektion zu empfinden, indem der Benutzer scheinbar in das Filmmaterial selbst (i.d.R. durch Verstärkung der sinnlichen Wahrnehmung) versetzt wurde. Heilig erfand damit nicht nur das erste Head-Mounted Display (HMD), sondern legte mit seinen Arbeiten auch den Grundstein von Virtual Reality (deren Namen er auch prägen sollte).

[...]


[1] aus [You_LI]: "A particularly difficult and painful moment in Mr. Mann's life as a cyborg came in February, on the way home from Memorial University in Newfoundland, where he had served as an external examiner for a student's dissertation. Security agents at the St. John's International Airport, in Newfoundland, were suspicious of Mr. Mann's computer gear and were not impressed by the explanatory documentation that he carries. They eventually strip-searched him, he says, ripping the electrodes from his body, causing bleeding and damaging his computer system. He became so disoriented without his wearable computer, he says, that he fell repeatedly while boarding the plane."

[2] Hinweis: das linke Bild in Reihe 3 wurde nachträglich ergänzt

[3] Ergänzt um den Aspekt Portabilität

[4] Hinweis: Ergänzt um den Aspekt Mobilität

[5] Hinweis: Alle Abbildungen außer Bild 2 wurden relativ umfassend verändert

Details

Seiten
211
Jahr
2006
ISBN (eBook)
9783638617451
ISBN (Buch)
9783638677974
Dateigröße
9.6 MB
Sprache
Deutsch
Katalognummer
v70947
Institution / Hochschule
FernUniversität Hagen – Lehrgebiet für Parallelität und VSLI
Note
Sehr Gut
Schlagworte
Wearable Computing Benutzerschnittstellen Anziehen

Autor

Teilen

Zurück

Titel: Wearable Computing. Benutzerschnittstellen zum Anziehen