Lade Inhalt...

Universal Access in Human Computer Interaction. Multimodaler Informationszugriff als Beitrag für eine barrierefreie Informationsgesellschaft

Diplomarbeit 2005 153 Seiten

Informatik - Angewandte Informatik

Leseprobe

Inhaltsverzeichnis

Ehrenwörtliche Erklärung

Abbildungsverzeichnis

Tabellenverzeichnis

Listings

1 Einleitung
1.1 Motivation
1.2 Problemstellung und Eingrenzung
1.3 Ziele der Arbeit

2 Grundlagen
2.1 Begriffsklärung
2.1.1 Zugänglichkeit
2.1.2 Benutzbarkeit
2.2 Überprüfen der Hardwarezugänglichkeit und Benutzbar- keit
2.3 Erstellung und Überprüfen von zugänglichen Informati- onsangeboten
2.3.1 Richtlinienerstellende Autorität - Web Accessibili- ty Initiative des W3C
2.3.2 WCAG 1.0 Richtlinie zur Gestaltung von zugäng- lichen Webangeboten
2.3.3 Software zur Überprüfung der Einhaltung der Richtlinien
2.4 Multimodale Schnittstellen
2.4.1 Begriffsbestimmung und Entwicklungsprozess mul- timodaler Schnittstellen
2.4.2 Vorteile multimodaler Schnittstellen
2.4.3 Zielgruppe für den Einsatz multimodaler Schnitt- stellen
2.4.4 Erweiterung der Modalität durch spezielle Hard- und Software
2.4.5 Multimodale Software mit Schwerpunkt auf Spracherkennung; Stand der Technik
2.5 Das Prinzip der Spracherkennung durch Rechnersysteme

3 Entwicklungskonzept einer multimodalen Sprachanwendung

3.1 Der Einsatz von sprachgesteuerten Diensten

3.2 Verbesserung der Zugänglichkeit von Informationssystemen

3.3 Einsatzgebiete von Sprachanwendungen

3.4 Integration der späteren Nutzer in den Entwicklungspro- zess von Sprachschnittstellen

3.5 Graphische Anwendung kontra Sprachanwendung

3.6 Besonderheiten von Sprache als Kommunikationsmedium .

3.7 Fehler und Fehlerkorrektur der Spracherkennung

3.7.1 Häufige Fehlerquellen für keine oder falsche Worterkennung

3.7.2 Fehlerhafte Erkennung von Befehlen

3.7.3 Techniken zur Fehlerkorrektur durch den Benutzer .

3.8 Prototypenevaluation mit Hilfe eines Fragebogens

3.9 Übersichtsskizze

4 Umsetzung des Konzeptes für den Interaktiven Spiegel des ShopLab Projektes
4.1 Vom ShopLab Projekt zum Interaktiven Spiegel
4.2 Hardwarezugänglichkeit des Interaktiven Spiegels
4.2.1 Untersuchung der Hardware mit Hilfe der IBM Richtlinie
4.2.2 Ergebnisse der Untersuchung nach den IBM Richt- linien
4.2.3 Verbesserungsvorschläge
4.3 Ist der Einsatz von Sprachein- oder ausgabe sinnvoll? . . .
4.4 Einbeziehung des Nutzers durch eine Natural Dialog Study
4.5 Auswahl verschiedener Entwicklungs- werkzeuge
4.6 Umsetzung verschiedener Ansätze zur Spracherkennung . .
4.6.2 Microsoft Speech SDK
4.6.3 Speech for Java
4.6.4 Einsatz von Voice Tools for SMAPI
4.6.5 Funktionsskizze der untersuchten Entwicklungs- werkzeuge
4.7 Umsetzung der Sprachanwendung mit Voice Tools for SMAPI
4.7.1 Punkteplan zur Programmierung der Sprachan- wendung
4.7.2 Programmierung der Oberfläche
4.7.3 Programmierung der Sprachbefehle . .
4.7.4 Erweiterbarkeit um neue Befehle
4.8 Fragebogenevaluation des Prototypen

5 Zusammenfassung und Ergebnis
5.1 Erreichte Ziele
5.2 Ausblick

6 Literaturverzeichnis

7 Glossar

A Anlagenübersicht

B Anhang

B.1 Quellcode, Voice Tools for SMAPI

B.2 Quellcode, Java for Speech

B.3 Evaluationsbogen

Abbildungsverzeichnis

2.1 Konformitätsstufen zugänglicher Informationsangebote

2.2 Alterspyramide für 2001 und 2050,

2.3 Verbesserung durch den Einsatz multimodaler Schnittstellen

2.4 Personen mit Behinderungen in verschiedenen Bereichen der Wahrnehmung

2.5 Internetnutzung nach Alter in Deutschland im Jahr 2003

2.6 Transportables Braillelesegerät

2.7 Mobile Kompakt Braillezeile

2.8 Tastenmaus mit Fingerführungsraster

2.9 Tastenmaus mit Anschlussmöglichkeit für Tastatur oder Joystick

2.10 Tastenmaus mit integriertem Joystick

2.11 Joystick für Links- und Rechtshänder

2.12 Angepasste Rollkugel

2.13 Mini Trackball

2.14 Kopfmaus

2.15 Kopfmaus mit USB Anschluss

2.16 Gesichtserkennung mit QualityEye

2.17 Architektur einer HMM basierten Spracherkennung

2.18 Beispiel eines Suchgraphen zur Worterkennung nach dem HMM Prinzip

3.1 Zeile aus dem Posteingang von Outlook Express

3.2 Beispielaufgabe aus dem Evaluationsbogen der Sprachan- wendung

3.3 Übersichtsskizze des Entwicklungskonzeptes

4.1 ShopLab Kernplattform mit Funktionsmodulen

4.2 Funktionsübersicht des Interaktiven Spiegels I

4.3 Funktionsübersicht des Interaktiven Spiegels II

4.4 Benutzerinterface in Farbe und schwarz / weiß

4.5 Einordung der Sprachschnittstelle (Speech-API)

4.6 Funktionsskizze der untersuchten Entwicklungswerkzeuge

4.7 Screenshot, graphische Oberfläche der Sprachanwendung zur Steuerung des interaktiven Spiegels

4.8 Beispielaufgabe aus dem Evaluationsbogen der Sprachan- wendung

Tabellenverzeichnis

3.1 Entscheidungsmatrix; Wann ist Spracheingabe sinnvoll?

3.2 Entscheidungsmatrix; Wann ist Sprachausgabe sinnvoll?

4.1 Durch die “Natural Dialog Study“ gewonnenen Sprachbefehle

4.2 Übersicht der programmierbaren Schnittstellen und Spra- cherkennungsengine

A.1 Anlagenübersicht

Listings

4.1 XML Kommando zum Drehen des Avatars

B.1 Visual Basic: Auszug aus Form1.vb, Vorbereiten der Spra- chengine unter Verwendung des VoiceTools for SMAPI

B.2 Visual Basic: Auszug aus Form1.vb, Definition der Sprach- befehle

B.3 Visual Basic: Auszug aus Form1.vb, Behandlung eines er- kannten Sprachbefehls

B.4 Visual Basic: Auszug aus Socket connection.vb, Daten über einen Socket Verbindung senden

B.5 Visual Basic: Auszug aus Form1.vb, Behandlung eines er- kannten Sprachbefehls

Ehrenwörtliche Erklärung

Ich versichere hiermit, dass ich die vorliegende Arbeit selbstständig und ohne Benutzung anderer als den angegebenen Hilfsmitteln angefertigt habe. Alle Stellen, die wörtlich oder sinngemäß aus veröffentlichten und nicht veröffentlichten Schriften entnommen sind, sind als solche kenntlich gemacht. Die Arbeit hat in gleicher oder ähnlicher Form noch keiner anderen Prüfungsbehörde vorgelegen.

1 Einleitung

1.1 Motivation

Durch meine Arbeit im ShopLab Projekt, einem 3jährigen, europäischen Forschungsprojekt unter der Leitung der Fachhochschule Fulda gewann ich meine ersten Erfahrungen im Bereich der nutzerfreundlichen Hard- und Software.

Die Projektpartner entwickeln technische Installationen zur Unterstützung des Einkaufsprozesses, für den Einsatz direkt im Einzelhandelsgeschäft. Bei einem der entwickelten Prototypen handelt es sich um einen “Interaktiven Spiegel“ der das virtuelle Zusammenstellen und Betrachten von Maßhemden ermöglicht.

Bei den entwickelten Prototypen liegt ein Schwerpunkt auf der Be- nutzerfreundlichkeit. Die ständig wechselnden Kunden im Geschäft be- nötigen ein intuitiv bedienbares Gerät mit einer sehr kurzen Lernphase. Um Benutzerfreundlichkeit zu gewährleisten ist eine Einbeziehung der Zielgruppen in den Entwicklungsprozess notwendig, dies geschah durch Vorstellung des Prototypen, Nutztertests und Diskussionen.

Vorgestellt und getestet wurde der Spiegel:

- Mai 2003

Testbetrieb des Spiegels beim Projektpartner “Campe & Ohff“ in einem Geschäft für Maßhemden in Berlin für vier Wochen

- Juni 2003

Vorstellung des Spiegels vor einer Gruppe von Rollstuhlfahrern in Frankfurt

- Mai 2004

Vorstellung des Spiegels auf der CeBit 2004

- Mai 2004

Betrieb und Nutzertest in der Filiale von “Campe & Ohff“ für vier Wochen

- Juli 2004

Nutzertests und Diskussion des Spiegels mit einer Gruppe von Rollstuhlfahrern in Frankfurt

- Juli 2004

Umfangreiche Fragebogenevaluation nach dem in Kapitel 3.8, Seite 57 beschriebenen Vorgehen

Das Ergebnis dieser Studien und Diskussionen, an denen ich teilgenommen habe, ist wie folgt zu bewerten.

Für körperlich Benachteiligte, ältere Menschen sowie Menschen mit gerin- gen technischen Kenntnissen wäre es hilfreich, wenn zu Maus, Tastatur und Bildschirm alternative Ein- und Ausgabemethoden zur Verfügung stehen würden.

Dies begründet sich vor allem in der schlechten Bedienbarkeit und Zugänglichkeit von Touch Screen und dem Navigationselement des Spie- gels für Rollstuhlfahrer und Menschen mit Schwächen in der Feinmotorik.

Benutzerfreundlichkeit ist ein Muss für die Entwicklung künftiger Systeme, mit Blick auf die immer komplexer werdenden Funktionsangebote neuer Anwendungen.

1.2 Problemstellung und Eingrenzung

”As applications become more complex, a single modality alone does not permit diverse users to interact efficetively across different tasks and usage environments. However, a flexible multimodal interface offers people the choice to use a combination of modalities, or to switch to a better-suited modality.”1

Dieses Zitat spiegelt ein Problem der Informationsgesellschaft wieder. Durch stetig steigenden Wert und Umfang der verfügbaren Informa- tionen werden die Anwendungen zum Zugriff auf diese Informationen immer komplexer.

Anwendungen, die Informationszugriff ermöglichen, sind meist jedoch nur über eine Art und Weise zu bedienen, sie sind unimodal.

Ein Beispiel hierfür ist ein Browser, das Werkzeug zum Sichten von In- formationen aus dem Internet. Er kann nur über Maus oder Tastatur bedient werden und bietet als Ausgabemedium nur den Bildschirm.

Menschen sind von Natur aus allerdings multimodal, was sich bereits an der natürlichen Kommunikation zeigt. Beispielsweise wird jede Kommunikation, bei der sich Menschen gegenüber stehen, immer auch durch Gesten und Mimik begleitet.

Die vorliegende Arbeit befasst sich mit dem Abbau von Barrieren in der Informationsgesellschaft über den Weg, die Technik besser an den Menschen anzupassen. Denn durch die eingesetzte Hard- und Software entstehen immer mehr Barrieren die es zu überwinden gilt.

Ein Mittel hierfür ist die Erweiterung der vorhandenen Ein- und Ausgabemodalitäten durch die Steuerung von technischen Systemen durch natürliche Sprache.

Zu Beginn der Arbeit werden Grundlagen in der Erstellung von zugänglichen Informationsangeboten geschaffen. Hierzu werden beste- hende Zugänglichkeitsrichtlinien vorgestellt, im Besonderen wird auf die “WCAG 1.0 Guideline“ des W3 Konsortiums (W3C) eingegangen.

Eine Definition des Begriffes “Zugänglichkeit“ in diesem Zusammenhang ist in Kapitel 2.1.1 auf Seite 7 zu finden.

Die Richtlinie des W3C wurde vom Bundesministerium des Inneren als “Verordnung zur Schaffung barrierefreier Informationstechnik nach dem Behindertengleichstellungsgesetz“ vom 17.Juli 20022 als eine verpflichten- de Richtlinie für öffentliche Informationsangebote in Deutschland verab- schiedet.

Die Einhaltung diese Richtlinie ist zum Dezember 2004 in Form eines Gesetzes gefordert. Zur Evaluierung der Hardware des “Interaktiven Spiegels“ auf Benutzbarkeit wird die “IBM Hardware peripherals accessibility Checklist“3 von IBM verwendet.

In einem zweiten Schritt werden multimodale Schnittstellen untersucht. Dabei handelt es sich um Schnittstellen, die mehrere Arten der Ein- und Ausgabe verarbeiten. Hier kann unter anderem die Sprache ein weiterer Modus sein.

Der theoretische Teil kann als ein Konzept zur Entwicklung von Sprachanwendungen verstanden werden. Das Konzept führt von Entscheidungshilfen zum Einsatz von Sprache über die Besonderheiten von Sprache, auch im Vergleich zu bildschirmbasierten Ein- und Ausgaben bis hin zur Einbeziehung der späteren Nutzer.

Am Ende steht die Behandlung von Spracherkennungsfehlern und eine abschließende, umfangreiche Fragebogenevaluation der Sprachan- wendung.

Im praktischen Teil wird ein Prototyp einer sprachgesteuerten Software implementiert. Hierzu werden zahlreiche Entwicklungswerkzeuge näher untersucht. Die entwickelte Sprachanwendung steuert den “Interaktiven Spiegel“ des ShopLab Projektes.

1.3 Ziele der Arbeit

Theoretische Ziele dieser Arbeit sind einerseits die Schaffung von Grundlagen in den folgenden Bereichen:

- Hardwarezugänglichkeit
- zugängliche Informationsangebote
- multimodale Benutzerschnittstellen
- Prinzipien der Spracherkennung

Andererseits soll ein Konzept zur Entwicklung von Sprachanwendungen erstellt werden, mit Augenmerk auf:

- Sinnhaftigkeit des Einsatzes von Sprache als Ein- und Ausgabeme- dium
- Integration der späteren Nutzer in die Entwicklung
- Besonderheiten von Sprache im Vergleich zu anderen Medien
- Fehlerbehandlung bei Sprachanwendungen
- Fragebogenevaluation eines Prototypen

Das praktische Ziel ist die Entwicklung eines Prototypen zur Sprachsteuerung des “Interaktiven Spiegels“ durch:

- die Integration der Nutzer anhand von Sprachstudien
- den Vergleich der Entwicklungstechnologien für Sprachanwendungen
- das Erstellen eines Fragebogens zur Prototypenevaluation

2 Grundlagen

2.1 Begriffsklärung

2.1.1 Zugänglichkeit

Den Begriff Zugänglichkeit kann man im Zusammenhang mit Information wie folgt definieren:

Zugänglich sind Informationen, wenn sie für Menschen jeglichen Alters, Bildungsstandes und körperlichen Zustandes abrufbar sind. Dies ist nur möglich, wenn die Beschaffenheit der Information durch MetaInformationen beschrieben wird.

Diese Meta-Informationen werden durch Braille- oder Sprachausgabe ausgewertet und machen die Kerninformation erst nutzbar. Einfachstes Beispiel hierfür wäre die alternative Beschreibung eines Bildes durch einen Text1.

2.1.2 Benutzbarkeit

Bei dem Begriff “Benutzbarkeit“, im Englischen “Usability“, han- delt es sich nicht um einen frei definierbaren Begriff. Im Kern der Benutzerfreundlichkeit stehen die Begriffe “Effizienz, Effektivität und Zufriedenheit“, dies ist in den Normen DIN EN ISO 92412 festgeschrieben.

Effektivität meint hierbei, dass der Benutzer eines Produktes, ei- Effektivität ner Software oder Website seine Ziele erreichen kann. Möchte er beispielsweise auf einer Website eine Ware bestellen, ist der Vorgang effektiv, wenn es ihm gelingt.

Das Kriterium Effizienz betrifft den Aufwand, der zur Erreichung des Effizienz Ziels nötig ist. Liegen die Kundendaten, etwa bei einem Bestellprozess schon vor, weil der Kunde sich über eine Kundennummer identifiziert hat, ist es nicht effizient, wenn alle Adressdaten erneut aufgenommen werden müssen.

Das Kriterium Zufriedenheit schließlich umfasst die subjektive Kom- Zufriedenheit ponente. Hier wird miteinbezogen, ob der Benutzer ein Produkt mag und sich damit wohlfühlt.

Wenn die drei Kriterien Effektivität, Effizienz und Zufriedenheit für ein Produkt erfüllt sind, ist es ein benutzerfreundliches Produkt.

Je nach Interessen und Zielen werden die einzelnen Kriterien, die die Benutzbarkeit beschreiben, verschieden gewichtet3.

Benutzbarkeit von Hardware kann anhand einer Richtlinie von IBM evaluiert werden.

2.2 Überprüfen der Hardwarezugänglichkeit und Benutzbarkeit

Zur Überprüfung der Benutzbarkeit von Hardwareinstallationen und Pe- ripheriegeräten wird die “Hardware peripherals accessibility Checklist“ von IBM verwendet, verfügbar ist diese in der Version 3.5 vom Mai 2003. Entwickelt wurde diese Prüfliste für Drucker, Faxgeräte, Kopierer und ähnliche Produkte, an denen der Benutzer keine Hilfstechnologien instal- lieren kann.

Beispielsweise kann ein solches Produkt auch ein Terminal in einer Vi- deothek sein, das es ermöglicht Filmausschnitte anzusehen. Hier hat der Benutzer keine Möglichkeit Hilfstechnologie, wie eine alternative Tasta- tur zu installieren.

Die Richtlinie untersucht fünf Hauptgesichtspunkte:

- Steuerelemente

- Tasten und Tastaturen

- Farbe und Kontrast

- Audio

- Zeitverhalten4

Es folgt eine genaue Erläuterung der genannten Prüfpunkte.

Kontrollen und Bedienelemente Diese sollen leicht erreichbar und mit wenig Kraft und Geschicklichkeit zu bedienen sein. Werden biometrische Methoden zur Erkennung des Benutzers eingesetzt, sollten auch Alternativen angeboten werden, beispielsweise Fingerabdruck- oder Iriserkennung.

Bei der Verwendung von berührungsintensiven Eingabefeldern, wie dem Touchscreen, sollten Alternativen wie etwa ein Tastenfeld zur Verfügung stehen. Im Allgemeinen soll das System so ausgerüstet sein, dass keine zusätzlichen Hilfstechnologien für körperlich Benachteiligte notwendig sind.

Tasten und Tastaturen Der Zustand aller feststellbaren Tasten sollte visuell oder akustisch erkennbar sein.

Alle Tasten sollten taktil erkennbar sein, ohne dass sie aktiviert werden müssen. Ein blinder Nutzer kann nur so die Funktion erkennen. Sollte es möglich sein, bei einem dauerhaften Tastendruck eine fort- laufende Anzahl von Zeichen auszugeben, ist es notwendig, dass die Zeit bis zur Mehrfachausgabe von Zeichen mindestens bis auf zwei Sekunden regelbar ist. Ist dies nicht möglich, kann es passieren, dass ein Nutzer mit motorischen Defekten keine korrekten Eingaben machen kann, da er seine Finger nicht schnell genug von den Tasten entfernen kann.

Farbe und Kontrast

Farbe sollte nicht die einzige Möglichkeit sein, Bedien- und Anzeigeelementen Funktionen zuzuordnen, wie beispielsweise bei einer mehrfarbigen Signallampe.

Manche Nutzer reagieren empfindlich auf helle Farben und könnten Buchstaben nur erkennen, wenn der Farbkontrast zwischen Vorder- und Hintergrund auf ihre Bedingungen einstellbar ist.

Audio

Besitzt das Gerät eine Möglichkeit zur Audioausgabe, sollte diese leicht regelbar sein und eine Rückstellmöglichkeit auf die Standardeinstellung zur Verfügung stellen. Das Gerät sollte ebenfalls einen Ausgang für einen Standardkopfhörer haben. Eine steuerbare Ausgabe, Vor- und Rücklauf sowie eine Stopfunktion wären sinnvoll.

Zeitverhalten

Manche Nutzer haben Schwierigkeiten innerhalb kurzer Zeit Informatio- nen aufzunehmen oder auf Ereignisse zu reagieren. Sollte die Antwortzeit abgelaufen sein, dann ist es notwendig, dies zu signalisieren, so dass der Nutzer die Möglichkeit hat dem System mitzuteilen, dass er mehr Zeit benötigt.

Ein Flackern zwischen 2 und 55 Hz muss vermieden werden, da diese Frequenzen bei Epileptikern Anfälle hervorrufen können.

Durch den Einsatz dieser Richtlinie kann bei technischen Installationen eine wesentlich höhere Benutzbarkeit erreicht werden, im Besonderen werden körperlich Benachteiligte und ältere Menschen erreicht, die einen nicht unerheblichen Teil unserer Bevölkerung ausmachen.

In der Richtlinie finden sich neben den Prüfpunkten ebenso Hinweise auf mögliche Techniken, wie diese erfüllt werden können. Die “IBM Hardware peripherals accessibility Checklist“ ist unter der Internetadresse:

http://www-306.ibm.com/able/guidelines/peripherals/accessperipherals.html (Stand 20.06.2004) abrufbar.

Zugängliche und benutzbare Hardware ist der erste Schritt, diesem folgt das Erstellen von zugänglichen Informationsangeboten.

2.3 Erstellung und Überprüfen von zugänglichen Informationsangeboten

2.3.1 Richtlinienerstellende Autorität - Web Accessibility Initiative des W3C

Zugänglichkeitsrichtlinien werden von der “Web Accessibility Initiative“5 des W3C Konsortiums ausgearbeitet.

”Das W3C wurde im Oktober 1994 gegründet, um das World Wide W3C Web zu seiner vollen Entfaltung zu führen. Dazu werden einheitliche Protokolle entwickelt, die den Fortschritt des Webs fördern und die Interoperabilität sicherstellen sollen. Heute hat das W3C über 420 Mit- glieder und annähernd 60 Vollzeitkräfte weltweit beschäftigt, die Beiträge zur Entwicklung von W3C Spezifikationen und Software leisten.”6

Die Web Accessibility Initiative (WAI) hat drei Richtlinien in Bezug auf zugängliche Informationsangebote entwickelt:

- Web Content Accessibility Guidelines 1.0, um Internetangebote zugänglich gegenüber körperlich Benachteiligten zu machen

- User Agent Accessibility Guidelines 1.0, zur Erstellung von Browsern, multimedia Playern und unterstützenden Technologien

- Authoring Tool Accessibility Guidelines 1.0, zur Erstellung von authoring Werkzeugen, mit denen man zugängliche Informationsangebote erstellen kann7.

Im Folgenden wird näher auf die Web Content Accessibility Guidelines eingegangen und Software vorgestellt, welche die Einhaltung dieser Richtlinie überprüfen kann.

2.3.2 WCAG 1.0 Richtlinie zur Gestaltung von zugänglichen Webangeboten

Diese Richtlinie ist eine W3C-Empfehlung vom 5. Mai 1999 und erläu- WCAG tert, wie Informationsangebote fur körperlich Benachteiligte zugänglich 1.0 gemacht werden können. Umsetzer dieser Richtlinie sind somit die Ent- wickler von Informationsangeboten, in erster Linie die Entwickler von Internetseiten.

Die “Web Content Accessibility Guidelines 1.0“ stellen ein Refe- renzdokument dar, das Zugänglichkeitsgrundsätze und Designideen beschreibt. Ebenso enthält es eine Checkliste zur Überprüfung der Zugänglichkeitskriterien8, geordnet nach Thema und Priorität. Um die Erfüllung dieser Prüfpunkte zu erleichtern, ist das Dokument ”Techni- ques for Web Accessibility Guidelines 1.0”9 den Richtlinien angefügt. Es enthält technische Vorschläge für die Erfüllung der einzelnen Punkte der Checklist mit Hilfe von HTML und Style Sheet Programmierung. Die Checkliste führt drei verschiedene Prioritätsstufen auf, abhängig vom jeweiligen Einfluss auf die Zugänglichkeit des Angebotes.

Priorität 1, Punkte dieser Stufe müssen erfüllt werden, anderen- Prioritätsstufen falls wird es für manche Gruppen von Nutzern unmöglich sein, auf die Informationen zuzugreifen. Hierunter fallen Punkte wie:

- Bereitstellen von äquivalenten Informationen zu hörbaren oder bild- haften Inhalten wie etwa zur Nutzung von Blindenschrift-Displays

- Äquivalente für dynamischen Inhalt müssen aktualisiert werden, wenn sich dieser ändert

Priorität 2, Punkte dieser Stufe sollen erfüllt werden. Werden sie nicht erfüllt, kann es für manche Nutzer schwierig werden, auf bestimmte Informationen zuzugreifen. Hierunter fallen Punkte wie:

- Das Ziel eines Links muss klar identifiziert werden

- Navigationsmechanismen sind in konsistenter Weise zu verwenden

Priorität 3, Punkte dieser Stufe können erfüllt werden. Werden sie nicht erfüllt, kann es für manche Nutzer etwas schwierig werden auf bestimmte Informationen zuzugreifen.

- Die vorherrschende Sprache des Dokuments ist deutlich zu machen

- Vermeiden Sie Bewegung in Seiten, bis Benutzeragenten das Einfrieren von Bewegung ermöglichen

Es ist zu beachten, dass diese Punkte nur einen Auszug aus der Checklist darstellen, die gesamte Checkliste befindet sich in den Anlagen auf der CD10 oder unter http://www.w3.org/Consortium/Offices/Germany/Trans/WAI/checkliste.html (Stand 02.06.2004) hierbei handelt es sich um die offizielle deutsche Übersetzung.

Es werden durch das W3C drei Stufen der Konformität definiert:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1: Konformitätsstufen zugänglicher Informationsangebote

Quelle: http://www.w3.org/WAI/WCAG1-Conformance.html (Stand 09.07.2004)

Konformität Stufe “A“ - alle Punkte der Stufe 1 sind erfüllt.

Konformität Stufe “Double-A“ - alle Punkte der Stufen 1 und 2 sind erfüllt.

Konformität Stufe “Triple-A“ - alle Punkte der Stufen 1, 2 und 3 sind erfüllt11.

Wird eine Konformitätsstufe erreicht, ist es erlaubt eines der entspre- chenden Logos, wie es in Abbildung 2.1 auf der Vorseite zu sehen ist, im Informationsangebot zu platzieren; weiteres zur Nutzung der Logos ist unter http://www.w3.org/WAI/WCAG1-Conformance.html.en (Stand 06.06.2004) zu finden.

Der Schwerpunkt der Richtlinie liegt auf der Erstellung von zugänglichen Schwerpunkt Web - Angeboten. Sie l¨sst sich aber auch auf die generelle Erstellung der von Informationsangeboten anwenden, da viele ausgereifte Gedanken zur Richtlinie Verbesserung der Zugänglichkeit von Informationsangeboten enthalten sind.

Zugängliche Inhalte sind nicht nur für körperlich Benachteiligte, sondern für alle Nutzer ein Gewinn. Nicht zu vergessen sind hier besonders ältere Menschen, die einen immer größer werdenden Teil der Bevölkerung ausmachen, wie in Abbildung 2.2 zu sehen ist. Alterspyramide

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2: Alterspyramide für 2001 und 2050,

Quelle: Statistisches Bundesamt, Alterspyramiden, 2004

Speziell in der Gruppe der 50 bis 59jährigen nutzen um die 50 Prozent das Internet, 25 Millionen sind noch keine Nutzer12

Es wird zum jetzigen Zeitpunkt eine zweite Stufe der WCAG 1.0 WCAG entwickelt, die WCAG 2.013. Diese erweiterte Version befasst sich mit 2.0 der generellen Erstellung von zugänglichen Informationsangeboten, entfernt sich also von der Darstellung von Informationen im Browser. Zum jetzigen Zeitpunkt, Juli 2004, handelt es sich jedoch bei den WCAG 2.0 noch um ein unvollständiges Arbeitsdokument.

2.3.3 Software zur Überprüfung der Einhaltung der Richtlinien

Um Informationsangebote im Internet auf ihre Zugänglichkeit zu prüfen, stehen Online- und Offlinetools zur Verfügung.

Bei der Verwendung der Online-Tools wird die zu prüfende Inter- Online- netadresse eingegeben, daraufhin wird ein Bericht erstellt und zum Tool Nutzer zurück gesendet.

Ein Tool zum Online-Test ist “Bobby“. Bobby erlaubt das kostenfreie Testen einzelner Webseiten, jedoch kann nur eine pro Minute getestet werden14. Diese Art der Überprüfung eignet sich nur bei einer gerin- gen Anzahl von Seiten, da jede einzeln übermittelt werden muss. Bei einer größeren Seitenzahl bietet sich die Verwendung von Offline Tools an.

Offline Tools werden beim Programmierer auf dem Rechner instal- Offline- liert und sind in der Lage eine beliebige Anzahl von Seiten zu prufen. Tools Diese Werkzeuge gibt es als einzelne Programme, aber auch schon in Produkten wie Dreamweaver integriert. Hier einige Beispiele zu Offline Test Tools:

Accessibility Toolbar 0.98

Dieses Browser Plug-in für den Internet Explorer von Microsoft erscheint als zusätzliche Menüleiste im Browser. Durch diese Leiste besteht die Möglichkeit Internetseiten in verschiedenen Auflösungen, Kontrastarten, ohne Javascript und Style Sheets anzusehen.

Des Weiteren enthält die Menüleiste zahlreiche Hyperlinks zu Ressourcen im Internet15. Zu finden ist dieses Plug-in auch in den Anlagen auf der CD im Ordner “Software“. Dreamweaver MX 2004

Ab der Version MX 2004 ist es möglich einen Bericht über die gesamte Webpräsenz zu erstellen. Dieser Bericht prüft die Seiten nach der WCAG 1.0 und stellt Vorschläge zur Verbesserung der Kritikpunkte bereit16.

Watchfire Bobby 5.0

Hierbei handelt es sich um ein kostenpflichtiges Offline-Tool, das die Seiten auf die WCAG 1.0 Konformität testet, der Preis liegt bei ca. 300 Euro17.

Eine weitere Auswahl von Evaluationswerkzeugen ist auf der Webseite des W3 Konsortiums unter dem Hyperlink http://www.w3.org/WAI/ER/existingtools.html/#Evaluation (Stand 25.05.2004) zu finden.

2.4 Multimodale Schnittstellen

2.4.1 Begriffsbestimmung und Entwicklungsprozess multimodaler Schnittstellen

Multi = “als Wortteil viel, Viel“18

Modalität = “Art u. Weise des Geschehens, des Seins od. des Denkens; Ausführungsart; Möglichkeit; Bedingung - modal“19

Multimodale Systeme verarbeiten zwei oder mehr Eingabemöglich- Multimodale keiten, die je nach Belieben kombiniert werden können. Eingabe- Solche Eingabemodi sind: möglichkeiten

- Sprache
- Stift
- Berührung
- Gesichtsausdruck (Mimik)
- Augen-, Kopf- und Körperbewegung
- Lippenbewegungen

Die Anfänge multimodaler Schnittstellen gehen zurück ins Jahr 197820. Entwicklungs- Die Benutzer des “Media Room“ sitzen vor eine Projektionswand und geschichte können durch Sprachbefehle auf dieser Wand 2-dimensionale Objekte er- zeugen. Als Befehl steht beispielsweise “Erzeuge hier ein blaues Quadrat“ zur Verfügung.

Durch Sprechen dieses Befehls und gleichzeitiges Tippen auf ein an der Armlehne des Stuhles befestigtes Touchpad wird die geometrische Figur erzeugt. In diesem Fall war “hier“ das Schlüsselwort, das über die x- und y-Koordinaten des Touchinterfaces aufgelöst wurde21.

Durch die Weiterentwicklung der Spracherkennungstechnologien zwischen 1980 und 1990 entstanden zahlreiche Anwendungen, die Sprache als eine alternative Eingabemöglichkeit nutzen. Viele dieser frühen Systeme sind multimodale, multimediale Karten im Bereich Tourismus und Militär, die auf Sprache und Gesten reagieren.

Beispiele für solche Anwendungen aus den 90er Jahren sind:

CURBICON, ein militärisches System, das Befehle wie “Ist dies (zeigen) eine Militärbasis?“ versteht und auswertet22.

Georal, ist ein Tourismus Informations - System, das es ermöglicht Reiserouten zu planen. Hierzu werden Sprache und ein Touchscreen als Eingabemedien genutzt23.

Durch Shoptalk bietet sich dem Nutzer die Möglichkeit, Maschinen eines Produktionsablaufes über Gesten auszuwählen. Es kann folgendes Kommando gegeben werden “Zeige mir alle Ausfallzeiten dieser Maschine“.

Die Verarbeitung von Sprache und Gesten hat sich bis heute dahinge- Entwicklungs- hend weiterentwickelt, dass zwei parallele Eingabestrome gleichzeitig richtung ausgewertet werden. Somit werden jeweils zwei erkennungsbasierte Technologien in Kombination eingesetzt. Durchgesetzt haben sich die Kombinationen von:

- Sprache und Stift
- Sprache und Gesten
- Sprache und Lippenbewegung

Ein System zur Gesten- und Spracherkennung ist das QuickSet System,24 dessen Anwendungsmöglichkeiten von tragbaren Geräten bis hin zu wandgroßen “Live Boards“ zur Verwendung bei Teambesprechun- gen reichen.

Ein weiteres Projekt, das sich mit der Entwicklung von Gesten-, Stift- und Spracherkennung befasst, ist das EMBASSI25 Projekt. Es versucht mit Hilfe des Einsatzes von virtuellen, interaktiven Assistenten, die per Sprache und Gesten bedienbar sind, komplexe Anwendungen bedienerfreundlicher zu machen.

Besondere Einsatzgebiete hierfür sind der Privathaushalt, das Kraft- fahrzeug und Terminalsysteme, wie Bank- und Fahrscheinautomaten. Beim Einsatz im Haushalt wird im EMBASSI Projekt eine Assistenz bei

der geräteunabhängigen Aufnahme und Speicherung von Medien reali- siert. Die Äußerung “Bitte nimm heute Abend den Krimi auf“ resultiert in einer entsprechenden Auswertung der Aussage (wann, was, womit) und ergibt schließlich die Programmierung des Videorekorders für die Aufnahme der gewünschten Sendung. Besonderes im Privathaushalt kommen Geräte wie ein Braille Pad aus Kapitel 2.4.4 auf Seite 23 zum Einsatz26.

Bei den kurz beschriebenen Systemen handelt es sich durchgehend aktive um Systeme mit “aktiver Spracherkennung“. Aktive Systeme verlangen und nach einem direkten Kommando an den Computer. Diesen Systemen passive steht die “passive Spracherkennung“ gegen¨ber. Spracher- Passive Systeme benötigen keine ausdrücklichen Befehle, sie überwa- kennung chen alle Eingabeströme und entscheiden selbstständig, ob es sich um einen an sie gerichteten Befehl handelt und reagieren dann entsprechend. Passive Systeme spielen bei der Erfassung von Gesichtsausdrücken und Gesten eine Rolle, werden aber in dieser Arbeit nicht behandelt.

Aktuelle Entwicklungsrichtung ist das Mischen dieser beiden Erkennungsarten, aktiv und passiv, wie es bei der Sprach- und Lippenerkennung geschieht27.

Weiterführendes zum Thema “Lippenlesen durch den Computer“ ist bei Intel zu finden28. Hier steht ein Open Source Paket mit Namen “OpenCV“ zur Verfügung, das um die 500 Bildbearbeitungsfunktionen enthält und den Entwickler bei der Programmierung von Gesten- oder Lippenerkennung unterstützt.

Systeme mit mehreren Eingabemodalitäten müssen dem Nutzer über Erfolg und Misserfolg der Eingabe Rückmeldung geben. Im folgenden Kapitel wird näher auf den entstehenden Mehrwert mulimodaler Schnittstellen eingegangen.

2.4.2 Vorteile multimodaler Schnittstellen

Der Einsatz multimodaler Schnittstellen bringt eine Fülle von neuen Möglichkeiten und Chancen mit sich. Die individuellen Unterschiede und Fähigkeiten des Menschen fordern auch unterschiedliche Interaktionsmodi wie Sprache, Gesten oder Stift.

Als Beispiel könnte ein Sehgeschädigter, die Spracheingabe bevorzugen. Im Gegensatz dazu kann von einem Nutzer mit Hörbeeinträchtigung angenommen werden, dass er wegen seines starken Sprachakzents eine stiftbasierte Eingabe der Spracheingabe vorzieht.

Ebenso ist vorstellbar, dass ein Vorschulkind, das noch nicht mit Tastatur und Maus zurechtkommt, Lernprogramme per Sprache oder Stift bedient. In Anbetracht dessen haben multimodale Benutzerschnittstellen das Potential eine breitere Masse von Nutzern anzusprechen als die herkömmlichen unimodalen, graphischen Schnittstellen.

Es werden Nutzer angesprochene Nutzer

- mit unterschiedlichem Fachwissen
- mit Defekten in der Sinneswahrnehmung
- mit dauerhaften oder zeitweisen Behinderungen
- jeglichen Alters29

erreicht. Eine flexible, multimodale Schnittstelle erlaubt auch das Wech- Moduswechsel seln der verschiedenen Eingabearten. Auf diese Art und Weise kann Über- beanspruchung oder Ausfall einer Modalität verhindert werden, im Be- sonderen in langen Phasen der Computernutzung. Durch die andauernde Tastatureingabe am Computer kann es zu Sehnenentzündungen kommen, ebenso kann Spracheingabe über einen langen Zeitraum zu einer Reizung der Stimmbänder führen.

Ein multimodale Schnittstelle mit mehr als einer Eingabemöglichkeit erlaubt dem Nutzer seine bevorzugte, am wenigsten ermüdende Einga- bemethode auszuwählen und eigene Muster des Moduswechsels auszubil- den30.

Multimodale Schnittstellen, die Eingabemöglichkeiten für den mobilen Einsatz beinhalten, z.B. Sprache oder Stifteingabe, erlauben es die Gren- zen, die durch das “on- and off-the-desktop computing“ entstanden sind, zu durchbrechen31.

Diese Schnittstellen unterstützen das Wechseln der Eingabemodi und mobiler schaffen die Flexibilitat, die beim mobilen Einsatz und dessen wechseln- Einsatz den Bedingungen notwendig sind. Ein Beispiel ist die Kombination von Sprach- und Stiftsteuerung. Eine Person bevorzugt etwa eine Spracheingabe für das Wählen einer Telefonnummer beim Autofahren, wohingegen die Eingabe per Stift für das Angeben von privaten Informationen in der Öffentlichkeit genutzt wird32.

Eine Auswirkung der mobilen Nutzung kann eine “zeitweise Behinde- rung“ einer bestimmten Eingabemodalität sein. Ein Beispiel hierfür, mit einem Baby auf dem Arm ist es nicht möglich einen Anruf in einer öffentli- chen Telefonzelle auszuführen, ein Sprachmodus würde hier das Problem lösen.

2.4.3 Zielgruppe für den Einsatz multimodaler Schnittstellen

Durch den richtigen Einsatz multimodaler Schnittstellen wird die Be- Mehrwert nutzerfreundlichkeit und die Verfügbarkeit der Systeme in hohem Maße gesteigert, was für jeden Nutzer einen Mehrwert darstellt. Der folgen- den Abbildung 2.3, die aus einer Microsoftstudie stammt, ist zu entneh- men, dass die Verwendung von multimodalen Benutzerschnittstellen eine wahrscheinliche Verbesserung in der Benutzbarkeit von Anwendungen für 60 % der Nutzer bringen würde (befragt wurden Menschen im Alter von 18 bis 64 Jahren).

Abbildung 2.3: Verbesserung durch den Einsatz multimodaler Schnitt- stellen

Abbildung in dieser Leseprobe nicht enthalten

Quelle: MS Studie, The Wide Range of Abilities and Its Impact on Computer Technology, 2003

Besonders Personen mit Behinderungen profitieren von Multimodalität, wobei hierzu auch altersbedingte Behinderungen, wie das Nachlassen der Sehstärke zählten. Bei Menschen mit Behinderungen handelt es sich kei- neswegs um eine Randgruppe, wie in der folgenden Abbildung 2.4 zu sehen ist.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.4: Personen mit Behinderungen in verschiedenen Bereichen der Wahrnehmung

Quelle: MS Studie, The Wide Range of Abilities and Its Impact on Computer Technology, 2003

20 % aller Befragten im Alter von 18 bis 64 Jahren hatten leichte bis schwere Probleme in den Bereichen der visuellen, kognitiven und auditiven Wahrnehmung sowie im Bereich Feinmotorik und Sprechen.

Die Studie aus der die Abbildungen 2.3 und 2.4 stammen, wurde an ca. 15.000 Computernutzern im Alter zwischen 18 und 64 Jahren durch- geführt. Die komplette Studie (Microsoft Forrester Studie) ist in den Anlagen zu finden. Weitere Modalitäten zu schaffen ist durch den Ein- satz spezieller Hardware möglich, hierauf wird im Folgenden eingegangen.

Durch die vorangegangenen beiden Abbildungen wird klar, dass es sich bei der Hauptzielgruppe um ältere Menschen ab 50 Jahren handelt. Menschen ab 50 verkörpern eine immer größer werdende Bevölkerungsschicht mit starken finanziellen Mitteln, sie verfügen über 70 % der Vermögensbestände in Deutschland33.

Es sind also nicht nur finanzielle Mittel vorhanden, es herrscht bei dieser Altersgruppe auch starkes Interesse an neuen Technologien, wie z.B. dem Internet, was folgende Abbildung 2.5 verdeutlicht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.5: Internetnutzung nach Alter in Deutschland im Jahr 2003

Quelle: (N)ONLINER Atlas 2004 der “Initi@tive D21“

Die Zahl der Internetnutzer ab 50 ist in den Jahren 2001 bis 2004 kontinuierlich von 31 auf 50 % (25 Millionen Menschen34 ) angewachsen, wobei weitere 8 % Nutzungsplaner sind . Interviewt wurden für diese Sta- tistik der “Initi@tive D21“ 30000 Personen im Alter von 18 bis 75 Jahren.

Die Entwicklung neuer, multimodaler Hard- und Software ist so- mit nicht nur ein Beitrag zur zugänglichen, benutzerfreundlichen Informationsgesellschaft, sondern richtet sich auch an eine wirtschaftlich starke Zielgruppe. Im Folgenden werden einige Anwendungsbereiche und Einsatzmöglichkeiten multimodaler Anwendungen dargestellt.

2.4.4 Erweiterung der Modalität durch spezielle Hard- und Software

Multimodale Anwendungen sind in folgenden Bereichen zu finden:

- Personenerkennung
- Körperbewegung
- Gesteneingabe
- Spracherkennung und Sprachausgabe
- Lippenlesen
- Erkennung von Sichtbarem und dessen automatische Umwandlung in Sprache

Multimodale Anwendungen, d.h. Anwendungen mit Ein- und Ausgaben, die verschiedene Sinne ansprechen, sind eine Erleichterung für jeden Nut- zer.

Die einfachste Möglichkeit neue Ein- und Ausgabearten zu schaffen ist der Einsatz von zusätzlicher Hard- und Software, wie sie im folgenden beispielhaft beschrieben wird.

Brailleein- und ausgabe

Transportables Braillelesegerät Braillegeräte

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.6: Transportables Braillelesegerät

Quelle: Lattke G., Barrierefrei Kommunizieren, 2003, S.26

Ein transportables Braillelesegerät in Walkmangröße ermöglicht einen unkomplizierten Zugang zu elektronisch verfügbarer Literatur.

Die Texte werden gespeichert und sind dann auf acht Brailleelementen ablesbar. Es können mehrere Bücher gleichzeitig abgespeichert werden. Mit einem Speicher von vier Megabyte entspricht das 4000 Punktschriftzeichen oder 50 Punktschriftordnern. Die Texte können über die serielle Schnittstelle eines Computers mit Hilfe eines Adapterkabels in den Nokia Communikator 9210i übertragen werden. Ein Akkubetrieb ist für mindestens 40 Stunden möglich.

Das Gerät kann bei Handy Tech Elektronik GmbH unter http://www.handytech.de (Stand 22.06.2004) bezogen werden.

Beispiele digitaler Literatur lassen sich unter folgenden Links fin- den:

Deutsche Blindenstudienanstalt e.V.,

http://www.blista.de (Stand 22.06. 2004)

Stiftung Blindenanstalt Frankfurt am Main,

http://www.stiftung-blindenanstalt.de (Stand 22.06.2004)

taz, die Tageszeitung,

http://www.taz.de/digiabo (Stand 22.06.2004)35.

Mobile Kompakt Braillezeile

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.7: Mobile Kompakt Braillezeile

Quelle: Lattke G., Barrierefrei Kommunizieren, 2003, S.21

Diese kompakte Braillezeile mit 40 Brailleelementen kann bis zu 20 Stunden netzunabhängig und ohne PC als Notizgerät verwendet werden. Es ist möglich, eine externe Tastatur zur Dateneingabe anzuschließen.

Das Gerät kann bei Handy Tech Elektronik GmbH unter http://www.handytech.de (Stand 22.06.2004) bezogen werden36.

Geräte als Mausalternative

Tastenmaus mit Fingerführungsraster Mausalternativen

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.8: Tastenmaus mit Fingerführungsraster

Quelle: Lattke G., Barrierefrei Kommunizieren, 2003, S.27

Mit diesem vollwertigen Mausersatz können sämtliche Funktionen einer herkömmlichen PC Maus über große Tasten ausgeführt werden. Die Tastenmaus hat acht Richtungstasten, die den Mauspfeil dynamisch über den Bildschirm steuern. Vier zusätzliche Tasten lösen Funktionen wie Mausklick links, rechts, Doppelklick sowie Ziehen (Drag and Drop) aus. Die Tasten liegen versenkt unter einem Fingerführungsraster, das Fehl- bedienungen vermindert und gleichzeitig als stabile Handauflage dient. Das Gerät kann bei der REHAVISTA GmbH unter dem Link http://www.rehavista.de (Stand 22.06.2004) erworben werden.

Tastenmaus mit Anschlussmöglichkeit für Tastatur oder Joystick

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.9: Tastenmaus mit Anschlussmöglichkeit für Tastatur oder Joystick

Quelle: Lattke G., Barrierefrei Kommunizieren, 2003, S.27

An diese Tastenmaus können zusätzlich fünf bis neun Taster (Sensoren) und/oder ein Joystick zur Steuerung des Mauscursors angeschlossen werden. Feststellschalter für die Maustasten ermöglichen das Anklicken und gleichzeitiges Ziehen eines Objekts.

Das Gerät kann bei der REHINTECH GmbH unter dem Link http://www.rehintech.de (Stand 22.06.2004) erworben werden37.

Tastenmaus mit integriertem Joystick

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.10: Tastenmaus mit integriertem Joystick

Quelle: Lattke G., Barrierefrei Kommunizieren, 2003, S.28

Bei dieser Tastenmaus wird der Mauszeiger mit dem eingebauten Joystick über den Bildschirm bewegt. Die Mausfunktionen (Klick, Doppelklick, Drag and Drop etc.) werden über Tasten realisiert.

Das Gerät kann bei der REHINTECH GmbH unter dem Link http://www.rehintech.de (Stand 22.06.2004) erworben werden.

Joystick für Links- und Rechtshänder

Der Joystick in Abbildung 2.11 ist für Menschen geeignet, denen Joystick aufgrund motorischer Störungen der Hände eine ruhige Mausbedienung nicht möglich ist. Der Benutzer kann zwischen drei verschiedenen Fluggeschwindigkeiten wählen. Das heißt, die Cursorgeschwindigkeit wird nicht wie bei einem Standard - Joystick über den Druck auf den Hebel beeinflusst, sondern über eine passive Geschwindigkeitseinstellung geregelt. Die Tasten für diese Einstellungen sind links oder rechts auf dem Joystick angeordnet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.11: Joystick für Links- und Rechtshänder

Quelle: Lattke G., Barrierefrei Kommunizieren, 2003, S.28

Das Gerät kann bei Gorlo und Todt unter dem Link

http://www.gorlo-todt.de (Stand 22.06.2004) erworben werden38.

Angepasste Rollkugel

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.12: Angepasste Rollkugel

Quelle: Lattke G., Barrierefrei Kommunizieren, 2003, S.30

Bei leichten Störungen der Feinmotorik, welche die Nutzung einer Maus Rollkugel schwierig machen, hilft eine Rollkugel, bei der die Bewegung des Maus- cursors und das Drücken der Maustasten voneinander entkoppelt sind. Damit ist das Verreißen der Cursorposition weitgehend ausgeschlossen. Die Bewegung des Mauscursors kommt allein durch die Bewegung der Rollkugel zustande, es muss nicht die ganze Maus bewegt werden. Die Standard - Rollkugel verfügt zusätzlich über Tasten, mit denen die linke Maustaste eingerastet oder ein Doppelklick ausgelöst werden kann. Die Plexiglas - Maske verhindert, dass Tasten ungewollt oder mehrere Tasten gleichzeitig betätigt werden.

Das Gerät kann beim Ingenieurbüro Dr. Seveke unter dem Link http://www.computer-fuer-behinderte.de (Stand 22.06.2004) erworben werden.

Mini Trackball

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.13: Mini Trackball

Quelle: Lattke G., Barrierefrei Kommunizieren, 2003, S.30

Dieser Trackball mit einem Balldurchmesser von 16 cm ist besonders groß und deshalb für Menschen mit eingeschränktem Bewegungsradius geeignet. Mit einem Finger sind die zusätzlichen Tasten Links-Halten und Doppelklick bedienbar.

Das Gerät kann bei Gorlo und Todt unter dem Link http://www.gorlo- todt.de (Stand 22.06.2004) erworben werden39.

Kopfmaus

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.14: Kopfmaus

Quelle: Lattke G., Barrierefrei Kommunizieren, 2003, S.29

Die Kopfmaus ist besonders für Menschen mit schweren motorischen Be- hinderungen, aber guter Kopfkontrolle eine Alternative zur Standardmaus. Der Nutzer trägt einen selbstklebenden Punkt aus Reflektorfolie auf seiner Stirn oder Brille.

Die Kopfmaus registriert die Bewegungen des Punktes und steuert entsprechend den Mauszeiger. Der Mausklick wird durch Verweilen auf der Stelle oder durch einen Zusatztaster ausgelöst. Dieser Taster kann über ein Kabel oder eine drahtlose Infrarot - Übertragung an die Mauselektronik gekoppelt werden.

Zusätzliche Software wie z.B. eine Bildschirmtastatur ermöglicht die Bedienung aller PC - Anwendungen.

Das Gerät kann bei der REHAVISTA GmbH unter dem Link http://www.rehavista.de (Stand 18.06.2004) erworben werden.

Kopfmaus mit USB Anschluss

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.15: Kopfmaus mit USB Anschluss

Quelle: Lattke G., Barrierefrei Kommunizieren, 2003, S.29

Diese Kopfmaus wird über den USB - Port mit Strom versorgt und ist deshalb für den mobilen Einsatz am Notebook geeignet40.

Eine Datenbank mit Geräten zum Kompensieren von körperli- chen Benachteiligungen findet sich unter http://www.barrierefrei- kommunizieren.de (Stand 06.06.2004), sie enthält eine ständig aktuali- sierte Sammlung.

Im nächsten Kapitel finden sich einige Beispiele zu multimodaler Anwendungssoftware, wie sie heute zur Verfügung steht. Der Schwerpunkt liegt hier bei Systemen, die Sprache als eine Ein- und Ausgabemodalität zur Verfügung stellen.

2.4.5 Multimodale Software mit Schwerpunkt auf Spracherkennung; Stand der Technik

Gesteneingabe

Erweiterung für den Internetbrowser Mozilla Firefox

Eine installierbare Erweiterung für den Internetbrowser Firefox41 ermöglicht es dem Nutzer, Kommandos über bestimmte Bewegungsmuster der Maus auszulösen. Es stehen vorgefertigte Gesten zur Verfügung, darüber hinaus gibt es die Möglichkeit eigene zu definieren.

Diese Erweiterung nennt sich “Mouse Based Gestures“, der Download der kostenfreien Software ist unter http://easygestures.mozdev.org (Stand 27.05.2004) möglich.

Sprachausgabe

Free TTS 1.2, Spracherzeugung in JAVA

Bei Free TTS handelt es sich um ein Open Source Spracherzeugungssystem, das komplett in Java geschrieben ist. Es basiert auf “Flite“, dieser Kern wurde an der Carnegie Mellon University entwickelt. Flite wiederum ist eine Weiterentwicklung des “Festival Speech Synthesis System“ der University of Edinburgh und dem FestVox Projekts der Carnegie Mellon University42.

IBM Homepage Reader

Hierbei handelt es sich um einen Web-Browser, der Blinden, Sehbehin- derten und Personen mit Leseschwäche Zugang zum Internet und zur elektronischen Post ermöglicht. Den Homepage Reader gibt es in neun Sprachen, darunter Französisch, Italienisch, Englisch und Deutsch43.

Erkennung der Körperbewegung

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.16: Gesichtserkennung mit QualityEye

Quelle: eigene Darstellung

Mit der Gesichtssteuerung wird über eine Webkamera das Gesicht des Nutzers abgetastet, verarbeitet und als Cursorbewegung umgesetzt. Der Cursor des Computers kann ohne die Anbringung eines Kontaktpunktes im Gesicht gesteuert werden.

Der Mausklick ist ebenso durch Gesten ausführbar44. Eine Software, die dies ermöglicht, ist “QualityEye“ und kann unter http://www.rehintech.de (Stand 20.06.2004) bezogen werden.

[...]


1 S.Oviatt, Multimodal, 2003, S.1

2 Siehe: http://www.behindertenbeauftragter.de/gesetzgebung/behindertengleichstellungsgesetz (Stand 27.02.2004)

3 Siehe: http://www-306.ibm.com/able/guidelines/peripherals/accessperipherals.html (Stand 20.02.2004)

1 Vgl.: Chrisholm W., Web Content Usability Guidelines, 1999, Kapitel 2.1

2 Siehe: http://www.fnerg.din.de (Stand 02.06.2004)

3 Vgl.: Heinsen S., Usability praktisch einsetzen, 2003, S.3

4 Vgl.: IBM, Hardware peripherals accessibility, 2003, S.1

5 Siehe: http://www.w3.org/WAI/about.html (Stand 28.02.2004)

6 Vgl.: Fischer H., Das World Wide Web Consortium (W3C), 2003, S.2

7 Vgl.: Brewer J., WAI Technical Activity Statement, 2004, S.2

8 Siehe: http://www.w3.org/Consortium/Offices/Germany/Trans/WAI/checkliste.html (Stand 17.03.2004)

9 Siehe: http://www.w3.org/TR/WAI-WEBCONTENT/TECHS (Stand 17.03.2004)

10 Dateiname: WAI checkliste.pdf

11 Vgl.: Hartmann R., Zug¨anglichkeitsrichtlinien f¨ur Webinhalte, 2002, Kapitel 5

12 Siehe: http://www.nonliner-atlas.de (Stand 01.07.2004)

13 Siehe: http://www.w3.org/TR/2003/WD-WCAG20-20030624 (Stand 04.05.2004)

14 Siehe: http://bobby.watchfire.com/bobby/html/en/index.jsp (Stand 05.05.2004)

15 Siehe: http://www.nils.org.au/ais/web/resources/toolbar (Stand 17.04.2004)

16 Siehe: http://www.macromedia.com/software/dreamweaver/productinfo/features (Stand 15.07.2004)

17 Siehe: http://www.watchfire.com/products/desktop/bobby/default.aspx (Stand 05.052004).

18 Baer D., Fremdw¨orterbuch, 1995, S.289

19 Baer D., Fremdw¨orterbuch, 1995, S.282

20 Vgl.: Oviatt S., Multimodal Interfaces, 2003, S.287, nach Negroponte N., The Media Room, 1978

21 Vgl.: Oviatt S., Multimodal Interfaces, 2003, S.287

22 Vgl.: Oviatt S., Multimodal Interfaces, 2003, S.287, nach Neal J.G., Intelligent user interfaces, 1991

23 Vgl.: Oviatt S., Multimodal Interfaces, 2003, S.287, nach Siroux, Cooperative Multimodal Communication 1995

24 Siehe: http://www.cse.ogi.edu/CHCC/QuickSet/mainProj.html (Stand 31.05.2004)

25 Siehe: http://www.embassi.de (Stand 06.07.2004)

26 Vgl.: Herfet T., Das Leitprojekt EMBASSI, 2001, S. 13

27 Vgl.: Oviatt S., Multimodal Interfaces, 2003,S. 288

28 Siehe: http://www.intel.com/labs/features/sw04034.htm (Stand 16.06.2004)

29 Oviatt S., Flexible and robust multimodal interfaces for universal access, 2003, S.92

30 Oviatt S., Multimodal Interfaces, 2003, S.292

31 Oviatt S., Flexible and robust multimodal interfaces for universal access, 2003, S.92

32 Oviatt S., Flexible and robust multimodal interfaces for universal access, 2003, S.93

33 Vgl.: Dohmann A., High Life 2004, S.41

34 Vgl.: Statistisches Bundesamt, Bev¨olkerungsentwicklung nach Altersgruppen, 2004

35 Vgl.: Lattke G., Barrierefrei kommunizieren, 2003, S. 26

36 Vgl.: Lattke G., Barrierefrei kommunizieren, 2003, S. 21

37 Vgl.: Lattke G., Barrierefrei kommunizieren, 2003, S. 27

38 Vgl.:Lattke G., Barrierefrei kommunizieren, 2003, S. 28

39 Vgl.: Lattke G., Barrierefrei kommunizieren, 2003, S. 30

40 Vgl.: Lattke G., Barrierefrei kommunizieren, 2003, S. 29

41 Siehe: http://www.mozilla.org/products/firefox (Stand 27.05.2004)

42 Vgl.: Sun Microsystems, A speech synthesizer written entirely in the Java, 2002, S.1

43 Siehe: http://www-306.ibm.com/able/solution offerings/webaccessibility.html (Stand 07.07.2004)

44 Vgl.: Lattke G., Barrierefrei kommunizieren, 2003, S.67

Details

Seiten
153
Jahr
2005
ISBN (eBook)
9783638360210
Dateigröße
5.5 MB
Sprache
Deutsch
Katalognummer
v36366
Institution / Hochschule
Hochschule Fulda – Institut für interdisziplinäre Forschung inter.research e.V.
Note
1.3
Schlagworte
Universal Access Human Computer Interaction Multimodaler Informationszugriff Beitrag Beispiel Schnittstelle

Autor

Zurück

Titel: Universal Access in Human Computer Interaction. Multimodaler Informationszugriff als Beitrag für eine barrierefreie Informationsgesellschaft