Lade Inhalt...

Welches Potential steckt in Augmented Reality? Einsatzmöglichkeiten für den Konsumentenmarkt

Fachbuch 2018 138 Seiten

Informatik - Wirtschaftsinformatik

Leseprobe

Inhaltsverzeichnis

Zusammenfassung

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1 Einleitung
1.1 Motivation
1.2 Zielsetzung sowie erwarteten Ergebnisse
1.3 Vorgehensweise
1.4 Aufbau der Arbeit

2 Theoretische Grundlagen der Augmented Reality
2.1 Augmented Reality
2.2 Augmented Virtuality
2.3 Virtual Reality
2.4 Mixed Reality
2.5 Einordnung der Augmented Reality auf einer Virtualität-Realität Skala
2.6 Entstehungsgeschichte

3 Technische Grundlagen der Augmented Reality
3.1 Augmented Reality Devices
3.2 Trackingverfahren und Location-Based-Services (LBS)

4 Anwendungsmöglichkeiten und Praxisbeispiele
4.1 Point of Sale
4.2 Online-Shopping mit Einrichtungsservice
4.3 Mobile Marketingkampagnen
4.4 Bildung
4.5 Medizin
4.6 Einsatz in der Industrie
4.7 Messen
4.8 Museen
4.9 Printmedien
4.10 TV-Sendungen
4.11 Indoor Navigation
4.12 Tourismus
4.13 Gaming
4.14 Social Media

5 Zukunftsausblick und Expertenmeinungen
5.1 Potential
5.2 Risiken
5.3 Gesellschaftliche Antipathie und Ablehnung
5.4 Verbesserungswürdiger Tragekomfort
5.5 Zahlen und Fakten
5.6 Künftige Projekte

6 Zusammenfassung und Ausblick

Literaturverzeichnis

Zusammenfassung

Der Schwerpunkt dieser Arbeit liegt auf einer Potentialanalyse der aufkommenden Technologie „Augmented Reality“, die mittels Darstellung virtueller Inhalte auf geeigneten elektronischen Geräten unsere Realität „erweitert“. Diese Analyse wurde anhand einer Literaturrecherche durchgeführt, dabei wurden unter anderem einschlägige Bücher, Artikel und andere wissenschaftliche Publikation verwendet. Vor der eigentlichen Analyse werden theoretische sowie technische Grundlagen erklärt, die das Verständnis dieser Arbeit erleichtern. Um das Potential dieser Technologie aufzuzeigen, werden 14 aktuelle und vier künftige Beispiele aus unterschiedlichen Einsatzgebieten vorgestellt. Die Auswahl der Beispiele erfolgte ohne bestimmte Vorgaben anhand einiger vorgestellter Augmented Reality Anwendungen von diversen Unternehmen. Bei den Beispielen wird auf den jeweiligen Mehrwert für Endbenutzer und Betreiber hingewiesen, der durch den Einsatz der Augmented Reality zustande kommt. Ferner wird die Analyse mit Expertenmeinungen und statistischen Daten ergänzt. Diese Experten weisen sowohl auf Potentiale als auch auf Gefahren hin, die diese Technologie mit sich bringt.

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Augmented Reality mit Google Glass

Abbildung 2: Hype-Zyklus für die neuen Technologien

Abbildung 3: Eine Stadtdarstellung durch das Wikitude Browser

Abbildung 4: Spielausschnitt der Sony EyeToy

Abbildung 5: Entwicklung von Oculus VR, LLC

Abbildung 6: Mixed Reality mit Microsoft HoloLens

Abbildung 7: Repräsentation der Realitäts-Virtualitäts-Kontinuum

Abbildung 8: Divergenz der Realitäten

Abbildung 9: Sensorama – „Kino der Zukunft“

Abbildung 10: HMD „The Sword of Damocles“ mit der Befestigung

Abbildung 11: Virtual Fixtures

Abbildung 12: Knowledge-based Augmented Reality for Maintenance Assistance

Abbildung 13: Meta 2 Development Kit

Abbildung 14: Ein Beispiel für eine IMU-Leiterplatte

Abbildung 15: Triangulationsverfahren durch drei Satelliten

Abbildung 16: kontakt.io Beacons in diversen Ausführungen

Abbildung 17: Diverse QR-Codes

Abbildung 18: Mehrere Marker von ARToolKit

Abbildung 19: Feature Detection mittels Google Tango Technologie

Abbildung 20: Depth Perception mit Google Tango

Abbildung 21: Reelle Sneaker mit AR-Individualisierungen

Abbildung 22: Virtuelle Möbelplazierung mit IKEA Place

Abbildung 23: Make Up Genius - virtuelle Spiegel von L’Oréal

Abbildung 24: Einblendung den Zusatzlerninhalten mit Google Expeditions

Abbildung 25: Schematische Darstellung der Funktionsweise der AR in der Chirurgie

Abbildung 26: AR - chirurgische Navigationstechnologie von Royal Philips

Abbildung 27: Prozentuelle Aufteilung der AR-Anwendungen für Wartungsprozesse auf Industriesektoren

Abbildung 28: AR-Einblendungen zu Steuerung (links) sowie zu Navigation

Abbildung 29: Wartung und Reparatur bei Siemens dank Augmented Reality

Abbildung 30: BMW i Augmented Reality Visualiser App

Abbildung 31: Anwendungsbeispiel der Immersal Messukeskus App

Abbildung 32: ArtLens-App des Cleveland Museum of Arts in der Verwendung

Abbildung 33: Einblendung von Zusatzinhalten der multimediale Zeitung „Weser-Kurier“ auf dem Display eines Smartphones

Abbildung 34: Zusätzliche Einblendungen durch Galileo AR-App

Abbildung 35: Mögliche AR-Einblendungen eines TV-Programms

Abbildung 36: AR Indoor-Navigation von Lowe's mit Googles project Tango (Lowe’s Innovation Labs, 2017)

Abbildung 37: Praxisanwendung der The Eastland Disaster-Applikation,

Abbildung 38: Augmented Reality Übersetzungsapplikation “Word Lens Translator”

Abbildung 39: AR Smartphone-Spiel “Pokémon Go” in der Anwendung

Abbildung 40: Augmentierte Bilder durch Camera Effects Developer Platform von Facebook

Abbildung 41: Lens Studio Applikation von Snap. Inc. in der Anwendung

Abbildung 42: AR Umsatzanteile unterschiedlichen Wirtschaftsbranchen

Abbildung 43: Prognose des VR/AR-Marktwachstums von Credit Suisse und Gartner

Abbildung 44: AR Beamer-Projektionen von Lightform auf Menütafel und Vase

Abbildung 45: Links: Vuzix Blade AR-Datenbrille, rechts: Magic Leap One mit Anwendungsbeispiel auf dem mittleren Bild

Abbildung 46: Smartglasses Vaunt von Intel

Abbildung 47: Blick auf Cockpit eines Renault Twizy mit eingebautem AR-HUD

Abbildung 48: Navigation, Verkehrszeichen sowie Hervorhebungen durch AR-HUD

Abbildung 49: AR-Einblendungen auf LIVS Display von Harman International Industries

Abbildung 50: Einsatz von DigiLens Projektor

Abbildung 51: AR-Motorradhelm von LiveMap

Abbildung 52: AR-Kontaktlinse von Babak A. Parviz et al

Abbildung 53: Einsatz von AR-Linse am Kaninchen

Abbildung 54: VR/AR-Kontaktlinsen-Brillen-Kombination emacula von Innovega Inc

Tabellenverzeichnis

Tabelle 1: Zielmarkt der Virtual und Augmented Reality nach Analyse von Credit Suisse und Gartner

1 Einleitung

Dieses Kapitel leitet das Thema ein und gibt einen kurzen Ausblick auf den Rest der Arbeit. Anfangs wird die Motivation für die Erstellung dieser Arbeit erklärt. Anschließend wird die Zielsetzung dieser Arbeit aufgestellt sowie am Ende erwarteten Ergebnisse erläutert. Abschließend werden Vorgehensweise sowie der Aufbau der Arbeit geschildert.

1.1 Motivation

Laut Harvard Business Review „A Manager’s Guide to Augmented Reality“ wird mit Augmented Reality (dt.: erweiterte Realität) oder kurz AR die reale Welt durch diverse virtuelle Einblendungen auf dem Display des Geräts „erweitert“. Diese Einblendungen können in solchen Formen wie Erklärungstexte, Fotos, Videos und andere 2D- sowie 3D-Objekte vorkommen und werden häufig als eine virtuelle Schicht bezeichnet. Softwareanwendungen, die AR für mobile Plattformen umsetzen, werden AR-Applications (dt.: AR-Anwendungen), kurz AR-Apps, genannt (Harvard Business Review, 2017).

Anfang der neunziger wurde Augmented Reality in der Industrie mehrfach erfolgreich eingesetzt (siehe Unterkapitel 2.6). Mittlerweile hat die Technologie auch den Konsumentenmarkt erreicht. Welche Möglichkeiten eröffnet der Einsatz der AR für Konsumenten? Wozu sollten Firmen und Großkonzerne sich mit der erweiterten Realität auseinandersetzen?

Nach der Aussage von Anderson und de Palma befinden wir uns im Zeitalter der Informationsflut (engl. age of information overload). Das heißt, wir sind täglich einer kontinuierlichen Menge diverser Daten aus zahlreichen Medien ausgesetzt. Die Vielzahl an diversen Produkten macht es Konsumenten unmöglich, den Überblick über die gesamte Produktpalette in ihrer Vielfalt zu erhalten. Das zwingt Firmen im Konsumentenbereich zu einem massiven Aufmerksamkeitskampf statt eines direkten Wettbewerbs auf dem freien Markt. Anderson und de Palma sind der Meinung, dass dieses Firmenverhalten langfristig dem Konsumentenwohlergehen schaden wird (Anderson & de Palma, 2012, pp. 1–4).

Informationsflutproblematik ist nicht nur ein Marketingproblem. Durch die rasant entwickelte Umwelt entstehen neue Technologien, die in ihrem Umgang Experten oder zumindest gut geschulten Fachleuten benötigen. In der Fachkräfteengpassanalyse von Juni 2017 dokumentieren Klaus et al., die bei Bundesagentur für Arbeit in Deutschland tätig sind, Experten- und Fachkräfteengpässe in Deutschland. Demnach gab es Engpässe überwiegend in technischen Berufen sowie im Bereich der Gesundheit und Pflege (Klaus et al., 2017). Durch Hilfseinblendungen sowie Schritt für Schritt Anweisungen, die Augmented Reality Anwendungen anzeigen, könnte diese Problematik gemindert (vgl. Unterkapitel 4.6).

In ihrem Beitrag „Lernen mit allen Sinnen“ schreibt Katja Paasche, Referentin des Max-Planck-Instituts für Kognitions- und Neurowissenschaften in Leipzig, dass es gleichzeitig mehrere Sinnesorgane aktiviert werden müssen. Damit soll der Aufmerksamkeitslevel auf hohem Niveau gehalten, eine verbesserte Informationsspeicherung erreicht und somit eine höhere Erinnerungsdynamik erzielt werden (Paasche, 2015). Dringt eine Botschaft gleichzeitig über mehrere unterschiedliche Sinneskanäle in unser Gehirn ein, führt dies, laut Hans-Georg Häusel, zu einem neuronalen Verstärker-Mechanismus. Dieses Phänomen wird in Neuromarketing Multisensory Enhancement (dt.: multisensorische Verstärkung) genannt (Häusel, 2016, p. 218). In ihrem Buch schreiben Dirk Schart und Nathaly Tschanz, dass Augmented Reality einen größeren Erlebnis- sowie Unterhaltungsmehrwert gegenüber rein textuellen Informationen schafft, da diese Technologie gleichzeitig mehrere Sinnesmodalitäten wie Seh-, Hör- und Tastsinn anspricht (Schart & Tschanz, 2017, p. 74).

Ein Beispiel für die Umsetzung der AR-Technologie wird vom globalen Unternehmen Google mit Augmented-Reality-Brille Google Glass vorgestellt. Auf der Abbildung 1 wird eine augmentierte Welt mit Google Glass dargestellt. Laut Muensterer et al. können dem Nutzer mit einem Head-Mounted-Display (HMD), also einem auf dem Kopf angebrachten Bildschirm in Form einer AR-Brille, verschiedene Informationen im Blickfeld eingeblendet werden. Die Einblendungen der Textnachrichten, Videokonferenzen, Navigation per Google Maps, Kamera, Wetterbericht und andere visuelle Benachrichtigungen können dem User den Alltag erleichtern. Die Brille kann, laut den Autoren, per Sprachsteuerung bedient werden, aber auch mit Augenzwinkern ist die Navigation möglich (Muensterer et al., 2014).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Augmented Reality mit Google Glass (Jain, 2017)

Um die Aktualität der Augmented Reality zu verdeutlichen, werden Marktforschungsergebnisse und Analysen der Kapitalgesellschaft Gartner Inc. bezüglich der Entwicklungen in der IT-Branche herangezogen. Laut Linden und Fenn visualisiert die Firma die Resultate der Marktforschungsuntersuchungen durch sogenannte Hype-Zyklen. Die Zyklen zeigen die Zeitabschnitte der öffentlichen Aufmerksamkeit bzw. Erwartung, die eine neue Technologie bei deren Entwicklungsstart durchläuft. Der Hype-Zyklus wird in fünf Phasen unterteilt:

1. Technology Trigger (dt. Technologischer Auslöser);
2. Peak of Inflated Expectations (dt. Gipfel der überzogenen Erwartungen);
3. Trough of Disillusionment (dt. Tal der Enttäuschungen);
4. Slope of Enlightenment (dt. Pfad der Erleuchtung);
5. Plateau of Productivity (dt. Plateau der Produktivität) (Linden & Fenn, 2003).

Im Sommer 2017 positionierte Gartner Inc. die Augmented Reality in die Phase „Tal der Enttäuschung“ (siehe Abbildung 2). Laut Piotr A. Werner wird die erweiterte Realität als eine IT-Technologie angesehen, die den Höhepunkt der überhöhten Erwartungen überschritt und sich der Reife angenähert hat. Softwaredesigner, Programmierer und Anwender wurden somit von Illusionen dieser Technologie befreit (Werner, 2017).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Hype-Zyklus für die neuen Technologien (Panetta, 2017)

Laut Gartner Hype-Zyklus von 2017 wird Augmented Reality in den nächsten Stadien der Aufklärung und Produktivität eintreten. Dem Hype-Zyklus zufolge wird die Technologie fünf bis zehn Jahre brauchen, um das Plateau der Produktivität erreichen zu können (Panetta, 2017). Auf der Webseite von Gartner zitiert Amy Ann Forni den Vizepräsidenten von Gartner Inc., David W. Cearley. Er ist der Meinung, dass AR sich mit digitalen Netzwerken verschmilzt, sodass zwischenmenschliche Kommunikation sowie Interaktionen mit Softwaresystemen für immer umgewandelt werden. Der Vizepräsident vermutet, dass diese Veränderungen im Jahr 2021 eintreten (Forni, 2016).

Im Jahr 2015 auf der International Consumer Electronics Show (CES) in Las Vegas, die zu einer der weltweit größten Fachmessen für Unterhaltungselektronik zählt, wurde Augmented Reality von Paul Nunes und Larry Downes als eine der wichtigsten disruptiven Technologien erkannt. Beide Referenten sind renommierte Redakteure des Forbes-Magazins, IT-Analysten und Buchautoren. Laut Nunes und Downes verfügt eine solche Technologie über ein starkes Entwicklungspotential. Diese kann trotz eines schweren Entwicklungsstart einen technologischen Veränderungsprozess in Gang setzen, bestehende Produkt bzw. Dienstleistungen überholen, Marktführer verdrängen und Branchenregeln neu definieren (Nunes & Downes, 2015).

Das Interesse und Neugier der Öffentlichkeit für die aufkommenden Technologiewelten steigt. Laut der eigenen Webseite öffnete im Sommer 2017 die Augmented World Expo (AWE) Messe wieder ihre Toren für internationale Besucher und Teilnehmer aus Produktion und Logistik. Die Veranstaltungsorte der AWE als größte Fachkonferenz für Augmented sowie Virtual Reality sind in diesem Jahr München, Beijing (China) sowie Santa Clara (USA) gewesen. Allein das Munich Order Center (MOC) Messegelände in München umfasste der Gastgeber AWE fast 1500 Teilnehmer und 115 Redner. Laut der Hompage zeigten über 100 Aussteller im MOC München, wie sie erweiterte und virtuelle Technologien nutzen, darunter auch Audi, Microsoft, Meta, Sony, Samsung, Intel und das Fraunhofer-Institut (AWE, 2017). Großunternehmen und Konzerne wie Google, Samsung, Microsoft, Apple, Facebook, etc. haben das Potential von AR bereits entschlüsselt und das Wettrennen angekündigt. Konkrete Beispiele für den Einsatz der erweiterten Realität in diversen Branchen sind in Kapitel 4 präsentiert.

Um das Potential der erweiterten Realität systematisch zu analysieren, befasst sich diese Arbeit mit diversen Einsatzmöglichkeiten im Bildungswesen, in der Medizin, in der Industrie und im Konsumentenbereich. Dabei werden stets das jeweilige Potential und der Mehrwert analysiert, um sich einen Überblick über die Einsatzmöglichkeiten sowie Perspektiven der Augmented Reality zu verschaffen. Die Aufführung der Anwendungsmöglichkeiten und der Praxisbeispiele in diesem Umfeld sorgen somit für ein besseres Praxisverständnis von diesem Thema, denn vieles ist noch unbekannt und lässt viel Spielraum für kreative Innovationen und Ideenentwicklungen.

1.2 Zielsetzung sowie erwarteten Ergebnisse

Das Hauptziel dieser Arbeit ist eine Potentialanalyse der Augmented Reality durchzuführen, um einige der wichtigsten und meist diskutierten Einsatzmöglichkeiten dieser Technologie aufzuzeigen sowie den dabei erzeugten Mehrwert zu verdeutlichen. Das Resultat dieser Arbeit ist die Erstellung eines Überblicks über diese aufblühende Technologie anhand von mehreren Beispielen. Die Ergebnisse der Potentialanalyse werden anschließend durch Expertenmeinungen, Wissenschaftlerprognosen und Vorträgen von einigen globalen Führungskräften untermauert. Dazu werden mehrere erfolgreiche Einsatzbeispiele und Projekte der Augmented Reality vorgestellt und analysiert.

Vor der eigentlichen Potentialuntersuchung der erweiterten Realität soll ein Überblick über die gängigen Begriffe sowie theoretische Grundlagen auf diesem Gebiet verschafft werden. Des Weiteren sollen Technologien vorgestellt werden, die die Augmented Reality ermöglichen. Diesbezüglich sollen nicht nur theoretische, sondern auch technische Grundlagen unter die Lupe genommen werden. Damit wird eine klarere Nachvollziehbarkeit des untersuchten Sachverhalts erreicht.

1.3 Vorgehensweise

Im Vorfeld der eigentlichen Potentialanalyse wird eine Literaturrecherche durchgeführt. Dabei werden im Kontext der Augmented Reality relevante Bücher, Berichte, Statistiken und andere Veröffentlichungen ab dem Jahr 2016 herausgesucht. Für die Recherche werden Literaturdatenbanken und Volltextdatenbanken unter der Eingabe der Schlüsselwörter wie „Augmented Reality“, „Smart Glasses“, „Potential von Augmented Reality“, „Erweiterte Reality“, „Future of Augmented Reality“, „Augmented Reality in Industry“, „Augmented Reality in Industrie“, „Augmented Reality in Medizin“, „New Achievements in Augmented Reality“ und Ähnliches durchgesucht. Die dabei gefundenen Werke werden auf die Relevanz überprüft, entsprechend ausgewählt und einsortiert. Die einzelnen bedeutsamen Referenzen und Fachbegriffe werden als Grundlage für weitere Recherchen verwendet.

Anfangs befasst sich diese Arbeit mit der Motivation für das Themengebiet „Augmented Reality“. Dazu wird die Bedeutung des Themengebiets anhand aktueller Statistiken, Fakten sowie Expertenmeinungen untermauert. Ferner werden einige der relevanten Messen und Firmen aufgelistet, die sich mit dem Thema auseinandersetzen. Um die Aktualität des Themas aufzuzeigen werden zeitgenössische akademische Journals, Berichte sowie relevante Internetquellen untersucht und in die Arbeit einbezogen. Zur Aneignung der theoretischen Grundlagen, die für das Verständnis dieser Arbeit notwendig sind, werden Literaturdatenbanken und Volltextdatenbanken für die Recherche verwendet. Die Suchbegriffe umfassen dabei die Terminologie aus dem Kapitel 2. Die einzelnen Fachwörter werden aus einer im Vorfeld durchgeführten Literaturrecherche gewonnen.

Für die Erhebung der technischen Grundlagen werden die Literaturrecherchen der wissenschaftlichen Arbeiten, Monographien sowie Herausgeberwerke vorgenommen. Bei der Aufführung der Anwendungsmöglichkeiten und Praxisbeispiele zu dem Thema werden offizielle Homepages einiger Firmen, Interviews und Vorträge von Vorgesetzten und Fachkräften sowie Peer-Review-Zeitschriften präsentiert.

Abschließend folgen Expertenmeinungen, Wissenschaftlerprognosen und Vorträge der globalen Führungskräfte, die aus Literaturdatenbanken und Webseiten gewonnen werden. Zum Abschluss werden die Ergebnisse dieser Arbeit zusammengefasst und die Erfüllung der Anforderungen reflektiert. Zusätzlich wird ein Ausblick über die mögliche Weiterentwicklung der Augmented Reality anhand Expertenmeinungen und aktuellen Statistiken gewährt.

1.4 Aufbau der Arbeit

Die Arbeit ist in sechs Abschnitte unterteilt: Einleitung, theoretische Grundlagen der Augmented Reality, technische Grundlagen der Augmented Reality, Anwendungsmöglichkeiten und Praxisbeispiele, Zukunftsausblick und Expertenmeinungen, Zusammenfassung. Zunächst wird die Relevanz der Augmented Reality für unsere Gesellschaft verdeutlich. In Unterkapitel 1.1 wird die Motivation für die Erstellung einer Potentialanalyse auf dem Themengebiet begründet. Ferner werden die Ziele, das Vorgehen sowie der Aufbau der Arbeit in Kapitel 1 vorgestellt.

Kapitel 2 befasst sich mit den theoretischen Grundlagen der Augmented Reality, indem die für das Verstehen dieser Arbeit notwendigen Grundbegriffe erklärt werden. Ferner wird die Entstehungsgeschichte der AR erläutert. Anschließend werden in Kapitel 3 technische Grundlagen auf diesem Themengebiet erklärt, die die Realisierung der erweiterten Realität ermöglichen. Der Schwerpunkt dieser Arbeit bildet das Kapitel 4 mit der Vorstellung konkreter Praxisbeispiele. Dabei wird der jeweilige Nutzen verdeutlicht.

Das Potential sowie die Risiken der Augmented Reality werden in Kapitel 5 aufgeführt. Die Bedeutung sowie das Potential der erweiterten Realität werden durch Zahlen und Fakten untermauert. Ferner wird ein Ausblick auf künftige Projekte gewährt. Abgeschlossen wird die Arbeit mit einer Zusammenfassung in Kapitel 6.

2 Theoretische Grundlagen der Augmented Reality

Zur Einordnung, Abgrenzung sowie einem besseren Verständnis dieser Arbeit werden vier häufig in der Literatur vorkommenden Technologien mit unterschiedlichen Virtualitätsanteilen in diesem Kapitel definiert sowie auf ihre Gemeinsamkeiten und Unterschiede eingegangen. Für eine bessere Einordnung der einzelnen Technologien werden diese auf einer Virtualität-Realität Skala im Unterkapitel 2.5 dargestellt. Abschließend werden im Abschnitt 2.6 wesentliche Meilensteil in der Entstehung der erweiterten Realität vorgestellt.

2.1 Augmented Reality

Laut dem Online-Wörterbuch PONS leistet sich der Begriff Augmented Reality (dt. erweiterte Realität), abgekürzt AR, vom lateinischen augeo ab, und bedeutet unter anderem steigern oder vergrößern. Augmented Reality kann als gesteigerte Realität übersetzt werden (PONS, 2017).

In der Literatur wird oftmals auf die Definition von Ronald Azuma hingewiesen. Nach Azuma Ansichten wird AR dazu verwendet, die reale Welt mit virtuellen Informationen zu erweitern, indem die Sinne und Fähigkeiten der Menschen verbessert werden. AR mischt somit virtuelle Objekte mit der tatsächlichen Welt. Laut Azuma, einem der bedeutendsten Pioniere auf diesem Gebiet, weist AR folgende Eigenschaften auf (Azuma, 1997):

1. Kombination von virtueller und realer Umwelt

2. Interaktion in Echtzeit

3. Dreidimensionalität von virtualen sowie realen Objekten

Die Definition von Azuma fokussiert sich hauptsächlich auf technische Komponenten und vernachlässigt viele Anwendungsaspekte. Laut Mehler-Bicher et al. kann AR aus zwei Sichten betrachtet werden. So besteht die erweiterte Realität im engeren Sinne aus virtuellen Objekten, die eine reelle Umgebung überlagern. Im weiteren Sinne können ebenfalls 2D-Elemente ohne Überlagerung der reellen Welt betrachtet werden (Mehler-Bicher & Steiger, 2014, pp. 9–12). Zum Beispiel wird der Begriff Augmented Reality ebenfalls verwendet, um das menschliche Sehvermögen durch technische Ausrüstung wie Ferngläser oder Nachsichtgeräte zu erweitern.

Eine moderne Sichtweise auf die innovative Technologie präsentieren Dirk Schart und Nathaly Tschanz. Die Buchautoren, die leitenden Positionen in Firmen mit dem Schwerpunkt Augmented Reality bekleiden, lösen sich von den herkömmlichen Definitionen, die oftmals beschreiben, dass Augmented Reality reell existierende Welt mit zusätzlichen digitalen Objekten ergänzt. Sie betonen, dass nicht die „wirkliche Realität“ angereichert wird, sondern die Reproduktion der Umgebung des Users, die dank Medien-Technologie erschaffen wurde. Demnach wird die Anreicherung dadurch ermöglicht, dass virtuelle Elemente in ein von der Kamera aufgenommene Echtzeitübertragung integriert werden, als ob diese fiktiven Objekten reelle Objekte der wirklichen Umwelt wären (Schart & Tschanz, 2017, p. 25).

Bei AR-Anwendungen wird zwischen AR-Browser und AR-App differenziert. Nachfolgende werden die Unterschieden zwischen den beiden Begriffen erklärt.

2.1.1 AR-Browser

Das englische Wort „to browse“ bedeutet so viel wie stöbern, durchsuchen, durchblättern (dict.cc, 2017). Laut der weltweit führenden Online-Quelle für englische Definitionen Dictionary, ist ein Browser oder ein Web-Browser eine digitale Technologie und ein Programm, das dem Benutzer Zugriff und die Darstellung von Seiten des World Wide Webs ermöglicht (Dictionary, 2017). Dabei integrieren Browser, laut Christian Maaß und Gotthard Pietsch, ständig neue Technologien, die zusätzliche Funktionalität wie automatisches Nachladen von neuen Inhalten ermöglichen (Maaß & Pietsch, 2007, pp. 3–5). Willi Schroll und Andreas Neef betonen, dass diese Technologien die Internetnutzung erleichtern und die Benutzererfahrung auf ein völlig neues Niveau heben. Die aktuelle Vision von Web 2.0, ein Schlagwort für die Modernisierung des World Wide Webs mit neuen Web-Technologien und Möglichkeiten, strebt das Ziel „Inhalte, Orte, Menschen, Meinungen, Ereignisse zu vernetzen und so einen ganz neuen Raum von Produktivität, Interaktion und Miteinander aufzuspannen“ (Schroll & Neef, 2006, p. 2). Laut Koch und Frees steigt die Bedeutung des mobilen Internets kontinuierlich. Das heißt die wesentlichen Veränderungen im Web-Bereich müssen in erste Linie mobile Browser betreffen. In diesem Kontext spielt AR-Browser eine wichtige Rolle (Koch & Frees, 2016).

In ihrem Beitrag schreibt die Firma Augmented Minds Ambrus & Lonau GbR, das sich auf dem Gebieten AR, MR und VR Anwendungen spezialisiert, dass ein AR-Browser eine Applikation für mobile Geräte ist, die zusätzliche Inhalte im Kamerabild des Users präsentiert (Augmented Minds Ambrus & Lonau GbR, 2017). Laut Schart und Tschanz sind Wikitude, Layar, Aurasma und Blippar die maßgebendsten und allbekanntesten Anwendungen in diesem Umfeld. Der Großteil der AR-Browser funktioniert auf der Grundlage eines Verlinkungsverfahren, das auf den Kontext der Inhalt-Lieferanten verweist. Die Voraussetzung für den Zugang und Aufnahme der benötigten Informationen eines konkreten Herstellers ist der Download der Browser. In der Funktionsweise zwischen AR-Browser und Webbrowser liegt ein entscheidender Unterschied, nämlich der Browser für erweiterte Realität weist keine einheitlichen Standards bezüglich der Verarbeitung der AR-Inhalten. Das heißt, dass die Inhalte für jeden AR-Browser angepasst und konfiguriert werden sollen (Schart & Tschanz, 2017, p. 63).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Eine Stadtdarstellung durch das Wikitude Browser (Androidcentral, 2011)

Ein Beispiel für die Darstellung in einem AR-Browser wird auf der Abbildung 3 präsentiert. Auf der Abbildung werden typischen Einblendungen durch die Handysoftware dargestellt. Der mobiler Device, in diesem Fall Smartphone, erkennt Landschaften, Städte und Sehenswürdigkeiten und liefert augmentierte Inhalte auf das Display. Laut Andreas Hauser gilt Wikitude als ein weltweit zweckdienlicher Reiseführer. Im Vergleich zur Kartenansicht, bietet die Augmented Reality Technologie „erweiterte“ Darstellung auf die Realität. Wichtige Voraussetzungen für den weltweiten Reiseführer sind vor allem Internetverbindung, Kompass, Beschleunigungssensor und eine integrierte Kamera auf dem Gerät. Diese Hardware wird für Stadtortbestimmung verwendet. Dafür ist Wikitude auf einer Vielzahl an Geräten verfügbar (Hauser, 2010).

2.1.2 AR-App

Laut Online-Lexikon ITWissen sind mobile Apps, oder einfach Apps, Applikationen für Betriebssysteme, die auch auf mobilen Geräten wie Smartphones, Multimedia-Handys oder Tablets installiert sind (siehe Kapitel 3.1.1). Das sind diverse Zusatzprogramme für alle Lebensbereiche, die sowohl von erfahrenen Softwareentwickler als auch von Debütanten entwickelt und über mobile Marktplätze vertrieben werden (ITWissen, 2017a).

AR-Applikationen bieten dem User zusätzliche Informationen zu Produkten oder seiner Umgebung. Laut der Firma Augmented Minds Ambrus & Lonau GbR werden AR-Apps unter anderem in solchen Bereichen wie Edutainment (dt. unterhaltsames Lernen), Marketing, Industrie, Navigation und Unterhaltung eingesetzt (Augmented Minds Ambrus & Lonau GbR, 2017). Bei AR-App werden im Gegensatz zur AR-Browser diverse Inhalte, wie 3D-Grafiken, Bilder und Texte in der Anwendung realisiert. In ihrem Buch schreiben Schart und Tschanz, dass der User davon profitiert, dass er bei der Nutzung der AR-App keine Internetverbindung benötigt. Auf der anderen Seite kann so eine Anwendung viel Speicherplatz, Rechenleistung und Akkumulator-Laufzeit des entsprechenden mobilen Geräts verbrauchen (Schart & Tschanz, 2017, p. 63).

2.2 Augmented Virtuality

ITWissen ordnet die Augmented Virtuality (dt. erweiterte Virtualität), abgekürzt durch AV, wie auch die Augmented Reality zu der Mixed Reality (dt. Gemischte Realität). Es ist eine Kombination der virtuellen Welt, die mit Inhalten der realen Welt erweitert wird. Im Gegensatz zur AR besteht die AV größtenteils aus virtuellen Umwelten, in die reale physikalische Elemente oder Menschen projiziert werden und die in Echtzeit mit der virtuellen Welt interagieren können. Die Symbiose der Virtualität mit Realität in Echtzeit kann mit diversen Methoden erarbeitet werden, zum Beispiel durch Einblendung von Videokonferenzteilnehmern in die virtuelle Welt wie bei der Telepräsenz oder die Einblendung realer Spieler in Computerspiele (ITWissen, 2017b).

Eines der Beispiele für diese Technologie führt die Firma Sony auf der Abbildung 4 vor. Diese Applikation beruht auf der Verwendung einer Web-Kamera, die den vor dem Bildschirm stehenden Spieler aufnimmt, in den virtuellen Spielverlauf integriert und seine Bewegungen mit imaginären Objekten der Virtualität abgleicht. Es wird eine Interaktion zwischen realer und virtueller Umwelt ermöglicht und repräsentiert (Turk & Hua, 2013, p. 78).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Spielausschnitt der Sony EyeToy (Sony Computer Entertainment Europe, 2017)

2.3 Virtual Reality

Virtual Reality, abgekürzt durch VR, ermöglicht einer Person die Interaktion mit einer künstlichen 3D-Umgebung. Laut Encyclopedia Britannica tauchen VR-Technologien einen Benutzer in eine computergenerierte Umgebung ein, die die Realität simuliert. Dabei werden interaktive Geräte verwendet, die Informationen senden und empfangen können, zum Beispiel VR-Brille, Headsets, Handschuhe oder anderen Gadgets. In einer typischen VR-Umwelt kann ein Benutzer animierte Bilder einer simulierten Umgebung betrachten. Die Illusion von "da sein" (Telepräsenz) wird durch Bewegungssensoren bewirkt, die die Bewegungen des Benutzers aufnehmen und die Ansicht auf dem Bildschirm entsprechend anpassen. Dies erfolgt in Echtzeit in dem Moment, in dem die Bewegung des Benutzers stattfindet. Laut Henry E. Lowood, einem Autor bei Encyclopedia Britannica, kann ein Benutzer eine Reihe an simulierten Räumen besichtigen, wechselnde Blickpunkte und Perspektiven erfahren, die realitätsnah mit seinen eigenen Kopfdrehungen und Schritten in Beziehung stehen. Das Tragen von Datenhandschuhen, die das Gefühl der Berührung vermitteln, kann sogar Objekte, die der Benutzer in der virtuellen Umgebung sieht, erfassen und manipulieren (Lowood, 2017). In ihrem Buch beschreiben Schart und Tschanz ein VR-Erlebnis als Ablösen von der realen Umwelt, das heißt es wird also eine Welt modelliert, die real vorkommt, aber nicht real ist. Zu der innovativsten und den meist verbreitetsten Headsets mit VR Technologie zählen Autoren solche wie Oculus Rift, Playstation VR, Gear VR und Google Cardboard (Schart & Tschanz, 2017, p. 20).

Ein Beispiel für die Umsetzung der Virtual Reality wird von Oculus VR, LLC. mit ihrer Entwicklung Oculus Rift präsentiert. Mit Anlegen des Oculus Rift Headsets sowie Touch Controllers beginnt die Reise für einen Anwender in eine völlig imaginäre Welt und verführt den User komplett aus der Realität. Auf der rechten Seite der Abbildung 5 wird die Erfindung selbst dargestellt, auf der linken Seite wird die virtuelle Welt um den realen Spieler präsentiert (Oculus VR LLC., 2018).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Entwicklung von Oculus VR, LLC. (links: Oculus Rift Headset und Touch Controllers; rechts: Oculus Rift in der Anwendung ) (Oculus VR LLC., 2018; Ranger, 2017)

2.4 Mixed Reality

Tschanz und Schart definieren den Begriff Mixed Reality, abgekürzt durch MR, als ein Sammelbegriff für jegliche Form der Vermischung von imaginären und reellen Welten wie beispielsweise die Augmented Reality. Die gemischte Realität wird auch als Merged Reality oder Hybrid Reality benannt. Die gemischte Realität bezeichnet außerdem den Übergang von realer zu virtueller Umgebung. Auf dieser Ebene werden erweiterten Objekte nicht nur in das Blickfeld des Betrachters eingeblendet, wie das bei reiner AR eben der Fall ist, sie werden in die Realität integriert und wirken als ein Teil davon. Laut Autoren erkennt diese Technologie nicht nur einzelne Objekte, wie bei Augmented Reality, sondern die Umgebung des Users. Dieses Phänomen wird durch verschieden Kameras der Mixed-Reality-Brille ermöglicht (Schart & Tschanz, 2017, pp. 21–25).

Die Abbildung 6 verdeutlicht das Verständnis dieser Technologie. Auf der Abbildung werden nicht nur reelle Objekte dargestellt, mit Hilfe von HoloLens werden zusätzlich auch virtuelle Objekte (beispielsweise Berge und Häuser) in den Raum eingeblendet und durch Animation, Sound und Grafik zum Leben erweckt. Virtuelle Objekte werden von Microsoft Hologramme genannt. Mit dem neuen Device des internationalen Software- und Hardwareherstellers wird ein Gefühl für die Distanz zu den virtuellen Objekten vermittelt, die ein Benutzer komplett umlaufen und mit denen er interagieren kann (Microsoft, 2017).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Mixed Reality mit Microsoft HoloLens (Microsoft, 2017)

2.5 Einordnung der Augmented Reality auf einer Virtualität-Realität Skala

Um ein klares Verständnis und eine Eingrenzung der zahlreichen Virtualität-Realität Technologien zu schaffen, ist es sinnvoll diese auf einer entsprechenden Skala einzuordnen. In der Literatur bezüglich AR, MR, AV und VR Technologien wird es oft bei ihrer Eingrenzung und Einordung auf das Kontinuum von Milgram et al. verwiesen, die als Realitäts-Virtualitäts-Kontinuum bekannt ist. Das Realitäts-Virtualitäts-Kontinuum wird auf der Abbildung 7 dargestellt (Milgram et al., 1994).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Repräsentation der Realitäts-Virtualitäts-Kontinuum (Milgram et al., 1994, p. 283)

Das Kontinuum von Milgram et al. klassifiziert diverse Virtualität-Realität Technologien nach dem Verhältnis den dargestellten virtuellen und realen Anteilen. Das Extremum auf der linken Seite des Kontinuums – Real Environment definiert jede Umgebung, die ausschließlich aus realen Objekten besteht. Das Extremum auf der rechten Seite definiert Umgebungen, die ausschließlich aus virtuellen Objekten bestehen. Ein Beispiel hierfür sind konventionelle Computergrafik-Simulationen, die für einen Nutzer möglichst immersiv dargestellt sind. Innerhalb dieses Rahmens ist es einfach, eine generische Mixed Reality-Umgebung als eine zu definieren, in die Objekte der realen Welt und der virtuellen Welt zusammen in einem Bild dargestellt werden, das heißt irgendwo zwischen den Extrema des RV-Kontinuums. Augmented Reality und Augmented Virtuality sind somit auch als Mixed Reality zu verstehen. Sie sind miteinander verkoppelt und ergeben eine Realität-Virtualität-Symbiose (Milgram et al., 1994).

In seinem Buch „Virtual Art: From Illusion to Immersion“ schreibt Oliver Grau, dass immersiv in diesem Sachverhalt einen Wirkungsgrad bedeutet, inwiefern sich die virtuelle oder fiktive Welt auf den Betrachter auswirkt. Bei dem hohen Grad an Immersion (dt. Eintauchen) ist das Bewusstsein des Users den illusorischen Stimuli, also dem Reiz zur Aktivierung des Verhaltens, so strakt ausgesetzt, dass die virtuelle Umgebung als real empfunden wird. Ist der Grad an Immersion extrem hoch, wird auch von Präsenz gesprochen (Grau, 2003, pp. 13–15).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Divergenz der Realitäten (Liza Brown, 2017)

In seinem Beitrag beschreibt Liza Brown, Unterschiede zwischen AR, VR und MR, die er ebenfalls beispielhaft auf einer Graphik darstellt. Die Abbildung 8 präsentiert die Divergenz zwischen unterschiedlichen Realitäten und markiert virtuelle bzw. fiktive Objekte, um sie von der Wirklichkeit zu trennen. Dabei werden die fiktiven Elemente grün und die reelle Welt in Graustufen dargestellt. Die VR in der Mitte besteht komplett aus imaginären Objekten, während die AR auf der linken Seite lediglich virtuelle Einblendungen auf dem Endgerät anzeigt. Die MR auf der rechten Seite werden die fiktiven Objekte in der Realität immersiv dargestellt (Liza Brown, 2017).

2.6 Entstehungsgeschichte

Im folgenden Abschnitt wird auf die Entwicklungsgeschichte der Augmented Reality eingegangen, indem 13 wichtigen Geschichtsereignisse übersichtsartig vorgestellt werden. Als Ausgangpunkt für die Recherche und Erstellung dieses Unterkapitels wurde das aktuelle Buch von Schart und Tschanz „Augmented und Mixed Reality“ herangezogen. Die ausgewählten Geschichtsmeilensteine der AR wurden auch in anderen Literaturwerken häufig aufgeführt. Systeme mit Mechanismen im Sinne von erweiterten Realität gehen bis in die 1950er und 1960er Jahre zurück (Schart & Tschanz, 2017, pp. 28–34).

Mit seiner Entwicklung und Patentierung von „Kino der Zukunft“ – Sensorama zwischen 1957 und 1962 wollte Morton Heilig die Zuschauer in den Bildschirm hineinziehen (Heilig, 1992). Die Abbildung 9 stellt das Ergebnis dieser Entwicklung dar.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: Sensorama – „Kino der Zukunft“ (Turi, 2014)

Das „Kino der Zukunft“ verwendete visuelle Effekte, Ton, Geruch, Luftbewegung sowie Vibrationen, um verschiedene menschliche Sinne zu aktivieren und somit ein unvergleichbares Kinoerlebnis zu schaffen. Der diplomierte Filmregisseur, Kameramann und Erfinder beschrieb seine Maschine auch als „Experiance Theater“ (Heilig, 1992).

Später im Jahr 1965 erfand Ivan Sutherland das Head-Mounted-Display, das von zahlreichen Wissenschaftlern und Forschern als Entstehung der Augmented Reality gesehen wird. Seine Entwicklung nannte der Pionier der Computergrafik – Sutherland als das Sword of Damocles. Die Nutzer des Apparats können ein immersives Erlebnis einer computerentwickelten virtuellen 3D-Umgebung genießen. Dem Anwender wurden geometrische Formen ins Blickfeld projiziert, die sich gleichzeitig mit den Schwingungen des Kopfes mitbewegten. Das stereoskopische Bild wurde über Elektronenröhren erzeugt, die durch überzogene Spiegel direkt vor den Augen des Trägers projiziert wurde. Der Apparat war allerdings so schwer, dass er an der Decke befestigt werden musste (Sutherland, 1968). Die Abbildung 10 präsentiert den HMD „Sword of Damocles“.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10: HMD „The Sword of Damocles“ mit der Befestigung (Sutherland, 1968, p. 298)

Erstmalig entfaltet sich die Bezeichnung Augmented Reality im Jahr 1992 von Thomas Caudell und David Mizell. Die beiden Erfinder entwickelten den ersten industriellen HMD mit AR für Boeing, um den technischen Mitarbeitern bei der Kabelverlegung die notwendigen Informationen in die reelle Welt einzublenden (Caudell & Mizell, 1992).

Im gleichen Jahr baute Rosenberg eines der ersten funktionierenden Augmented-Reality-System Virtual Fixtures für die U.S. Air Force Armstrong Labs, um die Benutzer für die Roboterfernsteuerung zu trainieren. In Jahr 1992 konnte die Computergrafik noch nicht das gleiche immersive Erlebnis liefern wie heute. So wurden schlichte Einblendungen, die auf der Abbildung 11 zu sehen sind, auf einen reellen Hintergrund projiziert (Rosenberg, 1992).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 11: Virtual Fixtures (Wikipedia Commons, 2017)

Im Jahr 1993 schufen drei Wissenschaftler der Columbia Universität das Knowledge-based Augmented Reality for Maintenance Assistance (kurz KARMA). Das System mit integriertem halbtransparenten HMD soll in der Industrie bei Instandhaltung von Geräten mithelfen. KARMA ersetzt somit zahlreiche Handbücher und technisches Know-How. Der Bildschirm projiziert die Bedienungsanweisungen und Handgriffe direkt auf das defekte Gerät (Feiner et al., 1993). Auf der Abbildung 12 wird KARMA in der Benutzung dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 12: Knowledge-based Augmented Reality for Maintenance Assistance (Pinterest, 2017)

1994 erforschten Milgram und seine Mitarbeiter das Realitäts-Virtualitäts-Kontinuum (siehe Unterkapitel 2.5). Ihre wissenschaftliche Arbeit zum Thema Augmented Reality gilt auch heute noch als Meilenstein auf dem Gebiet (Milgram et al., 1994).

Im Jahr 1997 fasste Ronald Azuma seine erste Untersuchung auf dem AR-Forschungsgebiet zusammen und definierte die heute meist verbreitete Bedeutung für Augmented Reality (siehe Unterkapitel 2.1).

Zwei Jahre später wurde ARToolKit von Hirokazu Kato entwickelt, einem Open Source Projekt mit einer viel genutzten Tracking-Bibliothek, um AR-Programme zu kreieren. Dieses Werkzeug hat erstmal ermöglicht mit virtuellen Elementen in einem Livestream die reale Umwelt zu kontaktieren und zu interagieren. Diese Erfindung wurde in den folgenden Jahren weiterentwickelt und perfektioniert (Lamb, 2017).

Nach der mehreren Jahren Forschung und Einsatz der AR-Technologie in der Industrie, begann die Weiterentwicklung der Technologie in Kommunikation- und Unterhaltungssektoren, fokussiert auf Mobilgeräte (Schart & Tschanz, 2017, p. 30).

Im Jahr 2008 wurde Wikitude World Browser als erster AR-Browser für Smartphone veröffentlicht (siehe Unterkapitel 2.1.1, Abbildung 3). Das Unternehmen Wikitude zählt zu den Pionieren im mobilen AR-Bereich, seine Freeware zählt zu der wichtigsten Software, die in der Entwicklung von AR häufig genannt wird (Steinschaden, 2017).

Im Jahr 2012 präsentierte Google das Projekt für Google Glass (siehe Unterkapitel 1.1). Bezüglich des Potentials der Entwicklung dieses Devices gab es zahlreiche konkurrierende Meinungen. Drei Jahre nach seinem Debüt hat Google Glass die Erwartungen der Zielgruppe nicht erfüllt und das Vertrauen der Öffentlichkeit nicht gewonnen. Der Verkauf der Datenbrille wurde somit im Januar 2015 eingestellt (Jacobsen, 2017, pp. 221–222). Kurz danach, im Sommer des gleichen Jahres wurde Google umstrukturiert. Ab diesem Zeitpunkt wurden alle Tochterunternehmen der neuen Holding Alphabet mit den beiden Google-Gründer, Larry Page und Sergey Brin, an der Spitze untergeordnet (Jacobsen, 2017, pp. 221–223). Trotz des erfolgslosen Debüts präsentierte das Unternehmen Alphabet offiziell am 18 Juli 2017 eine neue und optimierte Version der Datenbrille. Die Enterprise Edition fokussiert sich nicht mehr auf den Consumer-Bereich, sondern nur noch auf Unternehmen. Die neue Version kann in einer Vielzahl von Branchen eingesetzt werden, darunter Fertigung, Logistik, Außendienst und Gesundheitswesen. Das neue Design ist jetzt komfortabler für dauerhaftes Tragen und hat auch eine längere Akkulaufzeit (Nosta, 2017).

Am 17. Mai 2013 startete eine Firma aus Silicon Valley Meta eine Crowdfunded Kickstarter-Kampagne für eine „most advanced“ Augmented Reality Brille. Meta setzte sich zum Ziel 100.000 US Dollar durch die Kampagne zu sammeln, brachte aber 501 Unterstützer dazu, sein Start-up mit 194.444 US Dollar finanziell zu unterstützen (Kickstarter, 2013).

Im September 2014 präsentierte Meta ihre Datenbrille als Meta One Developer Kit auf der TechCrunch Disrupt, einer der weltweit führenden Online-Nachrichtenportale für Technologie- und Internet-Unternehmen in San Francisco. Am 14. Dezember 2016 hat Meta mit der Auslieferung der ersten Einheiten des Meta 2 Development Kits an Meta-Kunden begonnen. Zu den Kunden gehören Einzelentwickler und Unternehmensentwickler, solche umsatzstarken Unternehmen wie Boeing, Toyota und Caterpillar aber auch AR-Enthusiasten (Meta Company, 2017b). Die Abbildung 13 stellt die letzte Version der Meta AR-Brille dar.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 13: Meta 2 Development Kit (Meta Company, 2017a)

Anfang 2014 setzte Google Project Tango in Gang. Die Idee des Projekts ist es, eine AR-Plattform zu entwickeln, die es Mobilgeräten ermöglicht, ihren Standort ohne Einsatz von Global Positioning System (kurz GPS) und anderen außenstehenden Signalen zu ermitteln. Im Frühjahr 2015 wurde der Development Kit in Form eines Tablets rausgebracht (Schart & Tschanz, 2017, p. 32). Im August 2017 kündigte Google an, dass das Tango Projekt durch die Augmented Reality-Plattform ARCore ersetzt werde (Burke, 2017).

Im Sommer 2017 stellte Apple das ARKit auf der weltweiten Entwicklerkonferenz (engl. Worldwide Developers Conference kurz WWDC) vor. ARKit bietet eine hochmoderne Plattform für die Entwicklung von Augmented Reality-Apps für iPhone und iPad. Die Plattform kombiniert Gerätebewegungsverfolgung, Kameraszenenerfassung, erweiterte Szenenverarbeitung und Anzeigefunktionen, um die Erstellung eines AR-Erlebnisses zu vereinfachen (Apple Inc., 2017).

3 Technische Grundlagen der Augmented Reality

In diesem Kapitel werden technischen Grundlagen erklärt, die für ein besseres Verständnis der Augmented Reality notwendig sind. Als Grundlage für die Recherche sowie Erstellung dieses Kapitels dienen einschlägige Bücher sowie verschiedene wissenschaftliche Arbeiten von Experten auf dem AR-Gebiet und zugehörigen Gebieten. Das Kapitel ist in zwei Unterkapitel gegliedert. Unterkapitel 3.1 stellt verbreiteten AR-Geräte sowie die eingebauten Komponenten vor, die für Erstellung von AR-Anwendungen benötigt werden. Unterkapitel 3.2 erklärt Verfahren, die AR-Applikationen verwenden, um Benutzerstandort zu lokalisieren und augmentierte Inhalte auf Bildschirmen der Endgeräte in Abhängigkeit von realen Gegebenheiten physikalisch korrekt zu platzieren.

3.1 Augmented Reality Devices

Augmented Reality Systeme bestehen aus Software- und Hardwarekomponenten. Unter Hardwarekomponenten werden in der Fachliteratur folgende genannt:

- Eingabegeräte wie Tastatur, Maus, Touchscreen und -pad;
- Sensoren wie Kameras, Trägheitssensoren, Infrarotsensoren, etc.;
- Ausgebegeräte wie Monitor, Head-Mounted-Displays, Bildschirme der mobilen Geräte, Head-Up-Displays und intelligenten Kontaktlinsen;
- Geräte-Hardware wie Prozessor, Speicher und Graphikarte, die für Verbreitung von Algorithmen und Signale sowie Bereitstellung von Ausgaben verwendet werden (Schart & Tschanz, 2017, pp. 45–47).

Softwarekomponenten sind AR-Programme, die AR-spezifische Algorithmen zum Beispiel für Trackingverfahren (siehe Unterkapitel 3.2) beinhalten und ausführen. Diese sind für Visualisierung sowie eine korrekte Darstellung von virtuellen Inhalten notwendig. Ferner verfügen diese über Datenbanken, die virtuelle Objekte sowie Umgebungsinformationen aufbewahren (Schart & Tschanz, 2017, pp. 45–47). Augmented Reality Devices sind jene, die über notwendige Hardwarekomponente verfügen und mit Softwarekomponenten ausgerüstet werden können (Aurelia et al., 2014). Nachfolgend werden AR-Geräte vorgestellt, die in der Fachliteratur häufig erwähnt werden.

3.1.1 Handhelds

Mobile Devices, die ein Benutzer während der Verwendung in der Hand hält, wie Smartphones und Tablet PCs, kurz Tablets, werden häufig als Handheld Devices (dt. tragbare Geräte) oder kurz Handhelds bezeichnet. Augmented Reality schuldet ihrer Verbreitung nicht zuletzt der rapiden Entwicklung der Handhelds, da diese als mobile Begleiter auch im Konsumentenbereich zugänglich sind. Moderne Smartphones verfügen häufig über Antennen für mobiles Netzwerk und Empfang der GPS-Signale, Mehrkernprozessor, 3D-fähiges Graphikkartenchip, Kamera und eine Vielzahl an Sensoren. Darunter zählen unter anderem Beschleunigungssensor (engl. Accelerometer), Magnetometer, Gyroskop, ein Sensor zur Bestimmung der Ausrichtung sowie zu Messung der Winkelgeschwindigkeit (Aurelia et al., 2014; Mehler-Bicher & Steiger, 2014, pp. 48–49).

Laut Schart und Tschanz bilden Smartphones zusammen mit Tablets immer noch den größten Anteil an AR-fähigen Devices. Diese Tatsache schulden diese Geräte, laut Aurelia et al., Mehler-Bicher und Steiger sowie Schart und Tschanz, nicht zuletzt ihrer Multifunktionalität und vergleichsweise hohen Zugänglichkeit. Mehrere Sensoren, Anbindungsmöglichkeiten in diverse mobile Netzwerke sowie in der Regel vorhandene zwei Kameras, die gleichzeitige Aufnahme von Nutzer und seine Umgebung ermöglichen, erlauben Erstellung vielfältiger AR-Anwendungen. Solche Anwendungen sind nicht selten erste Anlaufstelle für Technik-Enthusiasten, die diese ausprobieren und sogar selbstständig AR-Applikationen erstellen können, ohne dabei über ein großes Budget zu verfügen, um externe Devices zu beschaffen (Aurelia et al., 2014; Mehler-Bicher & Steiger, 2014, pp. 48–49; Schart & Tschanz, 2017, p. 55).

Mittels dem sogenannten Inertial Measurement Unit (dt. inertiale Messeinheit oder auch Trägheitssensoren), kurz IMU, gelangen Anwendungen des Smartphones bzw. Tablets auf Messdaten der integrierten Sensoren. Am häufigsten werden solche Sensoren wie Beschleunigungssensor, Kreiselinstrument, auch Gyroskop genannt, und in manchen Fällen auch weiteren Sensoren wie beispielsweise Magnetometer (siehe Abbildung 14).

Damit lassen sich solche Werte wie Beschleunigung, Winkelgeschwindigkeit und magnetischer Flussdichten unmittelbar in einem 3D-Raum messen. Ferner lassen sich durch genannte Sensoren solche physikalischen Größen wie Geschwindigkeit, Winkellage und Winkelveränderungen des mobilen Devices ermitteln, die das Gerät durch sein Träger erhält. Diese Daten bilden gemeinsam mit anderen Inputparameter wie etwa GPS-Koordinaten, Kamerabilder oder Eingabeparameter des Users wichtige Grundlage für mathematischen Berechnungen, die eine essenzielle Grundlage für diverse AR-Anwendungen bilden (Billinghurst et al., 2015, pp. 122–125; Yan et al., 2017).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 14: Ein Beispiel für eine IMU-Leiterplatte (WB Team, 2016)

3.1.2 Optische Augmented Reality Geräte

Ein optisches Gerät besteht aus mehreren Komponenten zur Verarbeitung von Lichtstrahlen. Eine wichtige Komponente ist dabei ein Linsensystem, das die Abbildung eines Realitätsausschnitts für die weitere Verarbeitung ermöglicht. Auf dem AR-Gebiet zählen dazu unter anderem integrierte Kameras, Ausgabebildschirme, intelligente Brillen und Projektoren sowie Rechensysteme, die empfangene Informationen verarbeiten, mit erweiterten Inhalten anreichern und an die geeignete Ausgabekomponente weiterleiten (di Fabrizio et al., 2016; grund-wissen.de, 2017; TruLife Optics, 2014). Smartphones und Tablets wurden bereits im Unterkapitel 3.1.1 besprochen. Weitere vier häufig in der Literatur verwendeten optischen Geräten werden nachfolgend vorgestellt.

Generell wird bei optischen AR-Geräten zwischen „ optical-see-through “ und „ video-see-through “ differenziert. Bei „optical-see-through“, auch „ see-through “ (dt. Durchsicht) genannt, Geräten wird die reale Welt durch Linsen direkt angezeigt und augmentierten Inhalte werden überlappt dargestellt. Als Beispiele für diese Art der Geräte können Microsoft HoloLens (siehe Unterkapitel 2.4), Vuzix Blade und Intel Vaunt (siehe Unterkapitel 5.6.2) genannt werden. Bei „video-see-through“ wird die Realität indirekt durch das Kamerabild auf dem Device-Display präsentiert. Dabei können angezeigte Darstellungen bereits virtuelle Objekte beinhalten. So verfügen die meisten VR-Datenbrillen wie Oculus Rift (siehe Unterkapitel 2.3) sowie Smartphone und Tablets (siehe Unterkapitel 3.1.1) über diese Technik (Mehler-Bicher & Steiger, 2014, pp. 44–45; Schart & Tschanz, 2017, pp. 55–57).

Eine primitive Möglichkeit einer AR-Anwendung erfolgt über eine Kamera, die die reale Umgebung aufnimmt, eine Software-Applikation, die die reale Inhalte mit augmentierten erweitert, und einem Bildschirm, der das Ergebnis der Applikation anzeigt. In der Regel wird noch ein zusätzliches Material wie beispielsweise eine Zeitung (siehe Unterkapitel 4.9) benötigt. Dieses Material wird von der Kamera erfasst und von der Applikation verarbeitet. Abhängig von der Material wird ein entsprechender virtueller Inhalt erzeugt und auf dem Ausgabebildschirm dargestellt. Zwar sind solche AR-Anwendungen relativ einfach zu implementieren und sind zudem noch vergleichsweise performant, allerdings sind diese Applikationen wenig interaktiv und bitten geringe immersive Erlebnis in Vergleich zu anderen Methoden (Mehler-Bicher & Steiger, 2014, pp. 42–44; Schart & Tschanz, 2017, pp. 54–55).

Ein Head-Mounted Display (dt. am Kopf befestigte Bildschirm), kurz HMD oder auch HDM, ist ein elektronisches Gerät mit visuellen Anzeigebildschirm, das auf dem Kopf des Benutzers getragen wird. Solche Geräte verfügen über optischen Sensoren wie beispielsweise Kameras, die die Informationen aus dem Umfeld des Trägers aufnehmen und mittels Recheneinheit verarbeiten. Dabei werden realen Objekte durch eine Softwareapplikation erkannt, mit augmentierten Informationen ergänzt und an den Ausgabebildschirm weitergeleitet. Erweiterten Anzeigen werden schließlich auf einem mono- bzw. binokularen Display dargestellt. Bei früheren HMDs wurden Kathodenstrahlröhren verwendet, die später durch LCD und OLED-Technologien ersetzt wurden (Schwenke, 2016, pp. 24–34; Theis et al., 2016, pp. 7–12).

Virtuelle Inhalte eines HMDs können entweder direkt auf dem eingebauten Bildschirm bzw. Gläser dargestellt oder indirekt auf diesen projiziert werden. Bei direkten Darstellung auf dem Bildschirm wird häufig eine video-see-through Technik angewendet, wobei die vorher durch Kamera aufgenommene reale Inhalte zusammen mit berechneten virtuellen Objekten angezeigt wird. Die Projektion der Inhalte auf Gläser erfolgt nach optical-see-through Prinzip, da der Träger reale Welt durch Linsen sieht und augmentierte Inhalte überlagert dargestellt werden. Bei einfachen Einblendungen ist diese Technik praktikabel, bei komplexen 3D-Objekten kann es allerdings zu „Schwebeeffekten“ führen. Das heißt, durch den Abstand zwischen den Gläsern und Augen können virtuelle Objekte von der richtigen Position leicht „abrutschen“ (Azuma, 2017; Schwenke, 2016, pp. 24–34; Theis et al., 2016, pp. 7–12).

Mit dem Virtual Retinal Display, kurz VRD, entstand eine neue Möglichkeit der visuellen Darstellung. Diese erlaubt virtuellen Objekte direkt auf das Auge des Trägers projizieren zu lassen. Dabei werden mehreren Prismen verwendet, die ausgesendete Lichtstrahlung auf menschliche Augen reflektieren. Laut Muensterer et al. und Thomas A. Furness III, Pionier auf dem VR-Gebiet, sind Auswirkungen für Netzhaut durch den Einsatz relativ niedrigen Strahlungsintensität nicht schädlich. Laut Display Magazin, einem Ratgeberportal zu den Themen Displays, Multimedia, Verkaufsförderung, etc., stellt die verwendete Technologie Bilder mit relativ hoher Auflösung ohne wahrnehmbaren Flimmern dar. Des Weiteren werden einzelnen Bilder besser auf das jeweilige Auge angepasst, wodurch zum einen das stereoskopische Effekt gesteigert und zum anderen bessere Überdeckung realen Objekten durch augmentierten Inhalte ermöglicht wird. Dadurch wirken dargestellten Objekte noch realistischer, wodurch das Gefühl der Immersion noch stärker vermittelt wird (Display Magazin, 2018; Furness, 2018; Muensterer et al., 2014).

Abhängig von ihrer Ausführung klassifizieren Billinghurst et al. HMDs als Smartglasses oder Smarthelmets. Smartglasses (dt. intelligente Brille oder Datenbrille) haben, wie die Name schon andeutet, eine gewisse äußere Ähnlichkeit mit herkömmlichen Brillen. In ihrem Aufbau unterscheiden sich Brillen allerdings stark voneinander. So verfügt beispielsweise Google Glass (siehe Unterkapitel 1.1), laut Muensterer et al., über ein sogenanntes Prisma, das die Rolle eines Bildschirms übernimmt. Ferner verfügen manche Datenbrillen, laut Billinghurst et al., über keine Brillengläser. Andere wie beispielsweise Vaunt (siehe Unterkapitel 5.6.2) haben, laut Jordan Crook, gleiche äußere Gestaltung wie konventionelle Brille. Des Weiteren existieren video-see-through Smartglasses wie zum Beispiel Oculus Rift (siehe Unterkapitel 2.3), die das Blick auf die Realität nur über den integrierten Bildschirm ermöglichen. Die Steuerung kann, laut Billinghurst et al., Muensterer et al. sowie Magic Leap, auf mehreren Arten geschehen: Gestensteuerung, Sprachsteuerung, Blicksteuerung sowie über ein Touchpanel. Des Weiteren ist die Steuerung über externe Geräte wie beispielsweise über ein Smartphone möglich (Billinghurst et al., 2015, pp. 139–141; Crook, 2018; Magic Leap, 2018; Muensterer et al., 2014).

Billinghurst et al. sowie Dörner et al. schreiben, dass ein Smarthelmet (engl. Datenhelm) als eine Kombination aus einem konventionellen Helm und Datenbrille vorgestellt werden kann. Aus historischer Sicht sind Datenhelmen schon lange bekannt und wurden vor allem im Militärbereichen wie beispielsweise Luftstreitkräften genutzt. Laut DAQRI, einem Datenhelmhersteller für Industriebereich, werden heutzutage Smarthelmets unter anderem in den Industriebereichen wie z.B. Wartung und Instandhaltung (siehe Unterkapitel 4.6) sowie als Motorradhelme verwendet (siehe Unterkapitel 5.6.3), da diese zusätzlich zur Unterstützung durch augmentierte Inhalte der Datenbrillen auch die Schutzfunktion herkömmlicher Helme erfüllen. Ferner haben Smarthelmets mehr Platz, um einzelne für AR notwendige Bestandteile wie Kameras, Sensoren sowie Recheneinheiten einzubauen (Billinghurst et al., 2015, pp. 86–88; DAQRI LLC, 2018; Dörner et al., 2013, pp. 19–21; Pluta, 2014b).

Laut Mehler-Bicher und Steiger sind die sogenannten Augmented-Reality-Head-Up-Displays eine andere Art der optischen Geräte, die ebenfalls aus dem militärischen Bereich stammen. Bei Augmented-Reality-Head-Up-Displays, kurz AR-HUDs, werden augmentierte Inhalte direkt auf der Frontscheibe projiziert. Heutzutage werden AR-HUDs vor allem in Flugzeugen (siehe Unterkapitel 4.6), Automobile (siehe Unterkapitel 5.6.3) und anderen Verkehrsmittel verbaut. So können beispielsweise Informationen bezüglich der Route, der Navigation sowie entsprechende Messwerte wie Geschwindigkeit, Luftdruck, etc. angezeigt werden (Mehler-Bicher & Steiger, 2014, pp. 46–47). Laut Thomas Geiger hat das den Vorteil, dass der Anwender die benötigen Daten direkt in die Fahrt- bzw. Flugrichtung angezeigt bekommt und muss daher sein Blick nicht abwenden (Geiger, 2017).

Smartlenses (dt. intelligente Kontaktlinsen) bilden, laut AR-Experten, eine vergleichsweise neuartige Technologie für optischen AR-Darstellungen (siehe Unterkapitel 5.6.4). Solche Kontaktlinsen gehören generell zu optical-see-through Geräten, da eine direkte Sicht auf reale Welt beim Tragen möglich ist. In eine solche Linse werden Leuchtdioden (engl. light-emitting diodes), kurz LEDs, für die visuelle Darstellung augmentierter Inhalte eingebaut. Diese werden von einem externen Gerät wie beispielsweise einem Smartphone berechnet und durch eine in die Linse integrierte Antenne empfangen (Mehler-Bicher & Steiger, 2014, pp. 47–48; Parviz, 2012; Schart & Tschanz, 2017, p. 60).

3.2 Trackingverfahren und Location-Based-Services (LBS)

Erstellung eines glaubwürdigen immersiven Erlebnisses für Benutzer ist, laut Aurelia et al., ein wesentliches Ziel der Augmented Reality. Da virtuelle Objekte der AR die reelle Welt überdecken, müssen diese an die Umgebung angepasst und entsprechen ausgerichtet werden. Dafür ist es unabdinglich, exakte Position und Ausrichtung der User zu bestimmen. Des Weiteren muss die Bewegung der Benutzer ebenfalls mitberücksichtigt werden. Laut Aurelia et al. bestehen zahlreiche Methoden, um diese Informationen von einem Smartphone oder einem anderen AR-Device in Echtzeit abzufragen. Autoren schreiben, dass für eine korrekte Darstellung der Inhalte auf einem Bildschirm diverse Trackingverfahren angewendet werden (Aurelia et al., 2014).

Ein Tracking verfahren (vom engl. to track – verfolgen) besteht aus mehrstufigen mathematische Algorithmen, die reale Umwelt und darin befindliche Objekte erkennen und erfassen. Des Weiteren „verfolgen“ diese Algorithmen realen Objekte sowie ihre Positionsveränderung im Raum. Anschließend zum Trackingverfahren kann die sogenannte „ Registrierung “ der virtuellen Inhalte erfolgen. Das heißt, dass die reale Welt um virtuelle Objekte mit korrekter Ausrichtung und Positionierung erweitert wird, die sich der Veränderungen in der Realität anpassen. Augmentierte Objekte werden also nach der Registrierung zu „einem Teil“ der realen Welt (Billinghurst et al., 2015, pp. 103–108; Mehler-Bicher & Steiger, 2014, pp. 25–29).

Laut Billinghurst et al. sowie Mehler-Bicher und Steiger verwenden die meisten AR-Anwendungen Trackingverfahren für eine korrekte Darstellung der augmentierten Inhalte. Allerdings variiert die Präzision dieser Verfahren abhängig von ihrem Einsatzgebiet und der Leistungskapazitäten des Endgeräts stark. Anwendungen, die für das Tracking notwendige Algorithmen implementieren, werden als Tracker bezeichnet. Während in der Medizin relativ hohe Anforderungen an die Präzision der Anwendungen gestellt wird (siehe Unterkapitel 4.5), fallen Ansprüche im Unterhaltungsbereichen wie beispielsweise AR-Gaming (siehe Unterkapitel 4.13) niedriger aus (Billinghurst et al., 2015, pp. 103–108; Mehler-Bicher & Steiger, 2014, pp. 25–29).

Nach AR-Experten, Billinghurst et al. sowie Mehler-Bicher und Steiger, kann ein Trackingverfahren nach “Outside-Looking-In”-Prinzip oder kurz “Outside-In”-Prinzip und “Inside-Looking-Out”-Prinzip oder nach “Inside-Out”-Prinzip erfolgen. Bei “Outside-In”-Prinzip werden Sensoren in einem oder mehreren Räumen montiert. Bei „Inside-In”-Prinzip werden dagegen Sensoren des mobilen Endgeräts verwendet, das ein Benutzer während des Verfahrens verwendet (Billinghurst et al., 2015, pp. 103–108; Mehler-Bicher & Steiger, 2014, pp. 25–29). Falls virtuellen Inhalte in Abhängigkeit von ihrer geographischen Lage auftreten sollen, dann sind sogenannten Location-Based-Services erforderlich.

Laut Aurelia et al. sind Location-Based-Services (dt. Standortbezogener Dienste) oder kurz LBS Software, die ihren Dienst in Abhängigkeit von Benutzerstandort erbringen. Mit der steigenden Popularität der multifunktionalen mobilen Devices wächst ebenfalls das öffentliche Interesse an LBS. Ursprünglich als eine Möglichkeit zur Lokalisierung der nahegelegene Points of Interest (dt. „interessante Orte“) oder kurz POI, als Navigation oder als Zusatzoption der sozialen Netzwerke, um eigene Beiträge mit aktuellen Position zu verknüpfen, entstanden, hat sich die Technologie rasant weiterentwickelt und vervielfältigt. Nach der Analyse der praktischen Anwendungsbeispiele auf dem AR-Gebiet in dieser Arbeit, wurden mehrere Einsatzgebiete dokumentiert, in denen LBS Anwendungen eingesetzt wurden (siehe Kapitel 4). LBS Anwendungen dominieren in solchen Bereichen wie Reisen und Tourismus (siehe Unterkapitel 4.12), Geocaching und AR-Gaming (siehe Unterkapitel 4.13), Werbung und Marketingkampagnen (siehe Unterkapitel 4.3), Navigation und Verkehrswesen wie beispielsweise Automobilindustrie (siehe Unterkapitel 4.11 und 5.6.3) (Aurelia et al., 2014). Des Weiteren, schreiben Rehman und Cao, ist der Einsatz der standortbezogenen Dienste auch in geschlossenen Räumlichkeiten wie Messegelände, Museen (siehe Unterkapitel 4.7 und 4.8), Internetkaffees und privaten Haushalten möglich, um eine AR-Erfahrung abhängig von der Nutzerposition anzubieten (Rehman & Cao, 2017).

Sowohl LBS als auch Trackingverfahren benötigen Methoden zur Positionsbestimmung. Mehler-Bicher und Steiger differenzieren zwischen nichtvisuellen und visuellen Verfahren. Für nichtvisuellen Methoden zählen jene, die sich auf Signalwerte stützen, die durch Sensoren als Messwerte in IMU-Modul des Endgeräts oder durch Antennen gelangen (siehe Kapitel 3.1.1). Laut Mehler-Bicher und Steiger sowie Billinghurst et al. bilden diese Werte dann die Grundlage für mehrstufigen mathematischen Berechnungen. Visuelle Methoden verwenden dagegen ausschließlich Kamerabilder für ihre Auswertungen (siehe Kapitel 3.2.3) (Billinghurst et al., 2015, pp. 105–121; Mehler-Bicher & Steiger, 2014, pp. 25–29). Um Präzision zu erhöhen, können mehrere Kameras bzw. eine Kamera aus verschiedenen Blickwinkeln, laut Rehman und Cao., in die Berechnungen miteinbezogen werden (Rehman & Cao, 2017). Da rein visuelle Methoden, laut Mehler-Bicher und Steiger, Billinghurst et al. sowie Rehman und Cao, in der Regel sehr rechenintensiv sind und die Verfahren, die sich ausschließlich auf Messwerte beruhen, fehleranfällig sind, werden in der Praxis häufig hybride Verfahren eingesetzt, die die beiden nach Mehler-Bicher und Steiger definierten Typen mit einander mischen (Billinghurst et al., 2015, pp. 123–124; Mehler-Bicher & Steiger, 2014, pp. 25–29; Rehman & Cao, 2017).

Laut Mehler-Bicher und Steiger werden häufig bei den nichtvisuellen Methoden satellitenbasierten Lösungen wie GPS-Ortung, netzwerkbasierte Lokalisierungsmethoden für Wi-Fi- sowie Bluetooth-Netzwerke und sensorgestützte Verfahren verwendet. Die Letzteren beziehen, nach Aurelia at al. sowie Mehler-Bicher und Steiger, Sensordaten des Endgeräts wie Beschleunigung und Winkelgeschwindigkeit und eventuell Werte externen Sensoren für Berechnungen ein. Abhängig von der Bauweise des Endgeräts werden weitere Verfahren zur Positionsbestimmung wie Mobilfunk-basierte Methoden berücksichtigt (Aurelia et al., 2014; Mehler-Bicher & Steiger, 2014, pp. 25–26).

Basiri et al. haben insgesamt 20 diversen nichtvisuellen Methoden beschrieben (Basiri et al., 2017). Aus diesem Grund werden solche Methoden in dieser Arbeit auf Verfahren zur globalen Positionsbestimmung und jene, die für nichtvisuelle Indoor Navigation sowie Tracking geeignet sind, unterteilt. Ein globales Positionsbestimmungssystem wird im Unterkapitel 3.2.1 vorgestellt, anschließend werden im Unterkapitel 3.2.2 nichtvisuelle Methoden beschrieben und schließlich werden visuelle Verfahren im Unterkapitel 3.2.3 anhand von Google Tango Technologie (siehe Unterkapitel 4.4) erklärt.

3.2.1 Globale Positionsbestimmung

Für die globale Positionsbestimmung auf der Erde bedienen sich, laut Aurelia et al. sowie Kharade et al., die meisten mobilen Anwendungen der satellitenbasierten Lösungen namens Global Positioning System (dt. globales Positionsbestimmungssystem), kurz GPS. Dafür wird ein Modul mit Empfangsantenne der Satellitensignale vorausgesetzt. Dieses Modul ermöglicht Benutzerposition relativ exakt zu bestimmen. Dafür werden die vom Satelliten ausgestrahlten Signale mittels Antenne empfangen. Jeder Satellit versendet kontinuierlich Signale, die seine Position in der Umlaufbahn beinhält sowie die Uhrzeit, zu der das jeweilige Signal versendet wurde. Die Geschwindigkeit eines Signals ist bekannt. GPS-Empfänger berechnet die Differenz zwischen Uhrzeit des Endgeräts und der Zeit, die der Satellit beim Versenden des Signals angibt. Aus der Signalgeschwindigkeit und der Zeitdifferenz lässt sich der Abstand zwischen dem GPS-Empfänger und dem Satelliten ermittelt (Aurelia et al., 2014; Kharade et al., 2017).

Laut Aurelia et al. sowie Kharade et al. kann mit nur einem Satelliten lediglich der Abstand zwischen dem Satelliten und der Empfangsantenne gemessen werden, eine genauere Positionsangabe ist jedoch nicht möglich. Zwei Satelliten können ebenfalls nur eine vage Auskunft über die Position liefern. Erst mit drei Satelliten, behaupten die Autoren, kann ein Verfahren namens Triangulation, Positionsbestimmung als ein Schnittpunkt von drei Ausgangspunkten eines Dreiecks (siehe Abbildung 15), überhaupt eingesetzt werden. In der Praxis werden aber in der Regel vier Satelliten verwendet, um die Genauigkeit zu erhöhen und Messfehler zu verringern. GPS wird häufig für eine Positionsbestimmung des Benutzers sowie für Navigation in Freien verwendet (Aurelia et al., 2014; Kharade et al., 2017).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 15: Triangulationsverfahren durch drei Satelliten (National Geographic, 2018)

Allerdings hat GPS, als eine bewährte Positionsbestimmungsmethode für LBS, auch ihre Grenzen und Nachteile. Laut Aurelia et al. sowie Xiong et al. funktioniert das globale Positionsbestimmungssystem am besten unter dem freien Himmel, bei gutem Signalempfang und nur dann, wenn keine Hindernisse wie beispielsweise hohe Mauer und andere massive Störquellen zwischen dem Empfänger und Satelliten vorhanden sind. Ein anderer bedeutender Aspekt ist der relativ hohe Stromverbrauch für das kontinuierliche Empfangen und Verarbeiten von GPS-Signalen. Außerdem wird das Signal, laut Autoren, in gewissen Zeitabständen erfasst, das heißt zwischenzeitliche Abweichungen von der ursprünglichen Route, die beispielsweise durch den Richtungswechsel des Empfängers entstehen können, müssen durch anderen Messtechniken und mathematischen Verfahren, auch Filter genannt, kompensiert werden. Ferner kann die Herstellung des Signals sowie ursprüngliche Positionsberechnung je nach Situation von mehreren Sekunden bis zu circa halben Minute in Anspruch nehmen. Dieser Wert erhöht sich bei bewegten Objekten. Des Weiteren kann die Genauigkeit der Positionsbestimmung im Schnitt zwischen fünf und zehn Meter variieren (Aurelia et al., 2014; Xiong et al., 2018).

[...]

Details

Seiten
138
Jahr
2018
ISBN (eBook)
9783960953203
ISBN (Buch)
9783960953210
Sprache
Deutsch
Katalognummer
v427646
Note
Schlagworte
Augmented Reality Mixed Reality Virtual Reality Google Glass Innovation Technology Smart Glasses Marketing Smart Helmet AR Konsumen Neue Technologie

Autor

Teilen

Zurück

Titel: Welches Potential steckt in Augmented Reality? Einsatzmöglichkeiten für den Konsumentenmarkt