Modellierung von Personen und Objekten für virtuelle Welten


Diplomarbeit, 2008

111 Seiten, Note: 1,7


Leseprobe


Inhaltsverzeichnis

Einleitung

Motivation
Aufgabenstellung
Aufbau der Diplomarbeit
Systemkonfiguration
Hardwareumgebung
Verwendete Software

Laserscan
Technik
Funktionsweise
Scanversuch
Fazit Laserscan

Streifenlichtscan
Technik
Funktionsweise
Bündeltriangulation
Versuchsaufbau
Scanvorgang
Fazit Streifenlichtscan

3D-Modellierung
Softwarevergleich
Maya 2008 Programmgrundlagen
Vorbereitung
Modellierung
Kantenglättung oder Soften Edge
Texturierung
Fazit 3D-Modellierung

Second Life
Geschichte von Second Life
Eine virtuelle Parallelwelt oder doch nur ein Spiel?
Aufbau von Second Life
Mitgliedschaft
Basic-Mitgliedschaft Premium-Mitgliedschaft
Einstieg in die virtuelle Welt von Second Life Account erstellen
Erste Schritte
Linden Dollar
Steuerung von Avatar und Kamera Orientierung
SLURL
Die Funktion Teleport Landmarks
Bauen und Individualisieren
Das Erscheinungsbild verändern Modelle und Objekte in Second Life Das Create-Menü
Flexi-Prims Texturierung
Objekte kaufen und verwalten Inventar
Objekte importieren Sculpted Prims erstellen Animationen
Externe Animationen erstellen und importieren Programmierung
Second Life Ausblick Fazit Second Life

Fazit

Glossar

Quellenverzeichnis

Literatur

Links

Sehenswerte Orte in Second Life

Einleitung

Motivation

In den letzten Jahren wurde die Entwicklung von virtueller Realität immer stärker vorangetrieben. In allen Bereichen des Lebens sind nun Anwendungen zu finden, die diese Technik nutzen. Die Geschichte der virtuellen Realität begann, wie oft in der Entwicklung neuer Techniken, beim Militär, genauer bei der Luft- und Raumfahrt. Es wurden schon um 1983 Tests durchgeführt, in denen ein Datenhandschuh eingesetzt wurde, um die Bewegungen der Finger, mittels Biegesensoren, zu ermitteln. Diese Technik wurde dann zum einen von der NASA genutzt, später wurde diese Technik von Nintendo für eine Spielkonsole verwendet.

In der Medizin ist heute der Einsatz von Geräten und Techniken, die die virtuelle Realität verwenden, ebenso verbreitet wie unverzichtbar. Gerade in der Humanmedizin werden beispielsweise Computertomographen aber auch Magnetresonanztomographen eingesetzt, um genaue Diagnosen zu stellen. Es wurden sogar schon erfolgreich Operations-Roboter eingesetzt, die durch Joysticks und über einen Monitor gesteuert werden. So können äußerst präzise Bewegungen vollführt werden. In der Industrie wird die virtuelle Realität ebenfalls seit längerem angewendet, um Bauteile zu erstellen, zu untersuchen, zu entwickeln und anzupassen. Die Bearbeitung von fast allen Bauelementen findet gegenwärtig ausschließlich am Computer statt.

Heute wird die Technik der virtuellen Realität zunehmend in der Freizeit genutzt. Auch aus der Film- und besonders aus der Spieleindustrie ist sie nicht mehr wegzudenken. Seit einiger Zeit geht der Trend mehr und mehr in Richtung virtuelles Leben in einer Onlinewelt.Hier gibt es verschiedene Möglichkeiten sich in einer virtuellen online Realität zu bewegen. Gerade Online-Games haben in den vergangenen Jahren einen regelrechten Boom gehabt. Die verschiedensten Spiele können heute online gespielt werden und erfreuen sich immer höherer Beliebtheit. Counterstrike und World of Warcraft sind mittlerweile jedem ein Begriff, sie werden in den Medien ausgiebig diskutiert, was beweist welch starker Popularität sie sich erfreuen.

Der neueste Trend sind aber nicht online-Ableger von 3D-Computerspielen, sondern sogenannte Onlinewelten. In dieser zweiten, virtuellen Realität verhält sich einiges anders als in den herkömmlichen Games. Es geht nun nicht mehr darum auf einzelnen Maps mit Teamarbeit und verschiedenen Aufgaben den Gegner zu besiegen, oder verschiedene Quests zu lösen um seinen online-Charakter weiterzuentwickeln.

In dem neuen zweiten online-Leben geht es nun darum sich zu reproduzieren, sich der Welt zu präsentieren und auch echtes Geld zu verdienen. Die Hoffnung zu haben, dass sich das zweite Leben besser und leichter gestalten lässt als die Realität. Dies ist eine ganz neue Art des Online- Daseins. Es folgt anderen reizen, bietet eine neue Motivation, ein zweites Leben in der anderen Welt leben zu können. Die wohl populärste parallele online-Welt nennt sich Second Life.

Aufgabenstellung

Es gibt in fast jedem Computerspiel, indem ein Charakter im Vordergrund steht, die Möglichkeit der Individualisierung. Diese beschränkt sich jedoch meist auf kleinere Auswahlmöglichkeiten, wie die Farbe des Trikots, die Haarfarbe oder einfach nur eine generelle Funktion zur Auswahl aus einer Reihe von vorgefertigten Charakteren.

Da erscheint es interessant einmal zu prüfen welches Potential in der vollständigen Individualisierung steckt. Einen komplett eigenen Charakter zu erschaffen ist der logisch folgende Schluss, der sich daraus ergibt.

In dieser Diplomarbeit wird untersucht, welche Möglichkeiten sich bieten sich selbst in der virtuellen Welt zu präsentieren. Welche Techniken bereits etabliert sind und vielfach verwendet werden um einen menschlichen Körper auf einen Computerbildschirm zu reproduzieren.

Das Ziel der Diplomarbeit ist es, die einzelnen Optionen zu evaluieren und herauszufinden welche Methode geeignet erscheint und welche Technik für diesen Zweck zu verwenden sich nicht lohnt. Es werden sowohl Komplettlösungen aus Hard- und Software getestet, als auch reine Software- Lösungen, die verfügbar sind um dieses Projekt umzusetzen. Um den Körper eines Menschen auf dem Computer abbilden zu können, werden die verschiedensten Techniken und Herangehensweisen evaluiert.

Der primäre Ansatz ist die Konturen des Körpers in digitaler Form abzubilden, jedoch reicht dies nicht um einen Menschen eindeutig zu identifizieren. Der eigentliche Wiedererkennungswert 6 wird erst bei einer Kombination aus den Konturen und Formen des Körpers, im speziellen des

Gesichtes, und der Oberflächenstruktur, also der Haut und der Augen und Haarfarbe erhalten. Die zwei Grundsätzlichen Herangehensweisen erfordern dabei eine komplett differenzierte Planung und Durchführung.

Ein weiterer Ansatz ist, die Konturen und Oberflächenstruktur mit Hilfe eines Scanners zu messen und so auf den Computer zu übertragen. Dabei ist eine besondere Vorbereitung notwendig. Hier müssen im Vorfeld die technischen Merkmale des jeweiligen Scanners auf die Tauglichkeit des Scans eines Menschen überprüft werden. Hierbei spielt zum einen der Messbereich eine große Rolle, aber auch die Auflösung und Abweichung des Scans sind wichtige Auswahlkriterien.

Ein anderer Ansatz ist die Figur eigenständig, mit Hilfe einer entsprechenden Software-Lösung zu modellieren oder anzupassen. Einerseits gibt es Programme, in denen bestehende Charaktere beliebig angepasst werden können. Sowohl die grobe Form, als auch die Oberflächenstruktur und die Textur können hier entsprechend den Vorgaben angepasst und übernommen werden. Die Auswahl an Software, die eigens für die Erstellung und Modellierung von 3D-Objekten entwickelt wurde, ist wohl noch wesentlich größer. Hier lassen sich komplette 3D-Szenen entwerfen und umsetzen. Es gibt für alle erdenklichen Funktionen das entsprechende Tool. Der Mensch lässt sich von Grund auf neu erschaffen. Mit allen Einzelheiten, Formen und Texturen, sogar die Erstellung der Bewegungen und Animationen sind in professionellen Softwarepaketen enthalten.

Aufbau der Diplomarbeit

Im ersten Teil der Arbeit wird der Einsatz von zwei Scansystemen, einem Laserscanner und einem Streifenlichtscanner, geprüft. Beide Scanner befinden sich im Besitz der Technischen Fachhochschule Berlin. Es wird die Funktionsweise umrissen und die generellen Einsatzgebiete genannt. In einem repräsentativen Versuch wird getestet, ob der Scanner für den Einsatz eines Scans einer Person ausgelegt ist. In diesem Zusammenhang wird weiter geprüft welche Funktionen der Scanner bietet und wie der Workflow aussieht. Die verwendete Technik wird kurz umschrieben und der Versuchsaufbau erläutert. Die Technik des Scannens wird anhand eines konkreten Beispiels beschrieben. Da sich der Streifenlichtscanner komplett in der Technik und der Handhabung von dem Laserscanner unterscheidet werden die Vorgehensweise und der Aufbau für einen solchen Scan separat beschrieben. Die Planung und der Versuchsaufbau erfordern eine vollkommen andere Arbeitsweise und einen erheblich größeren Aufwand. Der Streifenlichtscanner befindet sich seit kurzem im Besitz der Fachhochschule und wurde so im R]ahmen dieser Diplomarbeit mit Unterstützung des Personals getestet.

Im Kapitel „3D-Modellierung“ wird untersucht, wie ein eigener 3D-Character entworfen werden kann und worauf dabei geachtet werden muss. Hier wird genau beschrieben welche Software für ein solches Projekt benutzt werden kann und welche Arbeitsschritte nötig sind um das Vorhaben in die Tat umzusetzen. Es wird besonderes Augenmerk auf das Modellieren gelegt, denn die so entstehende Mesh dient als Grundlage des Models. in dieser Arbeit eingegangen. Die anderen Themen, wie Rigging und Animation werden nicht behandelt.

Im letzten Teil der Diplomarbeit wird gezeigt, wie dies alles in Second Life umgesetzt werden kann. Es wird ein Charakter in Second Life kreiert, angepasst und verändert. Im Anschluss werden diesem Avatar Animationen zugeordnet. Darüber hinaus wird eine Übersicht vermittelt welche Möglichkeiten der Anpassungen in Second Life außerdem angeboten werden. Es werden Optionen gezeigt, wie der Avatar modifiziert werden kann und welches Potenzial sich bietet einen einzigartigen Charakter zu generieren. Hier wird auch auf die verschiedenen Tools eingegangen, die verwendet werden können, um Avatare und Objekte von Second Life zu erstellen und zu bearbeiten. In diesem Abschnitt soll ebenso ein Ausblick auf andere Entwicklungen von virtuellen Welten gegeben und ein Blick in die mögliche Zukunft geworfen werden.

Mit dem Fazit und einem Überblick über die Ergebnisse der einzelnen Ansätze, schließt diese Arbeit ab.

Systemkonfiguration

In der Hauptsache wurde diese Diplomarbeit mit einem privaten Computer bearbeitet, aber insbesondere für die Erstellung der einzelnen Scans wurden Rechner der Technischen Fachhochschule Berlin verwendet. Die Systemkonfigurationen dieser Computer sind nicht hinreichend bekannt und werden somit auch nicht näher beschrieben. Also wird im Folgenden auf die Konfiguration des privaten Rechners eingegangen.

Hardwareumgebung

Prozessor: Intel Core 2 Duo T7266 @ 2 GHz Arbeitsspeicher : 2 GB DDR2 667 MHz DRAM Grafikkarte: NVidia GeForce Go7766 512MB

Verwendete Software

Windows Vista Business 32 Bit

Für das gesamte Projekt und dessen Umsetzung wird das Betriebssystem Windows Vista von Microsoft verwendet.

Autodesk Maya 2008

Für das Modellieren und Texturieren des selbst erstellten Charakters wird Maya 2668 benutzt. Es ist ein professionelles und sehr umfangreiches Softwarepaket und wird primär in der Film- und Animationsbranche eingesetzt. Aber auch für die Erstellung von grafischen Komponenten für Videospiele wird Maya häufig eingesetzt.

Adobe Creative Suite 3

Für die Bearbeitung der Bilder, sowie das Design der Diplomarbeit wurden Programme der Suite benutzt. Im Vordergrund steht hier die Applikation Photoshop CS3 für die Bildbearbeitung. Mit InDesign CS3 wird das Design der Dokumentation realisiert und dient als Exporter für das spätere PDF-Dokument und dem Ausdruck.

Microsoft Office 2667

Für den ersten Entwurf der Dokumentation, sowie das Festhalten einzelner Stichpunkte und des Glossars wurde Word 2667 verwendet.

Snagit

Für die Erstellung der Screenshots und Auswahl von Teilbereichen wurde die Software Snagit von TechSmith eingesetzt. Auch die Aufnahmen von Bildschirmvideos wurden mit Hilfe dieses Programms angefertigt.

Second Life Client

Der Second Life Client ist in der Version 1-18-5-3 installiert und dient als Oberfläche und beinhaltet die grafischen Darstellungen und Objekte, die für das Betreiben von SL nötig sind.

Blender 2.45

Blender ist ein 3D-Modellierungsprogramm wird in Verbindung mit dem Plug-In Prim.Blender für Second Life getestet. Blender ist Freeware und kann unter http://www.blender.org heruntergeladen werden.

Wings3D

Wings3D ist eine weitere kostenlose 3D-Software und kann über http://www.wings3d.com bezogen werden. Wings3D wird in dieser Diplomarbeit mit einem Plug-In für Second Life getestet. Das Plug- In heißt wpc_sculpty.

Laserscan

Eine Möglichkeit ein Abbild eines Menschen in die virtuelle Welt zu übertragen ist der Einsatz eines Laserscanners. Für den folgenden Versuch eines Laserscans eines Menschen wurde ein Laserscanner der Firma Leica verwendet, genauer das Modell Leica HDS 2566. Die Technische Fachhochschule in Berlin ist im Besitz eines solchen Gerätes, es befindet sich in dem Labor für geodätische Messtechnik. Dieses Labor ist ein Teil des Fachbereichs III für Bauingenieur- und Geoinformationswesen. Ansprechpartner für diesen Fachbereich und den Laserscanner ist Prof. Wilfried Korth. Der Scanner HDS 2566 wurde an der TFH im Jahr 2663 in Betrieb genommen. Er wird hauptsächlich zur Vermessung von Gegenständen und Gebäuden verwendet, aber auch für Flächen und Ausgrabungsstellen der Geoforschung.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: HDS 2566 Abbildung: HDS 2566_2

Technik

Der Leica HDS 2566 ist bereits ein älteres Modell und nicht mehr in der aktuellen Produktpalette enthalten. Die nachfolgenden, momentan angebotenen Modelle verwenden prinzipiell die gleiche Technik, sind jedoch leichter gebaut und etwas besser verarbeitet. Der entscheidende Vorteil der neuen Geräte ist jedoch der größere Messbereich. Außerdem wird mit den neuen Modellen eine weiterentwickelte Software geliefert, die zusätzliche Funktionen bietet. Der Scanbereich eines einzelnen Scans erstreckt sich auf 46° x 46°. Die Genauigkeit eines Einzelscans liegt bei 6mm, wobei auch ein Laserpunkt die Größe von 6mm aufweist. Die Messgeschwindigkeit dieses Gerätes liegt bei 1666 Punkten pro Sekunde. Die Reichweite und andere technische Daten sind hier nicht von Bedeutung. Diese und alle weiteren Informationen findet man auf der Internetseite www.leica-geosystems.com. Der Scanner wird mit einer 12V Batterie betrieben und ist so portabel Einsetzbar. Die verwendete Software heißt Cyclone und ermöglicht eine Verwaltung der Daten in einer objektorientierten Datenbank. Die komplette Verwaltung und Verarbeitung der Scans kann mit Hilfe der mitgelieferten Software erledigt werden. Es gibt zusätzlich die Möglichkeit mehrere Scans aneinander zu fügen, indem Zielmarken verwendet werden, die vom System automatisch erkannt und verarbeitet werden können. Der Scanner wird über ein übliches Netzwerkkabel mit einem beliebigen Computer verbunden. Es ist lediglich die Software Cyclone zu installieren und die Netzwerkadresse des Computers auf die des Scanners einzurichten. Die Software bietet die Möglichkeit einen bestimmten Teilbereich auszuwählen, der gescannt werden soll. Dieser kann später über die Zielmarken, in der Cyclone-Software Targets genannt, erweitert und zu größeren Bereichen zusammengeführt werden.

Funktionsweise

Die reflektorlose Entfernungsmessung ist die Basis für die Technik eines 3D-Laserscan-Verfahrens. Der Laserstrahl wird durch einen Spiegel, im inneren des Gerätes, in horizontaler und vertikaler Richtung abgelenkt. So lassen sich beliebige Objektoberflächen punktweise abtasten und es entsteht ein feines Raster. Aus der Kombination von Streckenmessung und Ablenkung werden die 3D-Koordinaten ermittelt. Die gemessene, räumliche Verschiebung der einzelnen Punkte in alle drei Dimensionen wird in Koordinatenwerten für die jeweiligen Richtungen festgehalten. Diese werden zu einer Punktwolke zusammengefasst, die ein detailliertes Oberflächenmodell eines Objektes bildet. Der Scanvorgang läuft vollautomatisch ab, also müssen die Punkte nicht einzeln selektiert werden. Die gemessenen Punkte werden sozusagen zufällig ausgewählt. Meist werden so die wichtigen Eckpunkte des Objektes nicht gescannt. Für weitere Modellierungen ist hier eine intensive Nachbearbeitung nötig. Der Vorteil dieser Technik ist, dass dieses Verfahren sehr schnell ist und trotzdem mit einer Genauigkeit von wenigen Millimetern arbeitet. Dies ist aber zugleich auch der Nachteil, wenn kleinere Objekte mit hoher Genauigkeit gescannt werden sollen. Hier treten oft Abweichungen auf die später aufwendig nachbearbeitet werden müssen. Dies wird anhand des folgenden Versuchs des Scans eines Menschen weiter verdeutlicht.

Scanversuch

Der Scan für dieses Projekt wurde mit dem, oben erwähnten Laserscanner HDS 2566 von Leica, mit freundlicher Unterstützung von Prof. Wilfried Korth an der TFH-Berlin durchgeführt. Es wurde ein Scan des kompletten Körpers und einer des Oberkörpers mit Fokus auf den Kopf angefertigt. Der Versuchsaufbau für ein solches Projekt ist wie folgt: Der Laserscanner wird auf ein Stativ beziehungsweise ein Podest aufgesetzt, an die Batterie angeschlossen und mit dem PC verbunden. Weitere Vorbereitungen im Labor, sowie umbauten oder das Einstellen besonderer Lichtverhältnisse sind nicht nötig.

Die Software Cyclone wird gestartet und ein neues Projekt erstellt. Es ist von Nutzen ein Bild mit der Digitalkamera zu machen, die im Scanner mit eingebaut ist. Auf diesem Bild ist der komplette Ausschnitt zu sehen, der vom Laser erfasst werden kann. Die verbaute Digitalkamera hat zwar eine geringe Auflösung, der Scanbereich lässt sich jedoch gut erkennen und kann gegebenenfalls angepasst werden. Nach kurzer Einrichtungszeit und der Kalibrierungsphase des Scanners wird ein Probescan zur Entfernungsmessung gemacht. Nun können weitere Anpassungen, wie die Auflösung des Scans und die Reichweite vorgenommen werden. Das zu scannende Objekt, in diesem Fall ein Mensch, wird vor dem Scanner platziert. Um den Bereich, der gescannt werden soll weiter anzupassen, kann über den Computer mit Hilfe der Software ein Rahmen um den gewünschten Bereich gezogen werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Scanner-Digitalkamera-Snapshot

Um einen Überblick zu bekommen und die Funktionsfähigkeit, sowie die korrekten Einstellungen zu testen kann zuerst ein Scan von der Umgebung gemacht werden. Es wird überprüft, ob die Auflösung ausreicht und die richtige Reichweite eingestellt ist. Auf dem Probescan sind alle Objekte des Raumes wiederzuerkennen, das heißt alle Einstellungen sind korrekt und es kann mit dem eigentlichen Scan begonnen werden.

Die einzelnen Farben des Scans spiegeln die Reflektionsfähigkeit der Materialen die gescannt werden wieder. Blau steht für eine hervorragende Qualität der Reflektion, grün bedeutet eine gute und Rot eine weniger gute Reflektion. So können indirekt auch die Originalfarben erahnt werden, denn je dunkler die Farbe, desto schlechter die Reflektion des Lichtes. Im Umkehrschluss reflektiert ein Material mit heller Farbe das Licht wesentlich besser.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Scantest1.png

Bei dem Scanvorgang eines Menschen sollte darauf geachtet werden, dass die Augen geschlossen werden. Zwar gibt der Hersteller an, dass der verwendete Laser nicht schädlich für die Augen ist, jedoch sollte ein direkter Blick in den Laser vermieden werden. Die Person, die gescannt wird sollte sich möglichst wenig bewegen, da dadurch zusätzliche Abweichungen auftreten und das Bild erheblich verwackelt aussehen kann.

Es sollte also eine Pose eingenommen werden, die in etwa eine Minute ohne Problem gehalten werden kann, denn so lange dauert der Scanvorgang unter diesen Voraussetzungen. Dabei werden etwa 56666-66666 Punkte registriert und zu einer Punktwolke geformt und zusammengefasst. Das Ergebnis wird sofort auf dem Bildschirm präsentiert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Scantest3.png

Mit Hilfe des Cyclone-Programms kann der Hintergrund entfernt werden, so dass nachher der reine Körper zu sehen ist. In der Frontansicht ist die Person deutlich zu erkennen und erscheint als komplettes, scheinbar detailliertes Bild. Wird diese Punktwolke jedoch in der Seitenansicht [Abbildung in dieser Leseprobe nicht enthalten] betrachtet wird klar, dass es sich hier um ein nicht ganz komplettes Abbild handelt. Es werden nur die Punkte erfasst, die in Richtung Laserscanner zeigen, also die Vorderseite des Menschen. Die Rückseite ist verdeckt und fehlt somit im angefertigten Scan.

Abbildung in dieser Leseprobe nicht enthalten

Das Problem der fehlenden Hinterseite könnte durchaus gelöst werden. Durch nochmaliges Scannen der Rückseite, verwenden von Targets und Zusammenführen der Bilder würde ein komplettes Bild entstehen.

Die entstandene Punktwolke kann nun beliebig bearbeitet werden. Es ist zum Beispiel möglich die einzelnen Punkte zu flächen zu verbinden und so eine geschlossene Oberfläche zu erhalten.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Scantest6.png

Um nun die Flächen des Körpers weiterzuverwenden müssen die überflüssigen Flächen entfernt werden, was ebenso über die Software getan werden kann.

Nachdem die Einsatzmöglichkeiten für größere Objekte, also auch einen ganzen menschlichen Körper getestet wurden, soll in einem weiteren Scanvorgang nur der Oberkörper, mit Fokus auf den Kopf, gescannt werden. So wird geprüft, ob die Verwendung eines Laserscanners auch für kleinere Objekte, oder Objekte mit einer feinen Oberflächenstruktur und vielen Einzelheiten geeignet ist.Hierzu können vor dem Scan Einstellungen, wie Auflösung und Range auf den gewünschten Abschnitt eingestellt werden. Die Auflösung sollte hierbei auf den maximalen Wert eingestellt werden. Damit der Scanner während des Scanvorgangs auch nur den Bereich des Kopfes erfasst, wird mit Hilfe der Software der Teilbereich des Kopfes selektiert. Um die Bewegung des Kopfes zu minimieren, sollte die betreffende Person auf einem Stuhl sitzen. Jede Bewegung hat eine Abweichung in der Punktwolke zur Folge. In dem Scan des Kopfes ist zu erkennen, dass es im Bereich der Haare Probleme gibt, da diese das Licht offensichtlich zu sehr streuen und kein klares Bild liefern.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Scantest11.png

Die höhere Auflösung dieses Scans in gut zu erkennen. Allerdings gibt es auch hier das Problem, 16 dass die Rückseite nicht vom Laser erfasst werden kann und daher auch nicht in der Punktwolke vorhanden ist. Obwohl die einzelnen Konturen, etwa der Nase oder der Ohren zu erkennen sind, kann die Person nicht klar identifiziert werden.

Abbildung in dieser Leseprobe nicht enthalten

Es gibt die Möglichkeit in der 3D-Software des Scanners die Ansicht frei zu wählen und das Modell, beziehungsweise die Wolke aus Punkten aus jedem Sichtwinkel und beliebiger Distanz zu betrachten. Je näher heran gezoomt wird, desto besser ist zu erkennen, dass es sich um einen relativ groben Scan handelt und er keinerlei Einzelheiten sichtbar macht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Scantest5.png

Fazit Laserscan

Es ist durchaus möglich die Methode des Laserscans zu benutzen ein Abbild eines menschlichen Körpers für die virtuelle Welt zu schaffen. Allerdings ist hier eine intensive Nachbearbeitung notwendig, um ein brauchbares Modell zu erhalten. Erst einmal müsste das Modell komplettiert werden, indem entweder die Rückseite mit einem nochmaligen Scan vervollständigt und dann zusammengeführt wird oder die Rückseite wird in einer 3D-Modellierungssoftware zusätzlich modelliert und angefügt. Darüber hinaus müssten die abweichenden Punkte beseitigt, oder korrigiert werden, um so eine glatte Oberfläche zu erhalten. Die Regionen mit Haaren brauchen ebenso eine besondere Behandlung und somit eine beachtliche Zeit in der Nacharbeitung. Der Laserscanner ist also für den Scan von Personen nur bedingt geeignet und für dieses Projekt nicht sinnvoll, da er für das Scannen von Gesichtern eine zu geringe Auflösung und eine zu hohe Messfehlerrate aufweist.

Streifenlichtscan

Die nächste Option, die im Rahmen dieses Projektes betrachtet wird, ist die Verwendung eines Streifenlichtscanners. Dieser scheint besser für das Scannen eines Gesichtes geeignet zu sein, da er eine wesentlich höhere Auflösung hat.

Ein solcher Scanner ist ebenfalls im Fachbereich III für Bauingenieur- und Geoinformationswesen an der TFH-Berlin vorhanden. Ansprechpartner für diesen Scanner und die damit verbundenen administrativen Aufgaben ist Dipl. –Ing. Marko Koch. Das Verfahren des Streifenlichtscans ist wesentlich präziser aber auch sehr viel komplexer als das des Laserscans. Eine genaue Planung und Vorbereitung ist für jeden einzelnen Scanvorgang notwendig.

Der Scanner wird hauptsächlich in der Photogrammetrie angewendet. Für geologische Objekte und auch in der Archäologie wird er ebenfalls verwendet. Die Qualitätskontrolle sowie die Übertragung der Daten von Werkstücken in der Industrie sind weitere Anwendungsgebiete. Am besten können mit diesem Scanner Objekte kleiner Größe, etwa einer Scherbe einer archäologischen Ausgrabung vermessen und auf den Computer übertragen werden. Scans von größeren Objekten, wie beispielsweise eine antike Statur sind ebenfalls mit dieser Technik zu realisieren. Hierzu ist es jedoch nötig bis zu 566 Einzelscans und mehr von dem gewünschten Objekt anzufertigen und diese später mittels Software zusammenzufügen.

Das eingesetzte Modell hat die Bezeichnung PT-M1286 und ist eine Entwicklung der Firma Polygon Technology. Die Technik lässt sich auf eine Entwicklung des Frauenhofer Instituts zurückführen. Mit diesem Modell gibt es die Möglichkeit einen kompletten Scan des Objektes inklusive der Textur herzustellen, da es eine zusätzliche Kamera für die Farbinformation besitzt.

Abbildung in dieser Leseprobe nicht enthalten

Technik

Das Komplettsystem PT-M1286 besteht im Wesentlichen aus einem Projektor und drei Kameras, wobei zwei Kameras für die Aufnahme des Objektes und deren Koordinaten im 3D-Raum zuständig sind. Die dritte Kamera dient der Aufnahme der Farbinformation für die Textur des Objektes. Die Auflösung der Sensorköpfe der 3D-Kameras, die nur schwarz-weiß Bilder liefern, beträgt 1392 x 1646 Pixel. Jede der Kameras liefert etwa 7,5 Bilder pro Sekunde. Zwar wäre eine schnellere Übertragung seitens der Kameras möglich, die Framerate wird jedoch aufgrund der Bandbreite der Übertragung zum Computer begrenzt. Die Texturkamera liefert aufgrund der etwas geringeren Auflösung etwa 19 Bilder in der Sekunde. Der Projektor projiziert ein Streifenmuster auf das Objekt, um so die Koordinaten zu bestimmen. Das Komplettpaket der Firma Polygon Technology beinhaltet eine spezielle Software, mit der sowohl die Kalibrierung, wie auch der Scan und die spätere Bearbeitung durchgeführt wird. Dieses Programm trägt den Namen QTSculptor in Anlehnung an den Begriff

„Sculptor“, welcher deutsch übersetzt Bildhauer bedeutet.

Funktionsweise

Der Streifenlichtscannerarbeitetim Wesentlichenmitder Technik des Bündeltriangulationsverfahrens. Hier ist zwischen der passiven und der aktiven Triangulation zu unterscheiden. Bei der aktiven Triangulationwird, imGegensatzzurpassivenTriangulation, einestrukturierteOberflächenbeleuchtung benutzt.

Mit dieser Technik werden aus den reinen Bilddaten der einzelnen Kameras die Orientierungsdaten der Objekte berechnet.

Bündeltriangulation, auch Bündelblockausgleich, Mehrbildtriangulation oder Mehrbildorientierung genannt, ist ein Verfahren, das verwendet wird um beliebig viele, im Raum angeordnete Bilder rechnerisch einzupassen. Hierzu wird ein übergeordnetes Koordinatensystem verwendet. Der Bezug zu diesem Objektkoordinatensystem kann durch eine minimale Zahl von Passpunkten erfolgen. Die einzelnen Bilder werden mit Hilfe von korrespondierenden Punkten zu einem Gesamtmodell verknüpft. In diesem kann das Objekt vollständig dreidimensional rekonstruiert werden. Die wichtigste Voraussetzung dieses Verfahrens ist, dass sich alle korrespondierenden Bildstrahlen optimal in ihrem Objektpunkt schneiden sollen.

Die3D-Objektkoordinaten,alsodieOrientierungsparameterderBildersowieweitereModellparameter werden über ein Gleichungssystem durch Ausgleichung berechnet. Da alle gemessenen und auch alle unbekannten Parameter eines photogrammetrischen Bildverbandes in einem simultanen Berechnungsvorgang berücksichtigt werden, ist die Bündeltriangulation das leistungsfähigste und genaueste Verfahren zur Bildorientierung und Punktbestimmung in der Photogrammetrie. Die Bündeltriangulation ist seit dem Jahr 1958 bekannt. Sie wird unter anderem auch verwendet um Luftbildverbände zu erstellen, wie es in der Luft- und Raumfahrt üblich ist.

Quelle: Nahbereichsphotogrammmetrie von Thomas Luhmann, Herbert Wichmann Verlag, Heidelberg Jahr 2666

Abbildung in dieser Leseprobe nicht enthalten

Versuchsaufbau

Wie bereits im Vorfeld erwähnt ist für einen Scan mit einem Streifenlichtscanner eine intensive Vorbereitung nötig. Als erstes werden die Maße des zu scannenden Objektes genommen und in die Software QTSculptor eingegeben. Dies ist nötig um den Messbereich und die Entfernung des Objektes zum Scanner zu bestimmen.

In diesem Versuch soll der Kopf eines Menschen gescannt werden. Hierzu ist ein Messbereich von etwa 39cm x 29cm zu wählen. Da der Triangulationswinkel der Kameras etwa 15° beträgt ist eine Entfernung von etwa 1m nötig. Bei dem Tiefenmessbereich wird von einem vorderen und einem hinteren Schärfepunkt gesprochen. Bei diesem Versuchsaufbau befindet sich der vordere Schärfepunkt bei 89,6 cm, der hintere bei 113,1 cm. Der Kopf sollte sich also innerhalb dieser Entfernung zu den Kameras befinden, da er sonst außerhalb des Messbereichs liegt und nicht erkannt wird. Diese und die folgenden Daten werden von der mitgelieferten Software berechnet und ausgegeben. Die jeweiligen Blenden der 3D-Kameras sind variabel einzustellen und werden speziell für dieses Projekt auf den Wert 5,6 eingestellt. Zusätzlich ist der Abstand der Objektive der 3D-Kameras auf der Stativschiene auf 25cm einzustellen, damit eine zentrale Ausrichtung möglich ist.

Sind diese Einstellungen korrekt ausgeführt, kann mit der Kalibrierung begonnen werden. Die Kalibrierung wird mittels der mitgelieferten Kalibrierungsplatten umgesetzt. Sie weisen ein Kreismuster auf, das für die Software notwendig ist, um die Koordinaten zu bestimmen. Die Kalibrierungsplatte muss im gleichen Abstand platziert werden, wie später das zu scannende Objekt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: IMG_6373_klein.jpg

Im Folgenden werden die 3D-Kameras mit Hilfe des QTSculptor-Programms arretiert. Dies geschieht indem die linke und die rechte 3D-Kamera so ausgerichtet werden, dass die drei Punkte in der Mitte der Kalibrierungsplatte im Schnitt der beiden Bilder der Kameras zu erkennen sind. Um die Platte zentriert unter dem Projektor zu platzieren wird ein Lot verwendet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Scan6666.png zur Kalibrierung wird die Entfernung der mittleren Schärfe, also das Mittel aus vorderem und hinterem Schärfepunkt verwendet. Nach Messung und Ausrichtung der Entfernung werden die Kameras nun einzeln mittels Einstellschraube und Objektivdrehung scharf gestellt. Dies kann Anhand des übertragenden Bildes zum Computer überprüft werden. Die Software stellt zur Vereinfachung der Scharfstellung einen Messbalken zur Verfügung, der anzeigt wann das Bild scharf ist. Zusätzlich wird die Kalibrierungsplatte in vier Richtungen angekippt, um die verschiedenen Perspektiven zu simulieren, beziehungsweise die Kamerawinkel zu realisieren. Anhand der Fotos des Kalibrierungsaufbaus, einiger Passpunktinformationen und der Kreismittelpunkte berechnet die Software nun die Koordinaten der Kreispunkte. Die Genauigkeit der Kalibrierung mittels Bündelblockausgleichung liegt hier bei 6,654 Pixeln.

Nun ist die Kalibrierung abgeschlossen und es kann mit dem eigentlichen Scan begonnen werden. Um die Aufnahme der Textur bestmöglich umzusetzen kann optional eine Leuchte angeschlossen werden, die automatisch von der Software angesteuert wird, wenn das Foto für die Textur gemacht wird. Generell wird der Lichtstreifenscan in einem abgedunkeltem Raum gemacht, um die optimale Lichtreflexion des Objektes zu gewährleisten.

Die Stativschiene wird von der Horizontalen in die Vertikale gedreht, um den Messbereich zu optimieren und sicherzustellen, dass der Kopf vollständig aufgenommen werden kann. Die Scans erscheinen von nun ab zwar auf diese Seite gedreht auf dem Bildschirm, können aber später in der 3D-Ansicht ohnehin beliebig gedreht, skaliert und gezoomt werden.

Scanvorgang

Es werden insgesamt vier Scans des Kopfes gemacht, um das Modell so gut wie möglich abbilden zu können. So werden jeweils ein Scan im 45° Winkel von den Seiten des Kopfes gemacht, einer frontal und ein Scan etwa in einem Winkel von 45° von unten. Dies gewährleistet, dass auch die Kinnregion möglichst gut abgebildet werden kann. Der erste Scanversuch zeigt deutlich was passiert wenn die Maße der Schärfepunkte nicht korrekt eingehalten werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: IMG_6373_klein.jpg

Der Abstand wird erneut gemessen, um die Maße der Schärfepunkte einzuhalten. Nachdem nun die vier geplanten Scanvorgänge erfolgreich absolviert sind kann mit der Nachbearbeitung begonnen werden. Die Software bietet hierzu auf der rechten Seite einen Überblick der vorliegenden Scans. Diese können einzeln betrachtet werden, um zu überprüfen, ob jeder Scan über eine ausreichende Abbildung verfügt. Im nächsten Arbeitsschritt werden die einzelnen Scans zu einem Cluster verbunden. Cluster wird in QTSculptor die Verbindung der einzelnen Koordinatensysteme der Scans zu einem Scanverbund genannt. Dabei werden Marker in den einzelnen Scans an jeweils markanten Stellen gesetzt, die bei beiden Bildern von der Software wiedererkannt werden können. Bei diesem Beispiel werden die Mundwinkel, die Augenwinkel und die Nasenwurzel gewählt. Diese Marker können je nach Scan variieren, da je nach Ansicht und Winkel immer andere Stellen des Gesichtes sichtbar sind. Somit sind immer andere Stellen zu wählen die auf jeweils zwei Scans übereinstimmen und so auf beiden Bildern an der gleichen Stelle im Gesicht der Marker gesetzt werden kann.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Marker_setzen.png

Die vier Bilder der Scans werden nun nacheinander an den jeweiligen Stellen markiert. Die Software berechnet nun das entstehenden 3D-Modell und stellt es in einem 3D-Viewer dar. Der

Überlagerungsprozess nimmt einige Zeit in Anspruch, da die Übereinstimmungen der Scans erst 2 4 berechnet werden müssen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Vereinte_Scans.png

Nachdem nun aus allen vier Scans ein Cluster berechnet wurde, kann die Darstellung des kompletten 3D-Modells in der 3D-Ansicht überprüft werden. Die verschiedenen Farben der Flächen zeigen die jeweiligen Veränderungen des Modells bei neu eingefügten Scans. Bei optimaler Überschneidung wäre die Oberfläche des Modells komplett rot-grün schraffiert. Bei diesem Beispiel ist klar zu erkennen, dass unter anderem die Abweichungen durch Bewegungen dazu führen, dass die einzelnen Scans nicht vollkommen übereinander passen. Des Weiteren ist zu erkennen, dass auf den Bereichen des Kopfes auf denen sich Haare befinden nicht ideal dargestellt werden können, da das Licht auch hier zu sehr gestreut wird und nicht ausreichend reflektiert wird. Am deutlichsten ist die Abweichung der einzelnen Scans jedoch am Oberkörper, genauer an der Kleidung zu erkennen. Sie ist nicht eindeutig zuzuordnen und befinden sich auf jedem Bild an einer anderen Stelle, was sich auch auf das Gesamtmodell auswirkt. Eine Lösung für dieses Problem ist, die Kleidung aus dem Scan zu entfernen und den reinen Kopf zu selektieren und mit einem Auswahlrahmen in dem Bearbeitungsprogramm abzulösen. Diese Prozedur muss ebenso für jedes einzelne Bild erfolgen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: IMG_6373_klein.jpg

Um die bestpassenden Punkte der einzelnen Scans zu finden kann die Software eine Optimierung für die globale Registrierung durchführen. So wird die Oberfläche des Modells weiter verfeinert und es entsteht ein Bild, das näher am Original ist.

Anschließend werden die Texturbilder einzeln selektiert und segmentiert, um den Rechenaufwand bei der Texturberechnung zu minimieren. Außerdem können doppelt oder gar dreifach gemessene Bereiche aufgrund der Redundanzen neu berechnet werden. Filter zur weiteren Glättung der Objektoberfläche sind vorhanden und werden angewendet.

Mit Aktivierung der Dreiecksvermaschung wird aus der bestehenden Punktwolke erst ein wirkliches 3D-Modell. Die einzelnen Punkte der Punktwolke werden mit Hilfe der Dreiecksvermaschung zu einer Fläche verbunden. Die Auflösung des Scans, also der Punktwolke beträgt circa 6,3 Voxel pro Millimeter. Es ist nun sinnvoll vorerst ein größeres Maß für die Surface-Triangulation zu wählen, damit die weitere Flächenglättung optimale Anwendung finden. Der auf 1,2 Millimeter eingestellte Wert der Surface-Triangulation entspricht der Größe der nun entstandenen Dreiecke der Oberfläche.

Abbildung in dieser Leseprobe nicht enthalten 2 6

Abbildung: Dreiecksvermaschung.png

Zur weiteren Glättung und Optimierung der Oberfläche gibt es in der Software ein Tool namens Smooth und Reprojektion. Die Dreiecke der Vermaschung werden nun in eine homogenere Form gebracht.

Im nächsten Arbeitsschritt wird die Vermaschung wieder in die Ursprungsgröße von 6,3 Voxel per Millimeter versetzt. Das Modell wird so weiter verfeinert.

Das Auslassen dieses Workflows, der Veränderung der Voxelgröße, hätte zur Folge, dass die endgültige Maschung eine regelmäßige, nichthomogene Form hätte.

In einer Optik einer herausgearbeiteten Skulptur können nicht gemessene Bereiche des Modells in QTSculptor angezeigt werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Skulptur.png

Nun sind weitere Funktionen zur Optimierung des Modells, Glättung und Füllung der Lücken in der Software verfügbar. Zur Vervollständigung des Modells wird im Folgenden die Textur auf das Modell gelegt. Auch hier können weitere Optimierungsmöglichkeiten angewendet werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Modell+Textur.png

Fazit Streifenlichtscan

Abschließend muss auch zum Streifenlichtscan gesagt werden, dass der Einsatz dieser Technik für dieses Projekt nicht sinnvoll erscheint. Auch hier ist zu viel Zeit der Nachbearbeitung zu investieren, um schließlich ein Modell zu erhalten, das für diese Zwecke zu verwenden ist. Jedoch ist das entstandene Modell wesentlich höher aufgelöst und zeigt wesentlich mehr Details als das des Laserscanners.

Es existieren bereits Systeme mit der Streifenlichtscantechnik, die speziell für den Einsatz und Scan des menschlichen Gesichtes entwickelt wurden. Diese funktionieren mit der gleichen Technik wie der hier eingesetzten Scanner, der Scanvorgang an sich dauert lediglich einen Bruchteil der Zeit. So spielen die Bewegungen keine wesentliche Rolle mehr, da der Scanner schneller ist, als die menschlichen Bewegungen.

Genauso wie bei dem Laserscanverfahren ist auch bei dem Streifenlichtscanverfahren die Polygonanzahl zu hoch. Daraus folgt, dass die nötige Reduzierung zu aufwendig und zu schwer zu automatisieren ist, um das Scanresultat als 3D-Objekt weiter zu verwenden.

3D-Modellierung

Nachdem im vorangegangenen Kapitel automatisierte Scanverfahren zur Charaktermodellierung evaluiert wurden, soll nun ein Character-Mesh von Grund auf mit einer 3D-Modellierungssoftware erstellt werden. Zunächst sollen einige grundlegende Überlegungen angestellt werden, bevor mit der Modellierung eines 3D-Körpers am Computer begonnen werden kann.

Als erstes sollte die Anzahl der Polygone des Modells festgelegt werden, da diese ausschlaggebend für die Performance der Applikation ist, in der das Modell verwendet wird. Natürlich handelt es sich hier mehr um einen Zahlenbereich, als um eine genaue Zahl, der je nach Einsatzgebiet sehr unterschiedlich sein kann. enerell ist zu sagen, je höher die Qualität des Modells, desto höher die Polygonzahl. Wird ein Animationsfilm erstellt, so sollte die Figur möglichst detailreich sein und so eine hohe Anzahl an Polygonen aufweisen. Sollte aber, wie in diesem Fall, ein Modell erstellt werden, dass primär für den Einsatz in Computerspielen gemacht wird, sollte die Zahl von circa 2666 bis maximal 5666 Polygonen nicht überschritten werden. So ist gewährleistet, dass die Animationen flüssig laufen und nicht schon die Bewegung der einzelnen Figur so viel Performance in Anspruch nimmt, dass die Framerate zu gering wird.

Nun wird geprüft welche Software für diese Aufgabe geeignet ist. Dies hängt als erstes davon ab, wie viele Erfahrungen ein Modellierer mit den einzelnen Programmen bereits gemacht hat. Generell ist es sicher einfacher eine Software zu benutzen, mit der bereits das ein oder andere Projekt erstellt wurde.Aber auch andere Faktoren sollten berücksichtigt werden. Es ist wichtig herauszufinden elche Techniken verwendet werden müssen, um das Projekt umzusetzen und ob diese auch von der jeweilige Software unterstützt werden.

In der Praxis sieht es jedoch oft so aus, dass die Entwicklerfirmen, wenn es irgendwie möglich ist, auf die Software zurückgreifen, die sie bereits besitzen. Dies hat zwei gute Gründe. Zum einen kennen sich die Mitarbeiter mit der Software bereits aus und müssen nicht viel Zeit darauf verwenden die neue Software kennenzulernen. Zum anderen bedeutet das, dass nicht, zusätzlich zu den ohnehin anfallenden Entwicklungskosten, in eine neue Software investiert werden muss.

Für die Umsetzung dieses Projektes wurde die Software Maya von Autodesk gewählt, da innerhalb des Studiums bereits erste Projekte mit diesem Programm erstellt wurden. Das folgende Kapitel hat werder den Anspruch ein perfektes Charakter-Modell zu erstellen, noch ist es als Tutorial zu sehen, sondern viel mehr als eine ausführliche Dokumentation des Vorgehens bei einem solchen Projekt. Da bisher keinerlei Erfahrungen innerhalb des Studiums mit der Charaktermodellierung gesammelt wurden, wird hier auch nicht der Anspruch gestellt, ein einwandfreies Modell zu erstellen. Es soll eine Übersicht entstehen, welche Arbeitsschritte nötig sind, um ein solches Vorhaben umzusetzen. Außerdem wird darauf eingegangen welche Techniken verwendet wurden um dieses Beispiel zu erstellen. Dieser Charakter soll als repräsentatives Modell erstellt werden, um eine Möglichkeit zu zeigen ein Modell für virtuelle Welten zu erschaffen.

Softwarevergleich

Autodesk 3Ds Max

3ds Max ist eine professionelle 3D-Animations, Modellierungs- und Rendering-Software, die speziell für die Spiele- und Animationsentwicklung eingesetzt wird. Arbeiten, die mit dieser Software erstellt wurden, zeichnen sich durch besonders realistische Charaktere und außergewöhnliche 3D- und Spezialeffekte aus.

Autodesk Maya

Maya bietet eine umfangreiche Lösung für 3D-Modellierung, Animation, visuelle Effekte und Rendering. Die Vorteile von Maya sind die offene Architektur und die umfassende API, aber auch die Unterstützung der 64-Bit und Multicore-Technologie. Maya hat eine große Community und bietet so eine Fülle von Tutorials, Hilfen und Plug-Ins. Ein großer Vorteil dieser Software ist, dass es immer eine frei verfügbare Lernedition, die sogenannte PLE-Version, gibt. Dabei handelt es sich zwar meist um eine Vorgängerversion, dafür ist sie jedoch kostenlos.

Blender

Blender ist ein kostenloses 3D-Modellierungs- und Animationsprogramm, entwickelt von der Blenderfoundation, die alle wichtigen Funktionen der anderen Programme bietet. Somit ist Blender eine hervorragende Alternative zu den meist sehr teuren professionellen Softwarepaketen der 3 0 großen Hersteller.

Poser

Poser wurde von e-frontier besonders für den Einsatz von realitätsnahen Gestaltungen und Animationen von Charakteren entwickelt. Das Programm bietet einige vorgefertigte Modelle, die beliebig verändert oder animiert werden können.

Modo

Modo ist eine relativ neue 3D-Software entwickelt und vertrieben von Luxology.

Sie ist relativ günstig und wird oft in der Werbebranche von Produktdesignern verwendet. Aber auch in der Industrie findet es Anwendung für die Erstellung und Bearbeitung von Bauteilen, als Ersatz für AutoCAD. Modo wird ebenso von Game Developer und Graphic Artists für die Erstellung von 3D-Modellen benutzt.

SketchUp

SketchUp ist eine eigens von Google entwickelte Lösung für das Erstellen von dreidimensionalen Modellen. Es ist eine freie Version für den nichtkommerziellen Einsatz verfügbar und eine kostenpflichtige Pro-Version, die zusätzliche Funktionen bietet.

Es gibt noch eine ganze Reihe von Software, die für die Erstellung und Bearbeitung entwickelt wurden. Die populärsten sind sicher Cinema 4d, Lightwave 3D, Milkshape 3D, Wings3D und Softimage XSI.

Maya 2008 Programmgrundlagen

Aufgrund der bereits im Studium gemachten Erfahrungen mit Maya, wurde entschieden auch für dieses Projekt die Software von Autodesk zu verwenden. Maya ist ein sehr mächtiges und umfangreiches Programm. Dies wird schnell klar, wenn die Software gestartet wird und die Benutzeroberfläche zu sehen ist.

Immer wenn in dieser Dokumentation ein Tool von Maya benutzt oder ein Auswahltool beschrieben wird, wird diese Bezeichnung kursiv geschrieben. So ist leichter erkennbar, ob es sich um einen Fachbegriff handelt, oder es eine mayainterne Bezeichnung ist.

Die Arbeitsfläche, in Maya Viewport-Panel genannt, nimmt den meisten Platz in der Mitte der Oberfläche ein.

1 Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Maya_Oberfläche.png

Ganz oben befindet sich die Titelleiste, hier werden Programmversion und der Projektname angezeigt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Titelleiste.gif

Gleich darunter ist die Menüleiste zu finden. Je nach eingestelltem Modus sind dort die verschiedenen Optionen zu finden, die für die Bearbeitung eines jeden Projektes zur Auswahl stehen. Der Bereich, der sich je nach Modul verändert befindet sich zwischen Window und Help. Die übrigen Menüpunkte sind in jedem Modus zu finden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Menüleiste.gif nterhalb der Menüleiste ist die Statusleiste. Hier ist zu aller erst der Modus zu wählen, der eben schon erwähnt wurde. Je nach Bedarf kann so zwischen den Modulen in Maya hin und her geschaltet werden. Maya bietet sechs Grundmodi, darin enthalten das Animations-Modul, das Polygon-Modul zum Modellieren, das Surfaces-, Dynamics-, Rendering- und nCloth-Modul. Zusätzlich bietet sich aber auch die Möglichkeit mit der Option Customize… sich ein eigenes Modul anzulegen. Neben der Modul-Auswahl gibt es hier noch diverse Buttons für Funktionen für die Bearbeitung von Objekten.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Statusleiste.gif

Als nächstes ist die Shelf sichtbar. Mit Hilfe der Shelf kann auf häufig verwendete Programmfunktionen zurückgegriffen werden. Durch diesen Schnellzugriff wird ein effizientes Arbeiten garantiert. Die Shelf kann individuell angepasst werden. Dies wird mit zur Hilfename des Dropdown-Menüs über den angezeigten Pfeil auf der linken Seite der Leiste bewerkstelligt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Statusleiste.gif

Unter der Toolbar befindet sich ein Auswahlmenü für die Layouts der Oberfläche. Mit Hilfe des Layout-Menüs kann jederzeit zwischen den verschiedenen Ansichten gewechselt werden. So sind zum Beispiel die Vier-Seiten-Ansicht oder auch die Hypershade-Ansicht sehr schnell zu erreichen.

Abbildung: Layouts.gif

Auf der linken Seite der Maya Benutzeroberfläche liegt die Toolbar. In ihr befinden sich die Werkzeuge, die permanent benötigt werden. Von oben angefangen sind es das Auswahl-, Lassoauswahl-, Transformation-, Rotation-, Skalierung- und das Universal Manipulator- Werkzeug. Zusätzlich sind hier noch Buttons für die Funktionen Manipulatoren anzeigen und Zuletzt verwendetes Werkzeug.

Abbildung: Toolbar.gif

Die rechte Seite der Benutzeroberfläche beinhaltet vor allem die Channelbox und den Layer-Editor. Da diese weitestgehend selbsterklärend sind und sie ohnehin in jedem Maya Projekt zu benutzen sind, werden sie hier nicht weiter beschrieben.

Eine kleine Neuerung zur Vorgängerversion von Maya ist aber noch zu zeigen. Der ViewCube. Er befindet sich in der rechten oberen Ecke des Viewport-Panels und zeigt die aktuelle Perspektive auf die Arbeitsfläche. Die Perspektive kann nun nicht nur, wie bisher, über das Drücken von „Alt“ und der linken Maustaste verändert werden.

In der Version 2668 kann dies nun auch über den ViewCube getan werden. Wird beispielsweise eine Frontalansicht des Objektes gewünscht, so wird einfach auf dem ViewCube auf die Fläche Front gedrückt. Simultan funktioniert dies selbstverständlich auch mit allen anderen Seiten und Ecken des Würfels. Mittels gedrückt halten der Maustaste kann so auch die Ansicht frei gewählt werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung: Viewcube.gif

Abgesehen davon sollte noch erwähnt werden, dass es bei Maya in vielen Menüs und bei vielen Tools die Möglichkeit gibt ein Erweiterungsmenü aufzurufen. In diesen Erweiterungsmenüs ist die Möglichkeit einer speziellen Anpassung gegeben, welche auch in dieser Arbeit häufig verwendet wurden.

Auf die anderen Merkmale der Software wird nun nicht weiter eingegangen, da sie für dieses Projekt nicht notwendig sind.

[...]

Ende der Leseprobe aus 111 Seiten

Details

Titel
Modellierung von Personen und Objekten für virtuelle Welten
Note
1,7
Autor
Jahr
2008
Seiten
111
Katalognummer
V112150
ISBN (eBook)
9783640104239
ISBN (Buch)
9783640114832
Dateigröße
5239 KB
Sprache
Deutsch
Anmerkungen
- Laserscan - Streifenlichtscan - 3D-Modellierung - Second Life- Laserscan - Streifenlichtscan - 3D-Modellierung - Second Life
Schlagworte
Modellierung, Personen, Objekten, Welten
Arbeit zitieren
Stefan Gerdts (Autor:in), 2008, Modellierung von Personen und Objekten für virtuelle Welten, München, GRIN Verlag, https://www.grin.com/document/112150

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Modellierung von Personen und Objekten für virtuelle Welten



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden