Anforderungen und Herausforderungen von IT-Architekturen im Umfeld von Big Data

Lambda Architektur als universeller Lösungsansatz


Hausarbeit (Hauptseminar), 2018

24 Seiten, Note: 2,0


Leseprobe


Inhaltsverzeichnis

Abkürzungs- und Abbildungsverzeichnis
Abbildungen
Abkürzungen

Zukunft der IT-Architektur

Big Data
Definition
Bedeutung für Unternehmen
Charakteristiken von Big Data
Neue Anforderungen an IT-Strukturen

Serverless Computing
Entwicklung und Prinzip
Limitationen und Vorteile

Lambda Architektur
Anforderungen an eine Big Data Architektur
Entwicklung
Die Anwendung von Funktionen
Struktur

Ausblick

Literaturverzeichnis

Abkürzungs- und Abbildungsverzeichnis

Abbildungen

Abbildung 1 - Alte Funktionsweise von Deployments

Abbildung 2 - Neue Funktionsweise von Deployments

Abbildung 3 - Eine eventgesteuerte Anwendung mit AWS Lambda

Abbildung 4 - Layer Systematik der Lambda Architektur

Abbildung 5 - Lambda Architektur Diagramm

Abbildung 6 - real time views

Abkürzungen

Abbildung in dieer Leseprobe nicht enthalten

Zukunft der IT-Architektur

“ The issue is no longer where the information lives - what server, what application, what data- base, what data center. It's actually now all about putting information to work. It is about transforming data from passive to active, from static to dynamic - transforming data into in- sight. ” Carly Fiorina[1]

Heutzutage stehen viele Unternehmen angesichts enorm wachsender Datenmengen vor gro- ßen Herausforderungen. Veränderte Kundenbedürfnisse, wie 24/7 Service Verfügbarkeit von Anwendungen und schnelle Verarbeitung von Daten, aber auch neue dynamische Geschäfts- modelle, zwingen Unternehmen zu einer schnellen, fehlerfreien und sicheren Verarbeitung von Daten in mobil und online genutzten Anwendungen. Dabei stehen Unternehmen unter Kostendruck und vor der Frage, wie man die vorhandenen Daten nutzen sollte, um wettbe- werbsfähig zu bleiben. Hier stoßen klassische Enterprise - IT - Architekturen bezüglich Flexibi- lität, Kapazität und Kosten an ihre Grenzen. Bestehende IT Systeme sind oft auf Zuverlässigkeit, Beständigkeit sowie Effizienz ausgerichtet und stehen losgelöst vom Kunden sehr starr IT- zentrisch. Zusammengestrickte Software bedingt schlecht vernetzte Systeme mit schlecht strukturierten Datenbanken, Nutzeroberflächen sowie Produktinformationen und alte Compu- ter sind oft ein Sicherheitsrisiko. Für die Unternehmen stellt sich die Grundsatzfrage, inwiefern und auf welchem Weg sie sich für die Zukunft wappnen und im digitalen Zeitalter erfolgreich sein können. Gleichzeitig kämpfen Unternehmen mit Kostendruck, veralteten IT-Strukturen und knappen Budgets sowie regulatorischen Anforderungen. Eine gut durchdachte, moderne IT-Architektur ist deswegen heutzutage eine wesentliche Investition für ein Unternehmen, um wettbewerbsfähig zu sein und den veränderten Anforderungen und Bedürfnissen der Kunden gerecht zu werden. Innovative IT Anwendungen sind auf Flexibilität, Schnelligkeit sowie Inno- vation ausgerichtet und stehen kundenzentriert nah am Kunden.[2] Wesentlich bleibt dabei ein akzeptables Budget, denn die Modernisierung der IT kostet im ersten Schritt Geld. Unterneh- men scheuen sich vor den enormen Risiken, welche mit einer Totalumstellung verbunden sein können, wie Probleme bei der Datenmigration und unerwartete Mehrkosten. Jedoch müssen Gelder, die bei nicht umgesetzten Neuanschaffungen gespart werden, im Gegenzug in die In-standhaltung und Wartung der alten Systeme investiert werden. Erfolgsfaktoren sind daher abgestimmte Prioritäten im IT- sowie Geschäftsbereich und eine anpassungsfähige, moderne, flexible Architektur mit Fähigkeit zur Datenanalyse. Eine agile Weiterentwicklung von Organisation, Personal und Betrieb ist von Bedeutung. Laut der Globalen Bain CIO Studie 2016 wissen die meisten Manager, dass die vorhandene IT-Architektur nicht reicht, um die Ziele in wichtigen Unternehmensbereichen zu erreichen.[3]

Zukünftig gibt es acht zentrale Bausteine, die unabdingbar für moderne IT-Architekturen sind:

- Daten: wachsende Datenvolumen von strukturierten und unstrukturierten Daten, müssen mit immer anspruchsvolleren Analysen verarbeitet werden
- Infrastruktur: überall und zu jedem Zeitpunkt verfügbare Rechenleistung mit schneller und möglichst automatischer Konfiguration
- Hochgeschwindigkeitsarchitektur: Die gesamte IT-Architektur muss schnell und agil sein
- Anwendungs- und Entwicklungsplattformen: Fokus auf strategischen und flexibel ska- lierbaren Standardplattformen, unter anderem auch Platform as a Service Konzepte
- Anwendungen: Lose gekoppelte Systeme, Nutzung von Microservices und Software as a Service Konzepte
- Integration: Webbasierte Kopplungen ergänzen beziehungsweise ersetzen Enterprise- Service-Bus-Konzepte
- Kanäle und Endgeräte: Reibungsloser Wechsel zwischen verschiedenen Kanälen und Endgeräten, wobei mobile Kanäle als vorrangig zu betrachten sind, da diese von Kunden stärker nachgefragt werden
- Sicherheit: Cyberattacken betreffen alle Bausteine der IT-Architektur und somit wird ein ganzheitliches Sicherheitskonzept benötigt[4]

Kurzum: Eine moderne Architektur sollte möglichst alle Arten an Daten kostengünstig, schnell, fehlerfrei und sicher verarbeiten sowie die Daten zu jeder Zeit, an jedem Ort, von jedem Gerät aus abrufbar sein. In dieser Arbeit wird erörtert, ob neue IT-Architekturen diesen Anforderun- gen in der Praxis gerecht werden und einen Mehrwert für Unternehmen generieren können.

Das Stichwort hierbei ist oft Big Data. Im Folgenden wird erläutert, warum Big Data im Zuge einer Umstrukturierung der Unternehmens IT-Architektur beachtet werden sollte.

Big Data

Definition

Big Data bezeichnet große Mengen an strukturierten und unstrukturierten Daten, welche Unternehmen im täglichen Geschäft anhäufen.[5]

Bedeutung für Unternehmen

Durch mobile Anwendungen und die zunehmende Digitalisierung aller Arten von Geschäfts- prozessen, wächst die Menge an Daten beständig. Für ein Unternehmen ist es nicht nur wich- tig, die meisten Daten zu besitzen, sondern auch mit den Vorhandenen geschickte, wertschöp- fende Analysen durchzuführen, um sich so einen Wettbewerbsvorteil zu verschaffen. Die Er- gebnisse der Analysen können Chancen für Kostenreduzierung, Zeiteinsparung, Produktent- wicklung sowie Angebotsoptimierung sein. Dies heißt konkret, Prozesse, insbesondere bei Kundenansprache sowie -kontakt, zu optimieren und weitere intelligente strategische Ent- scheidungen auf Basis dieser Verbesserungen treffen zu können. Werden Daten intelligent verarbeitet und analysiert, bietet dies in vielerlei Hinsicht eine große Chance für ein Unter- nehmen.[6],[7]

Charakteristiken von Big Data

Oftmals werden in der Literatur sogenannte 3Vs beschrieben, welche Big Data charakterisie- ren:

- Volume: Das Datenvolumen, welches jeden Tag generiert wird, ist big
- Velocity: Die Geschwindigkeit, mit welcher Daten generiert, produziert und erschaffen werden, ist sehr hoch und schnell
- Variety: Es gibt nicht nur strukturierte, sondern zunehmend mehr semi- oder unstruk- turierte Daten, welche verarbeitet werden müssen. Dies sind beispielsweise Wetterda- ten.

In der Praxis lassen sich noch weitere Charakteristiken feststellen:

- Variability: Verschiedene Datendimensionen und unterschiedliche Längen der Daten- verarbeitungszeit
- Veracity: Die Richtig- und Wahrhaftigkeit von Daten ist zu hinterfragen
- Validity: Die Genauigkeit und Korrektheit von Daten, gute Datenqualität ist die Voraus- setzung für gute Analysen
- Volatility: Wie lange sind Daten heutzutage aktuell und nutzbar für Analysen
- Visualization: Big Data ist schwer zu visualisieren
- Value: In Daten kann ein Mehrwert gefunden werden, wenn diese unternehmensspe- zifisch analysiert werden[8]

Die weiteren Vs auch aufzuführen und zu betrachten, bringt ein klareres Bild von den Ausprägungen, welche Big Data annehmen kann und definiert die Anforderungen an IT-Strukturen, welche Big Data verarbeiten und analysieren sollen. Es zeigt sich, dass der Umgang mit Big Data zu komplexen Strukturen führt. Diesen vielfältigen Anforderungen können herkömmliche Strukturen nicht gerecht werden, da sie nicht flexibel genug sind.

Neue Anforderungen an IT-Strukturen

Bei dem großen Begriff Big Data geht es im Grundsatz immer darum, einen Wert aus vorhan- den Daten aller Art zu ziehen, um verschiedenen Geschäftsbereichen in einem Unternehmen wertvolle Insights verfügbar zu machen und dadurch einen branchenweiten Wettbewerbsvor- teil zu bekommen. Da durch Internet-der-Dinge-Konzepte und die Messbarkeit fast aller Ge- schäftsprozesse das Datenaufkommen zukünftig weiter stark wachsen wird, ist es für viele Unternehmen vorteilhaft, sich zu datengesteuerten Unternehmen zu transformieren.

Ein klassisches Enterprise Data Warehouse strukturiert sämtliche Daten in herkömmlichen relationalen Datenbanken, tiefgreifende Analysen sind mit den vorhandenen Softwareapplika- tionen nur langsam oder vordefiniert möglich. Vielmals werden für Analysen zudem nur Be- triebsdaten aus dem Enterprise Ressource Planning und Costumer Relationship Management verwendet. Diese Enterprise Warehouse Infrastrukturen sind sehr kostenintensiv und nicht in der Lage, das Datenvolumen im Petabyte-Bereich, die Datenvielfalt, die Datengeschwindigkeit

sowie Streaming-Daten zu managen und Daten in einen Kontext einzubetten. Dies bedeutet, dass nur ein Bruchteil der erzeugten Unternehmensdaten analysiert und für die Optimierung der Prozesse oder das Treffen strategischer Entscheidungen genutzt werden kann, was ein Unternehmen daran hindert, Muster, Trends und sonstige Insights zu identifizieren.[9] Eine mo- derne IT-Architektur muss auf Agilität und Geschwindigkeit ausgerichtet sein, ohne dabei wich- tige Komponenten wie Sicherheit, Struktur, Korrektheit und regulatorische Anforderungen zu vernachlässigen.

Im Folgenden werden zwei Basisarchitekturen für Big Data Anwendungen und Analysen beschrieben,welche aufeinander aufbauen.

Serverless Computing

„ no server is easier to manage than having no server at all ” Werner Vogel, Amazon CTO[10]

Ein Ansatz, um Big Data Technologien in einer Unternehmensarchitektur umzusetzen, ist das serverless Konzept. Es bietet die Möglichkeit, traditionelle Systeme um sechs Schwerpunktbereiche zu ergänzen beziehungsweise eine Architektur komplett neu aufzubauen: Datenspeicherung, Datenintegration, Analytics Processing, Visualisierung und Daten Governance. Dieser Ansatz ermöglicht die Durchführung von Ad-hoc-Analytics, maschinellem Lernen und operativer Intelligenz, erhöht aber die Gesamtkomplexität.[11]

Entwicklung und Prinzip

Das serverless Konzept ist der nächste Schritt nach der Evolution der Cloud Konzepte, da man die Strukturen von Architekturen von Grund auf neu überdenkt. Bei Cloud-Computing wird die Infrastruktur für eine Anwendung mittels virtuellen Servern bereitgestellt. Jedoch wird stets eine Umgebung benötigt, um den Code auszuführen - dies entfällt beim serverless Konzept, da hier die Codes beim Host ausgeführt werden.

2006 begann Amazon die Entwicklung mit Infrastructure as a Service, gefolgt von Heroku mit Platform as a Service 2007. Mit der Einführung von Docker und kubernetes wurden jene 2013 massentauglich. Docker ermöglicht es, Anwendungen und ihre Abhängigkeiten in leichtgewich- tige Container zu packen, die schnell starten und voneinander isoliert sind.[12],[13],[14] Microsoft adaptierte diese Konzepte 2017 mit Microsoft Azure. Das Prinzip der service oriented architec- ture ist die Basis für serverless: Der Grundsatz ist, dass ein System aus vielen unabhängigen Komponenten besteht, die mittels message passing miteinander kommunizieren. Dies wird heute via Microservices umgesetzt. Microservices bewirken eine Modularisierung von Soft- ware. Das heißt, ein Microservice ist eine kleine Anwendung beziehungsweise eigenständig ausführbare Software Komponente, die mit anderen Microservices sowie Softwarekomponen- ten kollaborieren kann. Die unterliegenden Codes sind leicht zu verstehen, unkompliziert in ein System zu integrieren und Daten können gespeichert werden.[15],[16]

Heutzutage gehören zu serverless zudem die Konzepte Backend as a Service und Functions as a Service. Backend as a Service dient dem Outsourcing von Produktionsanwendungen, oftmals mobile services. Functions as a Service stellt individuelle Funktionen bereit. In älteren Architek- turen gab es eine Host Instance mit VM und Container, die jede Applikation ausführte. Beim serverless Konzept laufen die Operations über die FaaS Plattform- nur bei Bedarf wird eine Funktion in einem Container abgewickelt und nach erfolgreicher Durchführung wird der Con- tainer wieder geschlossen. Dies stellt ein im Grundsatz anderes Prinzip dar, welches agiler, schneller und ressourcenschonender ist.[17]

Abbildung in dieer Leseprobe nicht enthalten

Abbildung 1 - Alte Funktionsweise von Deployments[18]

Abbildung in dieer Leseprobe nicht enthalten

Abbildung 2 - Neue Funktionsweise von Deployments[19]

Generell lassen sich fünf Prinzipien für ideale serverless Konzepte aufstellen:

- Ein Computing Service wird zur Ausführung von Codes bei Bedarf genutzt, keine Server
- Es werden zustandslose Funktionen für einen bestimmten Zweck geschrieben
- Event gesteuerte, push basierte Pipelines werden designed
- Es werden dickere und stärkere front ends generiert
- Drittanbieter Services sind ein wichtiger Baustein[20]

Limitationen und Vorteile

Das Outsourcing Konzept bietet vielfältige Vorteile für ein Unternehmen:

- Kein Management von Server Hosts und Server Prozessen nötig
- Automatische Skalierung basierend auf dem aktuellen Workload
- Kosten entstehen nur bei Nutzung, es gibt keine Fixkosten mehr
- Hohe Verfügbarkeit - allerdings keine Desaster Recovery, diese muss separat bereitge- stellt werden[21]

Somit kann eine Kostenreduzierung erzielt werden, da nur für Infrastruktur gezahlt wird, wenn man sie benötigt, kein Bereitstellungsmanagement und keine Administration von Serverhard- ware vorhanden sein muss und variable Workloads durch einfache und automatische Skalier- barkeit spezifisch abgedeckt werden können. Des Weiteren kann man auf effektiven Hardware Support zurückgreifen, da man für jedes operationale Problem spezifische Experten anspre- chen kann. Zudem ist serverless schnell bezüglich der Entwicklung und Bereitstellung neuer Programme und Anwendungen sowie von kompletten Systemen, welche innerhalb von zwölf Stunden aufgesetzt werden können. Die Limitationen solcher Konzepte sind wie folgt:[22]

- Vendor lock in: Jeder Anbieter hat verschiedene Grundlagen, sodass es schwer ist, bei- spielsweise bei Unzufriedenheit den Anbieter zu wechseln
- Kontrollverlust: Es besteht eine Abhängigkeit vom Anbieter. Wenn das System eine

Downtime hat, kann man als Kunde nichts machen. Zudem ist ein alternativer Backup Plan zur Datenwiederherstellung notwendig

- Testen: Einzelne FaaS Units sind leicht zu testen, da das Programmierungsmodell sim- pel ist. Schwierig wird es bei funktionellem Testen von ganzen Systemen, da eine komplett automatisierte Bereitstellung vorliegen muss
- Latenz: serverless Konzepte haben mehr Komponenten als eine traditionelle Architek- tur, somit kann es beim erstmaligen Abspielen des Codes zu Latenzen kommen.[23]

Der Kontrollverlust wird auch in Zukunft eine Limitation bleiben, wohingegen das Testen und die Latenz in weiteren Entwicklungsschritten mit großer Wahrscheinlichkeit kein Problem mehr darstellen werden. Für die Anbieter gilt: desto standardisierter und ähnlicher die Anwendun- gen sind, desto attraktiver sind sie für Kunden, da ein einfacher Wechsel zwischen Anbietern möglich ist. Dies ist wettbewerbstechnisch jedoch nicht interessant für die Unternehmen, so- dass man hier die weiteren strategischen Entscheidungen der Anbieter beobachten muss.[24]

[...]


[1] (Fiorine, 2004)

[2] (Mingay, 2016)

[3] (Ingolf Zies, 2016)

[4] (Ingolf Zies, 2016)

[5] (Dominik Klein, 2013)

[6] (Narthan Marz, 2015)

[7] (Deviln, 2012)

[8] (Firican, 2017)

[9] (Lars Bodenheimer, 2015)

[10] (AWS re:Invent, 2015)

[11] (Narthan Marz, 2015)

[12] (Mike Roberts, 2017)

[13] (Merkel, 2014)

[14] (Fink, 2014)

[15] (Newman, 2015)

[16] (Thones, 2009)

[17] (Sbarski, 2017)

[18] (Mike Roberts, 2017)

[19] (Mike Roberts, 2017)

[20] (Sbarski, 2017)

[21] (Mike Roberts, 2017)

[22] (Mike Roberts, 2017)

[23] (Mike Roberts, 2017)

[24] (Mike Roberts, 2017)

Ende der Leseprobe aus 24 Seiten

Details

Titel
Anforderungen und Herausforderungen von IT-Architekturen im Umfeld von Big Data
Untertitel
Lambda Architektur als universeller Lösungsansatz
Hochschule
FOM Essen, Hochschule für Oekonomie & Management gemeinnützige GmbH, Hochschulleitung Essen früher Fachhochschule
Veranstaltung
IT-Architekturen
Note
2,0
Autor
Jahr
2018
Seiten
24
Katalognummer
V446807
ISBN (eBook)
9783668847941
ISBN (Buch)
9783668847958
Sprache
Deutsch
Schlagworte
anforderungen, herausforderungen, it-architekturen, umfeld, data, lambda, architektur, lösungsansatz
Arbeit zitieren
Lea Renders (Autor:in), 2018, Anforderungen und Herausforderungen von IT-Architekturen im Umfeld von Big Data, München, GRIN Verlag, https://www.grin.com/document/446807

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Anforderungen und Herausforderungen von IT-Architekturen im Umfeld von Big Data



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden