eBackup versus konventionelles Backup in Bezug auf das Datenwachstum eines Terrabyte bei einer Kostenreduktion von 50%


Bachelorarbeit, 2014

65 Seiten, Note: A


Leseprobe


Inhaltsverzeichnis

Vorwort

Abstract

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung
1.1 Kundenbedürfnisse
1.2 Problemstellung
1.3 Hypothese
1.4 Ziel der geplanten Untersuchung
1.5 Methodische Vorgehensweise
1.6 Definition der Begriffe

2 Theoretische Grundlagen eines Backups
2.1 Ursachen und Konsequenzen eines Datenverlustes
2.2 Notwendigkeit eines Backups
2.3 Daten
2.4 Big Data
2.5 Datenwachstum
2.6 Traditionelle Datensicherung
2.6.1 Sicherungsmethoden
2.6.2 Backup oder Archive
2.7 Deduplication
2.7.1 Deduplication für Virtuelle Server
2.7.2 Continuous Data Protection / Remote Replication
2.8 Definition von RTO und RPO
2.9 eBackup - Backup in der Cloud
2.9.1 Allgemein über die Cloud
2.9.2 Cloud Storage
2.9.3 Backup in der Cloud
2.9.4 Security und BaaS
2.9.5 BaaS Kosten
2.10 Datenschutzgesetzt
2.11 Datensicherungskonzept
2.12 Monitoring
2.13 Verfügbarkeit
2.14 Service Level Agreement
2.15 Physische Sicherheit
2.16 Sicherheitsaspekte

3 Auswertungsteil
3.1 Prüfung der Hypothese
3.2 Praxisbezug auf eBackup
3.3 Inhaltliche Abgrenzung

4 Konklusion und Ausblick / Schlussfolgerung

5 Quellenverzeichnis

6 Anhang

Vorwort

Es ist mir eine grosse Freude, dass Sie meine Arbeit in den Händen halten. Offenbar stösst die von mir gewählte Thematik auf Interesse: Elektronisches Backup oder Backup as a Service ist aktuell, jedoch bei den IT-Diskussionen noch nicht omnipräsent.

In den vergangen Monaten habe ich mich intensiv mit dem Thema befasst. Es war eine lehrreiche, spannende und inspirierende Zeit für mich Ein besonderer Dank für die Unterstützung geht dabei an folgende Personen: Edith Hinder, Silvio Corti und an alle Beteiligten, die mir bei der Fertigstellung der Arbeit tatkräftig zur Seite standen.

Nun wünsche ich eine interessante und aufschlussreiche Lektüre.

Zürich, im Januar 2014

Sandro Eggenberger

Abstract

Der Stellenwert in Bezug auf die Datensicherheit hat sich in den letzten Jahren massiv verändert. Ein Datenverlust oder ein kompletter Datenverlust kann und will sich keine Firma mehr leisten.

Dank neuer Technologien wie Deduplizierung gibt es heute die Möglichkeit, Daten als elektronisches Backup beziehungsweise Backup as a Service zu beziehen. Bei einem Cloud Service muss neben der Datensicherheit auch das Datenschutzgesetz berücksichtigt werden. Ziel dieser Arbeit ist es, anhand ausgewählter Fachliteratur beantworten zu können, ob mittels eines Datensicherungskonzepts ein elektronischen Backup, eine Kostenreduktion von 50% gegenüber einem Konventionell Backup ermöglicht werden kann, dabei darf die Datenmenge von einem Terrabyte nicht übersteigt werden.

Laut Nelson ist ein elektronisches Backup nur unter einer Datenmenge von 200 Gigabyte oder einer Infrastruktur unter 30 Server aus finanzieller Sicht sinnvoll. Gemäss Winkler und Meine muss jedoch jede elektronische Backup Lösung noch eine lokale Lösung vor Ort haben, dies erhöht die Sicherheit, treibt jedoch die Kosten in die Höhe und ist somit nicht 50% günstiger als eine konventionelle Backup Lösung. Je nach Ausgangslage einer Firma kann ein elektronisches Backup Sicherheitsvorteile bringen, jedoch muss vorgängig ein sorgfältiges Datensicherungskonzept erstellt werden.

Bei einem Backup muss der Recovery Point Objective oder Recovery Time Objective genau definiert werden. Ob ein elektronisches Backup diese Zeiten erfüllen kann, wird sich je nach Ausgangslage zeigen. Ein elektronisches Backup wird in Zukunft vermehrt in der IT-Branche anzutreffen sein. Wichtig ist dabei, auch die entsprechenden Service-Level-Agreement und Operational-Level-Agreement zu überprüfen (vgl. Nelson 2011, Winkler & Meine, 2011).

Abbildungsverzeichnis

Abbildung 1: Datensicherungsmethoden, Quelle: Darstellung entnommen aus Müller, 2008, S. 203

Abbildung 2: Rückspielung von mehreren Incremental Files, Quelle: Darstellung entnommen aus Nelson, 2011, S. 5

Abbildung 3: Level-Based Backup anhand 8 Tagen, Quelle: Darstellung entnommen aus Nelson, 2011, S.6

Abbildung 4: Deduplication Methode, Quelle: Darstellung entnommen aus Osuna et al., 2011, S. 5

Abbildung 5: Deduplication Methode, Quelle: Darstellung entnommen aus Nelson, 2011, S. 87

Abbildung 6: Deduplication Verhältnis bei der Gegenüberstllung von einem Terrabyte, Quelle: Darstellung entnommen aus Nelson, 2011, S. 89

Abbildung 7: Mögliche Sichtweise eines RTO, Quelle: Darstellung entnommen aus Nelson, 2011, S. 14

Abbildung 8: RPO Aktivität, Quelle: Darstellung entnommen aus Nelson, 2011, S.14

Abbildung 9: Backup as a Service Modell, Quelle: Darstellung entnommen aus Winkler & Meine, 2011, S. 147

Abbildung 10: Direkte versus Indirekte IT-Kosten, Quelle: Darstellung entnommen aus Gadatsch & Meyer, 2010, S. 110

Abbildung 11: Finanzierungskosten eines Risikos, Quelle: Darstellung entnommen aus Friedl, 1998, S.15

Abbildung 12: Formel für die Verfügbarkeit, Quelle: Darstellung entnommen aus BITKOM, 2013, S. 8

Tabellenverzeichnis

Tabelle 1: Die Kosten durch Datenverslust in den USA 1998, Quelle: Darstellung entnommen aus Wald, 2002, S.26.

Tabelle 2: Vor- und Nachteile der Sicherungsmethoden, Quelle: Darstellung entnommen aus Müller, 2008, S. 204

Tabelle 3: BaaS Advantages and Disadvantages, Quelle: Darstellung entnommen aus Nelson, 2011, S. 205

Tabelle 4: Verfügbarkeit’s Tabelle, Quelle: Darstellung entnommen aus Müller 2008, S. 197

Tabelle 5: BaaS Provider aus der Schweiz, Quelle: Eigene Darstellung, 2013

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten.

1 Einleitung

1.1 Kundenbedürfnisse

Bechtle Dübendorf ist ein eigenständiges Systemhaus innerhalb der Bechtle-Gruppe, das neben IT-Dienstleistungen auch seit mehr als einem Jahr eine eigene Cloud aufgebaut hat. Die Dienste der Cloud nehmen derzeit rund zwölf unterschiedliche Unternehmen in Anspruch. Einige KMUs von Bechtle haben bereits die Anfragen bezüglich elektronisches Backup (eBackup) beziehungsweise Backup as a Service (BaaS) gestellt. Diesen Service möchte Bechtle Dübendorf im Jahr 2014 realisieren. Ein hierfür passendes Konzept ist allerdings noch nicht vorhanden.

1.2 Problemstellung

Daten auf den Servern werden immer wichtiger, denn sie sind ein Gut, auf welches nur noch selten verzichtet werden kann. Das Verheerendste, das den meisten Firmen oder Privatpersonen passieren könnte, ist ein kompletter Datenverlust. Eine Datensicherung wird jedoch erst gebraucht, wenn ein Server oder Client nicht mehr funktioniert oder von Viren befallen ist. Wie der Tagesanzeiger-Artikel erläutert, hilft bereits ein einfaches Backup um sich vor Datenverlust zu schützen (Tages-Anzeiger, 2012). Ein anderes aktuelles Beispiel im Zusammenhang mit Daten ist der Tape-Diebstahl bei der Firma Swisscom. Der Inhalt der Backup-Tapes/Archivtapes befindet sich nun im Beitz der Neuen Zürcher Zeitung. Dieser Fall ist besonders gravierend, da der Inhalt dieser Bänder vertrauliche Informationen über diverse prominente Personen enthält. Dieses Beispiel zeigt auf welche Konsequenzen Datenverlust bzw. Datendiebstahl mit sich bringen kann. (Tages-Anzeiger, 2013a, S. 43)

Vor mehreren Jahren genügte es den meisten Unternehmen ein Bandlaufwerk auszulagern. Mit zunehmender Datenmenge stossen jedoch die meisten Firmen heutzutage an ihre Grenzen. Ein weiterer Faktor, welcher die IT zunehmend beeinflusst, sind die steigenden Kosten aufgrund der zunehmenden Komplexität der Branche. Die beiden oben genannten Punkte haben zur Folge, dass bei immer mehr Kunden das Bedürfnis entsteht, die Backup-Daten auszulagern, um fehlendes Know-how zu kompensieren und Platz und Kosten zu sparen. Gewisse Unternehmen bevorzugen sogar die physikalische Trennung ihrer Daten über mehrere Kilometer hinweg. Zu dieser Art von Kunden gehören meistens KMUs von 50 bis 250 Personen, welche in diversen Branchen angesiedelt sind. Die Anforderungen an ein Backup sind von Banken, Industriebetrieben bis zu Pharma-Konzernen sehr unterschiedlich. Derzeit besitzen allerdings die wenigsten Firmen eine IT-Sicherheitsstrategie, welche die Risiken und Gefahren im Allgemeinen aufzeigt und an die jeweiligen Bedürfnisse des Unternehmens angepasst ist. Die Bedeutung der IT Sicherheit hat in den letzten Jahren massiv zugenommen. Auch das Datenvolumen hat sich im Vergleich zu den Vorjahren massiv vergrössert.

In Bezug auf die elektronische Datensicherung müssen einige Kriterien beachtet werden, wie beispielsweise der geografische Standort des Anbieters, die Sicherheit und die Verfügbarkeit. Ein wichtiger Aspekt bei der Auslagerung von Daten einer Firma ist die Berücksichtigung der Service Level Agreements (SLA). Die SLA definieren diverse Merkmale, wie zum Beispiel Recovery time objective (RTO) und Recovery point objective (RPO). Dies gehört zu den wichtigsten Merkmalen einer Backupstrategie. Auch das Thema ‚Big Data‘ wird in Bezug auf die Datensicherung einen immer grösseren Einfluss nehmen, da die grossen Datenmengen mit den klassischen Sicherungsmethoden nicht mehr bewältigt werden können.

Bei der Auslagerung von Daten müssen Gesetze wie das Datenschutzgesetz (DSG) und allenfalls andere Teile der schweizerischen Gesetzgebung berücksichtigt werden. Denn je nach Branche gibt es verschiedene Datenklassifizierungen, die besonders hohen Schutz verlangen. Somit ist es auch wichtig, wo die Daten gelagert werden, denn dieser Zugriff sollte durch Sicherheitsvorkehrungen geschützt sein. Die geographische Wahl eines Rechenzentrums ist je nach Firma unterschiedlich.

1.3 Hypothese

Die Hypothese lautet wie folgt: Die Kosten eines eBackups lassen sich im Gegensatz zu den Kosten eines konventionellen Backups durch ein sorgfältiges Datensicherungskonzept um 50% reduzieren, sofern die Datenmenge ein Terrabyte nicht übersteigt.

1.4 Ziel der geplanten Untersuchung

Folgendes soll bewiesen werden: Die Kosten eines eBackups lassen sich im Gegensatz zu den Kosten eines konventionellen Backups durch ein sorgfältiges Datensicherungskonzept um 50% reduzieren, sofern die Datenmenge ein Terrabyte nicht übersteigt. Des Weiteren soll die Aussage von Steven Nelson (Pro Data Backup and Recovery) verfochten werden. Dieser behauptet, dass die Initialkosten eines konventionellen Backups höher sind als diejenigen eines eBackups. Bedingt durch ein schnelles Datenwachstum können diese Kosten jedoch höher ausfallen als bei einer konventionellen lokalen Backuplösung beim Kunden vor Ort. Der Schwerpunkt der Untersuchung liegt auf den Äusserungen des Autors Steve Nelson, da seine wissenschaftlichen Erkenntnisse in den Bereichen Backup, traditioneller Datensicherung und zukunftsorientierten Backuplösungen zu den aktuellsten der Branche gehören (Nelson, 2011).

Es wird noch ein Ausblick in Bezug auf die physische Sicherheit der Räumlichkeiten gegeben wie z.B. Zutrittskontrollen oder Transport des Backups. Diese sollen mit denjenigen eines konventionellen Backups verglichen werden. Mit Hilfe der ausgewählten Fachliteratur soll die aufgestellte Hypothese wiederlegt oder bewiesen werden. Durch die Konklusion können die Ergebnisse in den Transfer übergeleitet werden. Ziel ist es, dass Bechtle Dübendorf seinen Kunden eine Empfehlung über die optimale Technologie, lokale Datensicherung versus eBackup aufzeigen kann. Die gewonnenen Erkenntnisse sollen zu einem späteren Zeitpunkt erfolgreich umgesetzt werden können.

1.5 Methodische Vorgehensweise

Anhand von unterschiedlicher Fachliteratur soll die Hypothese widerlegt bzw. bewiesen werden. Mittels Beweisführung soll die anfängliche Hypothese zu einer These überführt werden.

Die aufgestellte Hypothese leitet sich von der Aussage des Autors Steven Nelson (Pro Data Backup and Recovery) ab. Dieser behauptet, dass die Initialkosten eines konventionellen Backups zwar anfänglich höher sind als die eines eBackups, jedoch können die Kosten eines eBackups bei grösser werdender Datenmenge zu einem späteren Zeitpunkt auch wieder ansteigen. Gerade aus diesem Grund wurde die Datenmenge in der Hypothese auf ein Terrabyte festgelegt. Nur bis zu diesem Wert sollte eine Kostensenkung von 50% mittels einem sorgfältigen Datensicherungskonzept möglich sein. Das Schweizerische Datenschutzgesetz soll in dieser Arbeit auf die einzelnen Anforderungen in Bezug auf Datenhaltung und physische Sicherheit ‚gestreift’ werden (Nelson, 2011).

1.6 Definition der Begriffe

Je nach Fachliteratur und Autor wird in dieser Arbeit von Backup, Datensicherung, Deduplizierung, deduplication gesprochen.

2 Theoretische Grundlagen eines Backups

Laut Hoppe und Priess werden nicht nur die Gesellschaften, sondern auch die Wirtschaft seit Anfang der Informations- und Kommunikationstechnologie stark beeinflusst. Informationen sind bei vielen Unternehmen heutzutage das Kerngeschäft der Unternehmung und beeinflussen die strategische Richtung des Unternehmens bzw. dessen Erfolgsfaktor. Diese Informationen können im Extremfall sogar das Überleben der einzelnen Unternehmung gefährden. Die Informationen müssen aktuell, konsistent und qualitativ für das Unternehmen sein und jederzeit zur Verfügung stehen. Mit Hilfe dieser Informationen können neue Märkte, Zielgruppen oder Produkte entwickelt und vertrieben werden. Auch werden Informationen für Entscheidungen benötigt. Nur die wenigsten Unternehmen können heutzutage ohne Informationssystem oder nur eingeschränkt auskommen (Hoppe & Priess, 2003, S. 16).

Hoppe und Priess fügen an, dass sich nicht nur die Anzahl von Informationen rasant entwickelt sondern auch die Gefahren in den letzten Jahren erheblich zugenommen haben. Die einzelnen Schwachstellen der Informationssysteme sind heutzutage sehr verbreitet. Informationen müssen geschützt und rund um die Uhr verfügbar sein. Welche Sicherheitsmassnahmen in Bezug auf die Datensicherung heutzutage wichtig sind, wird in den nächsten Kapiteln beschrieben (Hoppe & Priess, 2003, S. 16).

2.1 Ursachen und Konsequenzen eines Datenverlustes

Eine Datensicherung wird erstellt, weil es diverse Bedrohungen gibt. Was ein Datenverlust kostet wurde durch eine Studie in USA 1998 belegt. Tabelle davon einfügen (Wald, 2002, S. 26).

Abbildung in dieser Leseprobe nicht enthalten.

Tabelle 1: Die Kosten durch Datenverslust in den USA 1998, Quelle: Darstellung entnommen aus Wald, 2002, S.26.

Müller sieht als Bedrohnungsgruppen z.B. Feuer, Flüssigkeit, technischer Defekt, Angriff von Hackern oder auch Terrorismus. Alle diese Bedrohungen können ein Unternehmen oder dessen Daten bedrohen. Diese Bedrohungen sollten in sogenannte Bedrohungsgruppen zusammengefasst werden. Somit können Massnahmen für die speziellen Bedrohungsgruppen gebildet werden (Müller, 2008, S. 132). Das Deutsche Bundesamt sieht als zusätzliche Bedrohung unkontrollierte Veränderung von gespeicherten Daten, Veränderung gespeicherter Daten oder versehentliches Löschen in Archivsystemen an. Auch interne oder externe Datendiebstähle können nie ausgeschlossen werden (BSI, 2004, S. 3).

Eine zentrale Frage, die sich jede Firma stellen muss ist: „Wie lange und wie oft kann ich es aushalten ‚down’ zu sein?“ (Wald, 2002, S. 28). Es gibt für keine Firma eine exakte Antwort auf diese Frage. Je nach Firmenbedürfnisse können diese Anforderungen unterschiedlich sein. Die einen Firmen haben bereits nach fünf Minuten Ausfallzeit einen erhöhten Schaden, während andere Firmen sich auch einen ganzen Ausfalltag leisten können. Eine nahezu 100%-ige Sicherheit können sich nur die wenigsten Firmen leisten. Jede Firma, die IT als wichtig unterstützender Prozess braucht, sollte sich die Frage stellen, wie lange die Ausfallzeit der einzelnen Systeme sein darf. Dazu wird häufig folgende Regel verwendet: Kosten eines Ausfalls pro Zeiteinheit. Die IT-Abteilungen und die Fachbereiche sollten eine gemeinsamen Lösung zusammen erarbeiten (Wald, 2002, S. 28). Auch das Deutsche Bundesamt für Sicherheit in der Informationstechnik weist darauf hin, dass bei Verlust von Anwendungsdaten oder Kundenstammdaten die Existenz des Unternehmen bedroht ist. (BSI, 2004, S. 3). Auch die Bundesbehörden der Schweizerischen Eidgenossenschaft für Melde- und Analysestelle Informationssicherung (MELANI) empfiehlt eine regelmässige Datensicherung. Somit wird das Risiko vermindert, dass eine Fehlmanipulation, technischer Defekt, Viren oder Würmer die Daten teilweise oder ganz zerstören können. Auch die Überprüfung des Backups und dessen Lesbarkeit bzw. Wiederherstellung der Daten wird ausdrücklich empfohlen (Melani, 2013).

2.2 Notwendigkeit eines Backups

Die Autoren Brooks, McFarlance, Pott, Trcka & Tomaz haben bei der Notwendigkeit des Backups festgestellt, dass viele Firmen die eigenen Business-Anforderungen ihrer Firma nicht mehr verstehen, wenn es um das Thema Backup und Speicherkapazität geht. Ein Backup ist wie eine Versicherungspolice. Niemand will sie, weil sie viel kostet und nur selten gebraucht wird, wenn es jedoch zum Ernstfall kommt und in einem Haus eingebrochen wird oder das Auto einen Defekt aufweist, ist jeder dankbar, dass er eine Versicherung abgeschlossen hat, die Unterstützung garantiert. Das Gleiche gilt beim Backup, keiner sieht seine Notwendigkeit bis ein Fall eintritt, wo z.B. ein neuer Report beschädigt wird oder alle Festplatten abstürzen. Wenn kein Backup vorhanden wäre, könnte in einem solchen Fall auch kein Restore zurückgespielt werden. Falls ein Backup vorhanden ist und ein Restore in der gewünschten Zeit zurück gespielt werden kann, sind die entsprechenden Personen zufrieden (Brooks, McFarlance, Pott, Trcka & Tomaz, 2003, S. 62).

Bevor ein Datensicherungskonzept geschrieben wird, muss sich die Firma die Frage stellen, ob sie es sich leisten kann, Daten zu verlieren oder nicht. Wenn diese Frage mit JA beantwortet werden kann, muss kein Datensicherungskonzept geschrieben werden. Viele Firmen werden jedoch ein klares NEIN wiedergeben, da sich die wenigsten einen Datenverlust leisten können. Es ist sogar möglich, dass sich die Firmen nicht einmal einen Datenverlust für kurze Zeit leisten können. Somit ist es wichtig, auch einen Restore schnell und effizient wiederherzustellen zu können (Brooks, et al., 2003, S. 62).

Laut Nelson (2011) kostet ein Backup immer Geld, jedoch kostet es noch mehr wenn keines vorhanden ist und Daten verloren gehen:

A statistic that is often quoted is that 70 percent of the businesses without a strong backup and recovery infrastructure that were affected by 9/11 never reopened. Of the remaining 30 percent, almost 90 percent of them failed within 6 months. While we all hope that 9/11 was a one-time event, there are any number of catastrophes (fires, floods, tornadoes, and so on) that can have similar impacts from a business perspective. It is a small cost to the business and the people that are employed there to simply have good backups. (S. 262)

Wie Nelson noch anfügt, sollte ein Backup nicht ein Ärgernis sein, das noch erledigt werden muss, da noch nie etwas geschehen ist. Ein gutes Backup bietet Schutz für jedes Unternehmen. Heutzutage sind Informationen eines der wichtigsten Güter eines Unternehmens und dieses Gut sollte auch entsprechend geschützt sein. Je besser die Information, desto besser kann sich auch ein Unternehmen am Wettbewerb behaupten. Falls diese Informationen verloren gehen, ist es fragwürdig ob diese überhaupt wieder hergestellt werden können. „Backups provide a means by which all these functions can be completed, thus protecting critical assets within the organization“ (Nelson, 2011, S. 261).

2.3 Daten

Ohlhorst sagt, dass eine menschliche Gehirngrösse ungefähr 2.5 Pettabyte gross ist. Falls ein Gehirn so funktionieren würde wie eine Kamera im Fernsehen, dann wären 2.5 petabytes genug Platz um 3 Millionen Stunden Fernsehshows aufzunehmen. Um den ganzen Speicherplatz aufzubrauchen müsste der Fernseher die ganze Zeit laufen für mehr als 300 Jahre. Wenn man die heutige Technologie hierbei in Bezug auf Big Data vergleicht, wachsen diese Daten exponentiell (Ohlhorst, 2013, S.16).

Heutzutage werden auch im Business immer mehr Informationen bzw. Daten gebraucht. Diese Datenmengen wachsen ständig und verbrauchen immer mehr Speicherplatz. Die Daten sind immer schwieriger zu verwalten, welches ein sogenanntes Big Data erzeugt (Ohlhorst, 2013, S.16). Wie Ohlhorst (2013) feststellt haben auch diese Daten auf die Backup Strategie einen Einfluss:

„The reasons vary for the need to record such massive amounts of information. Sometimes the reason is adherence to compliance regulations, at other times it is the need to preserve transactions, and in many cases it is simply part of a backup strategy.” (S.16)

2.4 Big Data

Wie Hurwitz, Nugent, Halper & Kaufman erwähnen nimmt das Verwalten und Analysieren von Daten bei jedem Unternehmen einen immer wichtigeren Standpunkt ein. Viele Unternehmen sind in den letzten Jahren gewachsen und ihr Produktportfolio hat sich dementsprechend vergrössert. Immer mehr Kundendaten werden von jedem Unternehmen gesammelt und analysiert. Die Herausforderung dieser enormen Datenmenge ist heute, wie die Daten der einzelnen Applikationen verknüpft werden, sodass eine grosse Datenmenge zentral analysiert werden kann. Big Data ist der neuste Trend, der in die Richtung grosse Datenmengen geht (Hurwitz, Nugent, Halper & Kaufman 2013, S. 9).

K. Davis und D. Patterson sehen dies noch von einem anderen Blickwinkel aus. „At this point you might be asking: ‚Why not just any data?’“(Davis & Patterson, 2012, S.4). Die Definition: Big Data wurde auf der Grundlage der Unterschiede zwischen den Fähigkeiten von den Legacy Datenbanktechnologien, den neuen Datenspeichern und dessen Verarbeitungstechniken definiert. Denn Big Data sind zu grosse Datenmengen, das es traditionelle Datenbank Protokolle wie SQL managen könnten. Aus diesem Blickwinkel ist es nur eine neue Form von neuen Technologien. Das Volumen, die Vielfalt und die Geschwindigkeit erhöht die Komplexität exponentiell, denn für jedes Unternehmen ist es schwierig diese Daten zu verwalten bzw. zu analysieren. Das Resultat, das mit diesen neuen Daten herausgelesen werden kann, ist atemberaubend. Bereits heute leben wir in der Grösse von Exabytes und Zettabytes, bis 2025 wird erwartet, dass die Kapazität des Internet’s die Gehirnkapazität von allen lebenden Menschen überschreiten wird (David & Patterson, 2012, S. 4).

Wie sich Big Data in Bezug auf das Datenwachstum auswirkt, wird im nächsten Kapitel erläutert. Laut Ohlhorst hat Big Data einen grossen Einfluss auf das Datenwachstum, denn durch die neuen Technologien und neuen Datenquellen wachsen diese exponentiell. Die Wachstumsrate der meistens Unternehmen ist nahezu unendlich weil die meisten Unternehmen im Big Data Bereich bei null gestartet haben (Ohlhorst, 2013, S.82).

2.5 Datenwachstum

Wie im Anhang die Studie von IDC/EMC 2011 wiederlegt, wird ein Datenwachstum bis im Jahr 2015: 7.9 Zettabyte ergeben und im Jahr 2020 gar 35 Zettabyte, wobei 1/3 dieser Daten in der Cloud sein werden. Von 2012 bis 2020 sind dies ca. 4300% laut CSC (CSC, 2011). Die Autoren Drakos und Paquet von Gartner berichtet im Jahr 2010, dass die Unternehmensdaten einen Wachstum von 650% in den nächsten 5 Jahren haben werden. 80% dieser Daten werden unstrukturierte Daten sein (Drakos & Paquet, 2009, S. 8). “Technology Trends You Can’t Afford to Ignore” (Drakos & Paquet, 2009, S. 8).

Die aktuellste Studie von Dezember 2012 der IDC wiederlegt, dass das Datenwachstum von 2005 bis 2020 Faktor 300 zunimmt von 130 Exabytes bis 40'000 Exabytes. Dies entspricht rund 40 Zettabytes. Dies ergibt rund 5200 Gigabytes für jede Frau, Mann und Kind im Jahre 2020 (Gantz & Reinsel, 2012).

2.6 Traditionelle Datensicherung

Die klassische Methode seine Daten zu sichern, ist immer noch ein dediziertes Bandlaufwerk. Wald beschreibt schon 2002, dass die Tape Laufwerke einen grossen Vorteil mit sich bringen, neben der grossen Datenmenge, die auf den Magnetbänder gespeichert werden kann, lassen sich die Tapes einfach auslagern (Wald, 2002, S. 83).

2.6.1 Sicherungsmethoden

Müller beschreibt, dass sich bei einem Datensicherungskonzept die folgenden vier Themen unterscheiden lassen:

„1. Sicherungsmethoden (komplette, differenzielle, inkrementelle, selektive Datensicherung)
2. Sicherungszeitpunkt
3. Aufbewahrungsort
4. Auslagerungsverfahren“ (Müller, 2008, S. 202)

Auch beim Backup lassen sich verschiedene Sicherungsmethoden unterscheiden. Bei der kompletten Datensicherung sichert man den ganzen Datenbestand. Es ist wichtig, dass der benötigte Zeitraum für die Datensicherung zu Verfügung steht. Desweitern sollten während dieser Zeit auch die Daten nicht verändert werden, um die Inkonsistenz zu vermeiden. Der Vorteil von diesem Verfahren ist das eine komplette Wiederherstellung gefahren werden kann. Diese Sicherung braucht jedoch einen hohen Zeitbedarf (Müller, 2008, S. 203). Beim Bundesamt Datensicherungskonzept wird jedoch noch erläutert, dass der Zeitraum zwischen den Sicherungen nicht lange auseinander sein sollte. Ein Wiederherstellen der Daten sei bei einer Volldatensicherung schnell und einfach ausgeführt (BSI, 2004, S. 4).

Abbildung in dieser Leseprobe nicht enthalten.

Abbildung 1: Datensicherungsmethoden, Quelle: Darstellung entnommen aus Müller, 2008, S. 203

Für die differenzielle Datensicherung braucht es als Erstes eine komplette Datensicherung, in einem zweiten Schritt werden nur die veränderten Daten gesichert, dies ist die sogenannte Differenz zur Anfangssicherung (Müller, 2008, S. 203). Steve Nelson sieht beim differentialen Backup jedoch folgendes Problem. Ein Differentialbackup kann schnell wachsen, durch die Veränderung kann es schnell grösser sein als die komplette Datensicherung (Nelson, 2011, S. 4).

Steve Nelson (2011) gibt ein entsprechendes Beispiel:

An environment has 20 TB of data to back up. Each day 5 percent or 1 TB of data changes in the environment. Assuming that this is a traditional backup environment, if a differential backup methodology is used, the first day 1TB of data is backed up (the first day’s change rate against the previous full backup). The second day, 2 TB is backed up, and so on. By the end of 5 days, 5 TB of data is being backed up; by the end of 10 days, 10 TB might be being backed up; in 20 days, it could be a backup of 20 TB. However, this 20 TB is not necessarily representative of a full backup. If the change rate represents a mixture of new files added to the respective clients as well as changes to existing data, the cumulative data backed up will not capture data that has not changed, even though the total amount of a full backup would still only incrementally change in size.(S. 4)

Steven Nelson erläutert auch den Vorteil bei einem Restore eines Differentialbackups. Hier müssen nur zwei Restores gefahren werden, ein Full Backup und das neuste Differentialbackup. Denn es gibt nur eine Anzahl von Snaphosts, dass jedoch zwei Snapshots gleichzeitig defekt sind, hierfür ist die Wahrscheinlichkeit sehr klein (Nelson, 2011, S .4). Müller sieht den Vorteil beim Differentialbackup gegenüber dem Vollbackup, da die Folgesicherungen nach der kompletten Datensicherung um ein Vielfaches kürzer sind. Der Nachteil sieht Müller jedoch bei der Zweistufigkeit im Gegensatz zur kompletten Datensicherung (Müller, 2008, S. 203).

Laut Müller beginnt man bei der inkrementellen Datensicherung zuerst mit einer kompletten Datensicherung. Als zweiter Schritt bzw. bei der Folgesicherung werden nur die Daten gesichert, die sich bei der letzten Sicherung verändert haben. Auch die inkrementelle Datensicherung wird wie die differenzielle Datensicherung im Wochenrhytmus durchgeführt. Der Vorteil gegenüber einer kompletten Datensicherung zeichnet sich durch die kleinen Zeitfenster der Folgesicherungen aus. Der Nachteil sieht Müller bei der Rückspielung einer Datensicherung, da diese in der richtigen Reihenfolge geschehen muss. Hier muss auch die komplette Datensicherung als Grundlage genommen werden. Dies braucht somit viel Zeit und ist kompliziert, wenn es viele Tapes gibt (Müller, 2008, S. 204).

Nelson erläutert, dass die inkrementelle Datensicherung die meist genutzte Form der Datensicherung ist. Nelson vergleicht es mit dem obengenannten Beispiel. Als Erstes wird wieder eine komplette Datensicherung von 20TB durchgeführt. Am zweiten Tag wird eine weitere 1TB Datensicherung erstellt, sowie am Folgetag danach. Am achten Tag würde es wieder eine komplette Datensicherung geben. Auch Nelson sieht den Nachteil bei einer Wiederherstellung der Daten, da die komplette Datensicherung und eine inkrementelle Sicherung gebraucht werden. Steve Nelson (2011) schildert die Problematik anhand folgendem Beispiel:

Suppose that four files need to be recovered: one has not changed since the full backup, one changed the first day, one changed the second day, and one changed the third day. To complete this restore, four images—the full backup and three different incremental images—are required to retrieve all the files needed (see Figure 1–3). In addition, because the images are relative to each other, some pieces of backup software will not allow parallel restores from the related sets of backup images, so the file recovers have to occur in serial fashion, each loading and unloading its own set of images for the restore. This can have a large impact on the time required for a restore. (S. 4)

Abbildung in dieser Leseprobe nicht enthalten.

Abbildung 2: Rückspielung von mehreren Incremental Files, Quelle: Darstellung entnommen aus Nelson, 2011, S. 5

Ein weiteres Problem bei Inkrementell ist die Wahrscheinlichkeit, dass die Backup-Software einzelne Daten nicht wiederherstellen kann, weil sie verloren gegangen oder beschädigt sind. Im Gegensatz zu Müller beschreibt Nelson noch eine Alternative bezüglich inkrementellem Backup. Hier wird als Erstes eine komplette Sicherung durchgeführt. Als zweiter Schritt werden die Änderungen gesichert, beim dritten Backup wird die Differenz vom zweiten Backup an das dritte Backup übertragen. Dies ist laut Nelson eine leistungsfähige Methode. Die Schwächen liegen jedoch, wie beim inkrementellen Backup, bei der Wiederherstellung. Steve Nelson (2011) schildert die Problematik mit folgendem Beispiel:

Abbildung in dieser Leseprobe nicht enthalten.

Abbildung 3: Level-Based Backup anhand 8 Tagen, Quelle: Darstellung entnommen aus Nelson, 2011, S.6

Consider the 20 TB example once again (see Figure 1–4). This time, a level 0 backup is executed against the 20 TB data set, capturing all 20 TB of data. The next backup executed is a level 1, which captures 1 TB of backup, representing the change since level 0 (the full backup). Now the next backup is a level 2 backup, which captures only the differences between the level 1 and the current backup—likely much smaller than a comparable level 1 backup. If another level 2 backup is executed as the next backup, the differences between the current data set and the last level 1 backup are captured. This type of backup can be much smaller than a comparable set of traditional incremental backups, resulting in short backup windows. However, the weaknesses of the incremental backup are also present in the level backup and need to be taken into consideration. (S. 5)

Durch die verschiedenen Backup-Level können mehrere Versionen der einzelnen Datensätze erkannt werden. Die Backup-Software kann anhand von statischen Informationen, wie z.B. der Dateiname, bei der Wiederherstellung mehrere Versionen der Datensätze anzeigen lassen (Nelso, 2011, S. 6).

[...]

Ende der Leseprobe aus 65 Seiten

Details

Titel
eBackup versus konventionelles Backup in Bezug auf das Datenwachstum eines Terrabyte bei einer Kostenreduktion von 50%
Note
A
Autor
Jahr
2014
Seiten
65
Katalognummer
V289210
ISBN (eBook)
9783656894995
ISBN (Buch)
9783656895008
Dateigröße
1446 KB
Sprache
Deutsch
Schlagworte
eBackup, Backup, Datenwachstum, Big Data, Terrabyte
Arbeit zitieren
Sandro Eggenberger (Autor:in), 2014, eBackup versus konventionelles Backup in Bezug auf das Datenwachstum eines Terrabyte bei einer Kostenreduktion von 50%, München, GRIN Verlag, https://www.grin.com/document/289210

Kommentare

  • Noch keine Kommentare.



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden