Lade Inhalt...

Rechnerleistung aus der Dose

Verträgliche Verhältnisse und Verantwortlichkeiten des Grid-Computing skizziert

Seminararbeit 2009 28 Seiten

Jura - Medienrecht, Multimediarecht, Urheberrecht

Leseprobe

GLIEDERUNG

1 Einleitung

2 grid computing
2.1 Der Begriff des Grid Computings
2.2 Technischer Hintergrund
2.2.1 Aufbau und Bestandteile eines grids
2.2.2 Das Leistungsvermögen eines grids
2.2.3 Abgrenzung zu anderen technischen Verfahren des distributed computing
2.2.4 Zusammenfassung
2.3 Organisatorischer und ökonomischer Hintergrund
2.3.1 Einsatzfelder und Anwendungsbeispiele
2.3.1.1 Anwendungen mit großen Datenmengen und sich wiederholenden Berechnungsvorgängen
2.3.1.2 Cloud computing
2.3.2 Beteiligte Akteure
2.3.2.1 Endbenutzer
2.3.2.2 Grid-Dienstleister
2.3.2.3 Rechnerbetreiber (Kapazitätsbereitsteller)
2.3.2.4 Denkmögliche Alternativen
2.3.3 Geschäftsmodelle und ökonomische Anreize
2.3.4 Zusammenfassung
2.4 Zusammenfassung

3 Rechtliche Beurteilung
3.1 Vertragliche Verhältnisse, Verantwortlichkeiten und Interessen
3.1.1 Vertragliche Verhältnisse zwischen den Akteuren und jeweiligen Interessen
3.1.2 Vertragliche Bindung bei Unentgeltlichkeit
3.2 Vertragsinhalte
3.2.1 Vertragsinhalt und Vertragsart bzgl. der GRID-Leistung
3.2.2 Vertragsinhalt und Vertragsart bzgl. der Kapazitäts-Einräumung
3.2.3 Vertragsgüter I.T.-Ressourcen und grid; Leistungspflichten & Mängelrecht
3.2.4 Schutz- und andere Nebenpflichten
3.3 Anzuwendendes Recht
3.4 Weitere Rechtliche Implikationen

4 Zusammenfassung: Grid Computing Vertragsrechtlich skizziert

5 Ausblick

1 Einleitung

Geschwindigkeit fasziniert. Im Bereich der Personalcomputer ist dieses an übertakteten, teils abenteuerlich gekühlten Rechnern[1] erkennbar – oder auch an speziellen Plattformen mit Mehrkern-C.P.U.s und -G.P.U.s.[2] Ferner lassen sich im Bereich des Schachs Meldungen über Spezialrechner registrieren, welche eine immer größere Anzahl an Zugvarianten vorausberechnen können und mit Großmeistern erfolgreich konkurrieren.[3] Auf noch höherer Ebene übertreffen sich beständig Forschungseinrichtungen[4] mit Supercomputern (high performance computers), räumlich große Areale füllend, beim Wettstreit um Einzug und Positionierung in den Bestenlisten solch gewaltiger Rechenanlagen.[5]

Der Bedarf nach der enormen Rechenleistung solcher Terraflop-Boliden ist vielfältig. Die Berechnung von C.G.I.-Filmen wie „Toy Story“[6] oder -filmteilen wie etwa bei „Jurassic Park“[7] bedurfte immenser Zeit und Leistung. Auch die Entschlüsselung des menschlichen Genoms bedurfte langwieriger Berechnungstätigkeit.[8] Ein anderes prominentes Beispiel für enormen Leistungshunger ist das SETI-Programm: die Analyse extraterrestrischer Signale nach Zeichen dortiger Intelligenz.[9] Juristen (alb)träumen seit über einem Jahrhundert von Urteile findenden Subsumtionsautomaten oder aber streben im Rahmen der Rechtsinformatik nach der Automatisierung des Rechts. In Adams´ Kult-Science-Fiction-Roman „The Hitchhiker’s Guide to the Galaxy“ werden gewaltige Computer konstruiert, um die Frage nach dem Sinn des Lebens[10] endlich zu beantworten.[11] Neben Forschungsprojekten ergeben sich auch in der Hochfinanz reale Anwendungsmöglichkeiten für gewaltige Rechenkapazitäten.[12]

Zwischen GOOGLE und MICROSOFT kündigt sich derzeitig ein Duell in einem weiteren Sektor nach den Suchmaschinen an: Beide Unternehmen wollen ihr Engagement im cloud computing verstärken.[13] Clouds erlauben zahlreiche leistungsstarke, virtuelle Systeme zur Realisierung umfassender Anwendungen über beinahe beliebige Endgeräte.[14]

All dieses sind Beispiele besonders umfassender Rechenaufgaben. Nun können umfassende Rechenoperationen nicht bloß von einem einzelnen oder wenigen besonders leistungsfähigen Rechnern durchgeführt werden, sondern womöglich auch von Zusammenschlüssen ganzer Scharen einfacher, auch handels- wie heimüblicher Systeme. Einen Beitrag zu einem solchen großen Rechennetz könnten womöglich auch ein nicht ausgelastetes, modernes Mobiltelephon oder andere Handgeräte leisten.[15] Derartige Computerzusammenschaltungen werden als computer grids bezeichnet.

Dieser Aufsatz stellt des grid computing (G.C.), welches auf derartig zusammengeschalteten Computern basiert, vor. Dafür ist es zunächst unerlässlich, Begriff (2.1) und das dienende technologische Konzept (abgrenzend) zu erläutern (2.2). Im Anschluss daran werden wirtschaftliche[16] Nutzungskonzepte und Anwendungsmöglichkeiten dargestellt (2.3).

Diese sind abschließend rechtlich zu würdigen; und zwar schwerpunktmäßig aus vertragsrechtlicher Perspektive. Dieses erfolgt anhand der typischen Nutzungsmodelle bezogen auf die beteiligten Akteure; exkursiv wird auf Aspekte des internationalen Privatrechts sowie urheberrechtliche Aspekte einzugehen sein (3.). Der letzten Zusammenfassung (4.) folgt ein Ausblick auf aktuelle und mögliche Entwicklungen (5.).

2 grid computing

2.1 Der Begriff des Grid Computings

Der Begriff grid computing ist Folge des Gedankens, benötigte Rechenkapazität wie Strom aus der Steckdose bzw. dem Stromnetz (electrical power grid) beziehen zu können[17]: Sollte es für bestimmte Aufgaben oder Anwendungen an Kapazität fehlen, soll auf einfache Art und Weise zusätzliche hinzugewonnen werden. Der Begriff ist auf Foster und Kesselman zurückzuführen, die allerdings zwei unterschiedliche Definitionen formulierten – daneben existieren weitere Versuche des exakten Definierens.[18]

2.2 Technischer Hintergrund

2.2.1 Aufbau und Bestandteile eines grids

Ein solch bildsprachlicher Begriff bietet auch allein noch keine genaue Definition der zu Grunde liegenden technischen Verfahren[19], wofür es zudem an einer verbindlichen Normung fehlt. Der Begriff bedingt daher verschiedene Deutungs- bzw. Verständnisvarianten.[20] Allgemein anerkannt ist, dass (ungenutzte) Rechnerkapazitäten, also Rechenleistung als auch Speicherkapazität, zusammengeschaltet und zur Verfügung gestellt werden. Es können dadurch ferne Ressourcen, ggf. sogar Spezialhardware oder auch Software, nutzbar gemacht werden. Dieses wird durch eine middleware (etwa Boinc oder auch Unicore oder gLite[21] ) bewerkstelligt; ein Programm auf den dienenden informationstechnischen Systemen, das über eine Schnittstelle organisiert wird und einem anderen System bzw. dem Netz diese Ressource zur Verfügung stellt.[22] Der Aufenthaltsort der dienenden Systeme ist unerheblich, sie müssen lediglich mit dem jeweiligen Netzwerk verbunden sein; diese Systeme können auch von unterschiedlichen Organisationen administriert[23] werden und heterogen auch bezogen auf ihre technische Art und Ausgestaltung ausgeprägt[24] sein.[25]

2.2.2 Das Leistungsvermögen eines grids

Ein solches grid -Netz, also ein Zusammenschluss dienender Systeme, stellt große Ressourcen zusammen bzw. zur Verfügung. Aufgrund der typischen räumlichen Verteilung[26], resultierender Übertragungs- und entsprechender Latenzzeiten folgt daraus jedoch kein Superrechner im Sinne des high performance computings: das grid ist keine singuläre Hochleistungsmaschine. Dies ist dadurch bedingt, dass die Verteilungsoperationen, die Synchronisierung usf. überaus rechenintensiv sind.[27] Vielmehr ist das erschlossene Rechnernetz nur befähigt, teilbare Aufgaben (in großer Anzahl) (parallel) zu bearbeiten.[28] Die theoretische, addierte Rechenleistung kann aber mit Supercomputern konkurrieren und wäre daher bei genannter Aufgabenart wettbewerbsfähig.[29] Denkbar wäre es letztlich auch, Supercomputer zusammenzuschalten, aber das Ergebnis wäre dann auch weniger als die „Summe der Teile“.

2.2.3 Abgrenzung zu anderen technischen Verfahren des distributed computing

Mit dem umfassenden Oberbegriff des Verteilten Rechnens bzw. distributed computings[30] werden neben grid computing auch p(eer)2p(eer), meta-computing, cloud computing, cluster computing und weitere verbunden[31], aber oftmals auch nicht abgegrenzt.[32] Mit p2p computing etwa beschreibt man ebenfalls die Verteilung von Rechenoperationen auf eine Vielzahl an Rechnern, allerdings soll es sich vom verwandten grid computing darin unterscheiden, dass es auf einer herkömmlichen server / client -Architektur beruhe.[33] Cloud computing schließt Virtualisierung ein[34], wobei diese Virtualisierung auch in bzw. über grids realisiert werden kann. Solche clouds erlauben eine große Art und Anzahl services.[35]

2.2.4 Zusammenfassung

Es ist wohl den plastischen Begriffen geschuldet, dass der des G.C. nicht einheitlich verwendet wird. In jedem Fall handelt es sich dabei um eine Art des Verteilten Rechnens. Es werden ergo Systeme über eine middleware zusammengeschaltet[36] – dabei ist die hardware oftmals unterschiedlich, räumlich verteilt d. h. in Distanz zueinander, deswegen über ein Rechnernetz verbunden, und in größerer Stückzahl vorhanden.[37]

2.3 Organisatorischer und ökonomischer Hintergrund

Die technischen Eigenheiten bedingen ein begrenztes Einsatzgebiet für grid computing: die Aufgabe muss demnach, also dem dargestellten Leistungsprofil folgend, informationstechnisch sinnvoll[38] aufteilbar sein.

Ökonomisch motiviert kann G.C. dann sein, wenn der Inanspruchnehmende kein permanentes Interesse an der Rechenkapazität hat, sondern nur ad hoc (größere) Aufgaben zu kalkulieren hat. Aber auch allgemeines Interesse an outsourcing kann bewegen, nicht solche Kapazitäten selbst aufzubauen, sondern „einzukaufen“. Wird Software vermittelt, können neben hardware und Energie auch noch Lizenzgebühren eingespart werden. Insgesamt wird Verteiltes Rechnen als günstige Möglichkeit verstanden, an (bedarfsgerechte) Rechenkapazität zu gelangen.[39]

2.3.1 Einsatzfelder und Anwendungsbeispiele

2.3.1.1 Anwendungen mit großen Datenmengen und sich wiederholenden Berechnungsvorgängen

Umfassende, aber auch teilbare Aufgaben lassen sich zuhauf im wissenschaftlichen Kontext finden.[40] Am Beispiel des large hadron colider (L.H.C.), also Experimenten zur Teilchenphysik, lässt sich aufzeigen, welche großen Datenmassen anfallen und verteilt verarbeitet werden: es wird stets eine sehr große Zahl einfacher Datensätze zur Berechnung versendet.[41] Dieses gilt auch für die Projekte Seti(-) oder Einstein@home. Mittels der verbreiteten, bloß beispielhaft zu listenden middleware Boinc kann sich an einer Vielzahl wissenschaftlicher Projekte beteiligt werden.

[...]


[1] Das sog. cooling.

[2] So etwa Intels Skulltrail-Plattform als extremes Beispiel neben der allgemeinen Entwicklung zu Mehrkernsystemen – darstellend: Windeck [http://www.heise.de/newsticker/Intel-Skulltrail-2-CPUs-8-Kerne-4-GPUs-1400-Watt--/meldung/103097 ].

[3] Etwa Pfleger [ http://www.zeit.de/2005/16/Spielen_2fSchach_16 ]; dpa [http://www.welt.de/sport/article159818/Kramnik_erfolgreichster_Spieler_der_Gegenwart.html ] ; Bremer [http://www.heise.de/newsticker/Computerschach-Grossmeister-von-Hydra-deklassiert--/meldung/61127 ].

[4] So auch der Hochleistungsrechner Nord des RRZN in Hannover und weiterer norddeutscher Forschungseinrichtungen [ http://www.rrzn.uni-hannover.de/hochleistungsrechnen.html ].

[5] [ http://www.top500.org/ ].

[6] [ http://de.wikipedia.org/wiki/Toy_Story ].

[7] [ http://de.wikipedia.org/wiki/Jurassic_Park ].

[8] [ http://de.wikipedia.org/wiki/Humangenomprojekt ].

[9] [ http://de.wikipedia.org/wiki/SETI@home ], [http://de.wikipedia.org/wiki/Search_for_Extraterrestrial_Intelligence ].

[10] „The Ultimate Question of Life, the Universe, and Everything“, also die Antwort auf die Frage „auf das Leben“, „das Universum“, „auf alles“: Adams 2004, S. 163.

[11] Als unbefriedigend wurde jedenfalls das erste Ergebnis in Gestalt einer schlichten 42 (Adams 2004, S. 172) empfunden, das der gewaltiger Rechner namens Deep Thought nach siebeneinhalb Millionen Jahren ausgab (Adams 2004, S. 166). Der zweite Supercomputer, welcher die richtige Antwort bzw. Frage (vgl. Adams 2004, S. 173) zu dieser Zahl berechnen sollte, umfasste einen Planeten und bediente sich bei der Rechenaufgabe der Kapazitäten aller Bewohner bzw. wurde durch diesen gesamten Planeten gebildet. Interessanterweise enthält das Buch dadurch auch eine Form des distributed computing: „Also war dein Gehirn ein organischer Bestandteil des vorletzten Stadiums des Computerprogramms“ (Adams 2004, S. 190). Wenn auch aus dem Roman nicht hervorgeht, ob einzelne Teile in diesem Gehirn berechnet werden sollten, so setzte sich die („)Computermatrix(“) doch zumindest aus unterschiedlichen Gehirnen zusammen.

(Dieser zweite Computer wurde von jenem, der die 42 ausgab, bereits vorausgesehen als jener, der nach ihm kommen werde [ Adams 2004, S. 162].)

[12] Koch CR 2006, S. 43: „prädikative what if-Finanzplanungen“.

[13] Lindner FAZ 253/2008.

[14] [ http://de.wikipedia.org/wiki/Cloud_Computing ].

[15] Auf denen bereits standardisierte, wenn auch angepasste Betriebssysteme wie etwa Windows (Mobile) funktionieren. Und die bereits von Prozessoren mit bis zu 1 GHz Taktfrequenz betrieben werden: Crothers / Beiersmann [ http://www.zdnet.de/news/hardware/0,39023109,41000016,00.htm ]. Allerdings sind solche Geräte – auch aufgrund der Kosten im TK-Bereich – nicht beständig mit dem Internet verbunden. Die zu berechnenden Aufgaben bzw. die berechneten Ergebnisse könnten aber in diesen Zeiten übermittelt werden.

[16] Dies ist als Hinweis zu nutzen, dass G.C. nicht lediglich technisch verstanden wird, sondern in einer entwickelten Definition auch eine ökomische oder zumindest organisatorische Komponente erhält.

[17] Baun c´t 21/2008, S. 133; Söbbing MMR 5/2008, S. XIII.

[18] Darstellend und mit Originalzitaten sowie Übersetzung: [ http://de.wikipedia.org/wiki/Grid_computing ]. Nach Foster s letzter Definition seien heterogen organisierte Systeme über offene Schnittstellen zur Realisierung „nicht-trivialer Dienstgüter“ notwendig (2002, S. 2 f.).

[19] Foster selbst erkannte daher „the need for a clear definition“ (2002, S. 1).

[20] Berlich c´t 21/2008, S. 135.

[21] Baun c´t 21/2008, S. 133.

[22] Baun c´t 21/2008, S. 133; Koch CR 2006, S. 43.

[23] Technisch bedeutet dieses, dass sie insoweit autonom d. h. nicht vom grid beeinflussbar sind. Über Umfang der technischen Zugriffsmöglichkeiten entscheidet diese (lokale) Instanz.

[24] Es sind verschiedene Systeme wie IBM-kompatible, Macintosh oder auch Playstation3 kombinierbar, sofern die jeweilige middleware das bzw. ein darauf (ggf. über Emulatoren) lauffähiges Betriebssystem unterstützt.

[25] Baun c´t 21/2008, S. 133.

[26] Eine nennenswerte Ausnahme von dieser Regel ist der zuvor erwähnte HLRN, bei welchem zwei Supercomputer – einer in Hannover, der andere in Berlin – über eine dezidierte Glasfaserleitung (der sog. HLRN-Link) verbunden werden, s. [ https://www.hlrn.de/home/view/Organisation/AboutHlrn?section=de ].

[27] Vgl. Lau c´t 21/2008, S. 141: „Der Aufwand fürs Rechnen sollte den für die Datenübertragung [Anm. d. Verfassers: einschl. der Parallelisierens] deutlich übersteigen.“

[28] Vgl. Berlich c´t 21/2008, S. 136; Lau c´t 21/2008, S. 140. Koch CR 2006, S. 43.

[29] Lau c´t 21/2008, S. 140: Demnach erreicht Boinc mit ca. 560 000 Computern sogar größere Leistung (= 1200 Terraflops) als ein IBM „Roadrunner“ mit 122 400 Kernen (= 1000 Terraflops).

[30] [ http://de.wikipedia.org/wiki/Verteiltes_Rechnen ].

[31] Baun c´t 21/2008, S. 132.

[32] Nicht differenzierend: Koch CR 2006, S. 43 ff.

[33] Baun c´t 21/2008, S. 133; Lau c´t 21/2008, S. 140 ff.; [ http://de.wikipedia.org/wiki/Grid-Computing#Definition ] ; [ http://www.gi-ev.de/no_cache/service/informatiklexikon/informatiklexikon-detailansicht/meldung/grid-computing-44.html ] ; [ http://www.gridcomputing.com/gridfaq.html ]

[34] Baun c´t 21/2008, S. 133.

[35] [ http://de.wikipedia.org/wiki/Cloud_Computing ]. S. dazu noch unter 2.3.1.2.

[36] Was als notwendige Bedingungen verstanden werden kann.

[37] Abgesehen von der Zusammenschaltung einzelner Systeme handelt es sich dabei um hinreichende, somit nicht notwendige Bedingungen – oder eben um Faktoren zur Bestimmung nach typologischen Aspekten.

[38] Aufteilbar im Sinne von verteilbar; sinnvoll insofern, als dass die Verteilung und die Verzögerung nicht die Prozesse derartig verlangsamen, dass der Zugewinn durch die zusätzlichen Rechenkapazitäten nicht aufgewogen werden.

[39] Baun c´t 21/2008, S. 132; [ http://de.wikipedia.org/wiki/Verteiltes_Rechnen ].

[40] Berlich c´t 21/2008, S. 139.

[41] Stiller c´t 21/2008, S. 130; Berlich c´t 21/2008, S. 135.

Autor

Teilen

Zurück

Titel: Rechnerleistung aus der Dose