Lade Inhalt...

Algorithmische Personalisierungen vom Täter- zum Kundenprofil? Eine genealogische Untersuchung am Fallbeispiel Netflix

Hausarbeit 2016 26 Seiten

Medien / Kommunikation - Mediengeschichte

Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Ethnografischer Einstieg

3. Zum Begriff des Algorithmus
3.1. Assoziierungen, Analogien und Metaphern
3.2. Informationstheoretische Definition
3.3. Black Box
3.4. Kräfteverhältnis

4. Der Kunde vor dem Hintergrund der Kriminalistik
4.1. Profiling: Täterprofil als Vorstufe des Kundenprofils
4.2. Rasterfahndung als Vorstufe der algorithmischen Personalisierung

5. Fallbeispiel Netflix

6. Fazit

1. Einleitung

Bei Betrachtung der digitalen Gegenwart fällt ein Phänomen gehäuft auf: Algorithmische Per­sonalisierungen. Sei es der anfangs chronologisch dargestellte und heute personalisierte News- feed von Facebook, die 2009 eingeführte personalisierte Google-Suche oder die Vorschläge von Netflix und Spotify - sie alle operieren mit Algorithmen, die der Personalisierung von ausgespielten Inhalten dienen. Grundlage ist meist ein erfasstes Kundenprofil, welches von den jeweiligen Institutionen dazu verwendet wird, um auf Nutzerseite individuell abgestimmte Empfehlungen auszusprechen. Dies reicht von Kaufempfehlungen (Amazon) bis hin zum Vor­schlag des potentiellen Partners (Parship). Genealogisch betrachtet stellt sich die Forschungs­frage, inwieweit Kundenprofile und algorithmische Personalisierungen nicht auch eine Vor­stufe des Profilings und der Rasterfahndung darstellen.

Ohnehin handelt es sich bei algorithmischen Personalisierungen schon um ein kontrovers dis­kutiertes Thema: Während es für die einen Komfort und Filterung vor irrelevanten Informatio­nen bedeutet, stellt es für die anderen eine „Filterblase“ oder „Echokammer“ dar. Doch inwie­fern sind diese heutigen Zuschreibungen, Analogien, Metaphern und Assoziierungen zutref­fend, auch hinsichtlich des häufig attestierten Black Box Charakters? Im Verlauf der Arbeit gilt es ebenso das Verständnis algorithmischer Personalisierungen genealogisch zu untersuchen als auch die Frage, inwieweit Algorithmen ein Phänomen der digitalen Gegenwart darstellen. Doch anstatt hierbei nach einem Ursprung oder einer kontinuierlichen Entwicklung für die heutigen algorithmischen Personalisierungen zu suchen und diese linear nachzuerzählen, sollen stattdes- sen die Brüche, Diskontinuitäten, Zufälle und Einzelheiten herausgearbeitet werden. Eine ge­nealogische Untersuchung des Algorithmus ist auch deshalb interessant, weil die Genealogie genau das sucht, was der Algorithmus angeblich abgeschafft haben soll: Zufälligkeiten. Als Fallbeispiel hierfür dient das mit einem Empfehlungssystem operierende Unternehmen Netflix, bei dem die vorausgegangenen Ergebnisse zusammengeführt und im Fazit reflektiert aufgegrif­fen werden sollen. Die methodische Vorgehensweise erfolgt dabei in Anlehnung an Nietzsche mithilfe eines „historischen Sinns“[1], indem die Ausarbeitung bewusst aus der eigenen kultur­wissenschaftlichen Sichtweise und der Disposition eines Digital Natives formuliert wird, wo­raus zugleich eine perspektivische Ungerechtigkeit entsteht, was jedoch insoweit einen Vorteil darstellt, als es gerade das Reflexivwerden einer erkenntniskritischen Auseinandersetzung er­möglicht.

2. Ethnografischer Einstieg

Aus genealogischer Perspektive lassen sich ähnlich wie bei dem Internet für die algorithmische Personalisierung nicht die eine konkrete Geburtsstunde, sondern viele Meilensteine ausfindig machen - je nachdem, ob man auf die funktionelle, gesellschaftssoziologische oder anwender­technische Betrachtungsweise abstellt.

Von unserem heutigen Zeitpunkt und einer gesellschaftssoziologischen Perspektive ausgehend, ist unsere heutige Gesellschaft geprägt von Kontingenz. Folgt man Soziologen, Philosophen und anderen großen Geisteswissenschaftlern wie Koselleck[2], Luhmann[3] und Foucault[4] ist die moderne Gesellschaft von der Kontingenz sowohl gepeinigt als auch fasziniert. Einerseits führt die immer unbestimmter werdende Freiheit des Möglichen zu einer Vielzahl an möglichen Op­tionen. Andererseits führt diese Offenheit zu einer gewissen Unsicherheit, und gleichzeitig stel­len die an die prinzipielle Offenheit geknüpften unvorhersehbaren Zufälligkeiten eine gewisse Bedrohung dar. Folgt man dem österreichischem Autor und Medienmanager Rudi Klausnitzer, haben die Algorithmen diese Zufälligkeiten beseitigt.[5] Auch die Soziologin Lorraine Daston konstatiert, dass die in der Kontingenz implementierte Unsicherheit durch die Rationalisierung der für Vernunft sorgenden Regeln der Algorithmen ersetzt wurde.[6] Nach Auffassung der So­ziologin Elena Esposito ist dies genealogisch betrachtet jedoch kein neues Phänomen. Bereits Ende des 17. Jahrhunderts setzte die Entwicklung des Wahrscheinlichkeitskalküls und der Sta­tistik ein, was nach Esposito darauf hindeutet, dass schon im 17. Jahrhundert versucht wurde, mit der expandierenden Unsicherheit der modernen Gesellschaft rational umzusehen.[7]

Stellt man hingegen die Funktionsweise der algorithmischen Personalisierung ins Zentrum der Betrachtung in Form des automatisierten Datenabgleichs, ließen sich die 1970er Jahre anfüh­ren. Hier wurde bei der Suche nach Mitgliedern der RAF mit der sogenannten „Rasterfahn­dung“ ein automatisierter Abgleich zuvor festgelegter Merkmale zwischen öffentlichen und privaten Datenbeständen durchgeführt, um anschließend eine Schnittmenge zu generieren.

Legt man stattdessen der algorithmischen Personalisierung die anwendertechnische Betrach­tungsweise zugrunde und geht von den vermeintlichen Mehrwerten für das personalisierte Sub­jekt aus, spielen die 1990er Jahre eine entscheidende Rolle. 1995 publizierte Nicholas Neg- roponte, Gründer und langjähriger Leiter des Media Lab am Massachusetts Institute of Tech­nology (MIT), das Buch „Being Digital“, in welchem er die Idee einer personalisierten Zeitung beschrieb. Das von ihm niedergeschriebene Konzept, welches er „Daily Me“[8] nannte, sollte jedem Leser eine eigene, individuell auf seine Interessen zugeschnittene Zeitung liefern. Was in der damaligen vergleichsweisen jungen digitalen Gegenwart als revolutionär galt und eupho­risch gefeiert wurde, ist heute in Form von algorithmischen Personalisierungen Alltag gewor­den. Doch im Gegensatz zum 1995 formulierten Zeitungs-Konzept, sind die Personalisierungen für den Nutzer heute weder sicht- noch bemerkbar, sodass auch die einstige Euphorie zuneh­mend in Skepsis umschlägt.

3. Zum Begriff des Algorithmus

3.1. Assoziierungen, Analogien und Metaphern

Ähnlich zweischneidig wie die Kontingenz, die sowohl Faszination als auch Bedrohlichkeit in der Gesellschaft evoziert, verhält es sich mit der Bewertung des Algorithmus, die sich heute zwischen Hype und Hysterie[9] bewegt.

War der Begriff des Algorithmus, der vornehmlich aus der Mathematik und Informatik bekannt ist, früher noch „ein unschuldiges, ein bisschen langweiliges Wort“, taucht er heute in den Me­dien auf, „wenn jemand sagen wollte, dass da etwas Kompliziertes in einem Computer vorging, was man aus Rücksicht auf den Leser jetzt nicht so genau erklären mochte“[10]. Demnach wird der Begriff des Algorithmus auf der einen Seite mystifiziert und auf der anderen Seite als Lü­ckenbüßer verwendet, wenn es darum geht, scheinbar komplizierte Sachverhalte zu umschrei­ben oder sich die Wunder der digitalen Gegenwart zu erklären. Daher ist es kaum verwunder­lich, dass der Begriff im öffentlichen Diskurs einen fast nahezu transzendenten Status erreicht hat. Zur Verdeutlichung dieser medialen und gesellschaftlichen hyperbolischen Mystifizierung rief Ian Bogost 2015 zu seinem Gedankenexperiment auf: Sobald der Begriff „Algorithmus“ fällt, solle man diesen durch das Wort „Gott“ ersetzen und sich fragen, ob sich etwas an der Bedeutung des Satzes ändere.[11] Bogost versucht damit zu verdeutlichen, dass die Algorithmen im 21. Jahrhundert die Macht übernommen haben, die religiöse Menschen sonst einer überna­türlichen Kraft zuschreiben. Ähnlich verhält es sich laut Bogost mit Big Data, dessen Begriff gleichermaßen theologisiert wird und daran anknüpfend Informationen nahezu auf die Ebene der himmlischen Unendlichkeit erhöht.[12]

Allgemein wird der Begriff des Algorithmus häufig im Zusammenhang mit Big Data[13] und Künstlicher Intelligenz[14] gebraucht, und ähnlich wie der facettenreich konnotierte Big Data Be­griff, sorgt auch der des Algorithmus für unterschiedliche Assoziationen. Wo der Algorithmus für die einen eine Art goldenes Kalb personifiziert, suggeriert er für die anderen eine potentiell algorithmische Bedrohung. Die „Macht des Algorithmus“[15] wird von den einen mit Staunen vernommen, die anderen fürchten sich wiederum vor ihr, wobei diese Stränge manchmal sogar zusammenlaufen, wenn etwa der Algorithmus als „undurchschaubare, orakelhafte“[16] Macht be­schrieben wird.

Weniger spektakulär verhält es sich hingegen mit der häufig - sowohl im öffentlichen Diskurs als auch von wissenschaftlicher Seite aus - angeführten Analogie des Kochrezeptes[17] oder der Rezeptur[18]. Ein Rezept sei nichts anderes als eine Anleitung, die ebenso wie ein Algorithmus als „eine Reihe von Vorschriften, bei der jeder Schritt eindeutig definiert ist“[19], zu verstehen sei. Der Wissenschaftsredakteur und studierte Mathematiker Christoph Drösser sieht in dieser „Idiotensicherheit [...] das Wesen jedes Algorithmus“, der „im Idealfall keinen Raum für Inter- pretationen“[20] offenlässt, was sich an die von Klausnitzer attestierte Beseitigung des Zufalls anschließt.[21] Für den Algorithmus ist jederzeit klar definiert, welche Anweisungen es zu befol­gen gilt, sodass sich am Ende immer das gleiche Gericht ergibt.

Diese so häufig gewählte Analogie ist jedoch nicht ganz zutreffend, da ein Kochrezept viele selbstverständliche Handlungen, wie etwa das Anschalten des Herds oder das Drehen des Salz­streuers, in der Regel nicht enthält, wohingegen bei einem Algorithmus diese Anweisungen peinlichst genau expliziert werden müssten. Hinzu kommt, dass Algorithmen Muster erkennen und abgleichen können, wie etwa, dass zwei Zutaten des Kochrezepts geschmacklich nicht wirklich harmonieren. Ein niedergeschriebenes Kochrezept enthält hingegen immer die gleiche Abfolge und bietet überhaupt nicht die Möglichkeit einer Mustererkennung.

Abseits dieser Assoziierungen, Metaphern und Analogien, wird bei dem Versuch der Definition der algorithmischen Personalisierung meist entweder eine informationstheoretische Definition zugrunde gelegt oder als „Black Box“ beschrieben.[22] Beides gilt es im Folgenden näher zu untersuchen.

3.2. Informationstheoretische Definition

Aus informationstheoretischer Perspektive ist das Konzept des Algorithmus trivial. Häufig wird hierbei die klassische Definition des Knuth-Morris-Pratt-Algorithmus von Donald Ervin Knuth angeführt, nach der ein Algorithmus beschrieben wird als „a finite set of rules which gives a sequence of operations for solving a specific type of problem“[23]. Oftmals folgen noch Weiter­führungen zu grundlegenden Arbeiten von Mathematikern wie Turing, von Neumann oder Church,[24] sodass dieser und vielen weiteren informationstheoretischen Definitionen in der Re­gel ein mechanistisches Verständnis zugrunde liegt. Demnach handelt es sich bei einem Algo­rithmus lediglich um ein Berechnungsverfahren, welches aus einer endlichen Folge von ein­deutig ausführbaren Anweisungen besteht, die bei gleichen Voraussetzungen immer das gleiche Ergebnis liefern.

3.3. Black Box

Der vermeintlich blackboxartige Charakter des Algorithmus zeigt sich insbesondere darin, dass große Unternehmen wie Google, Facebook oder Amazon ihre Algorithmen zur spezifischen Personalisierung ihrer Angebote für die Außenwelt verdeckt halten, was auf der Nutzerseite sowohl die „Furcht vor unsichtbaren technischen Vorgängen“[25] evoziert als auch die Forderung nach mehr Transparenz, Fairness, Serendipität[26] und eine „Ethik der Algorithmen“[27].

In Anlehnung an das angeführte informationstheoretische Verständnis wird davon ausgegan­gen, dass Algorithmen ausschließlich mechanistischen Anweisungen folgen. Wären diese An­weisungen transparent, so die Annahme und Forderung, könnte der Macht von Algorithmen entgegengewirkt werden. Nach dem Dekan des Instituts für Computerwissenschaft an der Car­negie Mellon Universität Andrew Moore würden jedoch „die Menschen überschätzen, inwie­weit IT-Firmen verstehen, wie ihre eigenen Systeme arbeiten“[28]. Auch laut des Netzwerk-Ak­tivisten Eli Pariser seien mit der steigenden Komplexität der Algorithmen tatsächlich selbst die Programmierer oftmals nicht mehr in der Lage, die genaue Funktionsweise ihrer selbst pro­grammierten Algorithmen zu durchblicken.[29] Pariser zitiert den Google-Mitarbeiter Danny Sul­livan, nachdem selbst „wenn man die Mechanik offenlegte, man es immer noch nicht verstehen [würde]“[30].

Aufgrund der zunehmenden algorithmischen Vielschichtigkeit auch hinsichtlich der Personali- sierung und den sich dadurch für Unternehmen ergebenden neuen Möglichkeiten, die dem Nut­zer verborgen bleiben, verschärft sich auf Seiten der Nutzer nicht nur Furcht vor Verschleie­rungspraktiken. Die Sorgen und Befürchtungen reichen dabei von einer unfreiwilligen Bevor­mundung und Manipulation[31] über Datenspionage und Verletzung der Privatsphäre[32] bis hin zur Totalüberwachung.[33] Einer der bekanntesten Kritiker gegenüber algorithmischen Persona­lisierungen ist Eli Pariser, der 2011 den Begriff der „Filterblase“ prägte. In seinem gleichnami­gen Buch weist Pariser darauf hin, dass die Mechanismen algorithmischer Personalisierung dazu führen können, dass Nutzer nur noch mit ihrer eigenen Sichtweise konfrontiert werden.[34]

Doch schon Jahre vor solchen Warnungen, kam es im Zuge der von Nicholas Negroponte ge­äußerten Idee der personalisierten Zeitung „Daily me“ zu einer Debatte über die möglichen Gefahren einer einseitigen Berichterstattung, die 2001 in dem Buch „Republic.com“ des Har­vard-Juristen Cass Sunstein ihren Höhepunkt fand. Sunstein war der Meinung, dass „unplan- ned, unanticipated encounters are central to democravy itself“[35]. In dem Buch beschrieb Sun- stein zugleich das Phänomen des „Informationskokon“ bzw. der „Echokammer“[36], welches vom US-amerikanischen Journalisten David Weinberger 2004 erneut aufgegriffen wurde.[37] Die „Echokammer“ fußt dabei auf dem Phänomen, dass sich Menschen gerne mit anderen umge­ben, die die gleichen oder zumindest ähnliche Standpunkte oder gar Weltanschauungen teilen. Bezogen auf die digitale Sphäre, würden demnach einige Menschen dazu tendieren, sich vor allem in Online-Foren und Communities aufzuhalten, in denen die Mitglieder die eigenen An­sichten vertreten, mit der Folge, dass stets das eigene Echo gehört wird. Dies bürge die Gefahr, dass sich der eigene Blickwinkel dahingehend verenge, dass nur noch die eigene Sichtweise als valide empfunden werde, auch aufgrund der scheinbar mehrheitlichen Zustimmung.

Genealogisch betrachtet ist dies jedoch kein Phänomen der digitalen Gegenwart: Schon bei der Wahl der Zeitung - konservativliberale FAZ, konservative Welt oder linksliberale Süddeutsche Zeitung - vollzieht sich gleichermaßen eine Personalisierung in der Art, dass oftmals das Me­dium ausgesucht und konsumiert wird, welches den eigenen Einstellungen entspricht und diese zugleich widerspiegelt und bestätigt. Neu ist jedoch der Grad dieser Spiegelung, da die auf Algorithmen gestützte Personalisierung deutlich individueller und engmaschiger ausfällt. An­führen ließe sich drüber hinaus, dass der Konsument bei der algorithmischen Personalisierung nicht selbst entscheiden darf, auf welche Inhalte er verzichten möchte und obendrein nicht ein­mal weiß, welche Informationen ihm vorenthalten werden. Für Pariser sind es damit heute die Algorithmen, die im Verborgenen als die „neuen filternden Gatekeeper“[38] fungieren und den Informationsfluss regulieren.

Im Unterschied zu Netz-Kritikern wie Pariser, sind andere hingegen gerade darum bemüht, den Algorithmen zugeschriebenen Charakter der Black Box aufzulösen und dahingehend zu einem Perspektivwechsel aufzurufen, indem sie darauf aufmerksam machen, dass Algorithmen ebenso jenseits von großen Unternehmen bestehen und längst Bestandteil unseres Alltags sind, da sie nicht zwangsläufig an Computer gebunden oder nur durch sie möglich sind.[39] Anders als Pariser, schauen sie in die Black Box, in dem Sinne, dass sie zumindest bei dem Verständnis von Algorithmen versuchen, zu einer Entmystifizierung beizutragen.

Dazu gehört auch, darauf aufmerksam zu machen, dass Algorithmen von ihrer Grundstruktur her völlig klar sind. Nach Bolz ist der Algorithmus sogar „das genaue Gegenteil der Black Box“[40].

[...]


[1] Vgl. Foucault (1987): Nietzsche, die Genealogie, die Historie. In: Foucault, Von der Subversion des Wissens S. 82.

[2] Vgl. Koselleck (1979): Vergangene Zukunft, S. 158-175.

[3] Vgl. Luhmann (1992): Kontingenz als Eigenwert der modernen Gesellschaft. In: Luhmann: Beobachtungen der Moderne, S. 93-128.

[4] Vgl. Foucault (1966): Die Ordnung der Dinge, S. 412.

[5] Vgl. Klausnitzer (2013): Das Ende des Zufalls.

[6] Vgl. Datson (2013): Enlightenment Reason, Cold War Rationality and the Rule of Rules, In: Erickson et al.: How reason almost lost its mind, S. 27-50.

[7] Vgl. Esposito (2007): Die Fiktion der wahrscheinlichen Realität.

[8] Vgl. Turow (2011): The Daily You, S. 9.

[9] Vgl. Stiller (2015): Planet der Algorithmen, S. 21 ff.

[10] Passig (2012): Warum wurde mir ausgerechnet das empfohlen?, In: Süddeutsche Zeitung vom 10.01.2012.

[11] Vgl. Bogost (2015): The Cathedral of Computation. The Athlantic vom 15.01.2015.

[12] Vgl. ebd.

[13] Vgl. Klausnitzer (2013): Das Ende des Zufalls, S. 26.

[14] Vgl. Moorstedt (2015): Software, die kein Mensch mehr versteht. In: Süddeutsche Zeitung vom 28.03.2011.

[15] Burkhardt (2015): Digitale Datenbanken, S. 302.

[16] Röhle (2010): Der Google Komplex, S. 14.

[17] Vgl. Drösser (2016): Total berechenbar?; Logofätu (2008): Grundlegende Algorithmen mit Java S. 6; Lang (2006): Algorithmen, S. 1; Dewdney (1995): Der Turing Omnibus, S. 1.

[18] Vgl. Lash (2011): Technik und Erfahrung. In: Hörl: Die technologische Bedingung, S. 361.

[19] Drösser (2016): Total berechenbar?, S. 12.

[20] Drösser (2016): Total berechenbar?, S. 15.

[21] Vgl. Klausnitzer (2013): Das Ende des Zufalls, S. 26.

[22] Vgl. Schöning (2008): Ideen der Informatik, S. 126 ff.

[23] Knuth (1997): The Art of Computer Programming, S. 4.

[24] Vgl. Rieder (2012): What is in PageRank, S. 1.

[25] Thermann, Jochen (2012): Das (Un)Behagen am Algorithmus.

[26] Der Begriff der Serendipität bezeichnet den zufälligen Glücksfund von etwas ursprünglich nicht Gesuchtem. (Pariser (2012): Filter Bubble, S. 104)

[27] Wagner (2015): The Ethics of Algorithms; Kucklick (2014): Die granulare Gesellschaft.

[28] Moore (2015) Zit. nach: Moorstedt (2015): Software, die kein Mensch mehr versteht. In: Süddeutsche Zeitung vom 28.03.2011.

[29] Vgl. Pariser (2012): Filter Bubble, S. 212.

[30] Sullivan (2009) Zit. nach: Pariser (2012): Filter Bubble, S. 212.

[31] Vgl. Pariser (2012): Filter Bubble, S. 245 f.

[32] Vgl. Assange et al. (2013): Cypherpunks, S. 67.

[33] Vgl. Seewald et al. (2015): Welt auf der Kippe, S. 137.

[34] Vgl. Pariser (2012): Filter Bubble, S. 89.

[35] Sunstein (2001): Republic.com, S. 8.

[36] Vgl. Sunstein (2001): Republic.com, S.65.

[37] Vgl. Weinberger (2004): Is There an Echo in Here?; Weinberger (2011): Too Big to Know, S. 85 f.

[38] Pariser (2012): Filter Bubble, S. 68.

[39] Vgl. Schleske (2005): Computerunterstützte Vergesellschaftung. In: Jäckel; Mai: Online-Vergesellschaftung, S. 137.

[40] Bolz (2012): Die Sinngesellschaft, S. 202.

Details

Seiten
26
Jahr
2016
ISBN (eBook)
9783668350731
ISBN (Buch)
9783668350748
Dateigröße
452 KB
Sprache
Deutsch
Katalognummer
v345268
Institution / Hochschule
Leuphana Universität Lüneburg – CDC
Note
1,3
Schlagworte
Genealogie Mediengenealogie Mediengeschichte Algorithmus algorithmischenPersonalisierungen Personalisierung Netflix Täterprofil Kundenprofil Mustererkennung Rasterfahndung RAF Target Filter Bubble Echokammer Zufall

Autor

Teilen

Zurück

Titel: Algorithmische Personalisierungen vom Täter- zum Kundenprofil? Eine genealogische Untersuchung am Fallbeispiel Netflix