Regulierung von Algorithmen.Verpflichtung zur Offenlegung von Algorithmen


Magisterarbeit, 2018

75 Seiten, Note: 13


Leseprobe


Inhaltsverzeichnis

Inhaltsverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Literaturverzeichnis

A. Einleitung
I. Problemstellung
II. Zielsetzung und Gang der Untersuchung

B. Der Begriff der Algorithmen
I. Definition und Abgrenzung des Algorithmus
II. Merkmale des Algorithmus
III. Algorithmus vs. Computerprogramm

C. Schützbarkeit von Algorithmen
I. Algorithmen und Computerprogramme im Sinne des Urheberrechts
II. Abgrenzungsproblematik der Algorithmen

D. Verwendung von Algorithmen
I. Funktionsmechanismen von Algorithmen
II. Funktionen und Anwendungsbereiche von Algorithmen

E. Risiken von Algorithmen
I. Monopolisierung von Meinungs- und Marktmacht
II. Diskriminierung und Intransparenz

F. Regulierungsbedarf

G. Aktueller Rechtsrahmen
I. Monopolisierung von Meinungs- und Marktmacht
1. Medienrechtliche Perspektive
2. Kartellrechtliche Perspektive
II. Diskriminierung und Intransparenz

H. Regulierungsansätze
I. Selbstorganisation und Selbstregulierung von Algorithmenbetreibern
II. Regulierte Selbstregulierung von Algorithmenbetreibern
III. Offenlegung und Transparenz der Algorithmen
IV. Neutralität der Algorithmen und Informationsintermediäre
V. Ausbildung und Kommunikation

I. Zusammenfassung

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Symbolverzeichnis

.1 – Wenn ein Fußnotenzeichen nach dem Schlusspunkt steht, gilt dieses Zeichen für den ganzen Satz.

Wort1 – Wenn das Fußnotenzeichen direkt am Wort steht, wird das Wort einzeln erläutert.

Abbildungsverzeichnis

Abbildung 1: Vom Problem über den Algorithmus zum Computerprogramm

Tabellenverzeichnis

Tabelle 1 (Eigene Darstellung): Unterschiede von Algorithmus und Computer- programm

Tabelle 2: Funktionen der Algorithmen mit den entsprechenden Beispielen

Literaturverzeichnis

App, Ulrike (2016): Facebook startet Image-Kampagne in Deutschland. Online verfügbar unter https://www.wuv.de/digital/facebook_startet_image_kampagne_in_deutschland. Zuletzt abgerufen am 10.06.2018.

Barth, Armin P. (2013): Algorithmik für Einsteiger. Wiesbaden.

Beyerbach, Hannes (2015): Medien- und internetrechtliche Anforderungen an Social Media. In: Gerrit Hornung und Ralf Müller-Terpitz (Hrsg.): Rechtshandbuch social media. Heidelberg, S. 361–428.

BKartA (2016): Arbeitspapier. Marktmacht von Plattformen und Netzwerken. Online verfügbar unter https://www.bundeskartellamt.de/SharedDocs/Publikation/DE/Berichte/Think- Tank-Bericht.pdf?= blob=publicationFile&v=2. Zuletzt abgerufen am 10.06.2018.

Black, Julia (2010): Risk-based regulation: choices, practices and lessons learnt. In: Risk and regulatory policy. Improving the governance of risk. Paris, S. 185–224.

Blobel, Volker; Lohrmann, Erich (1998): Statistische und numerische Methoden der Datenanalyse.

Böcker, Lina Barbara (2009): Computerprogramme zwischen Werk und Erfindung. 1. Auflage 2009.

Böttcher, Matthias (2011): "Clearstream" - Die Fortschreibung der Essential Facilities - Doktrin im Europäischen Wettbewerbsrecht. Halle (Saale).

Bouwman, Vanessa (2018): Digital in 2018: Die Anzahl der Internetnutzer weltweit knackt die 4 Milliarden Marke. Online verfügbar unter https://wearesocial.com/de/blog/2018/01/global-digital-report-2018. Zuletzt abgerufen am 10.06.2018.

Brightwell, Andrew (2017): Filter burst: Read Across The Aisle. Online verfügbar unter https://onlinejournalismblog.com/2017/02/09/filter-burst-read-across-the- aisle/. Zuletzt abgerufen am 10.06.2018.

BT-WD. 10 - 048/17 (2017): Ausarbeitung: Algorithmen im Medienbereich – Gesetzlicher Regelungsbedarf.

BT-WD. 8 - 031/17 (2017): Ausarbeitung: Algorithmen. Einzelfragen zu Instrumenten und Regelansätzen

Bucher, Taina (2012): Want to be on the top? Algorithmic power and the threat of invisibility on Facebook. In: New Media & Society 14 (7), S. 1164–1180.

Bundesministerium für Wirtschaft und Energie (BMWi) (Hrsg.) (2016): „Digitalisierung und du. Wie sich unser Leben verändert“ Online verfügbar unter https://www.bmwi.de/Redaktion/DE/Downloads/C-D/digitalisierung-und- du.pdf?= blob=publicationFile&v=4. Zuletzt abgerufen am 10.06.2018.

Bundesrepublik Deutschland (2016): Positionspapier der Bundesrepublik Deutschland zum Regelungsumfeld für Plattformen, Online-Vermittler, Daten, Cloud Computing und die partizipative Wirtschaft. Online verfügbar unter https://www.bmwi.de/Redaktion/DE/Downloads/P-R/positionspapier-zum- regelungsumfeld-plattformen-online-vermittler.html. Zuletzt abgerufen am 10.06.2018.

Dang-Anh, Mark; Einspänner, Jessica; Thimm, Caja (Hrsg.) (2013): Die Macht der Algorithmen - Selektive Distribution in Twitter. In: Emmer, Martin/Stapf, Ingrid (Hrsg.): Echtheit, Wahrheit, Ehrlichkeit. Authentizität in der Online- Kommunikation (Kommunikations und Medienethik, 2). Weinheim: Juventa, S.74- 87. Online verfügbar unter http://dang-anh.de/wp-content/uploads/2016/08/Dang- Anh_Einspanner_Thimm_2013_Die-Macht-der-Algorithmen-Selektive- Distribution-in-Twitter.pdf. Zuletzt abgerufen am 10.06.2018.

Dean, Brian (2013): [Infographic] Google’s 200 Ranking Factors. In: Search Engine Journal (“SEJ”). Online verfügbar unter https://www.searchenginejournal.com/infographic-googles-200-ranking- factors/64316/. Zuletzt abgerufen am 10.06.2018.

Deutscher Bundestag: Algorithmen im Medienbereich – Gesetzlicher Algorithmen im Medienbereich – Gesetzlicher Regelungsbedarf. WD 10 - 3000 - 048/17 17. Online verfügbar unter https://www.bundestag.de/blob/529616/bbe3de30880170a7b710e5c8732b7c06/w d-10-048-17-pdf-data.pdf. Zuletzt abgerufen am 10.06.2018.

Diakopoulos, Nicholas; Deussen, Oliver (2017): Brauchen wir eine Rechenschaftspflicht für algorithmische Entscheidungen? In: Informatik Spektrum 40 (4), S. 362–366.

Direktorenkonferenz der Landesmedienanstalten (2018): Notwendigkeit der Sicherung von Vielfalt im Internet – Regulierungsbedarf von Informationsintermediären. Online verfügbar unter https://www.die- medienanstalten.de/fileadmin/user_upload/die_medienanstalten/Ueber_uns/Positi onen/2018_04_19_Regulierungsbedarf_von_Informationsintermediaeren.pdf. Zuletzt abgerufen am 10.06.2018.

Dörr, Dieter; Natt, Alexander (2014): Suchmaschinen und Meinungsvielfalt. In: ZUM 2014, 829 ff. 58. Jahrgang 2014/ Heft 11. Online verfügbar unter https://beck- online.beck.de/Dokument?vpath=bibdata%2Fzeits%2Fzum%2F2014%2Fcont%2 Fzum.2014.829.1.htm&anchor=Y-300-Z-ZUM-B-2014-S-829-N-1#FNA112. Zuletzt abgerufen am 10.06.2018.

Draack, Constantin (2014): Pressekartellrecht zur Vielfaltsicherung. Möglichkeiten und Grenzen. 1. Auflage. Baden-Baden: Nomos (Schriften zum Medien- und Informationsrecht, Band 6). Online verfügbar unter http://gbv.eblib.com/patron/FullRecord.aspx?p=1773279. Zuletzt abgerufen am 10.06.2018.

Dreier, Thomas; Schulze, Gernot; Specht, Louisa (2015): Urheberrechtsgesetz. Urheberrechtswahrnehmungsgesetz, Kunsturhebergesetz : Kommentar. 5. Auflage.

Dreyer, Gunda; Kotthoff, Jost; Meckel, Astrid; Zeisberg, Hans-Joachim (2013): Urheberrecht. Urheberrechtsgesetz, Urheberrechtswahrnehmungsgesetz, Kunsturhebergesetz. 3., neu bearbeitete Aufl. Online verfügbar unter http://www.juris.de/jportal/portal/t/x97/page/jurisw.psml?doc.hl=1&doc.id=hjrk- urhr- 1&documentnumber=1&numberofresults=1325&showdoccase=1&doc.part=A&p aramfromHL=true#focuspoint. Zuletzt abgerufen am 10.06.2018.

Dreyer, Stephan; Schulz, Wolfgang; Bertelsmann Stiftung (2018): Was bringt die Datenschutz-Grundverordnung für automatisierte Entscheidungssysteme? Online verfügbar unter http://www.bertelsmann- stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/BSt_DSGVOun dADM_dt.pdf. Zuletzt abgerufen am 10.06.2018.

Dudenredaktion. Duden online (2018). Stichwort: Quellcode. Online verfügbar unter https://www.duden.de/node/680160/revisions/1215086/view. Zuletzt abgerufen am 10.06.2018.

Eisend, Martin; Küster-Rohde, Franziska (2008): Soziale Netzwerke im Internet — Marketingkommunikation für morgen. In: Mark Rev St. Gallen 25 (5), S. 12–15.

Ensthaler, Jürgen; Weidert, Stefan (2017): Urheberrecht und Internet. 3rd ed. Frankfurt am Main: Fachmedien Recht und Wirtschaft (Kommunikation & Recht). Online verfügbar unter https://ebookcentral.proquest.com/lib/gbv/detail.action?docID=4863372. Zuletzt abgerufen am 10.06.2018.

EU-Kommission (2001): Europäische Rahmenbedingungen für die soziale Verantwortung der Unternehmen. Grünbuch.

EU-Kommission (2016): COM(2016) 288 final: Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschaft - und Sozialausschuss und den Ausschuss der Regionen. Online - Plattformen im digitalen Binnenmarkt Chancen und Herausforderungen für Europa.

Facebook Deutschland (2017): Ihr fragt. Wir antworten. Online verfügbar unter https://de.newsroom.fb.com/news/2017/10/mache-facebook-zu-deinem-facebook- evolution/. Zuletzt abgerufen am 10.06.2018.

Fiedler, Christoph; Verdenhalven, Helmut (2014): Keine Duldung eines Monopol- Missbrauchs durch Google. In: promedia 8/2014. Mediennutzung: Renaissance des Radios.

Fischer, Sarah; Petersen, Thomas; Bertelsmann Stiftung (2018): Was Deutschland über Algorithmen weiß und denkt. Online verfügbar unter https://www.bertelsmann- stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/Was_die_Deuts chen_ueber_Algorithmen_denken.pdf. Zuletzt abgerufen am 10.06.2018.

Gabler Wirtschaftslexikon. Stichwort: Netzwerkeffekte. Online verfügbar unterhttps://wirtschaftslexikon.gabler.de/definition/netzwerkeffekte-51385/version- 274556. Zuletzt abgerufen am 10.06.2018.

Gabler Wirtschaftslexikon. Stichwort: Schufa. Online verfügbar unter: https://wirtschaftslexikon.gabler.de/definition/schufa-46227/version-269512. Zuletzt abgerufen am 10.06.2018.

Gabler Wirtschaftslexikon. Stichwort: SEO. Online verfügbar unter https://wirtschaftslexikon.gabler.de/definition/search-engine-optimization- 54486/version-277515. Zuletzt abgerufen am 10.06.2018.

Gabler Wirtschaftslexikon. Stichwort: Stakeholders. Online verfügbar unter https://wirtschaftslexikon.gabler.de/definition/anspruchsgruppen-27010/version- 250673. Zuletzt abgerufen am 10.06.2018.

Garey, Michael R.; Johnson, David S. (1979): Computers and intractability. A guide to the theory of NP-completeness. 9. print. (A series of books in the mathematical sciences).

Goffey, Andrew: Algorithm. In: Matthew Fuller (Hrsg.) (2008): Software Studies: A Lexicon, S. 15–20.

Goldman, Eric (2006): Search Engine Bias and the Demise of Search Engine Utopianism, 8 Yale J. L. & Tech. 188. Online verfügbar unter https://digitalcommons.law.scu.edu/facpubs/76. Zuletzt abgerufen am 10.06.2018.

Grundmann, Stefan; Hacker, Philipp (2017): Digital Technology as a Challenge to European Contract Law. In: European Review of Contract Law 13 (3).

Hagen, Lutz M.; Wieland, Mareike; Au, Anne-Marie in der (2017): Algorithmischer Strukturwandel Der Öffentlichkeit. MedienJournal 41 (2), S. 127- 43. Online verfügbar unter https://ejournals.facultas.at/index.php/medienjournal/article/download/1476/1336/ . Zuletzt abgerufen am 10.06.2018.

Hagendorff, Thilo (2017): Das Ende der Informationskontrolle. Zur Nutzung digitaler Medien jenseits von Privatheit und Datenschutz.

Handelsverband Nordwest e.V. (2017): Kurzanalyse: Regulierung von Algorithmen. Online verfügbar unter http://www.handelsverband- nordwest.de/2017/07/04/kurzanalyse-regulierung-von-algorithmen/. Zuletzt abgerufen am 10.06.2018.

Hannappel, Sandra; Rehm, Rebekka; Roth, Steffen J. (2017): Welche Faktoren bestimmen, ob digitale Plattform-Märkte einer regulierung bedürfen? Online verfügbar unter http://hdl.handle.net/10419/174492. Zuletzt abgerufen am 10.06.2018.

Hansen, Ursula, Schrader, Ulf (2005): Corporate social responsibility als aktuelles Thema der Betriebswirtschaftslehre. In: Die Betriebswirtschaft, DBW 65 (4), S. 373–395.

Hartl, Korbinian (2017): Suchmaschinen, Algorithmen und Meinungsmacht. Wiesbaden.

Hasebrink, Uwe; Schmidt, Jan-Hinrik (2012): Informationsrepertoires der deutschen Bevölkerung. Konzept für eine regelmäßig durchzuführende bevölkerungsrepräsentative Befragung im Rahmen des Vorhabens "Erfassung und Darstellung der Medien- und Meinungsvielfalt in Deutschland". Hamburg: Hans- Bredow-Inst. für Medienforschung (Arbeitspapiere des Hans-Bredow-Instituts, Nr. 24).

Haucap, Justus; Kruse, Jörn (2003): Ex-ante-Regulierung oder Ex-Post-Aufsicht für netzgebundene Industrien? Hamburg: Univ. der Bundeswehr, Fächergruppe Volkswirtschaftslehre (Diskussionspapier / Universität der Bundeswehr Hamburg, Fächergruppe Volkswirtschaftslehre, Nr. 25).

Haucap, Justus; Kruse, Jörn (2004): Verdrängungspreise auf Telekommunikationsmärkten? In: Perspektiven der Wirtschaftspolitik 5 (3), S. 337–361.

Haucap, Justus; Kehder, Christiane (2013) : Suchmaschinen zwischen Wettbewerb und Monopol: Der Fall Google, DICE Ordnungspolitische Perspektiven, No. 44.

Heinze, Christian (2011): Software als Schutzgegenstand des Europäischen Urheberrechts, (2).

Heise, Nele (2016): Algorithmen. In: Jessica Heesen (Hrsg.): Handbuch Medien- und Informationsethik, S. 202–209.

Hoeren, Thomas; Vossen, Gottfried (2018): Softwareverletzung – Missverständnisse bei der Feststellung der Schutzfähigkeit von Computerprogrammen.

Hoffmann-Riem, Wolfgang (Hrsg.) (2018): Big Data - Regulative Herausforderungen. Rechtliche Rahmenbedingungen für und regulative Herausforderungen durch Big Data. 1. Auflage. Online verfügbar unter https://www.law-school.de/fileadmin/content/law- school.de/de/units/unit_affil_riem/pdf/420_Rechtliche_Rahmenbedingungen_fuer _und_regulative_…pdf. Zuletzt abgerufen am 10.06.2018.

Hoffman-Riem, Wolfgang, Prof.Dr. (Hrsg.) (Juli, 2017): Verhaltenssteuerung durch Algorithmen. Keynote von Prof. Dr. Wolfgang Hoffmann-Riem auf der Konferenz des Bundesministeriums der Justiz und für Verbraucherschutz: "Digitales Leben – Vernetzt. Vermessen. Verkauft?". Berlin. Online verfügbar unter https://www.bvdw.org/fileadmin/bvdw/upload/bilder/events/bvdw- eventformate/digitale_ethik/2017-07-04_Verhaltenssteuerung-Algorhitmen.pdf. Zuletzt abgerufen am 10.06.2018.

Hoffman-Riem, Wolfgang, Prof.Dr. (Hrsg.) (März, 2017): Verhaltenssteuerung durch Algorithmen. Eine Herausforderung für das Recht. 142. Band (2017), Heft 1. Hamburg.

Horns, A. H. (2001): Anmerkungen zu begrifflichen Fragen des Softwareschutzes. GRUR. Online verfügbar unter https://beck- online.beck.de/Dokument?vpath=bibdata%2Fzeits%2Fgrur%2F2001%2Fcont%2 Fgrur.2001.1.1.htm&anchor=Y-300-Z-GRUR-B-2001-S-1-N-1. Zuletzt abgerufen am 10.06.2018.

Humborg, Christian; Nguyen, Thuy Anh (2018): Die publizistische Gesellschaft. Wiesbaden.

Introna, Lucas D. (2016): Algorithms, Governance, and Governmentality: On Governing Academic Writing. Volume: 41 issue: 1: Science, Technology, and Human Values. Online verfügbar unter http://journals.sagepub.com/doi/10.1177/0162243915587360, Zuletzt abgerufen am 10.06.2018. Zuletzt abgerufen am 10.06.2018.

Jungheim, Stephanie (2012): Medienordnung und Wettbewerbsrecht im Zeitalter der Digitalisierung und Globalisierung. Tübingen.

JuraForum-Redaktion. Stichwort: Quasi-Monopol. Online verfügbar unter https://www.juraforum.de/lexikon/monopolstellung. Zuletzt abgerufen am 10.06.2018.

Just, Natascha; Latzer, Michael (2017): Governance by algorithms: reality construction by algorithmic selection on the Internet. In: Media, Culture & Society 39 (2), S. 238–258.

Kern, Bernhard Georg (2008): Das Internet zwischen Regulierung und Selbstregulierung, Dissertation, Juristischen Fakultät der Humboldt-Universität zu Berlin, Berlin.

Kilian, Wolfgang (2011): Entwicklungsgeschichte und Perspektiven des Rechtsschutzes von Computersoftware in Europa. Online verfügbar unter https://beck- online.beck.de/Dokument?vpath=bibdata%252fzeits%252fGRURINT%252f2011 %252fcont%252fGRURINT%252e2011%252e895%252e1%252ehtm. Zuletzt abgerufen am 10.06.2018.

Kleinz, Thorsten (2015): Studie: "Google manipuliert Suchergebnisse“. Online verfügbar unter https://www.heise.de/newsticker/meldung/Studie-Google- manipuliert-Suchergebnisse-2731456.html. Zuletzt abgerufen am 10.06.2018. Klinger, Ulrike (2014): Media Governance im interregionalen Vergleich – Informelle Regulierung in Italien und Mexiko. In: Bröchler, Stephan; Lauth, Hans- Joachim (Hrsg.) (2014): Von Government zu Governance. Informales Regieren im Vergleich, S. 35 – 59.

Knothe, Danko (2007): Macht und Möglichkeit. Eingebetteter Unilateralismus in der Handels- und Klimaschutzpolitik der USA. Berlin.

Koch, Frank Alexander; Schnupp, Peter (1991): Software-Recht. Berlin, Heidelberg.

Könneker, Carsten (2017): Unsere digitale Zukunft. Digitale Demokratie statt Datendiktatur. Unter Mitarbeit von Dirk Helbing, Bruno S. Frey, Gerd Gigerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter, Jeroen van den Hoven, Roberto V. Zicari, Andrej Zwitter. Berlin, Heidelberg.

Krämer, Sybille (1988): Symbolische Maschinen. Die Idee der Formalisierung in geschichtlichem Abriss. Darmstadt.

Krüger, Julia; Lischka, Konrad; Bertelsmann Stiftung (2018): Damit Maschinen den Menschen dienen. Lösungsansätze, um algorithmische Entscheidungen inden Dienst der Gesellschaft zu stellen - Arbeitspapier -. Online verfügbar unter https://algorithmenethik.de/wp- content/uploads/sites/10/2018/05/Algorithmenethik_Lösungspanorama_final_onli ne.pdf. Zuletzt abgerufen am 10.06.2018.

Kupferschmitt, Thomas (2016): Online-Videoreichweite steigt bei weiter geringer Nutzungsdauer. Ergebnisse der ARD/ZDF-Onlinestudie 2016. In: Media Perspektiven 9/2016. Online verfügbar unter http://www.ard-zdf- onlinestudie.de/files/2016/0916_Kupferschmitt.pdf. Zuletzt abgerufen am 10.06.2018.

Kurp, Matthias (2018): Regulierung für eine digitale Zukunft: Auf der Suche nach der Medienordnung 4.0. Plattformen, Algorithmen, Informationsintermediäre. Tagungsbericht zum DLM - Symposium 2018. Online verfügbar unter https://www.die- medienanstalten.de/fileadmin/user_upload/Veranstaltungen/2018/2018_04_19_D LM-Symposium_2018/Dokumentation/Tagungsbericht_DLM- Symposium_2018.pdf. Zuletzt abgerufen am 10.06.2018.

Laat, Paul B. de (2017): Algorithmic Decision-Making Based on Machine Learning from Big Data: Can Transparency Restore Accountability? In: Philos. Technol. 104 (2), S. 671.

Lao, Marina (2013): ‘Neutral’ Search as a Basis for Antitrust Action? In: Harvard Journal of Law & Technology Occasional Paper Series, S. 1-12. Online verfügbar unter https://jolt.law.harvard.edu/assets/misc/Lao.pdf. Zuletzt abgerufen am 10.06.2018.

Latzer, Michael (2016): The economics of algorithmic selection on the Internet. In: Johannes Bauer und Michael Latzer (Hrsg.): Handbook on the economics of the internet. Cheltenham, S. 395–425.

Latzer, Michael; Hollnbuchner, Katharina; Just, Natatscha; Saurwein, Florian (2014). The economics of algorithmic selection on the Internet .Working Paper – Media Change & Innovation Division. University of Zurich. Online verfügbar unter http://www.mediachange.ch/media/pdf/publications/Economics_of_algorithmic_s election_WP_.pdf. Zuletzt abgerufen am 10.06.2018.

Leitherer, Johanna (2018): Facebook im Image-Kampf. Online verfügbar unter https://www.springerprofessional.de/en/social-media- marketing/kommunikation/facebook-im-image-kampf/15359694. Zuletzt abgerufen am 10.06.2018.

Lischka, Konrad; Klingel, Anita; Bertelsmann Stiftung (Mai 2017): Wenn Maschinen Menschen bewerten.

Lischka, Konrad; Müller-Eiselt, Ralph (Dezember 2017): Mehr Transparenz und zivilgesellschaftliche Kontrolle von Algorithmen: Bertelsmann Stiftung fördert AlgorithmWatch. Online verfügbar unter https://algorithmenethik.de/2017/12/07/mehr-transparenz-und- zivilgesellschaftliche-kontrolle-von-algorithmen-bertelsmann-stiftung-foerdert- algorithmwatch/. Zuletzt abgerufen am 10.06.2018.

Lischka, Konrad; Stöcker, Christian (Juni 2017): Digitale Öffentlichkeit. Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen. Bertelsmann Stiftung. Online verfügbar unter https://www.bertelsmann- stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/Digitale_Oeffen tlichkeit_final.pdf. Zuletzt abgerufen am 10.06.2018.

Lobigs, Frank; Neuberger, Christoph (2018): Meinungsmacht im Internet und die Digitalstrategien von Medienunternehmen. Neue Machtverhältnisse trotz expandierender Internet-Geschäfte der traditionellen Massenmedien-Konzerne: Gutachten für die Kommission zur Ermittlung der Konzentration im Medienbereich (KEK). 1. Auflage.

Maas, Heiko (2017): Zusammenleben in der digitalen Gesellschaft – Teilhabe ermöglichen, Sicherheit gewährleisten, Freiheit bewahren. Rede des Bundesministers der Justiz und für Verbraucherschutz. Konferenz „Digitales Leben – Vernetzt. Vermessen. Verkauft? Online verfügbar unter http://www.bmjv.de/SharedDocs/Reden/DE/2017/07032017_digitales_Leben.htm l>. Zuletzt abgerufen am 10.06.2018.

Mannino, Adriano; Althaus, David; Erhardt, Jonathan; Gloor, Lukas; Hutter, Adrian; Metzinger, Thomas (2015): Künstliche Intelligenz: Chancen und Risiken. In: Diskussionspapiere der Stiftung Für Effektiven Altruismus (2) S. 1-17.

Marly, Jochen (1995): Urheberrechtsschutz für Computersoftware in der Europäischen Union : Abschied vom überkommenen Urheberrechtsverständnis. München Marly, Jochen (2014): Praxishandbuch Softwarerecht. Rechtsschutz und Vertragsgestaltung. 6. Aufl. München.

Martini, Mario (2017): Algorithmen als Herausforderung für die Rechtsordnung. In: JuristenZeitung 72 (21), S. 1017–1025.

Martini, Mario (2018): Wenn Algorithmen entscheiden… Vortrag. FÖV/Uni Speyer Hannover. Online verfügbar unter http://ai-laws.org/wp- content/uploads/2018/05/Martini.pdf. Zuletzt abgerufen am 10.06.2018.

Mayer, Thomas (1997): Medienrecht im Kontext standortrelevanter Faktoren. Bestimmungsfaktoren für die Standortentscheidung privater Fernsehveranstalter in Deutschland - unter besonderer Berücksichtigung medienrechtlicher Rahmenbedingungen. München.

Mayer-Schönberger, Viktor; Cukier, Kenneth (2013): Big Data. Die Revolution, die unser Leben verändern wird. München.

Metzinger, Peter (2013): Business Campaigning. Was Unternehmen von Greenpeace und amerikanischen Wahlkämpfern lernen können. Berlin.

Miller, G. A. (1956): The Magical Number Seven, Plus or Minus Two: Some limits on our Capacity for Processing Information. In: Psychological Review, 63, S. 81- 97.

Nielsen, Jakob (1997): How Users Read on the Web. Online verfügbar unter https://www.nngroup.com/articles/how-users-read-on-the-web/. Zuletzt abgerufen am 10.06.2018.

Nielsen, Jakob (2014): Wie lange bleiben die Nutzer auf einer Webseite? Online verfügbar unter http://www.usability.ch/news/wie-lange-bleiben-die-nutzer-auf- einer-webseite.html. Zuletzt abgerufen am 10.06.2018.

Ovens, Carsten (2017): Filterblasen - Ausgangspunkte einer neuen, fremdverschuldeten Unmündigkeit? kommunikation @ gesellschaft. Online verfügbar unter https://www.ssoar.info/ssoar/bitstream/handle/document/51482/ssoar-ketg-2017- Ovens-Filterblasen.pdf?sequence=3. Zuletzt abgerufen am 10.06.2018.

Paal, Boris (2012): Rechtsstudie zu Suchmaschinen, Marktmacht und Meinungsbildung, S. 76.

Paal, Boris (2015): Internet-Suchmaschinen im Kartellrecht, in: GRUR Int. 2015, 997.

Paal, Boris (2018): Intermediäre: Regulierung und Vielfaltssicherung. LfM, S. 43.

Paschke, Marian (2009): Medienrecht. Berlin, Heidelberg.

Peitz, Martin; Schweitzer, Heike (2016): Suchmaschinen unter der Lupe: Informationsherrschaft und ihre Schranken. In: Wirtschaftsdienst 96 (11), S. 825– 829.

Peloza, John, Shang, Jingzhi (2011): How can corporate social responsibility activities create value for stakeholders? A systematic review. In: Journal of the Academy of Marketing Science, 39 (1), S. 117–135.

Pöhlmann, Robert von (2014): Geschichte der sozialen Frage: Antiker Kommunismus und Sozialismus. 1. Auflage.

Pomberger, Gustav; Dobler, Heinz (2008): Algorithmen und Datenstrukturen. Eine systematische Einführung in die Programmierung. München. Online verfügbar unter http://deposit.d-nb.de/cgi- bin/dokserv?id=3075212&prov=M&dok_var=1&dok_ext=htm. Zuletzt abgerufen am 10.06.2018.

Rimscha, Markus von (2017): Algorithmen kompakt und verständlich. Lösungsstrategien am Computer. 4. Aufl. 2017. Wiesbaden.

Rixecker, Kim (2015): Die Magie eines Algorithmus: So funktioniert die Discovery-Funktion von Spotify. Online verfügbar unter https://t3n.de/news/spotify-algorithmus-discovery-667369/. Zuletzt abgerufen am 10.06.2018.

Rundfunkrat des Bayerischen Rundfunks (2010): Begründete Entscheidung des BR-Rundfunkrates zum Telemedienkonzept des Bayerischen Rundfunks. S. 1- 166.

Saurwein, Florian; Just, Natascha; Latzer, Michael (2015): Governance of algorithms: options and limitations. In: INFO 17 (6), S. 35–49.

Saurwein, Florian; Just, Natascha; Latzer, Michael (Hrsg.) (2017): Algorithmische Selektion im Internet: Risiken und Governance automatisierter Auswahlprozesse. kommunikation @ gesellschaft 18 (2017). Online verfügbar unter https://www.researchgate.net/profile/Michael_Latzer/publication/316916139_Alg orithmische_Selektion_im_Internet_Risiken_und_Governance_automatisierter_A uswahlprozesse/links/591848b24585152e19a22579/Algorithmische-Selektion-im- Internet-Risiken-und-Governance-automatisierter-Auswahlprozesse.pdf. Zuletzt abgerufen am 10.06.2018.

Schaar, Peter (Hrsg.) (2016): Algorithmentransparenz. Informationsfreiheit und Informationsrecht Jahrbuch 2015. Unter Mitarbeit von Alexander Dix, Gregor Franßen, Michael Kloepfer, Peter Schaar, Friedrich Schoch und Andrea Voßhoff. 1. Auflage. Berlin.

Schmechel, Philipp (2017): IT und Software. Sachverständigenrat fürVerbraucherfragen:Gutachten zum „Verbrau-cherrecht 2.0“ vor. In: Computer und Recht 33 (1).

SCHUFA Holding AG: Wie funktioniert Scoring bei der SCHUFA? Online verfügbar unter https://www.schufa.de/de/ueber-uns/daten- scoring/scoring/scoring-schufa/. Zuletzt abgerufen am 10.06.2018.

Schulz, Wolfgang; Dankert, Kevin (2016): Die Macht der Informationsintermediäre. Erscheinungsformen, Strukturen und Regulierungsoptionen. Bonn.

Schulz, Wolfgang; Dankert, Kevin (2017): Informationsintermediäre – Anknüpfungspunkte für rechtliche Regulierung. In: Informatik Spektrum 40 (4), S. 351–354.

Schulz, Wolfgang; Held, Thorsten (2002): Regulierte Selbstregulierung als Form modernen Regierens. Im Auftrag des Bundesbeauftragten für Angelegenheiten der Kultur und der Medien. (Arbeitspapiere des Hans-Bredow-Instituts, 10).

Schulz, Wolfgang; Held, Thorsten (2006): Die Zukunft der Kontrolle der Meinungsmacht. Gutachten im Auftrag der Friedrich-Ebert-Stiftung. Berlin.

Schulz, Wolfgang; Kluth, Winfried (2014): Konvergenz und regulatorische Folgen. Gutachten im Auftrag der Rundfunkkommission der Länder. Arbeitspapiere des Hans-Bredow-Instituts Nr. 30. (Arbeitspapiere des Hans-Bredow-Instituts, 30).

Sedgewick, Robert; Wayne, Kevin (2012): Algorithms. 4. ed., 3. printing.

Seitz, Stephan (2010): "Gebrauchte" Softwarelizenzen. Der Zweiterwerb von Nutzungsrechten an Computerprogrammen. Berlin, Münster.

Siegmund, Julian (2017): Suchmaschinenalgorithmen im Kartellrecht der EU und der USA. Untersuchung der Möglichkeiten einer Ausgestaltungskontrolle im Spannungsfeld der Implikationen wesentlicher Einrichtungen und bestehender Schutzdimensionen. 1. Auflage. Baden-Baden.

Sipser, Michael (2013): Introduction to the theory of computation. 3rd ed. Spindler, Gerald; Arlt, Christian (Hrsg.) (2004): Rechtsfragen bei Open Source. Online verfügbar unter https://www.uni- goettingen.de/de/document/download/035cb3109455169625e840892422916e.pdf/ studie_final.pdf. Zuletzt abgerufen am 10.06.2018.

Stark, Birgit; Magin, Melanie; Jürgens, Pascal (2017): Ganz meine Meinung? Informationsintermediäre und Meinungsbildung - eine Mehrmethodenstudie am Beispiel von Facebook : eine Expertise der Landesanstalt für Medien Nordrhein- Westfalen (LfM) in Kooperation mit dem Forschungsschwerpunkt Medienkonvergenz der Johannes Gutenberg-Universität Mainz.

Stoll, Peter-Tobias (2003): Sicherheit als Aufgabe von Staat und Gesellschaft. Verfassungsordnung, Umwelt- und Technikrecht im Umgang mit Unsicherheit und Risiko. Tübingen.

Szoka, Berin; Marcus, Adam; Zittrain, Jonathan L.; Benkler, Yochai; Palfrey, John G. (2010): The next digital decade. Essays on the future of the internet. Unter Mitarbeit von Grimmelman, in: Szoka/Marcus/Zittrain u.a. (Hrsg.), The next digital decade, 2010, S.457.

Tietz, Dirk (2007): Der Einfluss des Internets auf Intermediäre im Tourismus.

Trute, Hans-Heinrich; Broemel, Roland (2012): Der Verbreitungsauftrag der öffentlich-rechtlichen Rundfunkanstalten. Einspeisung und Vergütung von Programmen mit Must-Carry-Status in Kabelnetzen. In: MMR-Beilage. 11/2012. 15. Jahrgang. S. 1–30. Online verfügbar unter https://medienkalender.bayern/uploads/files/278/A5kRI1z01eCt.pdf. Zuletzt abgerufen am 10.06.2018.

Ulbricht, Lena (2018): When Big Data Meet Securitization. Algorithmic Regulation with Passenger Name Records. In: Eur J Secur Res 13 (1), S. 58.

Vesting, Thomas (2013): Die Tagesschau-App und die Notwendigkeit der Schaffung eines "Intermedienkollisionsrechts". Karlsruhe.

Vieth, Kilian; Wagner, Ben; Bertelsmann Stiftung: Teilhabe, ausgerechnet. Online verfügbar unter https://algorithmenethik.de/wp- content/uploads/sites/10/2018/02/Teilhabe-ausgerechnet.pdf. Zuletzt abgerufen am 10.06.2018.

Vöcking, Berthold; Alt, Helmut; Dietzfelbinger, Martin; Reischuk, Rüdiger; Scheideler, Christian; Vollmer, Heribert; Wagner, Dorothea (2008): Taschenbuch der Algorithmen. Berlin, Heidelberg.

Völz, Horst (1994): Information verstehen. Facetten eines neuen Zugangs zur Welt.

Website Boosting Redaktion (2018): Erneutes Core-Update bei Google. In: Website Boosting. Ausgabe 49 (05-06/2018). S. 116.

Website Boosting Redaktion (2018): Ohne Metatags geht bei SEO nix! Sagt der BGH! In: Website Boosting. Ausgabe 49 (05-06/2018). S. 116.

Weidert, Stefan; Ensthaler, Jürgen (2017): Urheberrecht und Internet. 3rd ed. Wirth, Niklaus (1993): Systematisches Programmieren: Eine Einführung. 6. Auflage. Wiesbaden.

Wissens-Portal ITwissen.info. Stichwort: C++. Online verfügbar unter: https://www.itwissen.info/C-plus-plus.html. Zuletzt abgerufen am 10.06.2018.

Wissens-Portal ITwissen.info. Stichwort: Java. Online verfügbar unter https://www.itwissen.info/Java-Java.html. Zuletzt abgerufen am 10.06.2018.

ZEIT ONLINE (2017): Wettbewerbsstrafe von 2,42 Milliarden Euro gegen Google. Online verfügbar unter https://www.zeit.de/wirtschaft/unternehmen/2017-06/eu- kommission-wettbewerbsstrafe-von-2-42-milliarden-euro-gegen-google. Zuletzt abgerufen am 10.06.2018.

Zirn, Frank (2004): Softwarerechtsschutz zwischen Urheberrecht und Patentrecht. Aktuelle Entwicklungen vor historischem Hintergrund und internationaler Zusammenhang.

Zweig, Katharina A. (2016): Was ist ein Algorithmus, 1. Arbeitspapier von Algorithm Watch. Online verfügbar unter https://algorithmwatch.org/de/arbeitspapier-was-ist-ein-algorithmus/. Zuletzt abgerufen am 10.06.2018.

Zweig, Katharina A.; Bertelsmann Stiftung (2018): Wo Maschinen irren konnen. Verantwortlichkeiten und Fehlerquellen in Prozessen algorithmischer Entscheidungsfindung. Online verfugbar unter https://www.bertelsmann­ stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/WoMaschinenir renKoennen.pdf. Zuletzt abgerufen am 10.06.2018.

Zweig, Katharina A.; Deussen, Oliver; Krafft, Tobias D. (2017): Algorithmen und

Meinungsbildung. In: Informatik Spektrum 40 (4), S. 318-326.

A. Einleitung

I. Problemstellung

Das Zeitalter der digitalen Welt ist gekommen. Mehr als die Hälfte der Weltbevölkerung hat heutzutage einen Zugang zum Internet.1 Die Freiheiten und Möglichkeiten, welche die Menschheit dadurch erhalten hat, können nicht vollständig aufgezählt werden. Die digitalen Technologien haben unser Leben komplett verändert.2 Selbstparkende Autos, Online-Universitäten, Online-Banking und -Shopping, Skype, das Grenzen und Entfernungen aufhebt, neue Arbeitsplätze und Mobilität.3 All dies und vieles mehr ist dank der Algorithmen möglich.4 Sie bilden ein wesentliches Fundament der Technologien und „heutiger Medien- und Informationssysteme“5.6

Algorithmen sind jedoch keine Wundererscheinung der Digitalisierung.7 Sie spielten immer eine ausschlaggebende Rolle in der Wissenschaft und Gesellschaft.8 Der Euklidische Algorithmus, mit dem sich der größte gemeinsame Teiler zweier natürlicher Zahlen berechnen lässt, wurde vor 2300 Jahren gefunden.9 Er ist wahrscheinlich einer der ältesten Algorithmen der Welt.10 In der jetzigen Zeit der Informationsüberflutung haben Algorithmen an Wichtigkeit und Bedeutung stark zugenommen.11 Heutzutage werden Algorithmen weiterentwickelt und in völlig unterschiedlichen Bereichen angewandt.12 Es ist kaum noch möglich, sich eine Welt ohne Algorithmen vorzustellen.13 Sie helfen den Menschen richtige Entscheidungen zu treffen und notwendige Informationen zu finden und abzugrenzen.14 Algorithmen werden von Banken eingesetzt, um die Kreditwürdigkeit festzustellen, oder von der Polizei, um die Wahrscheinlichkeit künftiger Straftaten zu berechnen.15 Sie werden in der Landwirtschaft, in der Luftfahrt, in der Versicherungsindustrie und in vielen anderen Bereichen verwendet.16 Algorithmen sind ein unabdingbarer Bestandteil unseres Lebens geworden.17

Indessen ist die Verwendung von Algorithmen nicht nur mit Chancen und Vorteilen verbunden. Die Risiken wie ausschließliche Markt- beherrschung, Monopolisierung von Meinungsmacht, Diskriminierung und Intransparenz, Zuwiderhandlung gegen das Recht auf Privatsphäre und Datenschutz und andere negative Effekte sind ebenfalls zu beachten.18 Die Macht der Algorithmen und ihr zunehmende Einfluss auf das menschliche Leben, auf politisches und kulturelles Verhalten und gesellschaftliche Interessen lassen über die Notwendigkeit der Regulierung von Algorithmen nachdenken.19

II. Zielsetzung und Gang der Untersuchung

Algorithmen und die Erfordernis ihrer Regulierung sind ein provokantes Thema, das sehr viele Kontroversen auslöst. Der Grund dafür ist vor allem ein Interessenkonflikt der Parteien.20 Der Staat und die Nutzer der Algorithmen sind daran interessiert, ausführliche Informationen über die Kriterien und Funktionsweise der Algorithmen zu erhalten.21 Die Algorithmenbetreiber erwarten hingegen, dass ihr Geschäftsmodell als Geschäftsgeheimnis weiter geschützt bleibt.22 Eine Kompromisslösung, welche die Belange aller Parteien berücksichtigt, ist zu finden.

Im Rahmen dieser Arbeit wird erforscht, ob und welche Regulierungsmechanismen in Hinsicht auf Algorithmen notwendig und möglich sind. Es werden die beachtenswerten und meist diskutierten Regulierungsansätze mit Rücksicht auf die Komplexität der Steuerung von Algorithmen untersucht.

In Kapitel B werden theoretische Konstrukte wie Algorithmus und Computerprogramm definiert und verglichen. In Kapitel C wird auf die juristische Definition des Algorithmus und die Abgrenzungs- problematik der beiden Begriffe näher eingegangen. In Kapitel D werden die Funktionsmechanismen und die Anwendungsbereiche von Algorithmen präsentiert. Im Anschluss werden die Risiken der Algorithmen in Kapitel E erläutert.

In Kapitel F wird der Regulierungsbedarf im Kontext des risikoorientierten Ansatzes23 erörtert. Darauf folgend werden in Kapitel G aktuelle Rechtsrahmen und ihre Hinlänglichkeit geprüft. In Kapitel H werden die unterschiedlichen Regulierungsansätze und ihre Geeignetheit vorgestellt. Kapitel I präsentiert die Zusammenfassung der vorliegenden Studie und beinhaltet Ideen für weitere Forschungen im Kontext der Regulierung von Algorithmen.

B. Der Begriff der Algorithmen

I. Definition und Abgrenzung des Algorithmus

Algorithmen werden jeden Tag von vielen Menschen verwendet. Beim Kuchenbacken, beim Gebrauch eines Handys und beim Autofahren sind Algorithmen im Einsatz. Dies wird jedoch vom Menschen nicht wahrgenommen, da Algorithmen keine physische Natur haben und als „still“ gelten.24 Meistens fehlt das nötige Wissen, was Algorithmen eigentlich sind.25 Laut einer Studie der Bertelsmann Stiftung konnten 90 Prozent der Umfrageteilnehmer Algorithmen nicht abgrenzen und ihre Funktionsweise nicht erklären.26

Im Rahmen dieser Arbeit wird das Konstrukt Algorithmen im juristischen Sinne betrachtet. Aber bevor auf juristische Definitionen eingegangen und über die Regulierung von Algorithmen gesprochen wird, ist der Schlüsselbegriff als der der zentrale Untersuchungs- gegenstand der Computerwissenschaft zu erklären.27

Im erweiterten Sinne versteht man unter einem Algorithmus „eine detailliert ausformulierte Arbeitsvorschrift“28 oder ein systematisches Vorgehen zur Lösung eines Problems.29 Ein Algorithmus ist ein Ablauf von Rechenvorschriften, der aus endlich vielen Schritten besteht und letztendlich eine ideale Entscheidung für ein Dilemma findet.30

Ein Algorithmus kann auf verschiedene Weise dargestellt werden: anhand grafischer Darstellungsformen, wie beispielsweise ein Ablauf- diagramm, oder mittels textueller, text-basierter Darstellungsformen, wie eine Programmiersprache.31 Es existiert keine vorgeschriebene Notationsform für Algorithmen.32 Bei der Untersuchung eines Problems entsteht eine Lösungsidee, die mithilfe eines Algorithmus in jeder erforderlichen Notationsform entworfen werden kann.33

Dies ist nicht die letzte Stufe und eine Implementierung des Algorithmus in ein Computerprogramm ist notwendig, um eine bestimmte Aufgabenstellung zu lösen.34 In Abbildung 1 wird annähernd der „Prozess, der von der Problemanalyse über das Finden einer Lösungsidee bis zur Formulierung eines Algorithmus führt, der dann mit dem Wissen über eine Programmiersprache in ein Programm transformiert wird“, skizziert.35

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Vom Problem über den Algorithmus zum Computer- programm36

Die Abbildung gibt eine klare Sicht auf die Abgrenzung der zwei gelegentlich verwechselten Begriffe Algorithmus und Computerprogramm voneinander.37 In der Informatik werden beide Begriffe manchmal als Synonyme benutzt, was nicht korrekt ist.38 In Kapitel C II wird zuerst auf die Merkmale des Algorithmus näher eingegangen. In Kapitel C III wird dann die Abgrenzung der beiden Begriffe ausführlich beleuchtet.

II. Merkmale des Algorithmus

Um den Unterschied zwischen Algorithmus und Computerprogramm zu verstehen, müssen zunächst die Merkmale eines Algorithmus genannt werden.39 Ein Algorithmus ist allgemeingültig, ausführbar und endlich.40

Die Allgemeingültigkeit bedeutet, dass ein Algorithmus eine universelle Handlungsanweisung ist.41 Das heißt, er passt „nicht nur zu einem bestimmten Problem, sondern zu allen gleichartigen Aufgaben“.42 Es handelt sich beispielsweise nicht um die Frage „Wie filtert und sortiert Facebook die Katzenbilder in unserem Newsfeed?“, sondern ganz allgemein: „Wie filtert und sortiert Facebook die Statusmeldungen (inklusive Katzenbilder) in unserem Newsfeed?“43 Der Algorithmus soll funktionieren, egal ob es um Bilder, Texte oder Videos geht.44

Um einen Algorithmus abzuarbeiten, muss er ausführbar sein.45 Das bedeutet, es „müssen endlich viele Anweisungen eindeutig, verständlich und in einer klaren Reihenfolge gegeben sein“.46 Solche Anweisungen müssen konkret formuliert sein: „Wenn es regnet, nehmen Sie einen Regenschirm mit; wenn es nicht regnet, lassen Sie einen Regenschirm zu Hause“.47 Eine Formulierung wie beispielsweise „bei schlechtem Wetter nehmen Sie einen Regenschirm mit“ reicht nicht aus.48

Das dritte Merkmal ist eine Endlichkeit des Algorithmus.49 Sie ist erforderlich, um ein Verfahren der Problemlösung mit einem bestimmten Ergebnis abzuschließen.50 Es gibt Algorithmen, die künstlich abgebrochen werden müssen, weil sie unendlich laufen könnten.51 In diesem Fall wäre ein Lösungsverfahren praktisch wertlos, da ein Algorithmus irgendwann mit seiner Berechnung fertig sein muss.52

III. Algorithmus vs. Computerprogramm

Ein Algorithmus wird in jedem Computerprogramm verwendet.53 Wenn ein Computerprogramm entwickelt wird, wird ein Algorithmus für die Lösung eines bestimmten Problems implementiert.54 Aber im Gegensatz zu einem Computerprogramm ist ein Algorithmus „ein mehr oder weniger abstrakt beschriebenes Verfahren zur Lösung einer Aufgabe“.55 Ein Computerprogramm ist so weit präzisiert, dass es sich durch einen bestimmten Prozessor oder eine bestimmte Maschine ausführen lässt.56 Für Algorithmus sind Kriterien sehr wichtig, für Computerprogramme sind konkrete Anweisungen von Bedeutung.57

Ein Algorithmus kann in unterschiedlichen Programmiersprachen beschrieben werden, ein Computerprogramm nur in festgelegten Programmiersprachen.58 Durch die Implementierung eines Algorithmus in einer der gewählten Programmiersprachen (wie beispielsweise Java59 oder C++60 ) entsteht ein Computerprogramm.61

Dieser Transformationsprozess wurde in Abbildung 1 gezeigt. Das Ergebnis dieses Transformationsprozesses wird auch als Quelltext oder Quellcode62 (engl.: source code) bezeichnet und bildet eine Grundlage oder eine Darstellungsform des Computerprogramms.63

Ein Algorithmus ist ein Verhaltensmuster oder eine Methodik, die einzelne Schritte für die Lösung eines Problems definiert.64 Er ist strategischer Natur, während ein Computerprogramm an operativen Zielen ausgerichtet ist.65

In Tabelle 1 sind die Unterschiede von Algorithmus und Computerprogramm zusammengestellt:

Abbildung in dieser Leseprobe nicht enthalten 66 67 68 69 70 71 72 73 74 75

Tabelle 1: Unterschiede von Algorithmus und Computerprogramm76

Kapitel B gibt einen guten Überblick und ein klares Verständnis, was der Begriff Algorithmus im Allgemeinen bedeutet. In Kapitel C wird auf die juristische Auffassung und Abgrenzung der Algorithmen näher eingegangen.

C. Schützbarkeit von Algorithmen

I. Algorithmen und Computerprogramme im Sinne des Urheberrechts

Im informationswissenschaftlichen Sinne werden die77 beiden Konstrukte Algorithmen und Computerprogramme trotz der Unterschiede häufig gleichbedeutend verwendet.78 Im juristischen Sinne ist solche Erwägung inkorrekt.79 Diese in einem engen inhaltlichen Zusammenhang stehenden Konstrukte sind rechtlich nicht identisch.80 Die juristische Abgrenzung der beiden Begriffe ist aber schwierig, da die europäische und die deutsche Gesetzgebung keine Legaldefinition von Algorithmen und Computerprogrammen gibt.81 Somit ist die Betrachtung des Begriffs Algorithmen i. S. d. rechtlichen Schützbarkeit, insbesondere in Hinsicht auf das Urheberrecht, ohne Computerprogramme nicht möglich.82

Der Rechtsschutz von Computerprogrammen und damit verbundenen Investitionen „erheblicher menschlicher, technischer und finanzieller Mittel“83 ist in der Richtlinie84 2009/24/EG des Europäischen Parlaments und des Rates vom 23. April 2009 über den Rechtsschutz von Computerprogrammen und in §§ 69a bis 69g UrhG geregelt.85 Die für die Vereinheitlichung auf dem europäischen Binnenmarktes verabschiedete Richtlinie 2009/24/EG klassifiziert das Computerprogramm als Werk der Literatur i. S. v. Art. 2 der Berner Übereinkunft86 und gewährt den urheberrechtlichen Schutz.87 Auch auf internationaler Ebene werden Computerprogramme als literarische Werke i. S. d. Urheberrechts in Art. 10 Abs. 1 TRIPS88 und Art. 4 WCT89 geschützt.90

Um Missverständnisse zu vermeiden, wird in der RL 2009/24/EG ausdrücklich hervorgehoben, dass nur die Ausdrucksform eines Computerprogramms geschützt ist.91 Ideen und Grundsätze, die ein beliebiges Element des Programms inklusive seiner Schnittstellen betreffen, fallen nicht unter den urheberrechtlichen Schutz der benannten Richtlinie.92 Das entsprechende Postulat wurde in der deutschen Rechtsprechung in § 69a Abs. 2 Satz 2 UrhG umgesetzt.93

Gemäß dem allgemeinen Urheberrechtsgrundsatz, der für das gesamte europäische Urheberrecht Geltung erfordert, sind Logik, Algorithmen und Programmsprachen im Interesse der Entwicklungsfreiheit schutzfrei.94 Algorithmen sind mit den verwendeten Worten des Schriftstellers oder den Pinselstrichen des Malers zu vergleichen.95 Sie umfassen die Ideen und Grundsätze, die später mit konkreten Formulierungen und Anweisungen in Computerprogrammen implementiert werden.96

Algorithmen werden vom Bundesgerichtshof als mathematische oder technische Lehren bzw. allgemeine Rechenregeln verstanden.97 Als Gegenstände der wissenschaftlichen Lehre sollen sie gemeinfrei und für jedermann zugänglich sein.98

II. Abgrenzungsproblematik der Algorithmen

Die Einstufung der Algorithmen als gemeinfrei bedeutet aber nicht ihren kompletten Ausschluss aus dem urheberrechtlichen Schutz.99

Das könnte man als Absage an den Schutz für Computerprogramme und individuelle geistige Schöpfungen des Menschen ansehen.100 Die Komplexität liegt in der Abgrenzung von Ideen und Ausdrucksformen solcher Ideen,101 mit anderen Worten in der Abgrenzung von allgemeinen Algorithmen und ihren konkreten, anwendungs- bezogenen Ausführungen.102

Wegen der Mehrdeutigkeit der Position der Algorithmen i. S. d. Urheberrechts und fehlender Legaldefinition hat der europäische und der deutsche Gesetzgeber den Begriff der Algorithmen nicht direkt im Gesetzestext spezifiziert und somit Freiraum für die Auslegung gelassen.103 Der Fachausdruck Algorithmen wird ausschließlich in Erwägungsgrund 11 der RL 2009/24/EG explizit erwähnt.104 Art. 1 Abs. 2 Satz 2 des Richtlinientextes wie auch § 69a Abs. 2 Satz 2 UrhG beschränken sich auf Ideen, Grundsätze und Schnittstellen:105 „Ideen und Grundsätze, die irgendeinem Element eines Computerprogramms zugrunde liegen, einschließlich der den Schnittstellen zugrunde Satz 2 UrhG. liegenden Ideen und Grundsätze, sind nicht im Sinne dieser Richtlinie urheberrechtlich geschützt.“106

Den grundlegenden und komplexen Algorithmen, denen persönliche geistige Schöpfung fehlt, ist kein urheberrechtlicher Schutz zu gewähren.107 Algorithmen, die dem Originalitätskriterium entsprechen, können als Elemente der Zusammenstellung des Computerprogramms geschützt werden.108

Bei der Abgrenzung von geschützten und ungeschützten Algorithmen i. S. d. Urheberrechts spielt die Abstraktionshöhe eine große Rolle.109 Abstrakte Algorithmen, die zu den allgemeinen wissenschaftlichen Lehren gehören, sind nicht urheberrechtlich geschützt.110 Menschliche Bemühungen, kreative Fähigkeiten und Individualität bei der Erstellung von Algorithmen sind bei der Überprüfung der Schutzfähigkeit zu berücksichtigen.111

Unter anderem soll die monopolistische Stellung bestimmter Algorithmen nicht außer Betracht gelassen werden.112 Es müssen alternative algorithmische Lösungen für das Problem vorliegen.113 Der Schutz ist nur dann zu gewähren, wenn das geschützte Feld „unerschöpflich, vielfach austauschbar“ ist.114 Anderenfalls wird einer der wichtigsten Grundsätze des Urheberrechts verletzt.115

Nicht nur konventionelle Algorithmen, sondern auch selbstlernende Algorithmen wie beispielsweise Bilderkennungsalgorithmen116, „die ihre Erscheinungsform im Zeitablauf ändern“, haben ebenfalls einen Anspruch auf urheberrechtlichen Schutz.117 Solange der Selbst- lernprozess der Algorithmen durch Menschen vorprogrammiert wurde und das minimale Originalitätskriterium enthält, ist der Ausdruck der persönlichen geistigen Schöpfung der Menschen i. S. d. § 2 Abs. 2 UrhG vorhanden.118

Algorithmen stehen i. S. d. Urheberrechts zwischen Idee und Ausdrucksform des Computerprogramms.119 Damit ist es ohne Einzelfallbetrachtung des konkreten Algorithmus nicht möglich zu beurteilen, ob ein urheberrechtlicher Schutz zu gewähren ist.120 Die Art und Weise der Implementierung und die neuartige Kombination von Algorithmen in Bezug aufeinander in einem Computerprogramm sind für die Schützbarkeit der Algorithmen von Bedeutung.121 Bei der Begutachtung ist Algorithmus im Zusammenhang mit seiner Schöpfungshöhe und seiner Funktionsweise zu betrachten.122

D. Verwendung von Algorithmen

I. Funktionsmechanismen von Algorithmen

Das menschliche Leben mit seinen täglichen Aktivitäten, Geschäftsleben, Medienkonsum etc. werden implizit von Algorithmen beeinflusst.123 Sie entscheiden, welche Suchergebnisse bei Google oder Bing gezeigt werden.124 Sie empfehlen Nachrichten, Musik und Videos.125 Sie schlagen automatisch Freunde, Reisen, Bücher und andere Produkte vor.126 Algorithmen kreieren die neue Realität: Sie beobachten nicht nur die Handlungen und die Bedürfnisse der Menschen, sondern berechnen und steuern ihr Verhalten und Interessen.127

Algorithmen werden hinter all diesen Aktionen im Rahmen der algorithmischen Selektion verwendet.128 „Algorithmische Selektion ist ein Prozess, der Elementen mittels automationsgestützter, statistischer Bewertung extern generierter Datensignale Relevanz zuweist. Dabei steht Selektion für die Auswahl oder Auslese von Elementen aus einer Gesamtheit sowie deren Strukturierung, Ordnung und Sortierung durch Relevanzzuweisung.“129

Computerprogrammen und Internet-Anwendungen, die algorithmische Selektion einsetzen, „wie etwa Suchmaschinen, Empfehlungssysteme oder Informationsaggregatoren filtern die wachsende Informationsmenge, treffen eine Auswahl und sortieren Information nach bestimmten ‚Relevanzkriterien‘.“130 Solche Selektion erlaubt einen Abbau asymmetrischer Information, eine Reduzierung der Suchkosten und eine Verbesserung der Markttransparenz.131

Ohne algorithmische Selektion wäre es unmöglich, die Informationsflut unserer Zeit zu bewältigen.132

In diesem Zusammenhang spricht man auch von dem Prozess algorithmischer Entscheidungsfindung133.134 Dies ist „der Gesamt- prozess von der Datenerfassung über die Datenanalyse bis hin zur Deutung und Interpretation der Ergebnisse und der Ableitung einer Entscheidung oder einer Entscheidungsempfehlung aus den Ergebnissen“.135

Algorithmen können im Rahmen eines ADM-Prozesses einerseits als teilautomatische Instrumente verwendet werden.136 Das bedeutet, durch Algorithmen werden Situationen oder Menschen bewertet und die Wahrscheinlichkeit des Eintrittes eines Ereignisses voraus- gesagt.137 In solchen Fällen unterstützen Algorithmen menschliche Entschließungen.138 Als Beispiel kann man die Schufa139 -Bonitäts- auskunft nennen. Die endgültige Entscheidung über den Abschluss des Mietvertrages wird der Vermieter anhand der durch Algorithmen erstellten Schufa-Auskunft treffen.

Auf der anderen Seite können Algorithmen im Rahmen eines ADM- Prozesses ausschließliche Entscheidungsrolle übernehmen.140 Algorithmen treffen anhand eines Computerprogramms oder einer Internet-Anwendung basierend auf Evaluation oder Einschätzung der Daten eine eigenständige Entscheidung, die einen unmittelbaren Einfluss auf das menschliche Leben haben wird.141

Als extremes Beispiel kann man eine Drohne oder eine andere Maschine anführen, die automatisch Gesichter von Menschen mit einer Terroristendatenbank vergleicht und im Falle der hohen Konformität eine Waffe aktiviert.142 Die Kontrolle der rein automatisierten ADM-Prozesse ist wegen des potenziellen Schadens von besonderer Bedeutung.

[...]


1 Vgl. Bouwman: „4,021 Milliarden Internetnutzer gibt es in 2018, mit einer jährlichen Steigerung von 7 Prozent.“ Online-Quelle. Zuletzt abgerufen am 10.6.2018.

2 Vgl. Mannino u. a., S. 1 ff.

3 Bundesministerium für Wirtschaft und Energie, S. 4 ff.

4 Vgl. Goffey, S. 16.

5 Heise, S. 202.

6 Vgl. Heise, S. 202.

7 BT-WD 10 – 048/17, S. 4.

8 Vgl. Sedgewick; Wayne, S. 4.

9 Sedgewick; Wayne, S. 4.

10 Völz, S. 92.

11 Vgl. BT-WD 10 – 048/17, S. 4.

12 Vgl. Saurwein u. a. (2017), S. 1 f.; Latzer u. a. (2016), S. 401 f.

13 Vgl. Barth, S. 1.

14 Vgl. Hartl, S. 17 f.

15 Vgl. Saurwein u. a. (2017), S. 1 f.; Latzer u. a. (2016), S. 401 f.

16 Barth, S. 6.

17 Vgl. Heise, S. 203.

18 Martini (2017), S. 1017 ff., Saurwein u. a. (2015), S. 37, Latzer u. a. (2014), S. 6 ff., Saurwein u. a. (2017), S. 4.

19 Vgl. Hoffmann-Riem (Juli 2017), S. 4 f.; Latzer u. a. (2014), S. 1 f.

20 Vgl. BT-WD 10 – 048/17, S. 5; Heise, S. 202 f.

21 Vgl. Vieth u. a., S. 8 f.; Mannino u. a., S. 3; Krüger u. a., S. 14 f.

22 Vgl. BT-WD 10 – 048/17, S. 5; Mannino u. a., S. 3; Krüger u. a., S. 14 f.

23 Siehe dazu Black, S. 187 ff.

24 Barth, S. 1; Heise, S. 202.

25 Barth, S. 1

26 Fischer u. a., S. 13 f.

27 Sedgewick; Wayne, S. 4.

28 Zirn, S. 9.

29 Sedgewick; Wayne, S. 3.

30 Sedgewick; Wayne, S. 4.

31 Pomberger u. a., S. 77; Zirn, S. 9.

32 Horns, S. 7 f.

33 Pomberger u. a., S. 78.

34 Vgl. Pomberger u. a., S. 77 f.

35 Pomberger u. a., S. 78.

36 Pomberger u. a., S. 78.

37 Vgl. Zirn, S. 9.

38 Zirn, S. 9.

39 Vgl. Pomberger u. a., S. 82; Rimscha, S. 3.

40 Rimscha, S. 3 f.

41 Rimscha, S. 3.

42 Rimscha, S. 3.

43 Vgl. Bucher, S. 1 ff.; Rimscha, S. 3.

44 Rimscha, S. 3.

45 Barth, S. 8 f.; Rimscha, S. 3 f.

46 Rimscha, S. 3.

47 Vgl. Rimscha, S. 3 f.

48 Vgl. Barth, S. 8 f.; Rimscha, S. 3.

49 Barth, S. 8; Rimscha, S. 4.

50 Barth, S. 8; Rimscha, S. 4.

51 Rimscha, S. 4.

52 Rimscha, S. 4; Sedgewick; Wayne, S. 4 f.

53 Zirn, S. 10.

54 Sedgewick; Wayne, S. 4.

55 Pomberger u. a., S. 82.

56 Wirth, S. 17.

57 Vgl. Blobel u. a.; Wirth, S. 17.

58 Sedgewick; Wayne, S. 4; Wirth, S. 17 f.

59 Wissens-Portal ITwissen.info: „Java ist eine objektorientierte und plattformunabhängige Programmiersprache, deren Grundlagen in der ersten Hälfte der 1990er Jahre von Sun Microsystems entwickelt worden sind. Die Syntax von Java lehnt sich stark an C++ an, obwohl die Sprache selbst sich in vielen Punkten unterscheidet.“

60 Wissens-Portal ITwissen.info: „Die Programmiersprache C++ ist die Weiterentwicklung der Programmiersprache C für die objektorientierte Programmierung. Es ist eine eigenständige Programmiersprache, die in den 80er- Jahren von AT&T-Mitarbeitern entwickelt und speziell in technisch- wissenschaftlichen Anwendungen eingesetzt wurde. Zwischenzeitlich kommt die von der American national standards institute (ANSI) genormte Programmiersprache C++ auch in kommerziellen Anwendungen zum Einsatz.“

61 Pomberger u. a., S. 82; Introna, S. 21.

62 Dudenredaktion (o. J.): Der Quellcode ist eine „in einer [höheren] Programmiersprache geschriebene Abfolge von Programmanweisungen, die vom Menschen gelesen, aber erst nach einer elektronischen Übersetzung vom Computer verarbeitet werden können.“

63 Pomberger u.a., S. 79, 82.

64 Sedgewick; Wayne, S. 4; Wirth, S. 17 f.

65 Vgl. Metzinger, S. 235, Hartl, S. 17 f., Introna, S. 21 f.; Metzinger: „Operative Ziele sind die Ziele, die die Voraussetzungen beschreiben, die zum Erreichen bestimmter strategischer Ziele notwendig sind.“

66 Vgl. Metzinger, S. 235, Hartl, S. 17 f., Introna, S. 21 f.

67 Vgl. Metzinger, S. 235, Hartl, S. 17 f., Introna, S. 21 f.

68 Vgl. Horns, S. 7 f.; Pomberger u. a., S. 77; Zirn, S. 9.

69 Vgl. Pomberger u. a., S. 79, 82.

70 Vgl. Pomberger u. a., S. 82; Wirth, S. 17.

71 Vgl. Pomberger u. a., S. 82; Wirth, S. 1.

72 Vgl. Sedgewick; Wayne, S. 4; Wirth, S. 17 f.; Pomberger u. a., S. 82; Introna, S. 21.

73 Vgl. Sedgewick; Wayne, S. 4; Wirth, S. 17 f.; Pomberger u. a., S. 82; Introna, S. 21.

74 Vgl. Wirth, S. 17.

75 Vgl. Wirth, S. 17.

76 Quelle von Tabelle 1: eigene Darstellung.

77 Im Rahmen dieser Studie werden die rechtlichen Fragen i. S. d. möglichen Schutzes der Algorithmen durch das Patentrecht oder das Vertragsrecht nicht betrachtet.

78 Vgl. Zirn, S. 9.

79 Vgl. Zirn, S. 9 f.

80 Vgl. Dreyer, G. u. a., Rn. 13 f.; Weidert, Rn. 80 f.

81 Vgl. Böcker, S. 49; Heinze, S. 102, Rn. 17.

82 Vgl. Spindler, S. 20 f.; Zirn, S. 10; Siegmund, S. 112.

83 Rn. 2 (Erwägungsgrund 2) der Richtlinie 2009/24/EG des Europäischen Parlaments und des Rates vom 23. April 2009 über den Rechtsschutz von Computerprogrammen (kodifizierte Fassung).

84 Im Folgenden abgekürzt als RL 2009/24/EG.

85 Art. 1 ff. RL 2009/24/EG.

86 Gabler Wirtschaftslexikon: „Revidierte Berner Übereinkunft (RBÜ) – völkerrechtlicher Vertrag zum Schutz von Werken der Literatur und Kunst vom 9.9.1886 mit Änderungen von Paris (1896), Berlin (1908), Bern (1914), Rom (1928), Brüssel (1948), Stockholm (1967) und Paris (1971, BGBl. 1973 II 1071).“

87 Vgl. Art. 1 Abs. 1 S. 1 der Richtlinie 2009/24/EG

88 Heinze, S. 117, Fn. 15: „Übereinkommen über handelsbezogene Aspekte der Rechte des geistigen Eigentums, für die Union genehmigt durch Beschluss 94/800/EG des Rates vom 22. Dezember 1994 über den Abschluss der Übereinkünfte im Rahmen der multilateralen Verhandlungen der Uruguay-Runde (1986–1994) im Namen der Europäischen Gemeinschaft in Bezug auf die in ihre Zuständigkeiten fallenden Bereiche, ABl. L 336 vom 23.12.1994, S. 1.“

89 Heinze, S. 117, Fn. 16: „Urheberrechtsvertrag der Weltorganisation für geistiges Eigentum (WIPO), für die Union genehmigt durch Beschluss 2000/278/EG des Rates vom 16. März 2000 über die Zustimmung – im Namen der Europäischen Gemeinschaft – zum WIPO-Urheberrechtsvertrag und zum WIPO-Vertrag über Darbietungen und Tonträger, ABl. L 89 vom 11.4.2000, S. 6.“

90 Heinze, S. 98, Rn. 1.

91 Rn. 11 (Erwägungsgrund 11) RL 2009/24/EG.

92 Rn. 11 (Erwägungsgrund 11) RL 2009/24/EG.

93 Vgl. Spindler, S. 20.

94 Rn. 11 (Erwägungsgrund 11) RL 2009/24/EG; Heinze, S.110, Fn. 93.

95 Vgl. Heinze, S. 98, Rn. 1; Richtlinienvorschlag KOM (88) 816 endg., S. 5, Tz. 2.4.

96 Vgl. Zirn, S. 9; Dreyer, G. u. a., Rn. 16 f.

97 BGH GRUR 1985, 1041, 1047 – Inkasso Programm; Dreyer, G. u. a., Rn. 16; Koch, S. 16.

98 Dreyer, G. u. a., Rn. 16; Koch, S. 16.

99 Koch, S. 16, Weidert, Rn. 80.

100 Vgl. Hoeren, S. 79; Koch, S. 16, Weidert, Rn. 80.

101 Heinze, S. 102, Rn. 17.

102 Vgl. Koch, S. 16; Heinze, S. 102, Rn. 17.

103 Vgl. Heinze, S. 102, Rn. 17; Koch, S. 17 f.; Rn. 11 (Erwägungsgrund 11) RL 2009/24/EG; Richtlinienvorschlag KOM (88) 816 endg., S. 18, Art. 1, Tz. 1.3 f.

104 Heinze, S. 102, Rn. 17; Rn. 11 (Erwägungsgrund 11) RL 2009/24/EG.

105 Heinze, S. 102, Rn. 17; Art. 1 Abs. 2 Satz 2 der RL 2009/24/EG; § 69a Abs. 2

106 Art. 1 Abs. 2 Satz 2 der RL 2009/24/EG; § 69a Abs. 2 Satz 2 UrhG besagt fast wortwörtlich dasselbe: „Ideen und Grundsätze, die einem Element eines Computerprogramms zugrunde liegen, einschließlich der den Schnittstellen zugrundeliegenden Ideen und Grundsätze, sind nicht geschützt.“

107 Vgl. Weidert, Rn. 81; Richtlinienvorschlag KOM (88) 816 endg., S. 18, Art. 1, Tz. 1.3 f.

108 Vgl. Weidert, Rn. 81; Richtlinienvorschlag KOM (88) 816 endg., S. 18, Art. 1, Tz. 1.3; Heinze, S. 101, Rn. 15 ff.

109 Vgl. Marly (1995), S. 131.

110 Vgl. Wirth, S. 17; Weidert, Rn. 80; Koch, S. 32.

111 Vgl. Richtlinienvorschlag KOM (88) 816 endg., S. 19, Art. 1, Tz. 1.4a; Heinze, S. 101, Rn. 15 ff; Weidert, Rn. 81; § 69a Abs. 3 UrhG.

112 Vgl. Weidert, Rn. 82.

113 Vgl. Weidert, Rn. 82.

114 Weidert, Rn. 82.

115 Vgl. Weidert, Rn. 82.

116 Zweig (2016): „[…] Bilderkennungsalgorithmen, die beispielsweise zuerst lernen, wie eine Schraube aussieht und dann in einem zweiten Schritt mit Hilfe des Gelernten in Form einer Entscheidungsstruktur Objekte in ‚Schraube‘ und ‚Nicht- Schraube‘ unterteilen.“ Online-Quelle. Zuletzt abgerufen am 10.6.2018.

117 Vgl. Heinze, S. 103, Rn. 23; Vöcking, S, 264.

118 Vgl. Weidert, Rn. 81; Heinze, S. 103, Rn. 23.

119 Vgl. Kilian, S. 897; Siegmund, S. 115 f.

120 Vgl. Dreier u. a., § 69a, Rn. 20; Marly (2014), Rn. 33; Siegmund, S. 116; Seitz, S. 48.

121 Vgl. Dreyer, G. u. a., Rn. 17 f.; BGH Grur 1991, 449, 453 – Betriebssystem.

122 Vgl. Dreier u. a., § 69a, Rn. 20; Marly (2014), Rn. 33; Siegmund, S. 116.

123 Latzer u. a. (2016), S. 395 f.

124 Latzer u. a. (2016), S. 395 f.

125 Latzer u. a. (2016), S. 395 f.

126 Latzer u. a. (2016), S. 395 f.

127 Hoffmann-Riem (März 2017), S. 11 f.; Latzer u. a. (2016), S. 395 f.

128 Vgl. Saurwein u. a. (2017), S. 1 f.; Latzer u. a. (2016), S. 395 f.

129 Saurwein u. a. (2017), S. 1.

130 Saurwein u. a. (2017), S. 2.

131 Saurwein u. a. (2017), S. 2.

132 Saurwein u. a. (2017), S. 2.

133 Im Folgenden abgekürzt als ADM-Prozess.

134 Vgl. Lischka u. a. (Juni 2017), S. 17; Zweig u. a. (2018), S. 12; Saurwein u. a. (2017), S. 2 f.

135 Vieth u. a., S. 10.

136 Vieth u. a., S. 10.

137 Zweig u. a. (2018), S. 12.

138 Zweig u. a. (2018), S. 13.

139 Gabler Wirtschaftslexikon: „SCHUFA steht für ‚Schutzgemeinschaft für allgemeine Kreditsicherung‘. Die SCHUFA ist ein Unternehmen mit der Aufgabe, seinen Vertragspartnern Informationen über die Kreditwürdigkeit von Kunden zu geben und sie so vor Verlusten zu schützen.“

140 Vieth u. a. S. 10.

141 Zweig u. a. (2018), S. 12 f.

142 Zweig u. a. (2018), S. 13.

Ende der Leseprobe aus 75 Seiten

Details

Titel
Regulierung von Algorithmen.Verpflichtung zur Offenlegung von Algorithmen
Hochschule
Universität Hamburg
Note
13
Autor
Jahr
2018
Seiten
75
Katalognummer
V504627
ISBN (eBook)
9783346051189
ISBN (Buch)
9783346051196
Sprache
Deutsch
Schlagworte
algorithmen, regulierung von algorithmen, Schützbarkeit von Algorithmen, Risiken der Algorithmen, Algorithmenbetreiber, Algorithmen und Recht, IT-Recht
Arbeit zitieren
Anastasia Kabushka (Autor:in), 2018, Regulierung von Algorithmen.Verpflichtung zur Offenlegung von Algorithmen, München, GRIN Verlag, https://www.grin.com/document/504627

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Regulierung von Algorithmen.Verpflichtung zur Offenlegung von Algorithmen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden