Infrastrukturen der Vorhersage: Big Data in medienethischer Perspektive

Die Aufdeckung der Ausspähungen der Geheimdienste („NSA-Skandal“), die Bedeutung von Big Data und eine massiv sich entwickelnde Datenökonomie haben mittlerweile das Tableau medienethischer Herausforderungen verschoben und das Problem mit den Daten in den Vordergrund gerückt. Ethisch über Medien, Kommunikation und Öffentlichkeit zu reden bedeutet in den Tagen #SeitSnowden, über die Freiheit des Netzes und die informationelle Selbstbestimmung zu reflektieren.

In einem Vortrag, den ich am 25.06.2014 beim XIII. Tag der Medienethik an der Hochschule der Medien (HdM) in Stuttgart gehalten habe (Programm), betone ich, wie sehr Big Data, NSA-Skandal und der durch Digitalisierung vorangetriebene Medienwandel zusammen in den Blick genommen werden müssen. Medienethik beschäftigt sich nach wie vor mit klassischen Fragen – aber situiert sind diese Fragen heute auf einem Terrain, das durch Big Data, unrechter Geheimdiensttätigkeit und Digitalisierung/Mediatisierung markiert wird.

Hier gibt es den Vortrag als PDF. Über den XIII. Tag der Medienethik an der Hochschule der Medien wird auch hier und hier berichtet.

Medienethische Fragen zur digitalen Vermessung der Welt – Big-Data-Seminar an der HfPh

Diese Woche geht hier an der Hochschule für Philosophie der Vorlesungs- und Seminarbetrieb wieder los. Heute ist die erste Sitzung unseres Medienethik-Seminars „Big Data: Medienethische Fragen zur digitalen Vermessung der Welt“, das ich zusammen mit meinem Kollegen und Mitarbeiter Christopher Koska durchführe. Hier der Ankündigungstext:

Bereits 2008 hat die Anzahl der Gegenstände, die mit dem Internet verbunden sind, die Anzahl der Weltbevölkerung überschritten. 90% aller weltweit verfügbaren Daten sind nach einer Studie von IBM in den letzten zwei Jahren entstanden. 2015 soll es, laut einer Studie von Intel, doppelt so viele Netzwerkgeräte geben, wie Menschen auf der Erde. All diese Geräte erzeugen über ihre Sensoren und über die Menschen, die sie benutzen, eine unvorstellbar große Datenmenge (Big Data). IT-Konzerne, Regierungen, Behörden und Institutionen sammeln und analysieren diese Daten, erstellen Personenprofile, filtern, vermarkten oder verkaufen Informationen. Gegenstand des Seminars sind die öffentlichen und privaten, ökonomischen und staatlichen Interessen im Prozess der Etablierung von Big-Data-Technologien bzw. der Informationssuche/-beschaffung. Ziel ist es aktuelle Konflikte zu analysieren, Chancen und Herausforderungen kritisch zu hinterfragen und Kriterien für deren Beurteilung zu begründen.

Das Programm ist ganz wesentlich von Christopher Koska konzipiert worden, der ein medienethisches Forschungsprojekt (Dissertation) zu diesem Themenfeld in Angriff genommen hat. Weitere Informationen zum Programm bei Interesse direkt bei Christopher Koska. Hier die zwanzig wichtigsten Bücher zu Big-Data1 (alle in der Hochschul-Bibliothek vorhanden):

  • Angwin, Julia (2014): Dragnet Nation: A Quest for Privacy, Security, and Freedom in a World of Relentless Surveillance.
  • Bunz, Mercedes (2012): Die stille Revolution. Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen.
  • Davis, Kord (2012): Ethics of Big Data: Balancing Risk and Information.
  • Flusser, Vilem (2000): Ins Universum der technischen Bilder.
  • Geiselberger, Heinrich /Moorstedt, Tobias (Hrsg.) (2013): Big Data: Das neue Versprechen der Allwissenheit.
  • Grimm, Petra /Capurro, Rafael (Hrsg.) (2008): Informations- und Kommunikationsutopien.
  • Han, Byung-Chul (2013): Im Schwarm: Ansichten des Digitalen.
  • Krotz, Friedrich (Hrsg.) (2007): Mediatisierung: Fallstudien zum Wandel von Kommunikation.
  • Krotz, Friedrich /Hepp, Andreas (Hrsg.) (2012): Mediatisierte Welten: Forschungsfelder und Beschreibungsansätze.
  • Kuhlen, Rainer/ Semar, Wolfgang/ Strauch, Dietmar (Hrsg.) (2013): Grundlagen der praktischen Information und Dokumentation: Handbuch zur Einführung in die Informationswissenschaft und -praxis.
  • Lanier, Jaron (2010): Gadget. Warum die Zukunft uns noch braucht.
  • Mainzer, Klaus (2014): Die Berechnung der Welt: Von der Weltformel zu Big Data.
  • Mayer-Schöneberger, Viktor /Cukier, Kenneth (2013): Big Data: Die Revolution, die unser Leben verändern wird
  • Morozov, Evgeny (2011): The net delusion : how not to liberate the world.
  • Morozov, Evgeny (2013): Smarte neue Welt: Digitale Technik und die Freiheit des Menschen.
  • Pariser, Eli (2012): Filter Bubble: Wie wir im Internet entmündigt werden.
  • Schmidt, Eric/ Cohen, Jared (2013): Die Vernetzung der Welt: Ein Blick in unsere Zukunft.
  • Stichler, N. Richard/ Hauptmann, Robert (Hrsg.) (2009): Ethics, Information and Technology: Readings.

Neben den Themenbereichen „Journalismus/Öffentlichkeit/Demokratie“ und „Unterhaltung und Medien“ ist der Bereich „Internet/Information/Digitale Technologie“ der dritte Schwerpunkt meiner Arbeit am Lehrstuhl für Medienethik.

  1. Ob das die 20 wichtigsten Bücher sind, weiß ich natürlich nicht und ist nur eine Formulierung für die Suchmaschinen – es sind ja noch nicht einmal genau 20… 😉 Aber aus der Fülle der jüngeren und jüngsten Literatur erschienen uns diese Titel als zentral und für das Seminar besonders geeignet.

Algorithmen-Ethik und ein ahnungsloses Huhn

Johannes Boie schreibt heute (7.3.3014) auf der Seite 3 der Süddeutschen Zeitung über die Gefahren von Algorithmen, Big Data und über ein Huhn. Titel: „Die Seele gibt’s gratis“ (offenbar noch nicht online). Zum Huhn später mehr. Zunächst zur Algorithmen-Ethik: Es ist gut, dass mit Yvonne Hofstetter eine Person über die Gefahren einer algorithmisierten Welt aufklärt, die vermutlich wirklich weiß, was mit Big Data, schlauer Auswertung und riesiger Rechenkapazität alles möglich ist. Sie ist Chefin der Firma Teramark Technologies, eine Firma, die sich auf die Auswertung großer Datenmengen spezialisiert hat. Und als eine solche Expertin kommt sie oft zu Wort, in der FAZ, der TAZ, in 3SAT und bei Beckmann in der ARD.

In dem Artikel sind drei Gründe für die aktuellen Gefahren festgehalten:

  1. Immer mehr Daten durch Online-Kommunikation und datenliefernde vernetzte Dinge.
  2. Die explodierende Leistungsfähigkeit „künstlicher Intelligenz“.
  3. Verknüpfung von ursprünglich an verschiedenen Stellen angefallenen Daten, etwa durch die Geheimdienste (sofern sie nicht zugänglich vorliegen), aber auch durch Versicherungen, Steuerbehörden, Google, Facebook, die Post, etc.

Der Artikel kommt aber in der Frage, wo jetzt eigentlich genau das Problem liegt, nicht so recht auf den Punkt. Drei richtige Gedanken werden angedeutet:

  1. Die Algorithmen filtern unseren Weltzugang, wenn sie nach Hofstetter „einzig berechnen“, „für welche Informationen ein Mensch bezahlen wird. Folglich wird der Algorithmus entscheiden, ihm andere Informationen vorzuenthalten“. Hier geht es also um die versteckte und nach ökonomischen Regeln ablaufende Übernahme der Gatekeeper-Funktion, die wir bisher und auch in Zukunft doch lieber gerne einem professionellen Journalismus, einer Lexikonredaktion oder der Wissenschaft, also jedenfalls Menschen statt Maschinen, vorbehalten wollen.
  2. Den zweiten Gedanken steuert Evgeny Morozov bei: Die Frage der Algorithmen betrifft eine menschenrechtliche Dimension („Privatsphäre, Datensicherheit, Meinungsfreiheit“), für deren Schutz die Staaten die Verantwortung tragen. Das „autoritäre System“ der Algorithmen aber verletze diese individuellen Rechte.
  3. Der dritte Gedanke schließlich kommt von Frank Schirrmacher: Die Journalisten hätten längst gar keine Gelegenheit mehr für eine kritische Distanz zur Digitalisierung bzw. Algorithmisierung, weil ihr Berufs-Alltag selbst schon von den Algorithmen abhängt.

Der Artikel steht natürlich in aktuellem Zusammenhang mit Enzensbergers Regeln gegen für die digitale Welt (vgl. auch dazu diesen lesenswerten Text) und Martin Schulz‘ Warnung vor dem „technologischen Totalitarismus“ (vgl. auch Christian Lindners Text dazu).

In der Medienethik, meinem Fach, wird über das Thema auch nachgedacht. Ich halte den Freiheitsaspekt für entscheidend und habe in einem Aufsatz zum Thema Algorithmen Ethik ausgeführt, dass die Folgen der Digitalisierung oder Algorithmisierung der öffentlichen Kommunikation Auswirkungen haben auf die Freiheit öffentlicher Kommunikation. Ich plädiere statt der Enge des individuellen, durch Algorithmen geführten Mediengebrauchs für die Weite einer offenen und gemeinschaftlichen Kommunikationswelt. In einem Satz: Die Problematik der Algorithmen liegt darin, dass sie unsere Freiheit einschränken können. Ob sie unsere Handlungsspielräume vergrößern, oder aber (um das böse Wort zu benutzen) uns alle informationell gleichschalten, hängt von uns und unserer Politik ab.

Und wer in München ansässig ist: Im kommenden Sommersemester (2014) veranstalte ich zusammen mit meinem Mitarbeiter Christopher Koska ein Seminar dazu mit dem Titel: „Big Data: Medienethische Fragen zur digitalen Vermessung der Welt“ (Mittwochs 15-17 Uhr).

Jetzt aber noch zum Huhn: Der Artikel gefällt mir dort nicht, wo er ein wenig zu weltverschwörerisch rüberkommt und andeutet, dass die Algorithmen die Macht schon übernommen haben. Es ist ja durchaus schlimm, aber es sind immer noch Menschen, die die Dinger programmieren, laufen lassen und für ihre Zwecke benutzen. Und augenscheinlich ist diese Seite 3 ein ziemlich bemühter Versuch, die intellektuelle Diskussion über die Folgen der Digitalisierung, die im wesentlichen in der FAZ läuft, in die SZ zu transportieren. Und jetzt aber endlich wirklich zum Huhn… Schon klar: das Huhn im ländlichen Idyll des Gartens von Frau Hofstetter ist als radikal analoges, kaum intelligentes Geschöpf ein tolles Gegenbild zu den superschlauen digitalen Algorithmen in den kalten Kellern der Rechenzentren. Aber hätten diese Sätze sein müssen: „Ein Huhn stakt über die Terrasse.“ – „Aus dem Augenwinkel kann man dabei das Huhn beobachten.“ – Draußen plustert sich das Huhn auf.“ – „Man denkt an Yvonne Hofstetter und das Huhn in Zolling…“ – „Im Garten das ahnungslose Huhn.“? – Nein. Ich denke nicht.

Literaturliste zum Thema (Auswahl):

  • Bunz, Mercedes (2012): Die stille Revolution. Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen. Berlin: Suhrkamp (edition unseld, 43).
  • Dang-Anh, Mark; Einspänner, Jessica; Thimm, Caja (2013): Die Macht der Algorithmen – Selektive Distribution in Twitter. In: Martin Emmer, Alexander Filipović, Jan-Hinrik Schmidt und Ingrid Stapf (Hg.): Echtheit, Wahrheit, Ehrlichkeit. Authentizität in der Online-Kommunikation. Weinheim, Basel: Beltz Juventa (Kommunikations- und Medienethik, 2), S. 74–87.
  • Dreyer, Stephan; Heise, Nele; Johnsen, Katharina (2014): „Code as code can“. Warum die Online-Gesellschaft einer digitalen Staatsbürgerkunde bedarf. In: Communicatio Socialis 46 (3-4). Online verfügbar unter http://ejournal.communicatio-socialis.de/index.php/cc/article/view/71/67.
  • Filipović, Alexander (2013): Die Enge der weiten Medienwelt. Bedrohen Algorithmen die Freiheit öffentlicher Kommunikation? In: Communicatio Socialis 46 (2), S. 192–208. Online verfügbar unter http://ejournal.communicatio-socialis.de/index.php/cc/article/view/93/89.