Wenn insbesondere in sozialen Medien die Grenzen
zwischen Meinungen, Nachrichten und Fehlinformationen immer mehr
verschwimmen, ist schnell von „Filterblase“ die Rede. Offenbar etwas
zu schnell, so ein Resümee von Prof. Dr. Katharina Zweig aus dem
Forschungsprojekt #Datenspende, das gestern in Berlin präsentiert
wurde. Die Projektpartner – sechs Medienanstalten, Spiegel online und
AlgorithmWatch – hatten unter dem Titel „Algorithmen transparent
machen – Google und die Bundestagwahl – Lehren aus dem Projekt
#Datenspende“ zur Diskussion über die Frage eingeladen, wie wir
Einsicht in gesellschaftliche Algorithmen nehmen können. Denn es
mache einen Unterschied, nach welchen Kriterien Informationen durch
Intermediäre (soziale Medien und Suchmaschinen) präsentiert werden,
begründete Dr. Anja Zimmer, Direktorin der Mediananstalt
Berlin-Brandenburg (mabb) die Motivation der beteiligten
Medienanstalten, die Studie zu finanzieren.
„Algorithmen lenken zunehmend unsere Aufmerksamkeit, beeinflussen
unsere Medienwahrnehmung und kennen unsere Vorlieben“, hatte
BLM-Präsident Siegfried Schneider die Bedeutung dieser automatischen
Entscheidungsprozesse zum Auftakt der Veranstaltung verdeutlicht.
Deshalb wäre es so wichtig, nach ihrer Wirkung zu fragen. Nur wenn
wir Transparenz schafften und dieser Punkt auch gesetzlich
festgeschrieben werde, lasse sich aus Sicht der Medienanstalten
gegensteuern, betonte Schneider. Diese Transparenzforderung ist eine
von drei Mindeststandards für Informationsintermediäre, die laut Uwe
Conradt, Direktor der Landesmedienanstalt Saarland, medienrechtlich
festgeschrieben werden sollten. Transparenz bedeute im engeren Sinne,
die Kriterien zur Aggregation, Selektion und Präsentation von
Inhalten zur Verfügung zu stellen und Angaben über den Einfluss
personenbezogener Daten und des vorangegangenen Nutzungsverhaltens zu
bekommen.
Ob sich als Regulierungsinstrument eher eine medienrechtliche oder
eine kartellrechtliche Lösung eigne, darüber waren sich die
Diskussionsteilnehmer nicht ganz einig. So verdeutlichte Thomas
Jarzombek, Sprecher der CDU/CSU-Bundestagsfraktion für die Digitale
Agenda, mit einem Vergleich die Gefahr, wenn zum Beispiel Facebook
die Timeline so steuere, dass immer die Emotionen bedient würden:
„Irgendwann habe ich in meiner Timeline nur noch intellektuelle
Süßigkeiten und die drögen Sachnachrichten nehme ich nicht mehr
wahr.“ Die Macht von Facebook & Co ist seiner Ansicht nach jedoch
eher über das Kartellrecht zu begrenzen.
Dass die Gesellschaft personalisierte Algorithmen untersuchen
kann, habe das Forschungsprojekt #Datenspende am Beispiel der
Google-Suche nach Personen und Parteien im Vorfeld der Bundestagswahl
2017 gezeigt. 4.384 Teilnehmer hatten, unterstützt durch
AlgorithmWatch und Spiegel online, knapp sechs Millionen
Ergebnislisten als Daten gespendet, erläuterte die Informatikerin
Zweig von der Technischen Universität Kaiserslautern die Rahmendaten
der Studie.
Entgegen der Vermutung in der Filterblasentheorie von Eli Pariser
ist die Personalisierung von Suchergebnissen auf Google aber weit
geringer als erwartet. Zumindest mit Blick auf Google sei die
Filterblase geplatzt, lautet für die Informatikerin Zweig eine Lehre
aus dem Projekt #Datenspende. Der Bedarf nach Transparenz in den
Codes sei nicht notwendig, solange kein Verdachtsmoment bestehe.
Allerdings verdeutlichte sie im Rahmen der Podiumsdiskussion, dass
die Studie eine Momentaufnahme sei und nur einen kleinen
Themenausschnitt behandele. Jan Kottmann, Leiter Medienpolitik von
Google Germany, betonte auf dem Podium mehrfach Googles transparente
Informationspolitik. Im Bereich Rasse, politische und sexuelle
Orientierung gebe es keine Personalisierung. Genau das sei schon
immer Googles Standpunkt gewesen.
Heißt das also, weiter so? Nein, so das Fazit auf dem Podium. Zum
einen sind andere soziale Medien wie beispielsweise Facebook eben
nicht so zugänglich in puncto Algorithmen, und zum anderen geht es
darum, die Mediennutzer und -nutzerinnen aufzuklären, wie Daten unser
Informationsverhalten steuern.
Das Forschungsprojekt #Datenspende wurde finanziert von den
Landesmedienanstalten Bayern (BLM), Berlin-Brandenburg (mabb), Hessen
(LPR Hessen), Rheinland-Pfalz (LMK), Saarland (LMS) und Sachsen (SLM)
und durchgeführt in Kooperation mit der gemeinnützigen Initiative für
die Kontrolle algorithmischer Entscheidungsfindung AlgorithmWatch
sowie der TU Kaiserslautern.
Die Präsentationen aus der Veranstaltung finden Sie unter:
https://www.blm.de/blm-events/events-2018/algorithmen.cfm.
Pressekontakt:
Bettina Pregel
Stellv. Pressesprecherin
Tel. (089) 63808-318
bettina.pregel@blm.de
Original-Content von: BLM Bayerische Landeszentrale für neue Medien, übermittelt durch news aktuell