Die Tyrannei des Like

Die Tyrannei des Like

Die Ranking-Algorithmen von Google und Facebook manipulieren Meinungen, laut Studien können sie sogar Wahlen entscheiden. Experimente zur Nutzung des „Like“-Button zeigen aber, dass der Facebook-Algorithmus vieles falsch versteht.

von Eva Wolfangel

Kann ein Computerprogramm die Menschen so beeinflussen, dass sie ihr Wahlverhalten ändern? Was klingt wie aus einem Sciencefictionfilm, treibt immer mehr Forschende um: sie warnen vor den Ranking-Verfahren von Google und Facebook, die unterschiedlichen Nutzer_innen verschiedene Ergebnisse anzeigen, und die die Weltsicht der Menschen beeinflussen. Bekannt ist bei Facebook der große Einfluss des „Like-Buttons“, mit dem Nutzer_innen Nachrichten mit „Gefällt mir“ markieren können. Sie bekommen in der Folge immer mehr Nachrichten angezeigt, die solchen ähnlich sind und können so zum Eindruck gelangen, dass ihre Meinung die Vorherrschende im Netz sei – auch dann, wenn sie einer kleinen Minderheit angehören. Manche Forscher_innen vermuten, dass dieser Effekt auch zu Trumps Sieg bei der US-Präsidentschaftswahl geführt haben könnte, was sich freilich nie nachweisen lassen wird. Bekannt ist allerdings, dass Trump und seine Unterstützer_innen die Mechanismen perfekt auszunutzen wussten, die Nachrichten zu „trending“ News werden lassen: unter anderem, wenn sie möglichst reißerisch und möglichst plakativ waren. Ob diese auch wahr waren, rückte für viele Unterstützer_innen in den Hintergrund nach dem Motto: was klickt, ist gut.

Rund 30 Prozent der US-Amerikaner_innen informieren sich laut der US-Soziologin Zeynep Tufekci via Facebook über aktuelle Nachrichten. Facebook hat selbst in mehreren Studien gezeigt, dass nur winzige Veränderungen in diesem Algorithmus die Meinung der Nutzer_innen zu den geteilten Inhalten anderer verändern. Auch die Wahlbeteiligung kann der Konzern laut einer eigenen Studie beeinflussen: Während der Kongresswahlen 2010 schickte Facebook 61 Millionen Nutzer_innen eine Nachricht, die sie an die Wahl erinnerte und anzeigte, wie viele ihrer Freund_innen schon wählen waren. Jene Nutzer_innen gingen signifikant häufiger wählen als die Kontrollgruppe ohne entsprechende Nachricht. Bei einem knappen Ausgang kann diese Manipulation wahlentscheidend sein, warnt Tufekci: „Facebook kann Wahlen beeinflussen – ohne dass wir das nachweisen können.“

Und Facebook ist nicht allein: Auch bei der Suchmaschine Google entscheidet eine komplexe Rechenvorschrift im Hintergrund, welche_r Nutzer_in welche Ergebnisse angezeigt bekommt. Studien des US-Psychologen Robert Epstein zeigen, wie eine veränderte Auswahl an Suchergebnissen Wähler_innen eher zugunsten des_der einen oder des_der anderen Kandidat_in entscheiden ließen. Nachdem Epstein das zunächst in einer Laborstudie testete, nutzte er schließlich die Wahlen in Indien 2014 für ein Experiment: er rekrutierte mehr als 2000 noch unentschlossene Wähler_innen und teilte sie in Gruppen ein: eine Gruppe bekam bei ihrer Recherche mehr Suchergebnisse über den einen, eine zweite Gruppe mehr über den anderen Kandidaten präsentiert: Die Vorlieben verschoben sich um durchschnittlich 9,5 Prozent jeweils zugunsten des Kandidaten, der in den Suchergebnissen bevorzugt vorkam.

Die Studie hat ihre Schwächen, unter anderem nutzte Epstein ja nicht Google, sondern simulierte eine Suchmaschine, die personalisierte Ergebnisse ausgibt. Da der Google-Algorithmus aber ein gut gehütetes Geheimnis ist, kann niemand ein realitätsgetreues Google nachbauen. Zudem gibt es aktuelle Erkenntnisse, nach denen der Effekt der Personalisierung bei der Googlesuche geringer ist als gedacht. Aber auch das muss nicht vollständig sein: Forschende können nur von außen betrachten, welche Ergebnisse Google ausspuckt.

Besonders brisant dabei: nur eine kleine Minderheit der Goolge- sowie der Facebook-Nutzer_innen weiß, dass ihre Ergebnisse individuell maschinell sortiert werden. Die meisten halten das schlicht für eine Abbildung der Realität. Solche Algorithmen nennt man „Gatekeeper“, da sie entscheiden, welche Inhalte zum_zur Nutzer_in durchdringen und welche nicht. Google und Facebook haben damit eine ähnliche Rolle und Verantwortung wie die klassischen analogen „Gatekeepers“ – beispielsweise Journalist_innen, die auswählen, welche Nachrichten es in die Zeitung schaffen. Nur dass in einer Zeitung alle Leser_innen das Gleiche zu sehen bekommen und wissen, dass es eine Auswahl ist. Der Entscheidungsprozess von algorithmischen Gatekeepern hingegen ist für die Nutzer_innen nicht nachvollziehbar – und das macht sie doppelt gefährlich, so Epstein: „Solche unsichtbaren Einflüsse überzeugen nicht nur, sie hinterlassen auch noch das Gefühl, man habe sich eine eigene Meinung gebildet, ohne äußere Beeinflussung.“

Doch beeinflussen die Suchergebnisse überhaupt die politische Einstellung der Nutzer_innen? Dazu hat eine Studie 2017 von Grant Blank von der University of Oxford mit Kolleg_innen der Michigan State University Erhellendes ergeben: Sie befragten 2000 zufällig und nach repräsentativen Kriterien ausgewählte Internetnutzer_innen aus Großbritannien, Frankreich, Deutschland, Polen, Italien, Spanien und den USA. Davon erklärte eine deutliche Mehrheit, dass die Internetsuche eine sehr zentrale Informationsquelle für sie sei und zudem vertrauenswürdiger als das Fernsehen, Radio sowie Freund_innen und Familie. 68 Prozent gaben an, die Suche zu nutzen, um zu entscheiden, wen sie wählen wollen und 42 Prozent geben die Suche als Quelle an, auf deren Basis sie ihre politischen Ansichten ändern.

Das ist eine große Verantwortung, betont Blank: „Die Art Information, die unterschiedliche Menschen bekommen, kann einen großen Einfluss darauf haben, wie diese ihre politische Meinung entwickeln.“ Da sich die Such-Algorithmen ständig änderten und zudem nicht einsehbar seien, sei es extrem schwierig zu wissen, was genau einzelne Nutzer_innen zu sehen bekommen. Die Studie ist übrigens von Google finanziell unterstützt worden – „die Datensammlung ist teuer“, sagt Blank, doch es habe keinerlei inhaltliche Beeinflussung gegeben.

Die Forschenden betonen allerdings auch, dass nicht nur Personalisierung eine Rolle spielt, sondern auch andere Faktoren des Rankings: der Algorithmus bewertet jene Internetseiten als relevanter, die viel gelesen und angeklickt werden. „Das führt dazu, dass die Bekannten immer bekannter werden, während die Unbekannten unbekannt bleiben.“ Und das nutze in Zeiten wie diesem vor allem dem Populismus. Die Nutzer_innen haben zusätzlich einen Populismus-Fragebogen ausgefüllt, und dabei sei ein Zusammenhang deutlich geworden, erklärt Blank: „Solche Leute lassen sich leichter von den Suchergebnissen beeinflussen als andere: die vertrauen den Medien nicht.“

Welche Faktoren genau in den Programmcode des Facebook-Algorithmus einfließen und wie sie gewichtet sind, ist ein gut gehütetes Geheimnis des Konzerns. Bekannt ist allerdings der große Einfluss des „Like-Buttons“, mit dem Nutzer_innen Nachrichten mit „Gefällt mir“ markieren können. Verschiedene Experimente zeigen das: so entschied sich beispielsweise die Designerin Elan Morgan, zwei Wochen lang den Like-Button zu ignorieren – und war begeistert: „Das machte Facebook eindeutig besser!“ Sie habe viel weniger Dinge angezeigt bekommen, die sie nicht sehen wollte. Denn offenbar hatte der Algorithmus manches falsch verstanden: wenn sie ein Foto süßer Katzenbabys likte, bekam sie auch Fotos von Katzen, die von Tierquäler_innen misshandelt worden waren. „Der Algorithmus versteht die vielen politischen, philosophischen und emotionalen Schattierungen eines Themas nicht“, bilanziert Morgan ihr Experiment, das eigentlich nur zwei Wochen dauern sollte. Sie beschloss, es auf ihr restliches Leben auszudehnen, so viel besser gefällt ihr Facebook ohne Like: „Es scheint, als ob ich mehr von dem bekomme, was ich mir wirklich wünsche, anstatt einfach mehr und extremere Versionen von dem vorgesetzt zu kriegen, was mir gefällt.“

Bedenklicher ist ein anderes Experiment, mit dem der französische Informatiker Kave Salamatian zeigte, wie sehr der Algorithmus eine Radikalisierung junger Menschen fördert. Der Forscher legte 130 Fake-Accounts bei Facebook an und ließ studentische Mitarbeitende drei Tage lang verschiedene Posts liken. „Wir haben dafür harmlose Themen ausgewählt, die junge Menschen interessieren“, erklärt Salamatian: beispielsweise Tierschutz, aktuelle Kinohits oder auch eine Gruppe „I am fat and I hate that“ (ich bin dick und hasse das). Nach diesen drei Tagen ließ er die Accounts allen Empfehlungen des Netzwerks folgen – sie akzeptierten jede_n neue_n Freund_in und klickten bei jedem Vorschlag auf „Like“. Nach weiteren drei Tagen hatten zehn der Profile direkten Kontakt zu Profilen des terroristischen IS, erste Recruiter_innen meldeten sich bei den Schützlingen.

Facebook selbst weist ebenso wie Google in solchen Fällen jede Verantwortung von sich. Aufgabe des Algorithmus sei lediglich, jedem_jeder Nutzer_in passende Suchergebnisse in kurzer Zeit zu präsentieren, so die einmütige Antwort. Erst auf Nachfrage und unter Wahrung der Anonymität erfährt man, dass bei den großen US-Unternehmen durchaus eine gewisse Ratlosigkeit herrscht: „Larry Page hat mich gefragt: wie können wir unseren Ranking-Algorithmus so verändern, dass er bessere ethische Entscheidungen trifft?“, berichtet ein Google-Mitarbeiter: „Der Wille ist da, aber die Lösung fehlt.“

Vielleicht hat sich Facebook unter diesen Vorzeichen nun doch gegen den angekündigten Dislike-Button entschieden. Dieser sei ein Schritt in die falsche Richtung, hatte Tufecki gewarnt: „Facebook braucht andere Wege, um Wichtigkeit oder Unterstützung zu signalisieren.“ Natürlich müsse der Feed irgendwie sortiert werden. Aber angesichts der „Tyrannei des Like“ gerieten beispielsweise politische Posts schnell in den Hintergrund: Babys und Hochzeiten dominieren den eigenen Feed, die Flüchtlingsproblematik findet auf Facebook fast nicht statt: wie sollte man sie auch Liken? Ob sich das mit den neuen Emoticons ändert, muss sich zeigen.

Was sollten Google oder Facebook idealerweise an den Toppositionen zeigen? Welche Faktoren sollten in einen entsprechenden Algorithmus einfließen, damit die Demokratie gestärkt wird? „Darauf gibt es keine einfache, keine richtige Antwort“, sagt Soziologin Tufekci. Informatiker Salamatian betont, dass insbesondere jungen Menschen eine große Vielfalt angezeigt werden sollte – und eben nicht nur die Posts, von denen der Algorithmus glaubt, dass sie deren Ausrichtung gut finden. Also eine Abschwächung des Rankings, dessen Wert ja genau darin besteht, individuell auszuwählen. Doch selbst wenn man davon ausgeht, dass auch die großen US-Unternehmen ihre Verantwortung zumindest nicht bewusst missbrauchen, stimmt die dortige Ratlosigkeit eher misstrauisch. Wer Wahlen manipulieren kann, sollte auch eine Idee davon haben, wie er genau das vermeiden kann.

Die Rechte für diesen Text liegen bei der Autorin, bitte kontaktieren Sie Frau Wolfangel, wenn Sie diesen Text im Rahmen Ihrer Bildungsarbeit oder anderweitig verwenden möchten.

Autor_in