Ist unser Verhalten algorithmisch vorhersagbar?

Am Wochenende geisterte ein verstörender Artikel durch Twitter – „Ich habe nur gezeigt, dass es die Bombe gibt“. Mit der „Bombe“ war gemeint, dass ein Forscher namens Michal Kosinski glaubt anhand von Facebook-Likes recht intime Dinge von Menschen vorhersagen zu können – etwa die sexuelle Orientierung.

Den Originalttext der Studie findet man hier, erste Auseinandersetzung mit der statistischen Qualität hier. Die Studie wurde schon vor einiger Zeit medial diskutiert, gewinnt natürlich aber natürlich im Kontext des Brexit oder der Trumpwahl wieder an Brisanz: Sind beide Wahlen vielleicht über Social-Media-Bots gezielt manipuliert worden? Nutzt vielleicht sogar die AFD diese Technologie, um Wahlergebnisse in ihrem Sinn zu beeinflussen?

Algorithmische Modelle, um das Verhalten von Menschen vorauszusagen oder zu simulieren, gibt es schon sehr lange. Schon in den 60er Jahren entwickelte Joseph Weizenbaum ein nach heutigen Maßstäben primitives Programm, um ein menschliches Gegenüber zu simulieren. Heute kennen wir digitale Assistenten wie Siri oder Cortana, die einfache Funktionen sprachbasiert zur Verfügung stellen.

Etwas Ähnliches macht ein Social-Media-Bot. Im einfachsten Fall twittert er über das Wetter auf Basis von Wetterdaten aus einer Datenbank. Bots gibt es unglaublich viele – manche sind leicht als solche zu erkennen, bei manchen fällt es erst auf, wenn versucht, mit ihnen in Interaktion zu treten. Im Prinzip ist schon ein WordPresssystem, welches bei neuen Artikeln direkt twittert, eine Art Bot. So etwas nutzt natürlich auch die AFD – reiht sich damit aber in die Reihe der anderen Parteien ein.

Natürlich lässt sich ein Bot prinzipiell mit beliebigen Daten koppeln, also auch mit Datenbanken zu Vorhersage von menschlichem Verhalten – Konsinski glaubt ja, eine solche auf Basis von öffentlich zugänglichen Profildaten erstellen zu können.

Damit „sucht“ der Bot im Falle der Trumpwahl also gezielt Profile von Menschen, die noch unentschieden sind und „versorgt“ diese mit geeigneten Artikeln oder schlägt Profile vor, die Trump nahe stehen.

Diese Vorstellung wird in Teilen des Internets als „Angstmacherei“ und „völlig überzogen“ abgetan. Die algorithmische Analyse menschlichen Verhaltens habe sich oft genug als „Bullshit“ herausgestellt. Derartige Darstellungen seien also zu unterlassen (sie könnten die Bevölkerung verunsichern).

Das stimmt für mich nur teilweise. Tatsächlich ist das bezogen auf den Trump- oder AFD-Kontext wahscheinlich Bullshit. Meine Lieblingsgeschichte ist die der Drogeriemarktkette Target, die algorithmisch bestimmen konnte, ob eine Schwangerschaft bei einer Frau vorlag.

Um schwangere Frauen zu beeinflussen, muss nicht zwingend etwas über deren Charakter bekannt sein. Es reicht u.U. schon zu wissen, dass sie schwanger sind.

Hinter der „Angstmachereithese“ stecken für mich gewisse bildungsbürgerlich-romantische Grundannahmen:

  1. Menschliches Verhalten ist sehr komplex, zu komplex, um einer algorithmischen Analyse zugänglich zu sein.
  2. Menschen sind autonome Geschöpfe mit einem freien Willen.
  3. Socialmedia erweitert den Horizont durch die Möglichkeit der unbegrenzten Vernetzung.
  4. Das Internet ist eine Bereicherung der menschlichen Ausdrucksfähigkeit und Freiheit.

Demgegenüber stehen über 50 Jahre algorithmische Entwicklungsarbeit und immense, bisher wohl weitgehend ungenutzte Datenbestände. Das Individuum kann man heute wohl (noch) nicht mit hinreichender Genauigkeit bestimmen – außer Lehrern mit ihren sehr typischen Tweets und Posts :o)…

Bei der Masse bin ich mir da nicht so sicher. Informationsverbreitung kostet heute kaum noch etwas, sodass auch mit Unschärfe das Prinzip der großen Zahl immer noch tragen wird. Bei knappen Entscheidungen muss ich nicht alle adressieren. Wenige Prozent reichen u.U..

Das wäre natürlich doof, weil es den Mythos des freien Internets doch arg demontiert. Wenn Technologiekonzerne und Agenturen bestimmen, was wir sehen und mit wem wir in Kontakt treten – schon irgendwie eher feudalistisch. Sehr beruhigend, dass Google, Facebook, Apple, Amazon und Microsoft ja sehr transparent darlegen, wie ihr jeweiliger Algorithmus eigentlich arbeitet.

Ach nee – das mit der Transparenz war ja nicht in dieser Welt.

 

 

 

Facebook Like

Ein Kommentar

  • Ich stimme den Kritikern dieses Artikels in einigen Punkten zu: Ja, der Artikel bietet eine einfach Antwot auf die „Wie konnte das passieren?“-Frage und ja, es ist auch tolle Werbung für das Unternehmen. Ob die personalisierte Wahlwerbung nun entscheidend war oder nicht ist m.E. aber auch gar nicht wichtig. Sie könnte es aber (in Zukunft) sein, denn dass der Mensch einen freien Willen hat, der sich nicht von Algorithmen erkennen und beeinflussen lässt, bezweifle ich ebenso wie du: Wenn schon dumme Argumente wie „Lassen Sie mich zum Kopierer, denn ich muss etwas kopieren“ oder das Schenken eines Kugelschreibers (beides Beispiele aus Die Psychologie des Überzeugens von Robert B. Cialdini ) empirisch nachweisbar das Verhalten eines Menschen beeinflusst, dann sicherlich auch die dauernde Wiederholung von auf die (vermutete) Zielgruppe zugeschusterten Aussagen. Klar, muss dafür eine Basis vorhanden sein, aber dieses Verstärken von latent vorhandenen Einstellungen ist doch genau das Wesen von Wahlkampagnen. (Wahl-)Werbung arbeitet schon seit Jahren so und Big Data und Social Bots können diese Strategien verfeinern und genutzt werden um unseren Horizont zu verengen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.