Ist unser Verhalten algorithmisch vorhersagbar?

Am Wochenende geisterte ein verstörender Artikel durch Twitter – „Ich habe nur gezeigt, dass es die Bombe gibt“. Mit der „Bombe“ war gemeint, dass ein Forscher namens Michal Kosinski glaubt anhand von Facebook-Likes recht intime Dinge von Menschen vorhersagen zu können – etwa die sexuelle Orientierung.

Den Originalttext der Studie findet man hier, erste Auseinandersetzung mit der statistischen Qualität hier. Die Studie wurde schon vor einiger Zeit medial diskutiert, gewinnt natürlich aber natürlich im Kontext des Brexit oder der Trumpwahl wieder an Brisanz: Sind beide Wahlen vielleicht über Social-Media-Bots gezielt manipuliert worden? Nutzt vielleicht sogar die AFD diese Technologie, um Wahlergebnisse in ihrem Sinn zu beeinflussen?

Algorithmische Modelle, um das Verhalten von Menschen vorauszusagen oder zu simulieren, gibt es schon sehr lange. Schon in den 60er Jahren entwickelte Joseph Weizenbaum ein nach heutigen Maßstäben primitives Programm, um ein menschliches Gegenüber zu simulieren. Heute kennen wir digitale Assistenten wie Siri oder Cortana, die einfache Funktionen sprachbasiert zur Verfügung stellen.

Etwas Ähnliches macht ein Social-Media-Bot. Im einfachsten Fall twittert er über das Wetter auf Basis von Wetterdaten aus einer Datenbank. Bots gibt es unglaublich viele – manche sind leicht als solche zu erkennen, bei manchen fällt es erst auf, wenn versucht, mit ihnen in Interaktion zu treten. Im Prinzip ist schon ein WordPresssystem, welches bei neuen Artikeln direkt twittert, eine Art Bot. So etwas nutzt natürlich auch die AFD – reiht sich damit aber in die Reihe der anderen Parteien ein.

Natürlich lässt sich ein Bot prinzipiell mit beliebigen Daten koppeln, also auch mit Datenbanken zu Vorhersage von menschlichem Verhalten – Konsinski glaubt ja, eine solche auf Basis von öffentlich zugänglichen Profildaten erstellen zu können.

Damit „sucht“ der Bot im Falle der Trumpwahl also gezielt Profile von Menschen, die noch unentschieden sind und „versorgt“ diese mit geeigneten Artikeln oder schlägt Profile vor, die Trump nahe stehen.

Diese Vorstellung wird in Teilen des Internets als „Angstmacherei“ und „völlig überzogen“ abgetan. Die algorithmische Analyse menschlichen Verhaltens habe sich oft genug als „Bullshit“ herausgestellt. Derartige Darstellungen seien also zu unterlassen (sie könnten die Bevölkerung verunsichern).

Das stimmt für mich nur teilweise. Tatsächlich ist das bezogen auf den Trump- oder AFD-Kontext wahscheinlich Bullshit. Meine Lieblingsgeschichte ist die der Drogeriemarktkette Target, die algorithmisch bestimmen konnte, ob eine Schwangerschaft bei einer Frau vorlag.

Um schwangere Frauen zu beeinflussen, muss nicht zwingend etwas über deren Charakter bekannt sein. Es reicht u.U. schon zu wissen, dass sie schwanger sind.

Hinter der „Angstmachereithese“ stecken für mich gewisse bildungsbürgerlich-romantische Grundannahmen:

  1. Menschliches Verhalten ist sehr komplex, zu komplex, um einer algorithmischen Analyse zugänglich zu sein.
  2. Menschen sind autonome Geschöpfe mit einem freien Willen.
  3. Socialmedia erweitert den Horizont durch die Möglichkeit der unbegrenzten Vernetzung.
  4. Das Internet ist eine Bereicherung der menschlichen Ausdrucksfähigkeit und Freiheit.

Demgegenüber stehen über 50 Jahre algorithmische Entwicklungsarbeit und immense, bisher wohl weitgehend ungenutzte Datenbestände. Das Individuum kann man heute wohl (noch) nicht mit hinreichender Genauigkeit bestimmen – außer Lehrern mit ihren sehr typischen Tweets und Posts :o)…

Bei der Masse bin ich mir da nicht so sicher. Informationsverbreitung kostet heute kaum noch etwas, sodass auch mit Unschärfe das Prinzip der großen Zahl immer noch tragen wird. Bei knappen Entscheidungen muss ich nicht alle adressieren. Wenige Prozent reichen u.U..

Das wäre natürlich doof, weil es den Mythos des freien Internets doch arg demontiert. Wenn Technologiekonzerne und Agenturen bestimmen, was wir sehen und mit wem wir in Kontakt treten – schon irgendwie eher feudalistisch. Sehr beruhigend, dass Google, Facebook, Apple, Amazon und Microsoft ja sehr transparent darlegen, wie ihr jeweiliger Algorithmus eigentlich arbeitet.

Ach nee – das mit der Transparenz war ja nicht in dieser Welt.