Ist unser Verhalten algorithmisch vorhersagbar?

Am Wochen­en­de geis­ter­te ein ver­stö­ren­der Arti­kel durch Twit­ter - „Ich habe nur gezeigt, dass es die Bom­be gibt”. Mit der „Bom­be” war gemeint, dass ein For­scher namens Michal Kosin­ski glaubt anhand von Face­book-Likes recht inti­me Din­ge von Men­schen vor­her­sa­gen zu kön­nen — etwa die sexu­el­le Ori­en­tie­rung.

Den Ori­gi­nalt­text der Stu­die fin­det man hier, ers­te Aus­ein­an­der­set­zung mit der sta­tis­ti­schen Qua­li­tät hier. Die Stu­die wur­de schon vor eini­ger Zeit medi­al dis­ku­tiert, gewinnt natür­lich aber natür­lich im Kon­text des Brex­it oder der Trump­wahl wie­der an Bri­sanz: Sind bei­de Wah­len viel­leicht über Soci­al-Media-Bots gezielt mani­pu­liert wor­den? Nutzt viel­leicht sogar die AFD die­se Tech­no­lo­gie, um Wahl­er­geb­nis­se in ihrem Sinn zu beein­flus­sen?

Algo­rith­mi­sche Model­le, um das Ver­hal­ten von Men­schen vor­aus­zu­sa­gen oder zu simu­lie­ren, gibt es schon sehr lan­ge. Schon in den 60er Jah­ren ent­wi­ckel­te Joseph Wei­zen­baum ein nach heu­ti­gen Maß­stä­ben pri­mi­ti­ves Pro­gramm, um ein mensch­li­ches Gegen­über zu simu­lie­ren. Heu­te ken­nen wir digi­ta­le Assis­ten­ten wie Siri oder Cor­ta­na, die ein­fa­che Funk­tio­nen sprach­ba­siert zur Ver­fü­gung stel­len.

Etwas Ähn­li­ches macht ein Soci­al-Media-Bot. Im ein­fachs­ten Fall twit­tert er über das Wet­ter auf Basis von Wet­ter­da­ten aus einer Daten­bank. Bots gibt es unglaub­lich vie­le — man­che sind leicht als sol­che zu erken­nen, bei man­chen fällt es erst auf, wenn ver­sucht, mit ihnen in Inter­ak­ti­on zu tre­ten. Im Prin­zip ist schon ein Wor­d­Press­sys­tem, wel­ches bei neu­en Arti­keln direkt twit­tert, eine Art Bot. So etwas nutzt natür­lich auch die AFD — reiht sich damit aber in die Rei­he der ande­ren Par­tei­en ein.

Natür­lich lässt sich ein Bot prin­zi­pi­ell mit belie­bi­gen Daten kop­peln, also auch mit Daten­ban­ken zu Vor­her­sa­ge von mensch­li­chem Ver­hal­ten — Kon­sin­ski glaubt ja, eine sol­che auf Basis von öffent­lich zugäng­li­chen Pro­fil­da­ten erstel­len zu kön­nen.

Damit „sucht” der Bot im Fal­le der Trump­wahl also gezielt Pro­fi­le von Men­schen, die noch unent­schie­den sind und „ver­sorgt” die­se mit geeig­ne­ten Arti­keln oder schlägt Pro­fi­le vor, die Trump nahe ste­hen.

Die­se Vor­stel­lung wird in Tei­len des Inter­nets als „Angst­ma­che­rei” und „völ­lig über­zo­gen” abge­tan. Die algo­rith­mi­sche Ana­ly­se mensch­li­chen Ver­hal­tens habe sich oft genug als „Bull­shit” her­aus­ge­stellt. Der­ar­ti­ge Dar­stel­lun­gen sei­en also zu unter­las­sen (sie könn­ten die Bevöl­ke­rung ver­un­si­chern).

Das stimmt für mich nur teil­wei­se. Tat­säch­lich ist das bezo­gen auf den Trump- oder AFD-Kon­text wah­schein­lich Bull­shit. Mei­ne Lieb­lings­ge­schich­te ist die der Dro­ge­rie­markt­ket­te Tar­get, die algo­rith­misch bestim­men konn­te, ob eine Schwan­ger­schaft bei einer Frau vor­lag.

Um schwan­ge­re Frau­en zu beein­flus­sen, muss nicht zwin­gend etwas über deren Cha­rak­ter bekannt sein. Es reicht u.U. schon zu wis­sen, dass sie schwan­ger sind.

Hin­ter der „Angst­ma­che­reithe­se” ste­cken für mich gewis­se bil­dungs­bür­ger­lich-roman­ti­sche Grund­an­nah­men:

  1. Mensch­li­ches Ver­hal­ten ist sehr kom­plex, zu kom­plex, um einer algo­rith­mi­schen Ana­ly­se zugäng­lich zu sein.
  2. Men­schen sind auto­no­me Geschöp­fe mit einem frei­en Wil­len.
  3. Soci­al­me­dia erwei­tert den Hori­zont durch die Mög­lich­keit der unbe­grenz­ten Ver­net­zung.
  4. Das Inter­net ist eine Berei­che­rung der mensch­li­chen Aus­drucks­fä­hig­keit und Frei­heit.

Dem­ge­gen­über ste­hen über 50 Jah­re algo­rith­mi­sche Ent­wick­lungs­ar­beit und immense, bis­her wohl weit­ge­hend unge­nutz­te Daten­be­stän­de. Das Indi­vi­du­um kann man heu­te wohl (noch) nicht mit hin­rei­chen­der Genau­ig­keit bestim­men — außer Leh­rern mit ihren sehr typi­schen Tweets und Posts :o)…

Bei der Mas­se bin ich mir da nicht so sicher. Infor­ma­ti­ons­ver­brei­tung kos­tet heu­te kaum noch etwas, sodass auch mit Unschär­fe das Prin­zip der gro­ßen Zahl immer noch tra­gen wird. Bei knap­pen Ent­schei­dun­gen muss ich nicht alle adres­sie­ren. Weni­ge Pro­zent rei­chen u.U..

Das wäre natür­lich doof, weil es den Mythos des frei­en Inter­nets doch arg demon­tiert. Wenn Tech­no­lo­gie­kon­zer­ne und Agen­tu­ren bestim­men, was wir sehen und mit wem wir in Kon­takt tre­ten — schon irgend­wie eher feu­da­lis­tisch. Sehr beru­hi­gend, dass Goog­le, Face­book, Apple, Ama­zon und Micro­soft ja sehr trans­pa­rent dar­le­gen, wie ihr jewei­li­ger Algo­rith­mus eigent­lich arbei­tet.

Ach nee — das mit der Trans­pa­renz war ja nicht in die­ser Welt.