Bildung schützt nicht - Wie man „Wahrheit“ füttert
Ich bin entsetzt. Nicht über Desinformation im Netz, sondern über die Naivität gebildeter Menschen, die dieser Desinformation auf algorithmisch veredeltem Weg täglich begegnen – und sie nicht mehr erkennen. Als langjähriger Dozent – u.a. für Medien-Kommunikation und -Psychologie – an der Universität Stuttgart habe ich mir eingebildet, dass akademische Bildung ein gewisser Schutz sei. Doch das Gegenteil ist der Fall. Ein alter Freund von mir sagte einmal: „EDV – Entmündigung des Verstandes“. Aber ist genau dieser Freund nicht dennoch Opfer von Algorithmen geworden?
Algorithmen bestätigen uns selbst
Was wir für Information halten, ist oft bloß das Spiegelbild unserer eigenen Überzeugung – geliefert von einem Algorithmus, der uns möglichst lange bei der Stange halten will. Eli Pariser hat dieses Phänomen schon 2011 „Filterblase“ genannt (Pariser, E.: The Filter Bubble. Penguin Press, 2011). Wer einmal eine Richtung eingeschlagen hat, bekommt sie laufend verstärkt. Das ist keine Manipulation mit Schaum vorm Mund. Es ist mentale Komfortzonen-Pflege – sehr effizient, und unsichtbar.
Kein Vertrauen in Maschinen
Besonders perfide wird es, wenn Menschen – gerade mit akademischer Ausbildung – Algorithmen mehr trauen als dem Urteil anderer Menschen. Eine Studie belegt: „Menschen bevorzugen algorithmische gegenüber menschlichen Entscheidungen bei komplexen Aufgaben“ (Logg, J. M., Minson, J. A., Moore, D. A. (2019): Algorithm appreciation. Organizational Behavior and Human Decision Processes, 151, 90–103).
Das gilt auch für Intelektuelle, für Wissenschaftler. Gerade sie glauben an „objektive Systeme“ – und erkennen nicht, wie sehr diese Systeme sie bestätigen statt irritieren.
Gebildete in Echokammern
Polarisierung durch Algorithmen ist ebenfalls dokumentiert. Cinelli et al. zeigen in ihrer PNAS-Studie: „Je gebildeter ein Nutzer, desto aktiver ist er in der Verstärkung eigener Sichtweisen“ (Cinelli, M. et al. (2021): The echo chamber effect on social media. PNAS, 118(9), e2023301118). Bildung macht nicht immun – sie macht zuweilen blind für systematische Bestätigung.
[PNAS steht für: Proceedings of the National Academy of Sciences of the United States of America. Eine der renommiertesten wissenschaftlichen Fachzeitschriften der Welt. Gegründet wurde sie bereits im Jahr 1914]
Gefühle werden gelenkt
Noch alarmierender ist die emotionale Beeinflussung. In einem Facebook-Experiment wurden 2014 über 600.000 Menschen algorithmisch emotional gesteuert – indem ihre Feeds mit gezielt positiven oder negativen Beiträgen gefüttert wurden. Die Folge: Ihre eigene Sprache veränderte sich (Kramer, A. D. I., Guillory, J. E., Hancock, J. T. (2014): Emotional contagion through social networks. PNAS, 111(24), 8788–8790).
Niemand hat das bemerkt – auch Akademiker nicht!
Mein Fazit
Ich schreibe diesen Leserbrief aus Enttäuschung. Intellektuelle, die ich jahrzehntelang für kritisch und differenziert hielt, schreiben heute oft nur noch das, was ihre digitale Umgebung bestätigt. Und manchen schicken mir derartige Ergüsse zu. Algorithmen haben ihr Denken gekapert – nicht durch Lüge, sondern durch perfekte Bestätigung. Und sie bemerken es nicht. Das gefährdet nicht nur die Debattenkultur. Es bedroht das demokratische Fundament. Denn wer keine Widersprüche mehr zulässt, lässt letztlich auch keine Freiheit mehr zu.
J. Stimpfig