Mathematik als Waffe

Mathematik als Waffe

Rezension Die Mathematikerin Cathy O´Neil zeigt, wie Algorithmen dazu tendieren, gesellschaftliche Verhältnisse von Arm und Reich zu zementieren – weil sie in ihren „toxischen“ Annahmen keineswegs frei von Vorurteilen und Missverständnissen sind.

Wer sich über den Skandal um Facebook und die britische Datenfirma Cambridge Analytica empört, die im Verdacht steht, mit den Informationen von Millionen von Facebook-Nutzern mittels personalisierter Werbung die Wahl von Donald Trump beeinflusst zu haben, dem sei zum tieferen Verständnis das Buch „Angriff der Algorithmen“ von Cathy O´Neil empfohlen.

Die US-Amerikanerin ist zweifellos vom Fach: Die Mathematikerin (Promotion in Harvard) arbeitete als Datenanalystin bei einem Hedgefonds und in einer Online-Werbeagentur, bevor sie sich bei Occupy Wall Street engagierte und zur bloggenden Kritikerin der Digitalbranche wurde: Algorithmen seien eben nicht die wissenschaftlich-neutralen Formeln für das Erreichen hehrer Ziele, als die sie von ihren Anwendern gern dargestellt würden, sondern Instrumente, um Ziele wie Profit und Effizienz zu erreichen.

Anhand vieler Beispiele zeigt O´Neil sehr anschaulich die Tendenz der Algorithmen, bestehende gesellschaftliche Verhältnisse zu zementieren – eben weil sie in ihren „toxischen“ Annahmen keineswegs frei von Vorurteilen und Missverständnissen sind und aus historischen Personendaten zukünftige Wahrscheinlichkeiten berechnen: „Sie definieren ihre eigene Realität und verwenden diese dann, um ihre Ergebnisse zu rechtfertigen.“

So würden die Reichen und Privilegierten noch reicher und bevorzugter, die Armen und Benachteiligten noch ärmer und chancenloser. Als Kreditnehmer und Versicherungskunden. Als Bewerber um Studienplätze und Jobs. Am Arbeitsplatz. Als Online-Kunden, die Opfer „räuberischer Werbung“ für Hypothekendarlehen oder private, profitorientierte Hochschulen werden. Als Verdächtige bei polizeilichen Ermittlungen. Als Verurteilte, deren Strafmaß manche US-Richter mit Hilfe von Algorithmen errechnen. Letztlich sortierten Algorithmen Gewinner und Verlierer, weshalb O´Neil sie als „Weapons of Math Destruction“ (Mathematik-Vernichtungswaffen) bezeichnet – so auch der englische Originaltitel ihres Buches.

Zu den interessantesten Beispielen O´Niels gehört jenes über obskure, auf Algorithmen basierende Beurteilungssysteme für Lehrer in einigen US-Bundesstaaten, die absurde Ergebnisse hervorbrachten und zur Entlassung vieler guter Lehrer führten. Oder der Fall einer bundesstaatlichen Arbeitslosenversicherung, deren Algorithmus betrügerische Anträge finden sollte und mehr als 20.000 Personen fälschlicherweise des Betrugs beschuldigte  – eine Falschtrefferquote von 93 Prozent. Die Verwendung ausschließlich US-amerikanischer Beispiele ist denn auch die einzige Kritik an dem sonst sehr gut lesbaren, aufklärerischen Buch.

Die Autorin ist natürlich nicht naiv und weiß, dass Big Data unser Leben in Zukunft noch stärker bestimmen wird. Umso wichtiger sei es, die Algorithmen aus ihrer Black Box zu holen und unabhängigen Prüfern zugänglich zu machen. O´Neil spricht von einem „politischen Kampf“, der jetzt auszutragen sei: „Wir müssen gezielt bessere Wertvorstellungen in unsere Algorithmen einbauen und auf diese Weise Big-Data-Modelle entwickeln, die unseren moralischen Vorgaben folgen.“

Die Ära des blinden Glaubens an Big Data müsse zu Ende gehen: „Wir sollten nicht erwarten, dass der Algorithmus von Facebook in absehbarer Zukunft selbstständig wird erkennen können, ob ein bestimmter Artikel Propaganda enthält oder wahre Fakten.“ Aktueller könnte O´Neils Anliegen nicht sein angesichts eines Facebook-Chefs Zuckerberg, der gerade angekündigt hat, es werde noch „einige Jahre“ brauchen, um die Probleme mit dem Schutz von Nutzerdaten zu beheben; sein Unternehmen habe sich nicht genügend „um einige der negativen Gebrauchsweisen“ der von Facebook verwendeten Instrumente gekümmert. Er hätte es früher wissen müssen und können – auch aus Cathy O´Neils Buch.

Foto: Karsten Schöne

Nächster Artikel

Die Spitzen-Betriebsrätin

Portrait 3 Minuten lesedauer