beziehungsweise – weiterdenken

Forum für Philosophie und Politik

Rubrik anschauen

Die einprogrammierten Vorurteile der Algorithmen

Von Antje Schrupp

Joy Buolamwini vom MIT deckt rassistische und sexistische Vorurteile in Algorithmen auf. Foto: Netflix

Der Film beginnt mit einer Entdeckung: Bei einem Kunstprojekt will die Wissenschaftlerin Joy Buolamwini eine Software benutzen, die Gesichter vermisst. Aber aus irgendwelchen Gründen funktioniert das nicht so, wie es sollte. Bis sie herausfindet, wo das Problem liegt: Die Software kommt mit ihrer schwarzen Hautfarbe nicht zurecht. Mit Gesichtern weißer Menschen klappt es einwandfrei. Der Grund ist simpel: Der Algorithmus der Software wurde ausschließlich mit Bildern von weißen Gesichtern trainiert – und kann daher Schwarze nicht gut erkennen.

Ähnliche Beispiele gibt es in der Softwarewelt unzählige. Rechenprogramme sind immer nur so neutral wie diejenigen, die sie programmieren. Und deshalb sind die Vorurteile der von weißen Männern dominierten Computerbranche direkt in die Produkte, die dort hergestellt werden, eingeflossen. Und: Dort zementieren sie bereits vorhandene Vorurteile und verbreiten diese immer mehr.

Es steht dabei deutlich mehr auf dem Spiel als dass hin und wieder ein Kunstprojekt nicht so verläuft, wie es sollte. Aus den verzerrenden Algorithmen entstehen handfeste Benachteiligungen in der realen Welt. Ob es um Zugang zu Krankenversicherung, um Überwachungskameras vor Wohnblocks, um Evaluierung von Kreditwürdigkeit geht – in sehr vielen Fällen bekommen die von Algorithmen errechneten Vorschläge und Ergebnisse eine Schlagseite, die Dynamik entfaltet. Algorithmen beeinflussen ganz direkt die Lebenschancen und Möglichkeiten von Menschen.

Wenn nichts gegen diese Gefahr unternommen wird, so warnen die Expertinnen, die in dem Film zu Wort kommen, können soziale Errungenschaften nachhaltig untergraben und zurückgedreht werden, und das alles unter dem Deckmantel der angeblichen Neutralität – weil viele glauben, Mathematik hätte doch keine Vorurteile. Besonders gravierend wird es im Fall von so genannter „künstlicher Intelligenz“, also wenn Programme sich selbstständig weiterentwickeln.

Ein hauptsächliches Problem bei all dem ist, dass Software-Produkte in der Regel keiner gesellschaftlichen Kontrolle unterliegen, sondern privatwirtschaftlich vermarktet werden. Auch Staaten kaufen ihre Software bei profitorientierten Unternehmen. Die Firmen aber legen die Programmierung ihrer Codes nicht offen, da sie als Betriebsgeheimnis gilt. Das heißt, die Benachteiligung oder Verzerrung zu Ungunsten von Menschen, die keine weißen Männer sind, lässt sich im konkreten Fall überhaupt nicht nachweisen. Meist ist sie den Programmierern selber ja gar nicht bekannt. Das heißt: Der Computer entscheidet so oder so, aber niemand weiß genau, warum eigentlich. Und es gibt bislang kaum eine ethische oder politische Kontrolle. Verzerrte Algorithmen heben damit die Strukturen gesellschaftlicher Diskriminierung auf ein ganz neues Level.

Es sind auffälligerweise ganz überwiegend Frauen, die in den vergangenen Jahren zu diesen Themen geforscht haben. Die Filmemacherin Shalini Kantayya hat für ihren Film die wichtigsten davon vor die Kamera geholt: Die Autorin von „Weapons of Math Destruction“, Cathy O’Neil, die Autorin von „Automating Inequality“ Virginia Eubanks, die KI-Forscherinnen Timnit Gebru und Meredithi Broussard. Außerdem spricht sie mit britischen Aktivist:innen von „Big Brother Watch UK“, begleitet eine chinesische Studentin in ihrem durchdigitalisierten Alltag und die Bewohner:innen eines sozialen Brennpunkts, die sich gegen Überwachung wehren. Ein sehr wichtiger und sehenswerter Film!

Coded Bias – Vorprogrammierte Diskriminierung, USA 2020. Englisch mit deutschen Untertiteln. Regie und Buch Shalini Kantayya, Netflix, 85 Minuten.

Kommentare zu diesem Beitrag

  • Brigitte Leyh sagt:

    Liebe Antje,
    danke für den Hinweis auf diesen wichtigen Film. Leider zeigt sich auch hier einmal wieder, dass alle Neuerungen (hier Algorithmen) stets im Hinblick auf Rasse und Gender beäugt werden müssen.

  • Regina sagt:

    Bin gerade in einem Webinar genau zu diesem Thema, unter anderem von der EAF Berlin , auch INQA In Dortmund macht etwas zu diesem Thema wo explizit Feministinnen gefragt sind und Projekte machen.
    Lauter junge Frauen, die sich dieser KI annehmen und sich einmischen und sich befähigen und andere, um ihm die geschlechtsspezifische Vielfalt und andere Vielfalt mit einzubeziehen. Ausgangsfrage des Webinareswar: KI lernt aus der Vergangenheit, von Mustern und Gedanken, meist von Männern, auch wer Entscheidungen trifft . Bisherige Diskriminierungserfahrungen werden von KI grandios gespiegelt , Weil genau das homogene das homogene erzeugt. Interessanterweise wurden hier die weiblichen Kompetenzen angesprochen, um der Zunahme von Roboting humanzentriertesverhalten und nutzen von KI eingearbeitet wird. Kreative, soziale und sinnliche Intelligenz. Im Seminar wurde die Hoffnung verbreitet, dass KI helfen wird , dir ewig alten Probleme und Diskriminierungserfahrungen von Frauen zu überwinden, wenn sich ausreichend Frauen dort einbringen. Und gleichzeitig ist es ärgerlich, dass es immer wieder so ist, dass die Frauen hinterher rennen Statt selbst proaktiv eine Welt zu entwerfen, die auch noch ganz anders aussehen könnte. Und immer wieder müssen die Statt kreativ zu sein, so viel Energie in Antidiskriminierung, Sensibilisierung und Aufklärung stecken. Nun denn. Das Webinar wurde von Frauen geleitet, die alle unter 30 sind. Ich glaube die älteste als Referentin war die Geschäftsführerin der Weiberwirtschaft in Berlin.

Verweise auf diesen Beitrag

Weiterdenken

Menü