G-S4GT7B1NSH

Diskriminierende Künstliche Intelligenz

von Aug 16, 2021Allgemein, Digitalisierung0 Kommentare

Computerprogramme sollen zunehmend menschliche Entscheidungen ersetzen. Das soll zu objektiveren Beurteilungen führen und Gleichbehandlung garantieren. Leider ist das ein Trugschluss.

Von Moritz Müllender

Ist eine Welt, in der Künstliche Intelligenz (KI) über Bewerbungen, Strafverfolgung und Kreditwürdigkeit entscheidet, eine Utopie oder eine Dystopie? Viele argumentieren, dass KI zu mehr Gerechtigkeit führe. Ein neutrales System unbeeinflusst von menschlichen Neigungen, Vorurteilen und diskriminierenden Stereotypen solle zu einer faireren Welt für alle führen, aber ist das wirklich so?

Zunächst einmal ist festzuhalten, dass wir bereits in so einer Welt leben. In den Vereinigten Staaten nutzen beispielsweise Polizei und Justiz Algorithmen – also Rechenmodelle, auf denen die KI basiert – die vorhersagen, wo am wahrscheinlichsten eine Straftat passieren wird, wer ein erhöhtes Risiko für kriminelle Handlungen aufweist und welche Personen nach einer Straftat eher rückfällig werden. In Deutschland sortieren Algorithmen Bewerbungen auf Stellenausschreibungen vor und bewerten die Kandidat*innen. In Banken entscheiden vermehrt Computerprogramme, inwiefern Personen kreditwürdig sind. 

Oft denken wir mathematische Datenverarbeitungsprozesse sind zutreffend und unparteiisch. Aber sind die Ideen von Algorithmen wirklich immer die bessere Idee? franki chamaki / unsplash

Das Problem dabei: Künstliche Intelligenz lernt von Datensätzen und die spiegeln oft bestehende Diskriminierungsstrukturen wider, sind ungenau oder sind nur Näherungswerte, an das, was sie eigentlich messen sollen. Softwares zur Gesichtserkennung zum Beispiel sind besonders schlecht darin, Schwarze Menschen zu erkennen – vor allem Schwarze Frauen – am besten erkennen sie weiße Männer. Das liegt daran, dass die Datensätze, auf denen sie basieren, viel mehr weiße und männliche Gesichter zeigen. Werden solche Programme dann etwa von der Polizei angewendet um gesuchte Verbrecher*innen zu identifizieren, ist die Gefahr für Schwarze Menschen besonders hoch fälschlicherweise identifiziert zu werden. Und nicht erst seit Februar letzten Jahres ist klar, dass Polizeikontakt, für BIPoC (Black, Indigenous and People of Color) immer eine Gefahr sein kann. 

Ähnlich diskriminierend wirken sich Vorhersagetools für Verbrechen aus. Viertel, in denen vermehrt BIPoC leben, weisen schon jetzt eine erhöhte Polizeipräsenz auf. Gesellschaftliche Ausgrenzung und geringere Chancen auf dem Arbeitsmarkt führen mit der daraus folgenden Armut zu einer erhöhten Kriminalitätsrate. Die ohnehin stärkere Polizeipräsenz treibt die Statistik darüber hinaus künstlich in die Höhe. Der Algorithmus lernt aus den vergangenen Straftaten Prognosen für zukünftige aufzustellen. So wird die Polizei ihre Streifen in den Vierteln verstärken und es entsteht ein Teufelskreis, der auf einer sich selbst erfüllenden Prophezeiung basiert. In den reichen Vierteln werden Delikte dagegen kaum geahndet, da hier kaum Ordnungshüter*innen präsent sind.

In Bewerbungsverfahren schließen Algorithmen von Daten, wie dem fristgerechten Begleichen von Rechnungen auf die Vertrauenswürdigkeit und Zuverlässigkeit von Kandidat*innen. Ärmere Menschen oder Personen, die Schicksalsschläge erlitten haben bekommen so weniger zweite Chancen oder Möglichkeiten aufzusteigen. Eine Amazon KI sortierte kurzerhand alle Bewerbungen von Frauen aus, da sie in Führungspositionen bei Amazon hauptsächliche Männer vorfand und daraus schlussfolgerte, dass Frauen wohl ungeeigneter für den Job seien. 

Künstliche Intelligenz ist faszinierend. Sie kann uns unterhalten und unterstützen. Aber die Algorithmen, die unsere Gesellschaft beeinflussen sitzen meist nicht als Roboter spielend am Klavier.

Menschen diskriminieren, Algorithmen auch, denn sie sind von Menschen gemacht. Im Silicon Valley, der Wiege der KI arbeiten vor allem weiße Männer, die es offensichtlich nicht schaffen andere Lebensrealitäten zu berücksichtigen. Ihre Programme funktionieren am besten für Menschen, die wie sie selbst sind. Dabei laufen sie Gefahr, Diskriminierung durch die propagierte Neutralität und Präzision von Rechenmodellen zu legitimieren und so Fortschritt zu mehr Gerechtigkeit einzufrieren. Die meisten Firmen wollen sich wegen Betriebsgeheimnissen nicht einmal in die Karten schauen lassen und halten so die Funktionsweisen ihrer Algorithmen streng geheim. Während verschiedene Menschen auch aufgrund verschiedener Vorurteile handeln, wird ein flächendeckend eingeführter Algorithmus immer genau gleich diskriminieren. Das bedeutet, dass Personen, die sonst vielleicht bei einem Menschen mehr Glück gehabt hätten als bei einem anderen, vom Algorithmus immer ausgeschlossen würden.

Es braucht also einen proaktiven Umgang mit diesen „Mathevernichtungswaffen“ – so nennt die Autorin und Datenwissenschaftlerin Cathy O’Neil solche Programme. Unabhängige Kontrollstellen, Staaten, die in ihrem Know-How den Software-Schmieden nicht hinterherhinken, eine aufgeklärte Zivilgesellschaft mit scharfen digitalen Rechten und ein funktionierenden Datenschutz müssen den Giganten aus Silicon Valley etwas entgegensetzen können. Ansonsten droht uns und vor allem bereits diskriminierten Menschen eine genauso ungerechte Welt wie es sie bereits heute gibt, mit fortschrittlich anmutenden undurchsichtigen Rechenprozessen als Torwächtern.

Quellen:

Bedford-Strohm, Lennart (2021): Die Boss-Maschine. KI bei der Bewerbung. alpha Lernen erklärt Informatik. Weitere Beteiligte: Christian Miethge und Thomas Sessner. Film. München. Online verfügbar unter https://www.youtube.com/watch?v=9ip9R6frh3c&t=10s&ab_channel=alphaLernen, zuletzt geprüft am 08.07.2021. 

Kantayya, Shalini (2021): Coded Bias. Online verfügbar unter https://www.netflix.com/watch/81328723?trackId=14170045&tctx=4%2C0%2Ccae359a9-5bab-4638-b7eb- 553d442f6db1-67862254%2C54efd3ca-5e6f-47cc-83a4-43fabbaa61da_1832838X6XX1625075821428%2C%2C, zuletzt geprüft am 30.06.2021. 

O’Neil, Cathy (2017): Angriff der Algorithmen. Wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden. München: Carl Hanser. 

Webb, Amy (2019): Die großen Neun. Wie wir die Tech-Titanen bändigen und eine künstliche Intelligenz zum Wohle aller entwickeln können. Kulmbach: Plassen. 

0 Kommentare

Kommentar verfassen

Weitere Artikel

Die Blasphemie des Olympischen Friedens – wie Putin zum dritten Mal die Olympischen Spiele nutzte, um einen Krieg vorzubereiten

Die Blasphemie des Olympischen Friedens – wie Putin zum dritten Mal die Olympischen Spiele nutzte, um einen Krieg vorzubereiten

Eigentlich sollte es in diesem Text um die Ereignisse während der Olympischen Winterspiele in Peking gehen. Doch in diesem Moment kämpfen ukrainische Menschen um ihr Land und ihre Kultur. Sie kämpfen gegen einen Präsidenten, der beschlossen hat, dass der territorial größte Staat dieser Erde noch nicht groß genug ist. Mit Angriffskrieg Putins auf die Ukraine, bricht der russische Präsident zum dritten Mal den Olympischen Frieden.

mehr lesen
Jung, engagiert und ausgebrannt – ein Interview mit Özgürcan Baş

Jung, engagiert und ausgebrannt – ein Interview mit Özgürcan Baş

Mit 16 Jahren wird Özgürcan Baş, von den meisten Ötzi genannt, zum Vorsitzenden des neu gegründeten Jungen Rates* in Kiel. Sechs Jahre später hat er seine Ausbildung zum Bankkaufmann abgeschlossen und ist Ortsbeiratsvorsitzender** für die SPD. Dazwischen stand eine Reihe politischer Ämter. Was bedeutet es eigentlich für einen jungen Menschen, in der Politik aktiv zu sein?

mehr lesen
Stecken wir im sechsten Massenaussterben?

Stecken wir im sechsten Massenaussterben?

Jeder kennt die Geschichte vom Aussterben der Dinosaurier. Ein Meteorit knallt auf die Erde und die Dinos sterben. Es ist das bekannteste Massenaussterben, aber nicht das einzige. Was ist eigentlich ein Massenaussterben? Es gibt keine allgemeingültige Definition, ab...

mehr lesen
%d Bloggern gefällt das: