Amazons-KI-Bewerbungsverfahren
BiblioMap 
Definitionen




Bei Amazon zeigte sich erstmals öffentlich,
wie KI Frauen systematisch diskriminieren
kann. Die Firma hatte 2014
eine automatisierte Rekrutierungs-Software
entwickelt, die mit Lebensläufen
aus zehn Jahren Firmengeschichte gefüttert
worden war, um aus neuen Bewerbungen
objektiv die besten herauszufiltern.
Nach drei Jahren wurde das Experiment
als gescheitert betrachtet und abgebrochen:
Die KI hatte systematisch die
Bewerbungen von Frauen aussortiert,
wodurch diese gar nicht erst die Chance
auf ein Bewerbungsgespräch erhielten.
Der Ausschluss von Frauen war nicht
auf einen Fehler im Algorithmus zurückzuführen;
die Software war vielmehr
einwandfrei programmiert. Sie hatte die
Unternehmenskultur von Amazon analysiert
und perfekt reproduziert. Weil
bei Amazon vor allem Männer angestellt
sind, hatte die KI nach vergleichbaren
Bewerbern gesucht und alle, die davon
abwichen, ausgesondert.
Von Nadine A. Brügger im Text Die Informatik ist männlich (2021)
Bemerkungen


Inzwischen weiss man: So einfach ist es nicht mit dem Ausmerzen von Vorurteilen und Stereotypen. Das zeigt etwa der Fall Amazon, der vor wenigen Wochen Schlagzeilen machte. Der Onlineversandhändler musste ein Rekrutierungsprojekt stoppen, weil dieses Frauen benachteiligte – wenn auch unabsichtlich. Für das Projekt hatte Amazon ein Computerprogramm entwickelt. Dieses sollte aus Hunderten eingehender Bewerbungen die besten auswählen, indem es die Bewerbungen nach Schlüsselbegriffen prüfte, welche für die jeweilige Stelle entscheidend waren. Gefüttert und trainiert wurde die Software mit erfolgreichen Bewerbungen von bereits angestellten Mitarbeitenden. Nun ist aber die Belegschaft bei Amazon – wie in der Technologiebranche üblich – hauptsächlich männlich. Das selbst lernende Programm erkannte dies und folgerte, dass Männer besser geeignet seien. So kam es, dass Bewerbungen von Frauen eher herausgefiltert wurden.
Von Andrea Fischer im Text Auch Maschinen können benachteiligen (2018) auf Seite 11
Die Personalabteilung des Onlinehändlers hatte eine KI darauf trainiert, Bewerbungsunterlagen zu analysieren, um zum Unternehmen passende Kandidaten zu finden. Gelernt hat die KI aus dem Material von in der Vergangenheit eingestellten Mitarbeitern. Bald stellte sich heraus, dass das System Männer bevorzugte – naheliegend, denn wie in jedem Tech-Konzern bestand die Belegschaft vor allem anfangs überwiegend aus Männern. Überraschend war allerdings, wie hartnäckig sich die Hinweise auf „Männlichkeit“ in den Trainingsdaten hielten: Selbst als die Amazon-Entwickler alle geschlechtsspezifischen Daten, vom Vornamen bis hin zur Universität entfernt hatten, lehnte die KI weibliche Bewerber eher ab. Letztlich stellte sich heraus, dass sich auch die Art und Weise unterscheidet, wie Männer und Frauen ihre Anschreiben verfassen, wie die KI-Spezialistin Kate Crawford in ihrem Buch „Atlas of AI“ beschreibt. Amazon hätte also auch die Formulierungen in eine wie auch immer geartete geschlechtsneutrale Form bringen müssen.
Von Andrea Trinkwalder im Text Systemsprenger (2023) 
Genau aus diesem Grund hat Amazon eine intern entwickelte KI zur Bewerberauswahl wieder eingestampft. Sie wurde mit den Unterlagen von Personen trainiert, die sich in der Vergangenheit erfolgreich bei Amazon beworben hatten. Das Ziel: aus einer Masse an Bewerbern automatisch die fünf geeignetsten Kandidaten herauszufiltern. Doch der Algorithmus bevorzugte nicht nur systematisch Männer, sondern schlug auch gänzlich unqualifizierte Kandidaten vor. Offensichtlich hatte die KI, die mit überwiegend männlich geprägten Bewerbungsunterlagen trainiert wurde, Indizien für einen männlichen Bewerber so stark gewichtet, dass dabei sogar die fachliche Qualifikation unter den Tisch fiel. Frappierend ist auch hier, dass sich die Daten offensichtlich nicht vernünftig aufbereiten ließen.
Laut Amazon hat die Empfehlung der KI niemals die Entscheidung für oder gegen einen Bewerber beeinflusst.

Verwandte Objeke
![]() Verwandte Begriffe (co-word occurance) |
Häufig co-zitierte Personen

Wajcman

Sadowski

Daston

Galison

Ullman

Eubanks

Wang

Noble

Picard

Buolamwini

Crawford

Kosinski

Broussard
Statistisches Begriffsnetz 
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Zeitleiste
13 Erwähnungen 
- Neuronale Denkfehler - Künstliche Intelligenz: zu naiv, um schlau zu sein (Schwerpunktthema c't 24/18) (2018)
- Irren ist künstlich - Wo künstliche Intelligenz noch schwächelt (Andrea Trinkwalder)
- Irren ist künstlich - Wo künstliche Intelligenz noch schwächelt (Andrea Trinkwalder)
- Auch Maschinen können benachteiligen (Andrea Fischer) (2018)
- Ein Algorithmus hat kein Taktgefühl - Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können (Katharina A. Zweig) (2019)
- Herausforderungen der künstlichen Intelligenz - Bericht der interdepartementalen Arbeitsgruppe «Künstliche Intelligenz» an den Bundesrat (Interdepartementale Arbeitsgruppe künstliche Intelligenz) (2019)
- Calling Bullshit - The Art of Skepticism in a Data-Driven World (Carl T. Bergstrom, Jevin D. West) (2020)
- The Atlas of AI (Kate Crawford) (2021)
- Die Informatik ist männlich - Wie Frauen aus der digitalen Welt verdrängt wurden - und warum sie ihren Platz zurückerobern müssen (Nadine A. Brügger) (2021)
- Klick - Wie wir in einer digitalen Welt die Kontrolle behalten und die richtigen Entscheidungen treffen (Gerd Gigerenzer) (2021)
- Beyond Measure - The Hidden History of Measurement (James Vincent) (2022)
- 10. The Managed Life
- c't KI-Praxis (2023)
- Systemsprenger (Andrea Trinkwalder) (2023)
- Systemsprenger (Andrea Trinkwalder) (2023)
- Critical Data Literacies - Rethinking Data and Everyday Life (Luci Pangrazio, Neil Selwyn) (2023)
- Alles überall auf einmal - Wie Künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können (Miriam Meckel, Léa Steinacker) (2024)
- 9. Das ethische Spiegelkabinett - Wenn KI Werte nachahmt
- 9. Das ethische Spiegelkabinett - Wenn KI Werte nachahmt
- enter 11/2024 - Thema: Künstliche Intelligenz (Swisscom) (2024)