Sprachassistenten fördern Geschlechterrollen |
Diese Seite wurde seit mehr als 8 Monaten inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
BiblioMap
Bemerkungen
Und man
denke nur daran, dass die derzeit populärsten
sprachlichen Assistenzsysteme
– Siri von Apple und Alexa von Amazon
– mit weiblicher Stimme sprechen und
einen Frauennamen tragen. So werden
Geschlechterstereotypen zu Software.
So gräbt sich Weltanschauung in Codes
ein.
Von Aleksandra Przegalinska, Michael Marti im Text «Frauen bauen keine Sex-Roboter» (2019) Die Stimmen von Alexa, Siri und Co. nämlich sind freundlich („Entschuldigung, ich habe dich leider nicht verstanden!“), fürsorglich („Wie kann ich dir helfen?“) und gehorsam („Verbunden mit Lenas iPhone!“). Damit erfüllen sie ein überholtes Klischee über Frauen. Genauso überholt wie die Tatsache, dass sie sich herumkommandieren lassen („Alexa, mach das Licht aus!“). Tragen im Fall von Sprachassistent:innen künstliche Intelligenzen also dazu bei, dass unsere Gesellschaft Stereotype aufrechterhält oder sogar wiederaufleben lässt?
Von Lena von Holt im Text Alexa, Siri und das Navi meiner Eltern (2023) Zitationsgraph
2 Erwähnungen
- «Frauen bauen keine Sex-Roboter» (Aleksandra Przegalinska, Michael Marti) (2019)
- Alexa, Siri und das Navi meiner Eltern (Lena von Holt) (2023)