Laut UN fördern Alexa, Siri und Google Assistant sexistische Einstellungen gegenüber Frauen

Laut UN fördern Alexa, Siri und Google Assistant sexistische Einstellungen gegenüber Frauen

Ein UNESCO-Bericht legt nahe, dass die standardmäßige Verwendung weiblich klingender Sprachassistenten in unseren Smart-Home-Geräten und Smartphones dazu führt, dass sexistische Einstellungen gegenüber Frauen aufrechterhalten werden.

Der Bericht mit dem Titel „Blush If You Could“ hat seinen Namen von Siris früherer Standardantwort, die von Nutzern als „schlampig“ bezeichnet wird, und kritisiert die Tatsache, dass Apples Siri, Amazon Alexa, Google Assistant und Microsofts Cortana „ausschließlich weiblich oder standardmäßig weiblich sind, sowohl im Namen als auch in der Stimme“.

Warum ist das ein Problem? Dem Bericht zufolge signalisiert die standardmäßige Verwendung weiblich klingender Sprachnachrichten den Benutzern, dass Frauen „hilfsbereit, fügsam und hilfsbereit sind und auf Knopfdruck oder mit einem direkten Sprachbefehl“ wie „Hey“ oder „OK“ erreichbar sind.

Der Bericht hebt auch die Tatsache hervor, dass diese Sprachassistenten „keine Entscheidungsbefugnis haben, die über die Wünsche des Kommandanten hinausgeht“ und auf Anfragen „unabhängig vom Tonfall oder der Feindseligkeit des Benutzers“ reagieren.

Dem Bericht zufolge hat dies zur Folge, dass „die allgemein akzeptierte geschlechtsspezifische Voreingenommenheit, der Frauen ausgesetzt sind, und die Toleranz gegenüber Misshandlungen“ verstärkt wird.

Apple HomePod (Bildnachweis: TechRadar)

Apple HomePod (Bildnachweis: TechRadar)

beunruhigende Implikationen

Diese Darstellung ist besonders verstörend, wenn diese Sprachassistenten „verzerrte, langweilige oder entschuldigende Antworten auf verbale sexuelle Belästigung“ geben.

Da mindestens 5 % der Interaktionen mit Sprachassistenten sexuell eindeutig sind, ist dies auch nicht ganz ungewöhnlich und ihre Reaktionen sind besorgniserregend.

Laut einem Bericht von Quartz aus dem Jahr 2017 antwortete Siri auf die Frage „Wer ist dein Vater?“ „Du bist“, und als Alexa antwortete „Du bist sexy“, antwortete die Assistentin „C's it's good of you to say“.

Während Sprachassistenten immer realistischer zu werden scheinen, ist es kein großer Fortschritt, wenn man annimmt, dass diese ausweichenden Antworten „Stereotypen von versklavten und versklavten Frauen verstärken“ könnten.

Alexa wurde inzwischen aktualisiert, um verbales Mobbing zu unterdrücken, anstatt zu sagen: „Das werde ich nicht beantworten“ oder „Ich bin mir nicht sicher, was ich erwartet habe.“

Bildnachweis: Google

Mädchen vorne

Warum ist es wichtig, dass Sprachassistenten standardmäßig weiblich aussehen? Dies kann unser Verhalten gegenüber Frauen und Mädchen im wirklichen Leben beeinflussen.

Wie es in dem Bericht heißt, stellte Safiya Umoja Noble, Soziologieprofessorin an der University of Southern California, fest, dass „virtuelle Assistenten eine Verlagerung vom befehlsorientierten Diskurs hin zu Frauenstimmen vorantreiben“.

Laut Professor Noble fungieren Bellbefehle von Sprachassistenten wie „x finden“, „x anrufen“, „x ändern“ oder „x-Befehl“ als „leistungsstarke Sozialisierungswerkzeuge“ und lehren Menschen insbesondere für Kinder „die Rolle von Frauen, Mädchen und geschlechtsspezifischen Menschen bei der Nachfragereaktion“.

Wie war das also erlaubt? Warum sind weibliche Sprachassistenten so allgegenwärtig? Laut UNESCO liegt das Problem im Mangel an Frauen im Raum, wenn Technologieunternehmen ihre Sprachassistenten für künstliche Intelligenz und in allen MINT-Branchen (Wissenschaft, Technik, Ingenieurwesen und Technologie) entwickeln. Mathematik).

Da in den G7-Ländern nur 20 % der IKT-Patente von Frauen generiert werden, liefern diese Fragen „ein eindrucksvolles Beispiel für die geschlechtsspezifischen Vorurteile, die in Technologieprodukten verankert sind, im Technologiesektor allgegenwärtig sind und in der Ausbildung digitaler Kompetenzen deutlich werden.“

Der Bericht empfiehlt nicht nur die Überbrückung der digitalen Kluft zwischen Männern und Frauen durch „Rekrutierung, Bindung und Förderung von Frauen im Technologiesektor“, sondern empfiehlt auch, dass mehr Sprachassistenten standardmäßig eine männliche Stimme haben sollten. , Beendigung der „Praxis digitaler Assistenten“. Standard weiblich.“

Laut CNet haben Amazon und Apple nicht auf ihre Anfragen nach Kommentaren geantwortet, und Microsoft hat es abgelehnt, nach der Berichterstattung über den Bericht einen Kommentar abzugeben.

Andererseits behauptet Google, „eine Vielzahl von 10 Sprachangeboten in den USA entwickelt zu haben und dass Kunden, wenn sie ein Google Home-Gerät installieren, eine 50/XNUMX-Chance haben, entweder eine traditionelle weibliche Stimme oder eine traditionelle Stimme zu erhalten.“ männliche Stimme.

Über CNet