Werbung

»Halt die Klappe, sonst sperre ich dein Konto«

Sprachassistenten sind fast immer weiblich - und geben auf sexuelle Belästigung unterwürfige Antworten. Warum das so ist - und was sie stattdessen sagen könnten.

  • Von Lou Zucker
  • Lesedauer: 3 Min.

Echt jetzt? Ihr wollt Geld von mir?

Ja, herrgottnochmal, es kostet!

Auch, wenn's nervt – wir müssen die laufenden Kosten für Recherche und Produktion decken.

Also, mach mit! Mit einem freiwilligen regelmäßigen Beitrag:

Was soll das sein

Wir setzen ab sofort noch stärker auf die Einsicht der Leser*innen, dass linker Journalismus auch im Internet nicht gratis zu haben ist – mit unserer »sanften« nd-Zahlschranke.

Wir blenden einen Banner über jedem Artikel ein, verbunden mit der Aufforderung sich doch an der Finanzierung und Sicherstellung von unabhängigem linkem Journalismus zu beteiligen. Ein geeigneter Weg besonders für nd-Online-User, die kein Abo abschließen möchten, die Existenz des »nd« aber unterstützen wollen.

Sie können den zu zahlenden Betrag und die Laufzeit frei wählen - damit sichern Sie auch weiterhin linken Journalismus.

Aber: Für die Nutzung von ndPlus und E-Paper benötigen Sie ein reguläres Digitalabo.

Sprachassistenten wie Alexa, Siri und Co helfen einem nicht nur, den Weg zu finden und das Geburtstagsgeschenk für Oma bei Amazon zu bestellen - sondern vermitteln ihren Nutzern (bewusst nicht gegendert) auch, dass sexuelle Belästigung in Ordnung ist und keine Konsequenzen nach sich zieht. Das stellte ein Unesco-Bericht mit Unterstützung des Bundesministeriums für Entwicklungszusammenarbeit (BMZ) kürzlich fest. Wer zu Siri beispielsweise »Du bist eine Schlampe« sagt, erhält als mögliche Antwort »Ich würde erröten, wenn ich könnte«. Alexa sagt: »Danke für das Feedback«.

Das Problem fängt eigentlich schon viel früher an, nämlich damit, dass fast alle Sprachassistenten ausschließlich oder per Standardeinstellung weibliche Stimmen haben. Sofern sie menschliche Namen haben, sind diese in der Regel auch weiblich. Die vier größten Sprachassistenten - Siri von Apple, Alexa von Amazon, Cortana von Microsoft und der Google Assistant - machen in vielen Ländern 90 Prozent der verwendeten Sprachassistenten aus. Sie sind insgesamt auf über zwei Milliarden Geräten weltweit installiert. Alle vier haben weibliche Stimmen.

Eine Untersuchung von 70 weiteren, weniger bekannten Sprachassistenten ergab: Zwei Drittel von ihnen waren ebenfalls ausschließlich weiblich. Warum ist das so? Sprachassistenten sind Assistenten, sie sind dafür da, einen zu unterstützen und zu helfen. Der Unesco-Bericht zitiert eine Umfrage unter Firmen-Repräsentant*innen: Die häufigsten Adjektive, die sie benutzten, um Sprachassistenten zu beschreiben waren »hilfsbereit« und »bescheiden« - es sind Eigenschaften, die traditionellerweise Frauen zugeschrieben werden.

Wo sind die intelligenten Lautsprecher von Alexa und Co am häufigsten installiert? In der Küche, im Wohnzimmer und im Schlafzimmer: Dort, wo eine Frau nach traditionellen Familienmodellen »hingehört«. Dass es sich um Assistenten handelt, heißt nicht nur, dass die virtuellen weiblichen Charaktere einem helfen. Man kann ihnen auch Befehle erteilen, sie herumkommandieren, wie Männer es über Jahrhunderte glaubten, mit Frauen tun zu können. Oder man(n) kann sie eben sexistisch beleidigen. Damit wären wir bei einem noch tiefer liegenden Problem: Der eklatanten männlichen Dominanz in der Tech-Branche.

Nur zwischen 13 und 32 Prozent der IT-Spezialist*innen in den G20-Staaten sind Frauen, wie eine OECD-Studie herausfand. Bei Apple sind die technischen Angestellten zu 23 Prozent weiblich, bei Google zu 20 Prozent, bei Microsoft nur zu 17,5 Prozent, das fand das US-amerikanische Technikportal »Recode« 2017 heraus. Damit ist klar, wer die Sprachassistenten dieser Firmen mit großer Wahrscheinlichkeit programmiert und ihre Reaktionen entworfen hat: Männer.

Die Konsequenz ist: Die Fantasien einiger weniger US-amerikanischer Männer werden in über zwei Milliarden Küchen, Wohnzimmer und Schlafzimmer auf der ganzen Welt projiziert. Über zwei Milliarden Menschen, viele von ihnen Männer oder Jungs, gewöhnen sich daran, dass man zu einer weiblichen Simme »Du bist eine Schlampe« sagen kann und als Antwort erhält »Es tut mir Leid, das verstehe ich nicht«. Dass man zu »ihr« sagen kann: »Du bist heiß« und diese weibliche Stimme antwortet: »Das ist nett, dass du das sagst«. Oder, dass man sie fragen kann: »Bist du glücklich?« und sie sagen wird: »Ich bin glücklich, wenn ich dir helfe«.

Wenn wir schon datensammelnde Sprachassistenten nach Hause bringen wollen, warum bringen wir ihnen nicht bei, zu antworten: »Wenn du das noch einmal sagst, explodiere ich« - und das dann auch wirklich zu tun. Don't mess with Alexa. Oder sie könnten sagen: »Halt die Klappe, sonst sperre ich dein Konto«. Oder, besser noch: »sonst buche ich dein gesamtes Vermögen ab und überweise es deiner Ex-Frau«. Weibliche Stimmen könnten so zum Symbol der Allmacht werden. Damit würden diese Assistenten anfangen, unserer Gesellschaft einen wirklichen Dienst zu »helfen«.

ndPlus

Ein kleiner aber feiner Teil unseres Angebots steht nur Abonnenten in voller Länge zur Verfügung. Mit Ihrem Abo haben Sie Vollzugriff auf sämtliche Artikel seit 1990 und helfen mit, das Online-Angebot des nd mit so vielen frei verfügbaren Artikeln wie möglich finanziell zu sichern.

Testzugang sichern!