Immer zu Diensten, so begrüsst Siri die Nutzer – und ähnlich klingt es bei den Sprachassistenten Alexa oder Cortana. Mit einer sanften Frauenstimme und einer Engelsgeduld führen sie Befehle aus wie Nachrichten versenden, Bestellungen aufgeben oder sie helfen beim Navigieren – perfekte Assistentinnen also.
Alle haben weibliche Namen und sind in einer dienenden Rolle. Das zementiere ein überholtes Frauenbild, haben kürzlich Autoren in einem Unesco-Bericht zu Sprachassistenten festgehalten.
Die Assistenten wurden von mehrheitlich männlichen Designer bei Apple, Microsoft oder Amazon programmiert. Ganz bewusst, sagt Holger Schulze. Er ist Kulturwissenschaftler und Klangforscher an der Universität Kopenhagen. Nicht nur eine weibliche Stimme hätten die Designer den Assistentinnen verpasst: «In meiner Wahrnehmung ist es die Entscheidung für eine Assistentinnenrolle.»
Die Rolle der digitalen Dienstmägde, wie sie Holger Schulze nennt, wurde den Sprachassistenten verpasst. Der Klangforscher sieht sich darin durch den neusten Unesco-Bericht bestätigt. Darin heisst es nämlich, dass die Teams, welche die digitalen Assistentinnen entwickelt haben, überwiegend aus Männern bestanden. Und dass ihre Kreationen unterwürfige, feminine Personen seien. Das könne fatale Folgen haben.
Denn die Sprachassistenten würden oft von Kindern und Jugendlichen genutzt und prägten so deren Frauenbild, das weit entfernt ist von dem Bild, das Frauen in einer egalitären Gesellschaft haben sollten. Die dienenden und unterwürfigen Sprachassistentinnen prägten nicht nur das Frauenbild der Nutzer sondern auch deren Verhalten.
Schulze sieht deshalb auch gesellschaftliche Probleme aufkommen: «Wenn wir uns vormachen wollen, dass wir in einer egalitären Gesellschaft leben, und uns gleichzeitig eine Stände-, Dienstboten- oder Dienstmagdkultur digital hereinholen, holen wir uns auch all die Probleme wieder herein, die eine Dienstbotenkultur schon immer hatte.» Probleme wie zum Beispiel Hierarchieprobleme, Standesdünkel oder Formen von sadistischen Beleidigungen, so Schulze.
Gender-neutrale Stimme als mögliche Lösung
Dass sich Siri, Alexa und Co. sadistische Beschimpfungen und Beleidigungen anhören müssen, haben auch die Autoren der Studie festgestellt. Sie fordern deshalb die Hersteller der Assistenten auf, diese mit entwaffnenden oder neutralen Antworten auszurüsten. Und sie fordern, dass in Zukunft mehr Frauen in die Programmiererteams aufgenommen werden.
Das wäre sicher eine mögliche Lösung, meint auch Holger Schulze, aber es gebe noch eine weitere: «Die Entwicklung einer gender-neutralen Stimme.»
Mehr Programmiererinnen gefordert
Diese neutrale Stimme gibt es schon, sie nennt sich Q. Angeregt hat die Entwicklung die Copenhagen Pride, die sich für die Gleichstellung aller Geschlechter einsetzt, auch in der digitalen Welt. Die Organisation hofft, dass sie von Amazon, Microsoft oder Apple erhört wird und dass diese ihre Sprachassistenten vermehrt mit einer gender-neutralen Stimme programmieren.
Dafür plädieren auch die Autoren der Unesco-Studie. Es sei nie zu spät dafür, die Nutzerinnen und Nutzer an eine neutrale Stimme ihrer Sprachassistenten zu gewöhnen. Und würden die Programmierer, vielleicht auch bald mehr Programmiererinnen, sich darum bemühen, auf die Unterwürfigkeit der Maschinen zu verzichten, könnte sich auch das verzerrte Frauenbild wieder korrigieren.