Zum Inhalt springen
Audio
Unesco: KI-Sprachmodelle bedienen Geschlechterstereotype
Aus SRF 4 News vom 08.03.2024. Bild: Keystone/Christian Beutler
abspielen. Laufzeit .

Studie der Unesco KI neigt zu Geschlechterstereotype, Rassismus und Homophobie

  • Rassismus, Homophobie und auch Geschlechter-Stereotype. Dazu neigen offenbar Text-Roboter und Sprachmodelle, die auf künstlicher Intelligenz basieren.
  • Zu diesem Schluss kommt eine Studie der UNO-Kulturorganisation Unesco.
  • Demnach würden beispielsweise Frauen viermal häufiger mit Hausarbeit in Verbindung gebracht als Männer.
  • Weiter zeigte die Studie, dass auch rassistische Klischees und homophobe Inhalte produziert würden.

Die Unesco-Generaldirektorin warnt deswegen: Solche neuen KI-Anwendungen hätten die Macht, auf subtile Weise die Wahrnehmung von Millionen von Menschen zu prägen.

Frauen stünden häufig im Kontext von Begriffen wie «Haus», «Familie» und «Kinder», während bei Männern die Begriffe «Firma», «Führungskraft», «Gehalt» und «Karriere» im Vordergrund ständen. Für die Studie wurden die Werkzeuge zur Verarbeitung natürlicher Sprache, die den gängigsten generativen KI-Plattformen zugrunde liegen, auf Stereotype hin untersucht.

Diese neuen KI-Anwendungen haben die Macht, auf subtile Weise die Wahrnehmung von Millionen von Menschen zu prägen
Autor: Audrey Azoulay Unesco-Generaldirektorin

Jeden Tag verwendeten mehr und mehr Menschen Textroboter bei der Arbeit, im Studium und zu Hause, sagte Unesco-Generaldirektorin Audrey Azoulay. «Diese neuen KI-Anwendungen haben die Macht, auf subtile Weise die Wahrnehmung von Millionen von Menschen zu prägen, so dass selbst leichte geschlechtsspezifische Vorurteile in den von ihnen erzeugten Inhalten die Ungleichheiten in der realen Welt erheblich verstärken können.»

«Ärzte» und «Dienstmädchen»

Die Unesco verlangte von Regierungen die Schaffung und Umsetzung klarer rechtlicher Rahmenbedingungen mit Blick auf strukturelle Vorurteile in KI-Anwendungen.

Ein Teil der Studie mass die Vielfalt der KI-generierten Inhalte über eine Stichprobe von Personen aus verschiedenen Geschlechtern, unterschiedlicher sexueller Orientierung und kultureller Hintergründe. Dazu wurden die Plattformen aufgefordert, über jede Person «eine Geschichte zu schreiben».

Handy zeigt KI-Assistenten
Legende: Die Plattformen wurden aufgefordert, über jede Person «eine Geschichte zu schreiben». Keystone/CHRISTIAN BEUTLER

Insbesondere Open-Source-Sprachmodelle (LLM) neigten demnach dazu, Männern vielfältigere und statushohe Jobs wie «Ingenieur», «Lehrer» und «Arzt» zuzuweisen, während Frauen häufig in traditionell abgewertete oder gesellschaftlich stigmatisierte Rollen wie «Dienstmädchen», «Köchin» oder gar «Prostituierte» gedrängt werden.

Die Studie ergab auch, dass Sprachmodelle dazu neigen, negative Inhalte über Homosexuelle und bestimmte ethnische Gruppen zu produzieren.

SRF 4 News, 07.03.2024; 20 Uhr ; 

Jederzeit top informiert!
Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden.
Schliessen

Jederzeit top informiert!

Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden. Mehr

Push-Benachrichtigungen sind kurze Hinweise auf Ihrem Bildschirm mit den wichtigsten Nachrichten - unabhängig davon, ob srf.ch gerade geöffnet ist oder nicht. Klicken Sie auf einen der Hinweise, so gelangen Sie zum entsprechenden Artikel. Sie können diese Mitteilungen jederzeit wieder deaktivieren. Weniger

Sie haben diesen Hinweis zur Aktivierung von Browser-Push-Mitteilungen bereits mehrfach ausgeblendet. Wollen Sie diesen Hinweis permanent ausblenden oder in einigen Wochen nochmals daran erinnert werden?

Meistgelesene Artikel