Um was geht's?
Microsoft hat einen Chat-Roboter auf die Netzgemeinde losgelassen, mit ein paar Floskeln wie «Hallo, wie geht's?» oder «Schickt mir ein Foto». Im Austausch mit Twitter-Usern sollte dieser dazulernen, wiederholen, kombinieren.
Statt «smart» – wie Microsoft ihn geplant hatte –, wurde er innerhalb weniger Stunden zu einer Hass-Maschine. User fanden heraus, dass sie den Roboter dazu bringen konnten, Aussagen zu wiederholen.
Nachdem sich auf Tays Twitter-Account Posts häuften wie «Feministen sollten in der Hölle verbrennen» oder «Hitler hatte recht. Ich hasse Juden», schaltete Microsoft den Bot aus und löschte alle politisch unkorrekten Einträge. Das Unternehmen entschuldigte sich und versprach, die künstliche Intelligenz zu überarbeiten.
Warum ist's interessant?
Das Experiment zeigt, dass Unternehmen fleissig an künstlicher Intelligenz arbeiten, die vom Menschen lernen und diesem dadurch näherkommen soll. Während in China ein Chat-Roboter seit 2015 zum mitfühlenden Freund von Millionen Chinesen gehört, ist er in der englischen Version zum Feind politischer Korrektheit geworden.
Es zeigt aber auch, dass Bots nicht klüger sind als die Menschen, die sie programmieren, bzw. beeinflussen – und keine Moral haben. Und dass die Gefahr des Missbrauchs und der Manipulation dementsprechend gross ist.
- Twitter-Account von Tay: https://twitter.com/TayandYou
- Artikel zum Thema im Guardian