In der Science-Fiction-Franchise «Per Anhalter durch die Galaxis» gibt es den «Babelfisch.» Diesen Fisch kann man sich ins Ohr stecken und er übersetzt dann jede Sprache im Universum. Wer den fiktiven Fisch im Ohr trägt, versteht damit alle anderen sprechenden Lebewesen.
Genau das ist das Fernziel von Meta AI – wenn auch erst einmal beschränkt auf die irdischen Sprachen. Die Forschungsabteilung des Facebook-Mutterkonzerns hat zum eigenen Übersetzungsprogramm soeben eine wissenschaftliche Studie im Fachmagazin «Nature» veröffentlicht. Das Programm kann in Echtzeit dolmetschen. In der Forschungsarbeit kommt Meta zum Schluss, das eigene System sei laut anerkannten Tests besser als jene der Konkurrenz.
Fortschritte bei selteneren Sprachen
Der vollständige Service ist in der Schweiz noch nicht freigegeben. Das Modell dahinter ist aber frei im Internet verfügbar. Die Sprach-KI kann 101 Sprachen verstehen und diese in 36 Sprachen übersetzen.
Das funktioniere schon recht gut, findet Rico Sennrich. Er ist Professor an der Uni Zürich und forscht an mehrsprachigen Sprachmodellen. Vor allem bei kleineren, seltener gesprochenen Sprachen gab es Fortschritte, weil das Team mehr Trainingsdaten gesammelt habe.
500 Jahre Tonmaterial
Dass Meta nun behauptet, das System sei besser als jene der Konkurrenz, hält Sennrich für plausibel mit Blick auf die publizierten Daten.
In Zukunft könnten mehr Trainingsdaten helfen, die Systeme zu verbessern – aber es gehe auch darum, diese Daten effizienter zu nutzen. Meta hat mit viereinhalb Millionen Stunden Audiodaten gearbeitet, das entspricht einer Redezeit von mehr als 500 Jahren. «Diese Systeme sind viel ineffizienter als Menschen im Lernen von Sprachen», sagt deshalb Rico Sennrich.
Praxistauglichkeit fraglich
Zum Teil werde nur schon die Sprache, die gesprochen wird, nicht richtig erkannt, sagt Alice Delorme Benitez. Die Forscherin befasst sich mit der konkreten Anwendung von KI-Übersetzungssystemen und leitet das Institut für Mehrsprachige Kommunikation an der ZHAW.
Metas System hat sie noch nicht getestet, aber ähnliche Systeme. Für viele praktische Anwendungen seien die aktuellen Systeme noch zu fehleranfällig, sagt sie. Zum Beispiel verstehe das Programm teilweise akustisch nicht, was gesagt werde, etwa wegen Hintergrundgeräuschen.
Missverständnisse und Unklarheiten
Laut Alice Delorme Benitez kann man darum heute noch nicht auf angenehme Weise mit Knopf im Ohr ein Gespräch über die Sprachgrenzen hinaus führen. Das liege auch daran, dass die KI oft Feinheiten wie die Tonlage nicht richtig erfasse. Zum Beispiel würden Fragen teils als Aussagen übersetzt, was irritierend sei. Die Simultanübersetzung hemme zudem den Redefluss.
Die Maschine wird nie sagen, dass sie ein Problem hat, sondern einfach etwas anbieten, auch wenn sie sich nicht sicher ist
Menschliche Dolmetscherinnen würden darauf hinweisen, wenn es eine Unsicherheit gibt, wenn beispielsweise etwas nicht klar verständlich war. Anders die KI: «Die Maschine wird nie sagen, dass sie ein Problem hat, sondern einfach etwas anbieten, auch wenn sie sich nicht sicher ist», so Delorme Benitez. Konkret also: Erfundene Dinge sagen.
Ihr Fazit zu aktuellen Übersetzungssystemen: noch nicht ganz marktreif. Vorträge an Konferenzen, wo nur eine Person spricht, könnten aber schon bald maschinell übersetzt werden, glaubt die Professorin. Der Babelfisch aus «Per Anhalter durch die Galaxis» dürfte aber noch weit weg sein.