Zum Inhalt springen

KI-Sprachmodelle Übersetzung mit Meta AI: Was taugt der Echtzeit-Dolmetscher?

Die Simultanübersetzung von gesprochener Sprache ist eine schwierige Disziplin für KI-Modelle. Meta hat nun sein Programm in einer wissenschaftlichen Studie vorgestellt.

In der Science-Fiction-Franchise «Per Anhalter durch die Galaxis» gibt es den «Babelfisch.» Diesen Fisch kann man sich ins Ohr stecken und er übersetzt dann jede Sprache im Universum. Wer den fiktiven Fisch im Ohr trägt, versteht damit alle anderen sprechenden Lebewesen.

Genau das ist das Fernziel von Meta AI – wenn auch erst einmal beschränkt auf die irdischen Sprachen. Die Forschungsabteilung des Facebook-Mutterkonzerns hat zum eigenen Übersetzungsprogramm soeben eine wissenschaftliche Studie im Fachmagazin «Nature» veröffentlicht. Das Programm kann in Echtzeit dolmetschen. In der Forschungsarbeit kommt Meta zum Schluss, das eigene System sei laut anerkannten Tests besser als jene der Konkurrenz.

Fortschritte bei selteneren Sprachen

Der vollständige Service ist in der Schweiz noch nicht freigegeben. Das Modell dahinter ist aber frei im Internet verfügbar. Die Sprach-KI kann 101 Sprachen verstehen und diese in 36 Sprachen übersetzen.

Eine Hand tippt auf ein Smartphone, dass das Wort „HELLO!“ anzeigt.
Legende: KI-Übersetzer macht Fortschritte bei Sprachen ist aber noch nicht praxistauglich. IMAGO / ingimage

Das funktioniere schon recht gut, findet Rico Sennrich. Er ist Professor an der Uni Zürich und forscht an mehrsprachigen Sprachmodellen. Vor allem bei kleineren, seltener gesprochenen Sprachen gab es Fortschritte, weil das Team mehr Trainingsdaten gesammelt habe.

500 Jahre Tonmaterial

Dass Meta nun behauptet, das System sei besser als jene der Konkurrenz, hält Sennrich für plausibel mit Blick auf die publizierten Daten.

In Zukunft könnten mehr Trainingsdaten helfen, die Systeme zu verbessern – aber es gehe auch darum, diese Daten effizienter zu nutzen. Meta hat mit viereinhalb Millionen Stunden Audiodaten gearbeitet, das entspricht einer Redezeit von mehr als 500 Jahren. «Diese Systeme sind viel ineffizienter als Menschen im Lernen von Sprachen», sagt deshalb Rico Sennrich.

Praxistauglichkeit fraglich

Zum Teil werde nur schon die Sprache, die gesprochen wird, nicht richtig erkannt, sagt Alice Delorme Benitez. Die Forscherin befasst sich mit der konkreten Anwendung von KI-Übersetzungssystemen und leitet das Institut für Mehrsprachige Kommunikation an der ZHAW.

Metas System hat sie noch nicht getestet, aber ähnliche Systeme. Für viele praktische Anwendungen seien die aktuellen Systeme noch zu fehleranfällig, sagt sie. Zum Beispiel verstehe das Programm teilweise akustisch nicht, was gesagt werde, etwa wegen Hintergrundgeräuschen.

Missverständnisse und Unklarheiten

Laut Alice Delorme Benitez kann man darum heute noch nicht auf angenehme Weise mit Knopf im Ohr ein Gespräch über die Sprachgrenzen hinaus führen. Das liege auch daran, dass die KI oft Feinheiten wie die Tonlage nicht richtig erfasse. Zum Beispiel würden Fragen teils als Aussagen übersetzt, was irritierend sei. Die Simultanübersetzung hemme zudem den Redefluss.

Die Maschine wird nie sagen, dass sie ein Problem hat, sondern einfach etwas anbieten, auch wenn sie sich nicht sicher ist
Autor: Alice Delorme Benitez Leiterin Institut für Mehrsprachige Kommunikation ZHAW

Menschliche Dolmetscherinnen würden darauf hinweisen, wenn es eine Unsicherheit gibt, wenn beispielsweise etwas nicht klar verständlich war. Anders die KI: «Die Maschine wird nie sagen, dass sie ein Problem hat, sondern einfach etwas anbieten, auch wenn sie sich nicht sicher ist», so Delorme Benitez. Konkret also: Erfundene Dinge sagen.

Ihr Fazit zu aktuellen Übersetzungssystemen: noch nicht ganz marktreif. Vorträge an Konferenzen, wo nur eine Person spricht, könnten aber schon bald maschinell übersetzt werden, glaubt die Professorin. Der Babelfisch aus «Per Anhalter durch die Galaxis» dürfte aber noch weit weg sein.

Wissenschaftsmagazin, 18.01.2025, 12:40 Uhr

Meistgelesene Artikel