«Guten Abend KOMMA liebe Zuschauerinnen und Zuschauer PUNKT Herzlich willkommen zu SRF Meteo PUNKT» – etwa so klingt es oft, wenn man bei uns von Swiss TXT im Studio Zürich Leutschenbach an den offenen Bürotüren vorbeigeht. Ein bisschen wie damals in der Primarschule beim Diktat. Und so ganz anders, als sich die meisten das Untertiteln vorstellen.
Wenn ich jemandem erzähle, dass ich Live-Untertitel für Hörbehinderte und Gehörlose für SRF erstelle, höre ich in den allermeisten Fällen: «Boa, dann kannst du ja sicher voll schnell tippen!» Da muss ich dann immer alle enttäuschen und beichten, dass ich mit meinem – bestenfalls – Achtfingersystem eine ziemlich langsame Tipperin bin.
«Ja, wie macht ihr das denn sonst?», ist meist die nächste Frage. Die kurze Antwort: Wir sprechen grundsätzlich alles nach, was in einer Live-Sendung gesprochen wird (deshalb auch die Bezeichnung «Respeaker:in»). Dabei kommt eine Spracherkennungssoftware zum Einsatz, die das von uns Gesagte in Text umwandelt. Und diesen Text kann ich dann mittels Untertitelungsprogramm in Echtzeit über den Sender schicken.
Das klingt jetzt erst mal gar nicht so wild, mag man sich denken. Aber was, wenn ich ergänze, dass mich die Spracherkennungssoftware verstehen lernen muss? Dass ich ihr Wörter beibringen muss? Ihr sagen muss, wie ich was ausspreche? Dass das Ganze simultan passiert, also gleichzeitig zum Live-Ton, der gerade gesendet wird? Und dass ich dabei die Interpunktion einfügen muss, also den von mir nachgesprochenen Satz grammatikalisch analysiere und die richtigen Satzzeichen setze? Dass ich den angezeigten Text auf Fehler durchlese und allenfalls korrigiere, bevor ich ihn sende?
Und nicht vergessen: Dabei läuft der Originalton weiter.
Kurz: Ultrasupermultitasking.
Es ist wohl kein Zufall, dass bei uns auf der Redaktion einige ausgebildete Konferenzdolmetscherinnen arbeiten – ich bin eine davon. Tatsächlich sind Respeaken und Simultandolmetschen verwandte Tätigkeiten, natürlich vor allem wegen der Gleichzeitigkeit und des Multitaskings. Und: Je nach Sendung empfinde ich Simultandolmetschen manchmal tatsächlich als einfacher als Respeaken, denn beim Respeaken kommen Aufgaben hinzu, die es beim Dolmetschen nicht gibt …
So muss ich mir als Dolmetscherin an einer Konferenz zum Beispiel nicht überlegen, wie man Namen schreibt, ich kann sie einfach so wiederholen, wie ich sie gehört habe. Beim Respeaken hingegen findet im Kopf im Hintergrund konstant ein «Datenabgleich» statt: Hab ich dem System diesen Namen beigebracht, also kann ich ihn einfach nachsprechen? Oder weiss ich, dass ich diesen Namen eben nicht erfasst habe und ihn deshalb eintippen muss? Und wenn dem so ist, wie schreibt man denn diesen verflixten Namen richtig? Diese Denkprozesse fallen beim Simultandolmetschen weg. Zudem muss ich da nicht auch noch gleichzeitig an die Satzzeichen denken und laufend den gerade erkannten Text korrigieren …
Ich will mich jetzt aber nicht in technischen Details verlieren, denn es ist fürs Respeaken kein Muss, Dolmetscher:in zu sein. Vielmehr scheint es einfach, als brauche es eine gewisse Veranlagung zum Multitasking, um das Respeaken zu erlernen und (so gut es geht) zu beherrschen.
Viel spannender (und auch witziger) finde ich da unseren Redaktionsalltag, daher hier ein kurzer Einblick:
Zuerst muss ich vielleicht festhalten, dass wir Sendungen ohne Live-Passagen in der Regel nicht mittels Respeaking untertiteln. Diese Technik ist primär für Live-Sequenzen gedacht (mit zwei Ausnahmen, auf die ich gleich noch zu sprechen komme). Alle anderen Untertitel werden überwiegend so erstellt, wie man sich das gemeinhin so vorstellt: via Tastatur. Filme und Serien werden zum Beispiel eine Weile im Voraus verarbeitet, jeder Untertitel wird dabei mit einem Timecode versehen. Die Untertiteldatei wird dann «angehängt», will heissen, sie wird im Sendesystem hinterlegt und automatisch mit dem jeweiligen Film ausgestrahlt.
Sendungen, die kurzfristiger entstehen und daher eine solche Detailbearbeitung nicht zulassen, werden «semi-live» ausgestrahlt. Das bedeutet, dass wir vorab erstellte Untertitel manuell einzeln live, parallel zur Sendung rausschicken. Dies betrifft auch Sendungen, die Live-Passagen enthalten können, aber nicht ausschliesslich live sind, zum Beispiel die «Tagesschau», «Schweiz aktuell», «10 vor 10», «Kassensturz» oder auch manche Unterhaltungssendungen.
In diese Kategorie fallen auch die oben erwähnten Ausnahmen: «Club» und «Arena». Diese beiden Sendungen werden von SRF zwar voraufgezeichnet, jedoch nur wenige Stunden vor der Ausstrahlung, sodass ein Untertiteln, Timen und Anhängen nicht möglich ist. Um die Untertitelerstellung dennoch effizient zu gestalten, beginnen wir schon wenige Minuten nach Aufzeichnungsbeginn mit dem Respeaken. Wir speichern die Sequenzen laufend ab, eine Teamkollegin prüft sie auf Fehler und bringt sie in die endgültige Form. Diese beiden Sendungen werden daher ebenfalls semi-live gesendet (ja, da sitzt auch von uns noch jemand bis 23.45 Uhr im Büro).
Ich hatte weiter oben Witziges versprochen, ich weiss. Also: Stellt euch vor, ihr seid für die Schicht «Eurovision Song Contest» eingeteilt und müsst euch auf euren Einsatz vorbereiten. In unserem Fall bedeutet das, dass wir Vokabularlisten erstellen und ins System einspeisen. Dazu haben wir für jede Sendungskategorie ein eigenes Sprachprofil: je eines für News und Politik, für Unterhaltungssendungen und verschiedene für Sport (Fahrsport, Torsport, Wintersport etc.). Gut. Für so eine musikalische Unterhaltungssendung fallen ja schon mal ganz viele Namen und Songtitel an, die nicht deutsch sind. Autsch. Denn: Unsere Spracherkennungssoftware (die übrigens Dragon NatuallySpeaking heisst und von uns liebevoll «de Drache» genannt wird) versteht nur Deutsch.
Füttere ich das Ding also mit einem Wort, versteht es das letztlich nur, wenn ich es gemäss deutscher Ausspracheregeln ins Mikrofon spreche. Daher müssen wir bei nicht-deutschen Namen/Begriffen eine phonetische Schreibweise hinterlegen, was dann zu solchen Augenweiden wie «Jurowischen Ssong Kontest», «Se Koud» oder «Bejbi Lasanja» führt. Das ist mal das eine.
Und weil uns der Drache eben manchmal – so scheint es – auch nicht so recht verstehen will, reimt er sich hin und wieder selbst etwas zusammen. Dabei ist Dragon gerne auch mal ein Schlitzohr, weshalb es sich zum Beispiel stark empfiehlt, im Eishockeyprofil das Wort «Scheide» aus dem Standardvokabular zu löschen (weil klingt ja wie «Scheibe»), und beim Fussball das Wort «Nazi» (weil Schweizer … – genau). Und auch sonst ist der Drache ein Schelm …
Der Drache sorgt bei uns also regelmässig für spontane Lacher – gar nicht so einfach, dann während des Respeakens mit all seinen multiplen Tasks seriös zu bleiben … Wenns hart auf hart kommt, ist man aber zum Glück nie alleine, da wir Live-Sendungen immer mindestens zu zweit untertiteln. So wechseln wir uns auch etwa alle 20 Minuten ab, weil diese Tätigkeit eine hohe Konzentration erfordert, die nach jeweils 20 bis 30 Minuten erschöpft ist (übrigens wieder eine Parallele zum Simultandolmetschen).
Uns Respeaker:innen braucht es vorwiegend für Sendungen, die (potenziell) Live-Anteile haben, deshalb orientiert sich unser Einsatzplan meist am TV-Programm. So beginne ich meine Arbeit immer wieder zu einer anderen Tageszeit. Mal ist es eine Sportübertragung um 8 Uhr, mal die «Tagesschau»-Schicht ab 17 Uhr oder auch mal Fussball ab 20 Uhr. Wochentags endet die letzte Schicht zwischen 22.30 und 23.45 Uhr; am Wochenende sind wir oft früher fertig – abhängig vom aktuellen Programm ab.
Warum ich mir diesen ganzen Stress antue? Endlich mal eine Frage, die sich wirklich leicht beantworten lässt: Weil wir mit unserer Arbeit tagtäglich für mehr Barrierefreiheit sorgen. Weil jede und jeder das Recht darauf hat, via Medium Fernsehen an der Gesellschaft teilzuhaben. Das macht unsere Arbeit wertvoll und bereichernd. Und ich bin stolz darauf, Teil eines so vielfältigen und herzlichen Teams zu sein.