Unsere Stimme überträgt viele Informationen. Auch solche, von denen wir selber noch gar nicht wissen, sagt Dagmar Schuller, CEO des deutschen Unternehmens Audeering. Zum Beispiel zur Gesundheit: «Covid-19 ist ein Beispiel. Da haben wir fünf signifikante Tests gefunden, die uns mit bis nahezu 90-prozentiger Wahrscheinlichkeit ermöglichen, Corona festzustellen.»
Ein mit künstlicher Intelligenz trainiertes Programm vergleicht die Stimmprobe mit einer Datenbank. Über die Analyse der Sprache soll dann die Krankheit einfach und frühzeitig erkannt werden.
Solche Anwendungen stellen grundsätzlich eine Chance dar, sagt auch Nula Frei von der Universität Freiburg. Die Juristin ist Teil der Expertengruppe, die im Auftrag von TA-Swiss die Herausforderungen der automatisierten Erkennung von Stimme, Sprache oder Gesicht untersucht hat.
Entscheidend sei, was mit dem automatisch erstellten Covid-Testergebnis passiere. «Wenn sich aus dem Test eine Empfehlung oder eine Aufforderung, beispielsweise einen PCR-Test machen zu gehen, ergibt, dann sehe ich keine grossen Probleme.»
Das sähe anders aus, wenn automatisch eine Quarantäneanordnung erfolgen würde: «Dann scheint mir, dass das in den Bereich fällt, wo wir eine vollautomatische Entscheidung haben, die negative Auswirkungen auf die Betroffenen haben kann. Und deswegen so nicht stattfinden sollte», sagt Frei.
Nicht alles ist mit Grundrechten vereinbar
Die Forschenden wollen verhindern, dass gerade in sensiblen Bereichen wie der Gesundheit vollautomatische Entscheide gefällt werden, ohne dass ein Mensch mitredet. Daneben gibt es auch Anwendungen, die für die Forschenden grundsätzlich nicht mit den Grundrechten vereinbar sind: zum Beispiel die Echtzeitüberwachung von Videobildern durch polizeiliche Stellen. Deshalb empfehlen die Expertinnen und Experten ein Verbot.
Und auch wenn die Bilder im Nachhinein biometrisch, also mittels Gesichtspunkte, ausgewertet werden, brauche es eine klare rechtliche Grundlage. Da gebe es Nachbesserungsbedarf, sagt der ehemalige Datenschutzbeauftragte des Kantons Zürich, Bruno Baeriswyl.
«Wir haben eine Risikotechnologie»
Baeriswyl hat die TA-Swiss-Studie begleitet: «Wir müssen uns bewusst sein, dass wir über die gleichen Technologien verfügen wie China. Es ist sehr wichtig ist, dass wir auch die rechtliche Regulierung so machen, dass es nicht zu Überwachungen kommt. Aber wir müssen uns bewusst sein: Wir haben eine Risikotechnologie, die auch bei uns eingesetzt wird.» Und die gelte es zu regulieren.
Auch, wenn diese biometrischen Daten von Privaten eingesetzt werden. Von der Bank etwa, bei der biometrischen Stimmerkennung. Ein Grundsatz sei dabei zentral, sagt Juristin Nula Frei: «Dass die betroffenen Personen einwilligen müssen. Und einwilligen kann man nur, wenn man informiert ist.»
Der Einsatz der biometrischen Technologien soll also so organisiert werden, dass man diesen ausweichen kann, wenn man das möchte. Ob die Politik die rechtlichen Grundlagen am Ende tatsächlich so gestaltet, wie das die Forschenden empfehlen, ist allerdings offen.
TA-Swiss hat zwar den Auftrag, die Öffentlichkeit und auch das Parlament mit Informationen zur Technologieentwicklung zu beliefern. Ihre Empfehlungen sind aber vollkommen unverbindlich.