Wenn René Jaun vor dem Kühlschrank steht, benutzt er die App «Be My Eyes». Der Tech-Journalist ist vollständig blind. Mithilfe von Künstlicher Intelligenz lädt er ein Foto von verschiedenen Joghurts hoch und lässt sich vorlesen, ob er ein Aprikosen- oder ein Erdbeerjoghurt vor sich hat.
Die Künstliche Intelligenz funktioniert aber nicht immer gleich gut und macht teilweise schwerwiegende Fehler. «Ich kann der KI nicht vertrauen – sie verwechselte einmal Kopfwehtabletten mit Crème gegen Fusspilz», sagt Jaun. Im Zweifelsfall und vor allem, wenn es um die Gesundheit gehe, vertraue er nur Menschen.
Die App von «Be My Eyes» setzte bisher auf Menschen, möchte jetzt aber vermehrt auf KI setzen. Dafür muss die Künstliche Intelligenz aber zuerst verbessert werden.
KI hat Vorurteile gegenüber Blinden
«Blinde Menschen verwenden einen Wecker, der ganz laut ist und auch vibriert», meint ChatGPT auf eine Frage von Jaun. Das treffe allenfalls auf Menschen mit einer Hörbehinderung zu, aber er kenne keine einzige blinde Person, die so einen Wecker verwendet. Das ist noch ein einigermassen harmloses Beispiel, das veranschaulicht, wie KI die Realität falsch abbildet.
In anderen Bereichen wird das zu einem Problem. Bei der Jobsuche zum Beispiel: Laut Jaun lassen grosse Unternehmen immer häufiger ihre Bewerbungen von einer KI vorsortieren. Nur: «Wenn KI Bewerbungen entgegennimmt, benachteiligt sie dann blinde Personen? Oder haben sie einen Vorteil?»
Deshalb sei es wichtig, dass die KI-Modelle so realistisch wie möglich trainiert werden, auch mit Daten von Blinden. Die Künstliche Intelligenz sei nämlich nur so gut, wie die Daten, mit denen sie trainiert wurde, sagt Jaun. Er begrüsst den Schritt von «Be My Eyes», die Daten mit Unternehmen wie OpenAI zu teilen. Dabei gehe es nicht nur darum, die App sicherer für Blinde zu machen, sondern auch darum, die Künstliche Intelligenz inklusiver zu machen.
Fragezeichen beim Datenschutz
Laut René Jaun sei bei «Be My Eyes» nicht ganz ersichtlich, wie es um den Datenschutz stehe. Dabei müssten die persönlichen Daten unbedingt geschützt werden. Es gebe zum Beispiel blinde Frauen, die sich ihren Schwangerschaftstest über die «Be My Eyes»-App vorlesen lassen.
Ich finde es problematisch, dass die Informationen bei ‹Be My Eyes› schwierig zu finden sind. Denn die AGBs sind für blinde Personen besonders mühsam.
Das dänische Unternehmen «Be My Eyes» antwortete auch nach mehrmaligem Nachhaken nicht auf die Anfrage von SRF. Auf der Webseite von «Be My Eyes» steht jedoch, dass die Datenschutzbestimmungen verschärft worden seien, jetzt wo auch KI-Modelle mit den Daten von blinden Menschen trainiert werden. Zudem könnten alle App-Nutzerinnen jederzeit mitteilen, wenn sie ihre Daten nicht mehr teilen möchten. Die App sei dann trotzdem noch nutzbar.
Ganz so einfach sei diese Opt-out-Möglichkeit aber nicht. Laut Alireza Darvishy, welcher an der ZHAW zu barrierefreien Technologien forscht, findet man die Informationen dazu erst ganz am Schluss der Datenschutzbestimmungen. «Ich finde es problematisch, dass bei ‹Be My Eyes› die Informationen schwierig zu finden sind. Denn die AGBs sind für blinde Personen besonders mühsam», sagt Darvishy.
Unter dem Strich findet aber auch Darvishy, dass «Be My Eyes» mehr nützt als schadet. Denn dank der Trainingsdaten werden Vorurteile gegenüber Blinden abgebaut und die App selber verbessert, sodass Kopfwehtabletten vielleicht irgendwann nicht mehr mit Crème gegen Fusspilz verwechselt werden.