Im März 1983 wurde in New Bedford, USA, eine 21-Jährige von vier Männern in einer Kneipe vergewaltigt. Gäste schauten zu, manche applaudierten – niemand verständigte die Polizei. Der Fall stiess auf enormes öffentliches Interesse. Richter William Young entschied, dass der Vergewaltigungsprozess live am Fernsehen gesendet wird – ein Novum. Young war der Meinung, die Transparenz der Justiz sei ein wichtiges öffentliches Interesse.
Doch heute bereut er den Entscheid, wie er in einer Netflix-Dokumentation sagt: «Die Tatsache, dass ihr Name [der Frau] sofort bekannt wurde, muss, ehrlich gesagt, mir angelastet werden. Die Medien waren sich bis dahin einig, dass der Name des mutmasslichen Opfers nicht bekannt gegeben würde. Und das war so einstimmig, dass ich zugeben muss, dass ich dachte, das würde auch für einen im TV übertragenen Prozess gelten. Tat es nicht. Es war mein Fehler und ich bereue ihn ausserordentlich.»
Mit Künstlicher Intelligenz Namen der Parteien herausfinden
Eine ähnliche Panne könnte heute wieder passieren. Dieses Mal nicht im Fernsehen, sondern im Internet.
Auch kantonale Gerichte publizieren ihre Urteile im Internet.
«In der Schweiz publizieren alle vier eidgenössischen Gerichte ihre Urteile und sogar Zwischenentscheidungen im Internet. Auch kantonale Gerichte publizieren ihre Urteile und einen Teil ihrer Zwischenentscheidungen», sagt Magda Chodup, die im Rahmen des Forschungsprojekts «Open Justice vs. Privacy» beim Kompetenzzentrum Public Management der Universität Bern eine Doktorarbeit schreibt.
Die Publikation der Urteile dient der Transparenz. Gleichzeitig soll aber die Privatsphäre der Betroffenen geschützt werden. «Die Gerichte sind grundsätzlich verpflichtet, die Urteile zu anonymisieren. Manche machen das mit IT-Tools», sagt Chodup.
Das Problem: KI kann relativ einfach anonymisierte Daten deanonymisieren. Mit ChatGPT könnte man zukünftig vielleicht herausfinden, ob der Nachbar früher eine Straftat begangen hat. Oder ob der neue Freund eine Kampfscheidung vor Bundesgericht ausgetragen hat.
ChatGPT kann noch keine Urteile deanonymisieren
Mit dem Forschungsprojekt «Open Justice vs. Privacy» wird deshalb an Lösungen geforscht, wie die Justiz Zugang zu Gerichtsentscheidungen gewährt und gleichzeitig die Privatsphäre schützt.
Im Rahmen des Projekts haben Forschende mit einer grossen Anzahl Gerichtsfälle geprüft, ob anhand frei verfügbarer Daten Personen identifiziert werden können. «Das ist uns zum Glück nicht gelungen», sagt der technische Forschungsleiter Matthias Stürmer. «Die KI ist noch nicht so gut. Aber die Bedrohung wird immer konkreter.»
Die Forschenden wollen deshalb bis Ende Jahr Guidelines für die Gerichte verfassen, wie sie Urteile anonymisieren sollen, sodass die Personen wirklich geheim bleiben.