Apple hat eine Software angekündigt, die auf iOS-Geräten nach pornografischen Bildern sucht und diese meldet. Das Unternehmen will so verhindern, dass junge Menschen problematische Fotos von sich verschicken oder Erwachsene Kinderpornografie sammeln oder verbreiten. Die wichtigsten Fragen und Antworten.
Wie genau funktioniert diese Technologie von Apple? Apple hat eine Software entwickelt, die mithilfe von Verfahren aus der künstlichen Intelligenz problematische Bilder erkennen kann. Eine wichtige Rolle spielt dabei eine Datenbank mit bekannten pornografischen Bildern. Fotos auf dem iPhone werden mit dieser Datenbank abgeglichen. Wird die Software fündig, schlägt sie Alarm.
Wie werden die Bilder überprüft? Sowohl die Software als auch die Datenbank werden in Zukunft Teil des iOS Betriebssystems. Das hat den Vorteil, dass die Fotos auf den Apple-Geräten bleiben und zur Überprüfung nicht auf einen Server geschickt werden müssen.
Was sind die Beweggründe, das jetzt einzuführen? Apple hat den Schutz der Privatsphäre immer hochgehalten. Für das IT-Unternehmen ist das auch ein wichtiges Verkaufsargument. Strafverfolgungsbehörden hingegen werfen Apple schon seit Langem vor, dass der Konzern mit seiner Verschlüsselungstechnologie der Verbreitung von Kinderpornografie Vorschub leiste.
Apple versucht nun mit diesem Filter so etwas wie die Quadratur des Kreises: Die neue Software soll verhindern, dass man problematische Bilder von Kindern über den iMessenger oder die iCloud verbreiten kann, ohne dass Apple bei der Verschlüsselung Kompromisse eingehen muss.
Kann dieser Mechanismus auch für anderes missbraucht werden? Genau das fürchten Kritikerinnen und Kritiker. Für sie ist dieser Mechanismus eine Hintertür ins iPhone, in ein Gerät, das bis jetzt gut geschützt war. Sie warnen auch davor, dass man diesen Filter so abändern kann, dass er nicht nur Pornografie, sondern auch andere Inhalte erkennt, Politische zum Beispiel. Das liesse sich rechtfertigen mit dem Argument, dass man neben Kinderpornografie auch den Terrorismus bekämpfen will.
Solche Softwares zur Abgleichung sind doch sicher auch fehleranfällig – landet man dann bei Nacktbildern der eigenen Kinder am Strand auf dem Radar? Der Mechanismus wird sicher nicht fehlerfrei funktionieren, das zeigt die Erfahrung mit ähnlichen Filtern, die zum Beispiel Facebook einsetzt. Die Software auf dem iPhone schlägt aber erst Alarm, wenn jemand mehrfach mit problematischen Bildern zu tun hat. Mit dieser Hürde versucht Apple, allfällige Schwächen des Filters auszugleichen.
Was bringt es wirklich, wenn Apple diesen Mechanismus einführt – bewegen sich die Täter nicht im Darknet? Der Filter warnt die Eltern, wenn ihre Kinder unbedarft problematische Bilder von sich in Umlauf bringen wollen. Das hat sicher eine Wirkung. Es stellen sich dennoch Fragen: Was genau gilt als problematisch? Wie weit sollen Eltern ihre Kinder überwachen? Was ist juristisch zulässig?
Erwachsene Pädophile, die gezielt Kinderpornografie sammeln oder verbreiten wollen, wird der Mechanismus kaum davon abhalten, weil sie auf andere Technologien ausweichen können – eben auf das Darknet zum Beispiel. Viele Täter sind technisch versiert und gehen äusserst raffiniert vor.