Es beginnt wie ein ganz normales Computervirus: Das Opfer klickt auf einen E-Mailanhang, das Schadprogramm wird heruntergeladen.
Doch dann kommt künstliche Intelligenz (KI) zum Einsatz. Das Programm greift übers Internet auf eine KI zu und lässt sich von ihr kopieren und dabei komplett neu schreiben, sodass die Schadsoftware nicht vom Anti-Virus-Programm erkannt wird.
Es folgt der letzte Schritt: Das Programm verbreitet sich selbst weiter. Die künstliche Intelligenz liest die E-Mails des Opfers und verfasst basierend darauf Phishing-Mails.
Dabei ahmt sie den Schreibstil des vermeintlichen Absenders perfekt nach und fügt sich nahtlos in die Korrespondenz ein – die E-Mail wirkt also vollkommen vertrauenswürdig. Und sobald der oder die Nächste auf den E-Mailanhang klickt, legt das Schadprogramm von vorn los.
Der «AI Safety Prize» deckt Schwachstellen auf
Mit dieser Software haben zwei Studenten den neu geschaffenen «AI Safety Prize» gewonnen: David Zollikofer von der ETH Zürich und Benjamin Zimmerman von der University Colorado Boulder.
Ihr Programm sei zwar erst ein Prototyp und habe noch einige Defizite. Doch Zollikofer meint, es sei möglich, dass bald tatsächlich so ein «intelligenter Wurm» in Umlauf komme – technisch sei es bereits heute möglich.
Für den «AI Safety Prize» sind rund 30 Projekte eingereicht worden, die vier besten wurden an den «Swiss Cyber Security Days» in Bern ausgezeichnet. Die Präsentation der Projekte soll aufzeigen, wie KI für kriminelle Zwecke ausgenutzt werden kann und den Sicherheitsfachleuten einen Vorsprung verschaffen.
Wettrüsten in der Cybersicherheit
Nur, wie bereitet man sich auf eine Bedrohung vor, die sich andauernd selbst neu erfindet? Mit der KI kommt möglicherweise ganz neue Arten von Hacking-Angriffen auf uns zu.
Und nicht nur das: KI selbst bietet neue Angriffsfläche, wenn Modelle eingesetzt werden, die angreifbar sind oder sogar ganz grundsätzlich nicht funktionieren, wie sie sollen.
Um diese Risiken aufzuzeigen, hat der Verein PourDemain in Zusammenarbeit mit den Swiss Cyber Security Days den «AI Safety Prize» ins Leben gerufen. David Marti von PourDemain sagt, die Risiken von KI seien der Wirtschaft und der Politik noch nicht ausreichend bewusst.
David Marti sieht vorwiegend die grossen Tech-Firmen in der Pflicht, die KI entwickeln. Sie müssten die Modelle von vornherein sicher bauen und dabei unabhängige Kontrolle ermöglichen.
Aber auch die Politik sei gefragt. Sie müsse Regeln aufstellen und das richtige Umfeld schaffen, um einen sicheren KI-Einsatz zu garantieren. In der EU wurden bereits erste Leitlinien verabschiedet – jetzt wäre es an der Zeit, dass sich auch die Schweiz überlegt, wie sie die Herausforderung angeht.
Wir sind deine Korrespondenten aus der digitalen Welt. Ist ein Chip drin oder hängt es am Internet? Wir berichten wöchentlich. Smartphones, soziale Netzwerke, Computersicherheit oder Games – wir erklären und ordnen Digitalisierungs-Vorgänge ein, seit 2006
Um diesen Podcast zu abonnieren, benötigen Sie eine Podcast-kompatible Software oder App. Wenn Ihre App in der obigen Liste nicht aufgeführt ist, können Sie einfach die Feed-URL in Ihre Podcast-App oder Software kopieren.