Es ist ein erschreckendes Experiment, welches Florian Hansemann für die ARD-Sendung «Plusminus» durchgeführt hat. Der Experte für Cybersecurity fordert den Chatbot ChatGPT auf, einen sogenannten Schadcode zu schreiben. Kriminelle nutzen solche Schadsoftware etwa, um Zugriff auf das System des Opfers zu erhalten, um etwa Passwörter auszuspionieren.
ChatGPT spuckt ein Spionage-Programm aus
Nach der kurzen Anfrage spuckt ChatGPT einen Code aus. Hansemann kopiert den Code und tarnt ihn als harmlose Datei. Diese wiederum verlinkt er in einem Phishing-Mail. Auch dieses lässt Hansemann von ChatGPT verfassen. Heraus kommt eine gut verfasste, angebliche Mahnung der Steuerbehörde.
Wer den Link anklickt, lädt automatisch den Schadcode auf seinen Rechner. In diesem Fall ist es ein sogenannter Keylogger. Bei infizierten Computern zeichnet das Programm auf, was auf der Tastatur getippt wird. Hansemann schickt die Phishing-Mail an einen anderen Computer und klickt dort den Link im Mail an.
Und tatsächlich: Alles, was er jetzt tippt, kann auf dem ersten Computer mitgelesen werden. «Das hat geklappt und ist super simpel», so Hansemanns erschreckendes Fazit des Versuchs.
Schadcodes werden im Darknet angeboten
Dass Kriminelle künstliche Intelligenz nutzen, bestätigt Sergey Shykevich, Sicherheitsforscher bei der israelischen Firma Check Point. Er beobachtet, wie in russischen Untergrundforen ChatGPT missbraucht wird, um etwa Gesichtserkennungen zu knacken oder Sicherheitsfilter zu umgehen. «Cybergangster sehen das Potenzial von KI genauso, wie wir auch», so Shykevich.
Er zeigt etwa den realen Post unter dem Pseudonym US DoD, der einen Schadcode anbietet. «US DoD ist kein Cyberkrimineller, er ist ein normaler Betrüger. Er weiss gar nicht, wie man Schadcodes programmiert. Und solchen Leuten ermöglicht ChatGPT jetzt, Entwickler zu werden.»
Ruf nach Regulierung von KI wird immer lauter
US-Behörden warnen zudem vor mittels KI geklonten Stimmen, die vorgaukeln, eine Person sei entführt worden. Dies mit dem Ziel, Lösegeld zu erpressen. Die Forderung nach einer Regulierung von Künstlicher Intelligenz werden deshalb immer lauter.
So warnt das Center for AI Safety: «Die Eindämmung des Risikos der Auslöschung durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.» Mitunterschrieben hat auch Sam Altman, CEO von Open AI, dem Unternehmen, das ChatGPT entwickelt hat.
Die EU hat inzwischen ein Gesetz zur Regulierung von KI auf den Weg gebracht. Es könnte noch dieses Jahr verabschiedet werden. Auch der Bundesrat prüft Regulierungsansätze für künstliche Intelligenz: Das zuständige Bundesamt Uvek (Eidgenössisches Departement für Umwelt, Verkehr, Energie und Kommunikation) soll bis Ende dieses Jahres mögliche Ansätze aufzeigen.