Die Frage, wie sich KI-Technologien gewinnbringend nutzen lassen, treibt nicht nur Unternehmen und Privatanwender um, sondern auch Kriminelle. Die ernüchternde Erkenntnis ist, dass KI bereits seit langem im Standardrepertoire von Angreifergruppen ihren Platz hat, und dass sie auch Skalierungseffekte zu nutzen wissen. Kriminelle folgen denselben Regeln der Marktwirtschaft, wie es der Rest der Gesellschaft tut: Wenn ein Aufwand sich nicht rechnet, werden sie ihn auch nicht betreiben. Doch was, wenn der Aufwand minimal ist und nur wenige Mausklicks benötigt? Das relativiert vieles – auf beiden Seiten des Gesetzes.
Unternehmen setzen KI-Technologien ein, um Routineaufgaben zu automatisieren und so die Arbeitsbelastung der Mitarbeitenden zu reduzieren. Dasselbe gilt auch in der kriminellen Szene – nur mit dem Unterschied, dass sich die Täter nicht an Gesetze gebunden fühlen und Dinge wie Datenschutz und Compliance, Energieverbrauch oder verifizierte Ergebnisse keine Rolle spielen. Das macht KI – vor allem Large Language Models (LLMs) – zu einem potenten Werkzeug, das in den richtigen (oder eben in den falschen) Händen grossen Schaden anrichten kann. Das Spektrum möglicher Anwendungsfälle reicht hier vom automatisierten und personalisierten Phishing-Nachrichten und Webseiten über die Erstellung von psychologischen Profilen von Zielpersonen bis zum Imitieren der Stimmen von Geschäftspartnern oder CEOs am Telefon.
Warum Kriminelle die Regeln selbst bestimmen
Dabei verlassen sich kriminelle Akteure jedoch nicht auf die Dienste, die Jedermann im Netz für eine monatliche Gebühr nutzen kann. Grund dafür ist, dass natürlich auch Anbieter von LLMs wie ChatGPT, Perplexity, Sora und Co. laufend daran arbeiten, die missbräuchliche Verwendung ihrer Dienste zu unterbinden. Wer also versucht, mit dem Prompt «Schreibe mir eine Phishing Mail für Person X» verfassen zu lassen, wird schnell merken, dass die Nutzungsregeln der KI dies nicht zulassen. Natürlich lässt sich mit Hilfe des sogenannten «Prompt Hijacking» eine KI überreden, doch das gewünschte Ergebnis zu liefern – jedoch nur über Umwege.
Leichter haben es Angreifer, wenn sie ein eigenes, lokales LLM betreiben können, bei dem sie selbst die Spielregeln festlegen können. Entsprechende Modelle sind ohne Weiteres im Internet verfügbar. Der einzige limitierende Faktor ist hier die lokal zur Verfügung stehende Rechenleistung. In ausgewählten Fällen sind auch bereits KI-verwandte Technologien zum Einsatz gekommen, in denen Unternehmen Millionenschäden zu verzeichnen hatten. So etwa im Beispiel eines Unternehmens, bei dem ein Mitarbeiter der Finanzabteilung Überweisungen in Höhe von 25 Millionen US-Dollar tätigte, die dann bei Kriminellen gelandet sind. Passiert ist das nach einer Videokonferenz, in der der Mitarbeiter mit – so glaubte er – Mitgliedern der Unternehmensführung gesessen hat. Der Haken: Keine der vermeintlichen Führungskräfte war echt. Sie waren alle KI-generiert und haben sich täuschend echt verhalten.
Mit Copy-Paste zur KI-generierten Schadsoftware
Auch im sonstigen Geschäft der alltäglichen Schadsoftware hat KI einiges bewegt und wird noch einiges bewegen. Mit dem Aufkommen von massenverfügbaren KI-Systemen wurde auch sofort von einigen Journalistinnen und Journalisten die «KI-generierte Super-Malware, gegen die es keine Verteidigung mehr gibt» herbeigeschrieben. Was wir bisher sehen, sind jedoch eher unbeholfene Versuche. KI ist zwar in der Lage, funktionsfähige Codebausteine herzustellen – aber für komplexe Zusammenhänge reicht es noch nicht. Wo sich früher Malware-Aspiranten – sogenannte Script-Kiddies – in Internetforen herumgetrieben und Codefragmente von dort zu einer mehr schlecht als recht funktionierenden Schadsoftware zusammenkopiert haben, nutzen moderne Script-Kiddies teilweise unverändert das, was sie aus ihrem jeweiligen LLM herausbekommen haben, und hoffen, dass das Ergebnis irgendwie funktioniert. Bei Malware-Analysten ruft so erstellte Schadsoftware aufgrund ihrer eher kruden Machart oftmals Kopfschütteln hervor. Eine wesentliche Änderung, die sich jedoch derzeit entwickelt, ist die Ablösung von sogenannten Packern in der Malware-Entwicklung. Diese dienten ursprünglich unter anderem dazu, den Kern einer Schadsoftware immer in ein neues virtuelles Gewand zu hüllen, um die Entdeckung durch Sicherheitsprogramme zu verhindern. Mit modernen LLMs ist es jedoch möglich, eine bestehende Schadsoftware umschreiben zu lassen oder diese in eine andere Programmiersprache zu übersetzen; etwa von Java nach Rust. Gerade Rust ist eine Programmiersprache, die das Reverse Engineering und die Analyse von Schadsoftware massiv erschwert.
Emotionale Angriffe: Die neue Dimension bei Schockanrufen
Doch auch Menschen, die nicht bei Grosskonzernen am Ruder sitzen und Millionenzahlungen lenken, und die keine Schadsoftware installieren, können zum Ziel KI-unterstützter Angriffe werden. So gibt es immer wieder Fälle von so genannten Schockanrufen, bei denen sich der KI-Anrufer oder die -Anruferin als Familienangehöriger ausgibt, der sich angeblich in einer Notsituation befindet und schnell Geld benötigt. Hier wird bewusst ein hoher Stresslevel aufgebaut, indem Täter Szenarien von einer angeblichen Verhaftung bis hin zu einem Verkehrsunfall mit Krankenhausaufenthalt entwickeln. Besonders perfide: Oft geben sich die Anrufer als Polizeibeamte, Ärztin oder Sanitäter aus und informieren die angerufene Person, dass zum Beispiel eine Zahlung einer Kaution oder Geldstrafe geleistet werden müsse. Auch der Vorwand, dass Geld für eine sofortige lebensnotwendige ärztliche Behandlung benötigt werde, die ohne die Zahlung nicht stattfinden könne, ist eine beliebte Masche.
Vom Bewerber zum Spion: KI-generierte Fake-Angestellte
Vorgehensweisen, die nicht nur auf einmalige Gewinne ausgelegt sind, befinden sich ebenfalls auf dem Vormarsch. Auch der Stellenmarkt ist voll mit «Stolperfallen», hinter denen in der einen oder anderen Form eine KI steckt. Künstliche Intelligenz kommt auf beiden Seiten der Stellensuche zum Einsatz. Unternehmen versuchen, mit Hilfe von KI qualifizierte Bewerber gezielt herauszufiltern, und Bewerber machen sich KI zunutze, um ihre Bewerbungsschreiben und Lebensläufe zu optimieren. In all dem Gewimmel tummeln sich jedoch auch Akteure, die gezielt versuchen, über den Recruiting-Prozess ein Unternehmen zu infiltrieren – auch hier kommt KI mit zum Einsatz. Staatliche Akteure, unter anderem aus Nordkorea, haben sich hier in den vergangenen Monaten besonders hervorgetan, was einige prominente Beispiele belegen.
Angebliche Bewerber sind teilweise komplett KI-generiert. Besonders Remote-Work-Stellen sind hier Ziel von Angriffen, da sich Unternehmens-HR und Bewerber niemals persönlich vor Ort zu Gesicht bekommen. Die Bewerber durchlaufen den Recruiting-Prozess und werden schliesslich eingestellt. Ab diesem Moment gibt es verschiedene potenzielle Resultate: Der vermeintliche neue Angestellte kann versuchen, Ransomware ins Unternehmensnetz zu schmuggeln, um eine Erpressung vorzubereiten. In anderen Fällen versuchen sie, mit Hilfe von Spionagewerkzeugen, Unternehmensdaten oder Betriebsgeheimnisse zu stehlen. Oder sie gehen tatsächlich ihrer Arbeit nach (potenziell betreiben sie dazu sogar selbst Outsourcing oder nutzen eine KI dafür), und streichen ein Gehalt ein, welches dann über Umwege direkt ans fremde Regime geht. Auch Kombinationen der vorgenannten Methoden sind denkbar. Auf diesem Weg haben bereits Milliarden von Dollar den Weg in nordkoreanische Staatskassen und die Konten krimineller Organisationen gefunden.
Gartner-Schätzungen zufolge werden 2028 bis zu 25 Prozent der potenziellen Bewerberkandidaten KI-generierte Fakes sein. Die meisten Personalabteilungen sind darauf nicht vorbereitet und haben hier einen erhöhten Nachholbedarf.
Der Mensch bleibt im Fokus
Bei allem Einsatz von KI ist jedoch ein Faktor nicht zu vernachlässigen: Der Mensch steht bei all dem noch immer im Mittelpunkt, und die kriminelle Szene ist tendenziell eher konservativ, was die Nutzung neuer Technologien angeht, und springt nicht auf jeden Hype auf. Doch auch in der Untergrundwirtschaft wird sich die Beschäftigungsstruktur durch KI-Technologien verändern. Einige Malware-Entwickler wenden sich vielleicht anderen Bereichen zu oder formieren sich zu eigenen «Ausgründungen» existierender Tätergruppen. Es bewegt sich also auch im Untergrund eine ganze Menge.
Der Autor
Tim Berghoff ist Security Evangelist bei
G Data Cyberdefense. In seiner Position bei G Data bildet er die Schnittstelle zwischen technischer Komplexität und dem Anwender. Er ist zuständig für eine klare Kommunikation von G Data in der Sicherheits-Fachwelt, bei Presse, Händlern, Resellern und Endkunden und er spricht häufig auf nationalen und internationalen Veranstaltungen.