Auf seiner Engage-Veranstaltung in Bern hat der Cybersecurity-Spezialist
Check Point Software Technologies
seinen ersten AI Security Report vorgestellt. Der bietet laut Check Point eine der bisher umfassendsten Analysen darüber, wie Cyberkriminelle künstliche Intelligenz ausnutzen und weist einen dramatischen Anstieg von KI-gesteuerten Angriffen wie Deepfakes, Data Poisoning, kriminelle und erschwingliche KI-as-a-Service-Angebote etwa für Phishing oder Sprachbetrug sowie das Aufkommen von "Dark LLMs" nach.
Dass die Nutzung von KI in Unternehmen ein zweischneidiges Schwert ist, zeigt die Studie deutlich. So nutzen 51 Prozent der Unternehmen inzwischen monatlich KI-Tools, aber einer von 80 Prompts in Unternehmensnetzwerken enthält hochsensible Daten. Und 7,5 Prozent der KI-Interaktionen erfolgen mit potenziell sensiblen Inhalten und stellen so ein Compliance- und Datenleck-Risiko dar. Dazu kommt, dass der Markt für gestohlene KI-Zugänge boomt: Zugangsdaten für KI-Tools wie ChatGPT werden dem Bericht zufolge zunehmend über Phishing und Infostealer gestohlen, um Malware zu generieren oder Inhaltsbeschränkungen zu umgehen.
Ein weiteres Problem ist Desinformation. So hat Check Point festgestellt, dass 2024 eine russische Kampagne 3,6 Millionen Desinformationsartikel erstellt hat, um Chatbot-Ausgaben zu manipulieren. Diese "vergifteten" Artikel tauchten in 33 Prozent der KI-Chatbot-Antworten auf – das offenbare systemische Schwachstellen in LLMs. Darüber hinaus kommt KI zusehends bei der Entwicklung von Malware wie zum Beispiel DDoS-Skripten zum Einsatz. Und mit "Dark LLMs" wie HackerGPT, FraudGPT und GhostGPT, die im Dark Web erhältlich sind, sollen ethische KI-Schutzmechanismen umgangen werden.
Lotem Finkelstein, Director of Threat Intelligence & Research bei
Check Point: "Der Einsatz von KI in der Cyberkriminalität geht über die Theorie hinaus – er verändert die Angriffsstrategien auf allen Ebenen. Sicherheitsteams müssen jetzt KI-gestützte Erkennung und mehrschichtige Identitätsüberprüfung integrieren, um sich gegen Deepfake-Täuschung und Modellmanipulation zu schützen. Informiert zu sein, ist der erste Schritt, um sicher zu bleiben."
(ubi)