KI-Spezialist
Anthropic erhebt schwere Vorwürfe gegen die drei chinesischen KI-Firmen
Deepseek, Moonshot und Minimax. Diese hätten mit etwa 24'000 betrügerischen Accounts über 16 Millionen Mal mit dem Anthropic-Chatbot Claude interagiert, um Informationen abzugreifen und ihre eigenen Modelle zu verbessern. Gerade Deepseek schlug Anfang 2025 grosse Wellen ("Swiss IT Magazine"
berichtete), weil es angeblich mit weniger Ressourcen leistungsstärkere Modelle entwickeln konnte als die KI-Labs aus den USA. Laut Anthropic sei das aber nur eine Folge des systematischen und unerlaubten Abgreifens von Daten gewesen.
Die von den Chinesen angeblich angewendete Technik heisst Destillation und beschreibt das Training von LLMs mit dem Output eines anderen Sprachmodells. Im legalen Rahmen werde das Vorgehen von KI-Firmen etwa genutzt, um schlankere Versionen der eigenen grösseren LLMs zu erstellen. Im Fall von Anthropic und den chinesischen KI-Labs sei via Destillation aber im Prinzip Wirtschaftsspionage betrieben worden.
Wie
Anthropic weiter
schreibt, werden bei dieser raffinierten Form des Datenklaus Proxy-Server genutzt, denn via Geoblocking sollte der Zugriff auf Claude von China aus eigentlich eingeschränkt sein. Die Rede ist von "Hydra Clustern" – wenn einer der Accounts auf einem solchen gesperrt wird, wird just ein neuer eröffnet. In einem beobachteten Fall liefen auf einem einzigen Cluster 20'000 Accounts. Diese Accounts setzen dann spezifische Prompts ab, um zu den gewünschten Antworten zu kommen.
Als Schutzmassnahmen werden Systeme zur Entdeckung und für die Zugangskontrolle eingesetzt. Weiter teile man das gewonnene Wissen rund um die Destillation-Bestrebungen der chinesischen Firmen mit anderen KI-Firmen, Cloud-Providern und Behörden. Ausserdem wird einmal mehr auf Exporteinschränkungen für leistungsstarke Chips nach China geworben. Denn, so Anthropic weiter, es gehe zum einen um den Schutz der KI-Vorherrschaft der USA und zum anderen um die Wahrung der Sicherheitsrichtlinien von KI-Modellen.
(win)