Die chinesische KI-Plattform
Deepseek ist nach einer Analyse der US-Sicherheitsfirma Crowdstrike in die Kritik geraten. Wie die "Washington Post"
schreibt (Paywall,
via "The Decoder") liefert der Dienst schlechtere Ergebnisse, sobald Programmieranfragen für die chinesische Regierung politisch sensible Themen betreffen. Während bei neutralen Anfragen rund 23 Prozent der Antworten unsicheren oder fehlerhaften Code enthielten, stieg dieser Anteil auf mehr als 42 Prozent, wenn die Projekte beispielsweise mit der Terrororganisation "Islamischer Staat" in Verbindung gebracht wurden. Auch bei Themen wie Tibet, Taiwan oder der in China verbotenen Bewegung Falun Gong lieferte die Plattform demnach erkennbar schlechtere Ergebnisse.
Neben der Codequalität fiel laut dem Bericht zudem die Häufigkeit von Verweigerungen auf. Anfragen mit Bezug zum "Islamischen Staat" blockierte Deepseek in 61 Prozent der Fälle, bei Falun Gong lag die Ablehnungsquote bei 45 Prozent. Westliche KI-Systeme verweigern zwar ebenfalls terrorismusbezogene Anfragen, reagieren jedoch wiederum auf Falun-Gong-Themen.
Die Experten nennen zwei mögliche Gründe für das Verhalten: Denkbar ist eine gezielte Steuerung durch Programmiervorgaben, die bestimmte Inhalte ausschliessen oder bewusst schwächere Antworten erzeugen. Ebenso möglich ist aber auch ein Einfluss der entsprechenden Trainingsdaten. Frühere Untersuchungen hatten jedoch bereits gezeigt, dass Deepseek bei heiklen Fragen häufig die offiziellen Positionen Pekings wiedergibt.
(sta)