cnt
Anthropic veröffentlicht versehentlich Claude-Quellcode
Quelle: Anthropic

Anthropic veröffentlicht versehentlich Claude-Quellcode

Durch einen Fehler eines Anthropic-Mitarbeiters wurde der Quellcode von Claude Code veröffentlicht. Nachdem der Code auf Github kopiert wurde, hat Anthropic Tausende Repositories löschen lassen.
2. April 2026

     

Dem KI-Spezialist Anthropic ist ein ärgerlicher Lapsus passiert; das Unternehmen hat versehentlich den kompletten Quellcode des Programmierwerkzeugs Claude Code veröffentlicht. Wie "Techradar" berichtet, ist ein Mitarbeiter für den Patzer verantwortlich; Hacker sollen nicht im Spiel sein.

Öffentlich gemacht wurde das Versehen vom Sicherheitsforscher Chaofan Shou, der auf X postete, der Quellcode sei über eine Map-Datei in der npm-Registry geleakt. Insgesamt sollen so über 512'000 Zeilen Quellcode veröffentlicht worden sein. Anthropic betont derweil, dass mit der Veröffentlichung keine Kundendaten offengelegt wurden.


Der Code wurde daraufhin auf Github veröffentlicht, worauf Anthropic gemäss einer "Techcrunch"-Meldung an die 8100 Repositories von der Entwicklerplattform entfernen liess. Offenbar wurden bei der Löschaktion aber mehr Repositories offline genommen, als beabsichtigt. (rd)


Weitere Artikel zum Thema

Anthropic integriert Computer Use in Claude Cowork und Code

24. März 2026 - Bisher dem eigentlichen Chatbot Claude vorbehalten, lässt sich die Computernutzung nun in Form einer Vorschau für Abonnenten auch in den Anthropic-Diensten Cowork und Code einsetzen, falls eine Aufgabe mit dem Chatbot selbst nicht zu erledigen ist.

Claude Code vernichtet produktive Daten aus zweieinhalb Jahren

10. März 2026 - Der Betreiber einer Lernplattform verliess sich zu sehr auf den KI-Agenten Claude Code und überliess diesem die Ausführung von Befehlen, die eine gesamte bestehende Infrastruktur löschten. In Zukunft will er vorsichtiger sein und solche Befehle ausschliesslich selbst absetzen.

Anthropic fliegt wegen Streit mit den USA aus der Lieferkette

4. März 2026 - Wegen einem Konflikt mit der US-Administration wird Anthropic zum Risiko für die Lieferkette erklärt und verliert Aufträge. Dafür führt der Streit aber zu einer Top-Platzierung des Anthropic-Chatbots Claude in den App Stores.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Vor wem mussten die sieben Geisslein aufpassen?
GOLD SPONSOREN
SPONSOREN & PARTNER