Wer Claude privat nutzt, soll künftig selbst entscheiden, ob neue Chats zur Modellverbesserung und Betrugs-/Missbrauchsabwehr beitragen – und nimmt bei Einwilligung eine deutlich längere Aufbewahrung in Kauf. Das geht aus von
Anthropic veröffentlichten
Aktualisierungen der Verbraucherbedingungen und der Datenschutzrichtlinie hervor.
Die Wahlmöglichkeit gilt für Claude Free, Pro und Max (einschliesslich Claude Code in diesen Tarifen), ausgeschlossen sind unternehmensbezogene Angebote wie Claude for Work, Claude Gov, Claude for Education sowie API-Nutzung, auch über Amazon Bedrock oder Google Cloud Vertex AI. Neue Nutzer treffen die Auswahl bei der Registrierung, bestehende Nutzer erhalten ein Pop-up und können bis zum 28. September 2025 entscheiden. Die Einstellung lässt sich laut Anthropic jederzeit in den Datenschutzeinstellungen ändern.
Die neuen Regeln sollen nur neue oder fortgesetzte Chats und Codesitzungen betreffen – ältere Unterhaltungen seien nicht betroffen. Wer die Freigabe erteilt, ermöglicht Anthropic eine Aufbewahrung von bis zu fünf Jahren, ohne Freigabe bleibt es bei 30 Tagen. Gelöschte Konversationen fliessen laut Bericht nicht in künftiges Training ein.
Zum Schutz der Privatsphäre setzt Anthropic nach eigenen Angaben auf Tools und automatisierte Prozesse, um sensible Daten zu filtern oder zu verschleiern, und verkaufe keine Nutzerdaten an Dritte.
(dow)