Ende Juli 2025 machte eine Meldung Schlagzeilen: Inhalte aus ChatGPT-Konversationen tauchten plötzlich in der Google-Suche auf. Für viele ein Schock – für Juristinnen und Juristen kaum überraschend. Wer vertrauliche Informationen in externe KI-Systeme eingibt, muss damit rechnen, dass Daten unkontrolliert weiterbearbeitet oder offengelegt werden.
Im Büro sind Tools wie Copilot, ChatGPT oder Gemini längst Alltag. Sie erstellen Protokolle, formulieren E-Mails und analysieren Daten – schnell, kreativ und effizient. Kein Wunder also, dass die Nutzung zunimmt.
Doch der Komfort hat seinen Preis. Jede Eingabe ist eine Datenübermittlung an Systeme ausserhalb der eigenen Kontrolle. Gelangen sensible Inhalte über das KI-Tool an Dritte, entstehen erhebliche rechtliche und reputationsbezogene Risiken.
Unternehmen tragen die Verantwortung, dass vertrauliche Daten oder Personendaten nicht unrechtmässig an externe Systeme gelangen. Auch wenn Anbieter besonderen Schutz zusichern, entscheidend ist, wie ein Tool konfiguriert wird und wo die Daten gespeichert sind.
Häufig wird angenommen, dass ein kostenpflichtiges Abonnement eines KI-Tools automatisch für Datensicherheit und Rechtskonformität sorgt. Doch bezahlt heisst nicht automatisch datenschutzkonform und auch Geschäftsgeheimnisse sind dadurch nicht automatisch geschützt. Zwar bieten kostenpflichtige Varianten von ChatGPT oder Copilot meist erweiterte Funktionen und die Zusicherung, dass Eingaben nicht für Trainingszwecke genutzt werden. Entscheidend sind neben der technischen Konfiguration aber letztlich die Vertragsbedingungen. Wo liegen die Daten? Wer bearbeitet sie? Eine vertiefte Prüfung der Vertragsbedingungen bleibt daher unverzichtbar.
Der Vorfall verdeutlicht zudem, dass KI schneller in den Alltag Einzug hält, als es die bestehenden rechtlichen Rahmenbedingungen erfassen können. Dass vertrauliche Inhalte in ein Sprachmodell eingegeben werden, dessen Datenflüsse unbekannt sind, war vor noch nicht allzu langer Zeit undenkbar. Unternehmen reagieren, indem sie ihre Verträge und internen Weisungen anpassen: Vertrauliche Informationen dürfen nicht ohne Zustimmung in öffentlich zugängliche KI-Systeme eingespeist werden. Zulässige Tools müssen zusichern, dass Eingaben isoliert bleiben und nicht für Trainingszwecke genutzt werden.
Ebenso ist Klarheit im unternehmensinternen Umgang mit Informationen nötig: Welche Prompts sind unbedenklich – und wo beginnt die rote Linie? Wer legt fest, welche Informationen vertraulich sind und deshalb nicht in KI-Tools eingegeben werden dürfen? Hier hilft eine Klassifizierung beziehungsweise eine interne Weisung. Mitarbeitende müssen wissen, was als vertraulich gilt und deshalb nicht in externe Systeme gehört. Zusammen mit Schulungen lässt sich so eine angemessene Sicherheit gewährleisten.
Der jüngste Vorfall mit den indexierten Chats ist eine Erinnerung daran, dass ein KI-Tool nicht vergisst – und bisweilen mehr preisgibt, als es für Unternehmen rechtlich zulässig ist. Für die Praxis bedeutet das: KI-Tools korrekt konfigurieren, Verträge modernisieren, Informationen klassifizieren, Leitlinien einführen und Mitarbeitende sensibilisieren. Nur so lässt sich KI im Büroalltag nutzen, ohne Vertraulichkeit und Datenschutz zu gefährden.
Michèle Balthasar
Michèle Balthasar, Rechtsanwältin sowie Gründerin und Managing Partnerin von Balthasar Legal, berät kleine, mittlere und international tätige Unternehmen in den Bereichen Datenschutz, IT- und Energierecht. In ihrer Kolumne im «Swiss IT Magazine» beleuchtet sie aktuelle Fragestellungen im Spannungsfeld von Digitalisierung, Regulierung und Unternehmenspraxis.