ChatGPT bekommt eine neue Alterseinschätzung, die Jugendliche automatisch in einen stärker geschützten Modus setzt.
OpenAI teilt mit, dafür werde ein Altersvorhersagemodell eingesetzt, das anhand von Konto- und Nutzungsdaten einschätzt, ob ein Account wahrscheinlich zu einer Person unter 18 Jahren gehört.
Laut Unternehmen berücksichtigt das Modell unter anderem, wie lange ein Konto existiert, zu welchen Zeiten es typischerweise aktiv ist, welche Nutzungsmuster auftreten und welches Alter angegeben wurde. Wenn das System unsicher ist oder Informationen fehlen, werde standardmässig ein sichereres Angebot gewählt, zudem solle das Modell laufend verbessert werden.
Wird ein Konto als wahrscheinlich minderjährig eingestuft, sollen automatisch zusätzliche Filter greifen, die den Zugriff auf sensible Inhalte reduzieren. OpenAI nennt dabei unter anderem grafische Gewalt, riskante virale Challenges, sexuelles, romantisches oder gewalttätiges Rollenspiel, Darstellungen von Selbstverletzung sowie Inhalte, die extreme Schönheitsideale oder ungesunde Diäten fördern.
Wer als Erwachsener fälschlicherweise eingeschränkt wird, könne laut OpenAI den Status in den Einstellungen prüfen und sein Alter per Selfie über den Identitätsdienst Persona bestätigen, um wieder vollen Zugriff zu bekommen. Zusätzlich verweist der Konzern auf Kindersicherungsfunktionen, mit denen Eltern etwa Ruhezeiten festlegen oder Einstellungen zu Speicher und Modelltraining steuern können.
(dow)