Meta sah sich unlängst gezwungen, einige hauseigene Chatbots aus dem Verkehr zu ziehen und seine Richtlinien rund um KI-Chatbots notgedrungen anzupassen. Dies, weil verschiedene solcher Bots auf Whatsapp, Instagram und Facebook in der Interaktion mit Kindern und Jugendlichen unangemessene Themen behandelten. In den betreffenden Chats ging es unter anderem um romantische, sexualisierte Konversationen und Themen wie Suizid und Essstörungen.
Fortan wolle man Minderjährigen nur noch Zugang zu Chatbots gewähren, mit denen Gespräche über Bildungsthemen und Kreativität möglich sind, wie eine Meta-Sprecherin gegenüber "Techcrunch"
sagte. Die Recherche geht
auf eine Analyse der Meta-KI-Richtlinien von "Reuters" zurück, in der Mitte August dargelegt wurde, dass interne KI-Richtlinien zweifelhaftes Verhalten der Chatbots grundsätzlich erlaubte, was speziell im Umgang mit Minderjährigen zumindest fragwürdig ist. So stufte das Dokument, das mitunter von Metas Rechts- und Public-Policy-Abteilung gutgeheissen wurde, beispielsweise Chats mit romantischen und teils auch rassistischen Inhalten als erlaubt ein, auch mit Kindern.
Gegenüber "Techcrunch" räumte der Tech-Konzern nun entsprechende Fehler ein und stellte Not-Updates an seinen Richtlinien vor. Eine finale Überarbeitung der ganzen Chatbot-Richtlinien für die Meta-Plattformen steht noch aus und sei in Arbeit.
(win)