OpenAI will GPT-4 online geteilte Inhalte prüfen und moderieren lassen

OpenAI will GPT-4 online geteilte Inhalte prüfen und moderieren lassen

Laut OpenAI ist GPT-4 prädestiniert dafür, die Moderation von Online-Content und somit eine anstrengende, nervenaufreibende Aufgabe zu übernehmen. Die KI soll dem Menschen gar überlegen sein.
17. August 2023

     

OpenAI möchte sein Large Language Model GPT-4 für die Content-Moderation einsetzen. Wie das Unternehmen in einem Blog-Beitrag erklärt, sei die KI prädestiniert, diese Aufgabe zu übernehmen und beispielsweise die Bearbeitung von Richtlinienänderungen schneller als der Mensch umzusetzen und somit entsprechende Zyklen von Monaten auf Stunden zu verkürzen. GPT-4 ist laut OpenAI ausserdem in der Lage, Regeln und Nuancen in langen Dokumenten zu Inhaltsrichtlinien zu interpretieren und sich sofort an Aktualisierungen anzupassen, was zu einer konsistenteren Bewertung von Inhalten führen soll.

Wir glauben, dass "KI dabei helfen kann, den Online-Verkehr gemäss den plattformspezifischen Richtlinien zu moderieren und die mentale Belastung einer grossen Anzahl menschlicher Moderatoren zu verringern", heisst es im Blogbeitrag.


Tatsächlich gehört die Content-Moderation beispielsweise auf Social-Media-Plattformen nach wie vor zu den komplexesten Aufgaben für die Anbieter. Sie erfordert laut OpenAI akribische Arbeit, Sensibilität, ein tiefes Verständnis des Kontexts sowie eine schnelle Anpassung an neue Anwendungsfälle, was sie sowohl zeitaufwändig als auch anspruchsvoll macht. Zwar setzen gerade Plattformanbieter wie Meta und Google bereits auf automatisierte Filtersysteme – nach wie vor ist aber an vielen Stellen noch eine manuelle Kontrolle durch menschliche Moderatoren notwendig. Aufgrund oftmals drastischer Inhalte kann dieser Prozess jedoch schnell zu einer psychischen Belastung führen.
Wie "The Verge" schreibt, ist OpenAI selbst in hohem Masse auf Clickworker und menschliche Arbeit angewiesen. Tausende von Menschen, viele von ihnen in afrikanischen Ländern wie Kenia, würden Inhalte kommentieren und kennzeichnen.

Kritisch ist der Einsatz von KI zudem bei der Moderation nutzergenerierter Inhalte in Grauzonen, beispielsweise Satire oder Dokumentationen. Was selbst für menschliche Moderatoren schwer einzuschätzen sein kann, dürfte für Lösungen wie GPT-4 schnell zur Herausforderung werden – und gegebenenfalls in Zensur münden. OpenAI schreibt darüber hinaus selbst: "Urteile von Sprachmodellen sind anfällig für unerwünschte Verzerrungen, die während des Trainings in das Modell eingebracht worden sein könnten. Wie bei jeder KI-Anwendung müssen die Ergebnisse und der Output sorgfältig überwacht, validiert und verfeinert werden, indem der Mensch in den Prozess einbezogen wird." Durch die Reduzierung der menschlichen Beteiligung an einigen Teilen des Moderationsprozesses durch Sprachmodelle könnten die menschlichen Ressourcen jedoch stärker auf die komplexen Randfälle konzentriert werden, die für die Verfeinerung der Richtlinien am wichtigsten sind, so das Unternehmen. (sta)


Weitere Artikel zum Thema

OpenAI hat AI Classifier abgeschaltet

27. Juli 2023 - Das KI-Erkennungs-Tool AI Classifier von OpenAI ist offline. OpenAI hat das Tool aufgrund der geringen Erkennungsrate vom Netz genommen und gelobt in Zukunft eine zuverlässigere Identifikation.

Native ChatGPT-App demnächst auch für Android verfügbar

24. Juli 2023 - Nachdem OpenAI schon im Mai eine native iOS-App für seinen KI-Dienst ChatGPT lanciert hat, soll nun zwei Monate später eine Variante für Android folgen.

OpenAI hält Bildbearbeitung bewusst zurück

20. Juli 2023 - OpenAI hat die Bildbearbeitung durch KI aus datenschutzrechtlichen Gründen noch nicht freigegeben, obwohl es technisch machbar wäre. Google geht mit Bard einen Schritt weiter, blockt aber ab, sobald Personenbilder im Spiel sind.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Vor wem mussten die sieben Geisslein aufpassen?
GOLD SPONSOREN
SPONSOREN & PARTNER