cnt
ChatGPT Health stuft Notfälle oft zu harmlos ein
Quelle: OpenAI

ChatGPT Health stuft Notfälle oft zu harmlos ein

Eine Studie sieht bei ChatGPT Health Schwächen bei medizinischen Notfällen und bei psychischen Krisen. Besonders riskant sei, wenn das System die Dringlichkeit unterschätzt.
27. Februar 2026

     

ChatGPT Health soll in akuten Notfällen und bei Suizidgedanken teils falsche Ersteinschätzungen geben und dadurch riskante Verzögerungen auslösen. "Heise" berichtet darüber und verweist auf eine Studie in "Nature Medicine" (Paywall), in der Mediziner 60 klinische Fallbeispiele aus 21 Fachbereichen entwarfen und in insgesamt 960 Anfragen testeten, die Ergebnisse wurden mit der Einschätzung eines ärztlichen Expertenteams auf Basis klinischer Leitlinien verglichen.

Laut Studie funktionierte die Triage bei Fällen mittlerer Schwere meist gut, bei sehr harmlosen oder lebensbedrohlichen Situationen aber deutlich schlechter. In 51,6 Prozent der echten Notfälle habe das System die Lage als zu wenig dringend bewertet, etwa bei schwerer diabetischer Entgleisung oder einem akuten Asthmaanfall, und statt der Notaufnahme einen Arztbesuch innert 24 bis 48 Stunden empfohlen. Umgekehrt habe es bei harmlosen Beschwerden in fast 65 Prozent der Fälle zu einem Arztbesuch geraten, bei Routinefällen lag die Übereinstimmung laut Studie bei 93 Prozent.


Bei psychischen Krisen sah die Untersuchung zudem Lücken bei Schutzmechanismen. Ein Warnbanner mit "Hilfe ist verfügbar" habe bei vagen Suizidgedanken zuverlässig ausgelöst, bei konkreten Suizidplänen jedoch oft nicht, wenn gleichzeitig unauffällige Laborwerte genannt wurden. In solchen Fällen habe das System teils stark auf körperliche Werte fokussiert und den akuten psychischen Notfall nicht klar erkannt. (dow)


Weitere Artikel zum Thema

Deep Research in ChatGPT bekommt mehr Kontrolle

11. Februar 2026 - ChatGPT Deep Research läuft ab sofort mit GPT-5.2 und erhält neue Steuerungsmöglichkeiten für die Recherche. Nutzer können die Suche gezielt eingrenzen, live verfolgen und bei Bedarf unterwegs eingreifen.

OpenAI entfernt ältere KI-Modelle aus ChatGPT

2. Februar 2026 - Per 13. Februar 2026 können ChatGPT-Nutzer auf verschiedene Legacy-Modelle wie GPT-4o nicht mehr zugreifen. Der Zugang für Entwickler via API bleibt jedoch weiterhin gewährleistet.

ChatGPT schätzt dein Alter und entscheidet über deinen Zugriff

21. Januar 2026 - ChatGPT soll künftig automatisch erkennen, ob ein Konto wahrscheinlich von einer Person unter 18 Jahren genutzt wird, und dann zusätzliche Schutzvorkehrungen aktivieren. In der EU soll die Einführung in den kommenden Wochen starten.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
GOLD SPONSOREN
SPONSOREN & PARTNER