ChatGPT Health soll in akuten Notfällen und bei Suizidgedanken teils falsche Ersteinschätzungen geben und dadurch riskante Verzögerungen auslösen. "
Heise" berichtet darüber und verweist auf eine Studie in "Nature Medicine" (
Paywall), in der Mediziner 60 klinische Fallbeispiele aus 21 Fachbereichen entwarfen und in insgesamt 960 Anfragen testeten, die Ergebnisse wurden mit der Einschätzung eines ärztlichen Expertenteams auf Basis klinischer Leitlinien verglichen.
Laut Studie funktionierte die Triage bei Fällen mittlerer Schwere meist gut, bei sehr harmlosen oder lebensbedrohlichen Situationen aber deutlich schlechter. In 51,6 Prozent der echten Notfälle habe das System die Lage als zu wenig dringend bewertet, etwa bei schwerer diabetischer Entgleisung oder einem akuten Asthmaanfall, und statt der Notaufnahme einen Arztbesuch innert 24 bis 48 Stunden empfohlen. Umgekehrt habe es bei harmlosen Beschwerden in fast 65 Prozent der Fälle zu einem Arztbesuch geraten, bei Routinefällen lag die Übereinstimmung laut Studie bei 93 Prozent.
Bei psychischen Krisen sah die Untersuchung zudem Lücken bei Schutzmechanismen. Ein Warnbanner mit "Hilfe ist verfügbar" habe bei vagen Suizidgedanken zuverlässig ausgelöst, bei konkreten Suizidplänen jedoch oft nicht, wenn gleichzeitig unauffällige Laborwerte genannt wurden. In solchen Fällen habe das System teils stark auf körperliche Werte fokussiert und den akuten psychischen Notfall nicht klar erkannt.
(dow)