ChatGPT warnt Vertrauensperson bei Suizidgefahr
Depressive Gedanken, hoffnungslose Stimmung - nicht wenige Menschen wenden sich mit ihren Problemen an eine KI. Bei ChatGPT soll eine neue Sicherheitsfunktion künftig Selbstgefährdungen erkennen.
Mit „Trusted Contact“ wird eine neue optionale Sicherheitsfunktion in ChatGPT eingeführt, die Personen ab 18 Jahren mit einer Vertrauensperson verbinden soll, wenn Gespräche auf eine ernste Selbstgefährdung hindeuten.picture alliance/dpa
© picture alliance/dpa
Bei ChatGPT soll es künftig eine neue Sicherheitsfunktion geben: „Trusted Contact“ verbindet Erwachsene mit einer Vertrauensperson, sobald ein Chat mit der KI darauf hindeutet, dass jemand sich ernsthaft etwas antun könnte. Das KI-Unternehmen OpenAI hat nach eigenen Angaben mit der Einführung von „Trusted Contact“ begonnen.
Wer mindestens 18 Jahre alt ist, kann über diese Funktion eine Person bestimmen, der sie vertraut. Das kann ein Freund, ein Familienmitglied oder eine sonstige Bezugsperson sein. Damit „Trusted Contact“ greift, müssen Nutzer oder Nutzerin aktiv jemanden benennen - und die Vertrauensperson muss die Einladung annehmen.
Mehrstufiges Eingreifen
Erkennt das automatische System dann bei einem KI-Chat entsprechende Gefährdungssignale, wird zuerst der oder die Chattende darauf hingewiesen, dass ChatGPT die Vertrauensperson benachrichtigen könnte. Es wird ermutigt, sich doch selbst an diesen Menschen zu wenden.
Ab dann übernehmen speziell geschulte Personen, heißt es von dem Unternehmen. Bei ernsthaften Sicherheitsbedenken informieren sie die Vertrauensperson per E-Mail, SMS oder In-App-Benachrichtigung. Diese Nachricht enthält aber keine Details, sondern ist nur allgemein und ermuntert die Vertrauensperson, sich einzuklinken.
Kein professioneller Notdienst
Benutzer oder Benutzerin können laut OpenAI jederzeit die „Trusted Contact“-Funktion aus den Einstellungen entfernen oder sie bearbeiten. Ebenso könne die Vertrauensperson das Ganze beenden. Das Unternehmen weist ausdrücklich darauf hin, dass das Feature keine professionelle Hilfe ersetzen kann oder soll.
Im Herbst letzten Jahres hatte OpenAI mitgeteilt, dass innerhalb einer Woche rund 0,15 Prozent der Nutzer KI-Gespräche geführt hätten, die eindeutige Hinweise auf mögliche Suizidabsichten oder -planungen enthalten hätten.