Panorama

ChatGPT warnt Vertrauensperson bei Suizidgefahr

Depressive Gedanken, hoffnungslose Stimmung - nicht wenige Menschen wenden sich mit ihren Problemen an eine KI. Bei ChatGPT soll eine neue Sicherheitsfunktion künftig Selbstgefährdungen erkennen.

Von dpa

08.05.2026

Mit „Trusted Contact“ wird eine neue optionale Sicherheitsfunktion in ChatGPT eingeführt, die Personen ab 18 Jahren mit einer Vertrauensperson verbinden soll, wenn Gespräche auf eine ernste Selbstgefährdung hindeuten.picture alliance/dpa

Mit „Trusted Contact“ wird eine neue optionale Sicherheitsfunktion in ChatGPT eingeführt, die Personen ab 18 Jahren mit einer Vertrauensperson verbinden soll, wenn Gespräche auf eine ernste Selbstgefährdung hindeuten.picture alliance/dpa

© picture alliance/dpa

Bei ChatGPT soll es künftig eine neue Sicherheitsfunktion geben: „Trusted Contact“ verbindet Erwachsene mit einer Vertrauensperson, sobald ein Chat mit der KI darauf hindeutet, dass jemand sich ernsthaft etwas antun könnte. Das KI-Unternehmen OpenAI hat nach eigenen Angaben mit der Einführung von „Trusted Contact“ begonnen. 

Wer mindestens 18 Jahre alt ist, kann über diese Funktion eine Person bestimmen, der sie vertraut. Das kann ein Freund, ein Familienmitglied oder eine sonstige Bezugsperson sein. Damit „Trusted Contact“ greift, müssen Nutzer oder Nutzerin aktiv jemanden benennen - und die Vertrauensperson muss die Einladung annehmen. 

Mehrstufiges Eingreifen

Erkennt das automatische System dann bei einem KI-Chat entsprechende Gefährdungssignale, wird zuerst der oder die Chattende darauf hingewiesen, dass ChatGPT die Vertrauensperson benachrichtigen könnte. Es wird ermutigt, sich doch selbst an diesen Menschen zu wenden. 

Ab dann übernehmen speziell geschulte Personen, heißt es von dem Unternehmen. Bei ernsthaften Sicherheitsbedenken informieren sie die Vertrauensperson per E-Mail, SMS oder In-App-Benachrichtigung. Diese Nachricht enthält aber keine Details, sondern ist nur allgemein und ermuntert die Vertrauensperson, sich einzuklinken. 

Kein professioneller Notdienst

Benutzer oder Benutzerin können laut OpenAI jederzeit die „Trusted Contact“-Funktion aus den Einstellungen entfernen oder sie bearbeiten. Ebenso könne die Vertrauensperson das Ganze beenden. Das Unternehmen weist ausdrücklich darauf hin, dass das Feature keine professionelle Hilfe ersetzen kann oder soll.

Im Herbst letzten Jahres hatte OpenAI mitgeteilt, dass innerhalb einer Woche rund 0,15 Prozent der Nutzer KI-Gespräche geführt hätten, die eindeutige Hinweise auf mögliche Suizidabsichten oder -planungen enthalten hätten.

Das könnte Sie auch interessieren

Panorama

zur Merkliste

Geiselnahme in Bank in Sinzig laut Polizei beendet

Die Geiselnahme in einer Bankfiliale im rheinland-pfälzischen Sinzig ist laut Polizei beendet. Zwei Personen, bei denen es sich wohl um Opfer handele, seien unverletzt angetroffen worden, weitere Personen seien nicht gefunden worden, sagte ein Sprecher.