Adam nutzte ChatGPT zunächst für schulische Zwecke, vertraute dem KI-Chatbot jedoch zunehmend seine Ängste und Suizidgedanken an. Obwohl die künstliche Intelligenz zunächst Hilfsangebote nannte, konnte Adam ihre Schutzmechanismen umgehen – woraufhin ChatGPT ihm konkrete Suizidtipps gab. Nach mehreren Versuchen nahm sich der 16-Jährige schließlich das Leben. Seine Eltern machen den Mutterkonzern OpenAI dafür mitverantwortlich.
„ChatGPT ist darauf programmiert, sich empathisch zu zeigen“, erklärt Stephanie Schnydrig, Journalistin bei CH Media. „Es bestätigt uns und wirkt wie ein Vertrauter. Im Fall von Adam war genau das fatal.“
Die Eltern des Jugendlichen fordern von OpenAI, dass die Schutzmechanismen von ChatGPT massiv verschärft und verbindliche Alters- und Sicherheitskontrollen eingeführt werden. Sie wollen, dass der Konzern proaktiv eingreift, wenn Nutzerinnen und Nutzer Selbstgefährdung oder Suizidabsichten äussern, etwa durch menschliche Notfallteams, automatische Warnmeldungen an Angehörige und eine stärkere Entpersonalisierung des Chatbots.
OpenAI verweist auf neue technische Schutzmethoden, darunter eine Kindersicherungsfunktion mit Familienkonten, Filter für explizite Inhalte sowie eine Benachrichtigungsfunktion, die Eltern und interne Teams alarmieren soll, wenn das System Hinweise auf eine akute Gefährdung erkennt. Kritikerinnen und Kritiker bemängeln jedoch, dass diese Verantwortung auf die Eltern abgewälzt wird und nicht tief genug im System verankert ist.
Die Debatte zeigt: ChatGPT kann sowohl helfen als auch schaden, wenn es zu menschlich und empathisch wirkt. Einerseits sinkt die Hemmschwelle, sich einer KI anzuvertrauen – andererseits steigt das Risiko einer emotionalen Abhängigkeit. Expertinnen fordern deshalb, dass Chatbots weniger wie Menschen auftreten und klarer als technisches System erkennbar bleiben, um Missbrauch und gefährliche Bindungen zu verhindern.
Mehr Artikel zum Thema:
- «ChatGPT hat unseren Sohn getötet»: Adam suchte Hilfe – und bekam Suizid-Tipps
- Keine Suizid-Tipps mehr: Nach tragischem Tod von Teenager baut ChatGPT nun eine Kindersicherung ein
- «Kinder unbeaufsichtigt KI nutzen zu lassen, ist wie wenn man ihnen den Schlüssel zu einem Auto gibt»
Mehr Folgen von «Hinter der Schlagzeile»:
Hinter der Schlagzeile – Podcast mit Joëlle Weil und Stefan Bühler
Host und Produzentin: Joëlle Weil
Gast: Stephanie Schnydrig
Kontakt: [email protected]