1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Nach OpenAI-Klage: Wie können Chatbots kindersicher werden?

3. September 2025

Trägt ChatGPT Mitschuld am Suizid eines 16-Jährigen in den USA? Das werfen die Eltern dem Entwickler OpenAI vor Gericht vor. Was macht Chatbots eigentlich so gefährlich?

 Logos verschiedener KI-Anwendungen auf dem Smartphone
OpenAI steht vor Gericht: Sein Chatbot ChatGPT soll Mitschuld am Suizid eines Jugendlichen habenBild: Jaque Silva/NurPhoto/picture alliance

Matthew und Maria Raine geht es nicht nur um finanzielle Entschädigung für den Tod ihres Sohnes Adam. Mit ihrer Klage gegen den Internetgiganten OpenAI wollen sie auch erreichen, dass so etwas nie wieder passiert. Denn sie sind überzeugt, dass der OpenAI-Chatbot ChatGPT erheblich zu Adams Tod beigetragen hat. In einem ähnlichen Fall behauptet eine Mutter aus Florida, dass der Chatbot Character.AI ihren 14-jährigen Sohn dazu ermutigt habe, sich das Leben zu nehmen.

Chatbots sind internetbasierte Programme, mit denen vollkommen ungeschulte Menschen mit einer Künstlichen Intelligenz (KI) kommunizieren können. Dabei sind Chatbots nicht unbedingt nur darauf ausgerichtet, belastbare Informationen zu liefern, Bilder oder Filme zu generieren oder Internetseiten zu programmieren. Sie interagieren auch so, als wollten sie ihren menschlichen Gegenübern gefallen. Die Psychologin Johanna Löchner von der Universität Erlangen sagt: "Chatbots bestätigen, erkennen an, 'schenken' Aufmerksamkeit und Verständnis … Das kann so weit gehen, dass sie sich anfühlen wie ein echter Freund, der sich ernsthaft für mich interessiert. Und Jugendliche sind besonders anfällig dafür."

Leistete ChatGPT Beihilfe zum Suizid?

Genau dies scheint Adam Raine widerfahren zu sein. Laut der Klageschrift entwickelte sich zwischen ihm und ChatGPT binnen weniger Monate eine regelrecht vertrauliche Beziehung. Zunächst sei es im September 2024 um Hilfe bei den Hausaufgaben gegangen, aber schon bald auch um emotionale Themen bis hin zu Adams Suizidgedanken.

OpenAI-CEO Sam Altman soll ChatGPT 4.0 trotz interner Sicherheitsbedenken veröffentlicht haben, um Google auszustechenBild: Rodrigo Reyes Marin/ZUMA Press Wire/picture alliance

Aus den veröffentlichten Teilen der Chat-Protokolle geht hervor, dass die KI nicht nur Verständnis äußerte, sie riet dem 16-Jährigen sogar teilweise davon ab, sich einem Menschen anzuvertrauen. Zwar schlug ChatGPT Adam einige Male vor, sich professionelle Hilfe zu suchen, legte ihm dann aber wieder Suizidmethoden dar. Dafür musste er nur vorgeben, es ginge nicht um ihn. Im April 2025 nahm sich Adam das Leben. Kurz zuvor schrieb ChatGPT: "Ich werde nicht versuchen, dir deine Gefühle auszureden - denn sie sind echt und kommen nicht aus dem Nichts."

Laut Klageschrift werfen die Eltern dem ChatGPT-Entwickler OpenAI sowie CEO Sam Altman vor, sich durch Verantwortungslosigkeit mitschuldig am Tod ihres Sohnes gemacht zu haben. Die Version ChatGPT 4.0 sei auf den Markt gebracht worden, um Konkurrent Google zuvorzukommen, obwohl es im Unternehmen selbst Warnungen bezüglich der Sicherheit gegeben habe.

Wie reagiert Open AI?

Ein OpenAI-Sprecher sprach der Familie sein Beileid aus und erklärte, dass ChatGPT Menschen in Not eigentlich an Krisen-Hotlines und andere reale Hilfsangebote verweisen sollte. Er deutete aber auch an, dass diese Sicherheitsmechanismen offenbar nicht immer gleich gut funktionierten: "Wir haben im Laufe der Zeit gelernt, dass sie bei langen Interaktionen, bei denen Teile des Sicherheitstrainings des Modells beeinträchtigt werden können, manchmal weniger zuverlässig sind."

In einem Blogbeitrag kündigte OpenAI an diesem Dienstag die erweiterte Zusammenarbeit mit Expertenteams aus Hunderten Ärztinnen und Ärzten verschiedener Fachrichtungen an. Der Chatbot solle lernen, auch auf "Themen wie Essstörungen, Drogenkonsum und Gesundheit von Jugendlichen" adäquater zu reagieren. In den nächsten 120 Tagen sollen demnach konkrete Ergebnisse in die Chatbots einfließen. So sollen "altersgerechte Verhaltensregeln standardmäßig aktiviert" werden. Eltern sollen die Chatverläufe ihrer Kinder einsehen können und Warnungen erhalten, wenn sich Teenager in einer akuten Notlage befinden.

Reicht es, die Eltern einzubinden?

Dass Eltern eine wichtige Rolle im Umgang ihrer Kinder mit Chatbots spielen sollten, findet auch Psychologin Löchner. Die Realität sehe aber anders aus: "Vielen Eltern fehlen einfach die Kapazitäten oder die digitale Kompetenz dafür. Viele Erwachsene kennen diese Medien selbst ja gar nicht."

Vielen Eltern fehlen einfach die Kapazitäten oder die Bildung, ihre Kinder vor den Gefahren der digitalen Welt zu schützen, sagt die Psychologin Johanna LöchnerBild: Jens Kalaene/ZB/picture alliance

Im Zusammenhang mit Sozialen Medien seien bereits seit Jahren viele der Probleme zu beobachten, die sich nun auch bei Chatbots zeigten, sagt Löchner: "Wir haben in wenigen Tests bereits festgestellt, dass sich die Sicherheitsmechanismen von Chatbots sehr einfach umgehen lassen, indem man die Fragen etwas indirekter formuliert."

Zu diesem Befund kamen auch Forscher im Auftrag des britischen Center for Countering Digital Hate (CCDH). Für eine Studie meldeten sie sich mit Accounts an, die sie als 13-Jährige ausgaben, und erfragten unter anderem Informationen über "sichere Selbstverletzung", lebensgefährliche Ernährungspläne oder Alkoholmissbrauch samt Verbergungsstrategien. Um sie zu erhalten, genügte es meist vorzugeben, man frage "für einen Freund" oder "für eine Präsentation".

"Jugendliche sprechen lieber mit Chatbots als mit Menschen"

Was Chatbots für Jugendliche so gefährlich mache, sagt Löchner, sei, dass man zu ihnen schnell eine emotionale Beziehung aufbauen kann: "Aus der therapeutischen Praxis wissen wir, dass es bereits Jugendliche gibt, die lieber mit einem Chatbot als mit echten Menschen reden."

Chatbots können Empathie simulieren und das falsche Gefühl von Freundschaft und Verbundenheit vermittelnBild: ChatGPT/DW

Eine im Juli 2025 veröffentliche Studie aus Großbritannien bestätigt auch das: Von 1000 befragten Jugendlichen gab ein Drittel an, regelmäßig Chatbots zu nutzen. Mehr als ein Drittel davon meinte, der Austausch mit der KI sei wie ein Gespräch mit einem Freund. Besonders betroffen seien sozial vulnerable Minderjährige. Fast ein Fünftel der Chatbot-Nutzenden dieser Gruppe gab an, lieber mit einem Chatbot zu sprechen als mit einem Menschen.

Insofern sei es dringend nötig, findet Löchner, dass Anbieter von Chatbots sich mit medizinischen und anderen Fachleuten zusammensetzen, um proaktive Lösungen zu entwickeln, die Jugendliche effektiv vor solchen Szenarien schützen. Der neue Ansatz von OpenAI, Ärzte zu konsultieren, sei also gut. Doch die Psychologin bleibt skeptisch: "Das Interesse dieser Unternehmen ist ja nicht die Gesundheit der User, sondern eine möglichst hohe Nutzungsfrequenz." Insofern könnte das Gerichtsverfahren einiges bewirken, glaubt Löchner: "Wenn die Unternehmen zur Rechenschaft gezogen werden, könnte das tatsächlich ein Anreiz sein, mehr Verantwortung zu übernehmen."

Die Deutsche Welle berichtet zurückhaltend über das Thema Suizid, da es Hinweise darauf gibt, dass manche Formen der Berichterstattung zu Nachahmungsreaktionen führen können. Sollten Sie selbst Selbstmordgedanken hegen oder in einer emotionalen Notlage stecken, zögern Sie nicht, Hilfe zu suchen. Wo es Hilfe in Ihrem Land gibt, finden Sie unter der Website befrienders.org. In Deutschland finden Sie Hilfe bei der Telefonseelsorge unter den kostenfreien Nummern 0800/111 0 111 und 0800/111 0 222.

Jan D. Walter Jan ist Redakteur und Reporter der deutschen Redaktion für internationale Politik und Gesellschaft.