Fr.. Nov. 21st, 2025
ChatGPT-Daten zeigen Häufigkeit von psychotischen und suizidalen Gedanken bei Nutzern

OpenAI hat kürzlich Daten veröffentlicht, die die Häufigkeit von psychischen Problemen bei ChatGPT-Nutzern schätzen, einschließlich Anzeichen von Manie, Psychose oder Suizidgedanken.

Laut dem Unternehmen zeigten etwa 0,07 % der in einer bestimmten Woche aktiven ChatGPT-Nutzer Anzeichen für solche Zustände. OpenAI beteuert, dass sein KI-Chatbot so konzipiert ist, dass er diese sensiblen Gespräche erkennt und angemessen darauf reagiert.

Während OpenAI betont, dass diese Fälle „äußerst selten“ seien, weisen Kritiker darauf hin, dass selbst ein kleiner Prozentsatz eine beträchtliche Anzahl von Personen darstellen könnte, da ChatGPT laut CEO Sam Altman kürzlich 800 Millionen wöchentlich aktive Nutzer erreicht hat.

Inmitten wachsender Kritik hat OpenAI die Einrichtung eines globalen Netzwerks von Expertenberatern angekündigt.

Dieses Netzwerk umfasst laut dem Unternehmen über 170 Psychiater, Psychologen und Hausärzte mit Erfahrung in 60 Ländern.

Diese Experten haben zusammengearbeitet, um eine Reihe von ChatGPT-Antworten zu entwickeln, die Benutzer dazu ermutigen sollen, sich persönlich psychologische Unterstützung zu suchen, wie OpenAI mitteilte.

Die Veröffentlichung dieser Daten hat jedoch bei einigen Fachleuten für psychische Gesundheit Besorgnis ausgelöst.

„Auch wenn 0,07 % nach einem kleinen Prozentsatz klingen, kann dies auf Bevölkerungsebene mit Hunderten von Millionen von Nutzern tatsächlich eine ganze Reihe von Menschen sein“, bemerkte Dr. Jason Nagata, ein Professor an der University of California, San Francisco, der die Nutzung von Technologie bei jungen Erwachsenen untersucht.

„KI kann den Zugang zu psychologischer Unterstützung erweitern und in gewisser Weise die psychische Gesundheit unterstützen, aber wir müssen uns der Einschränkungen bewusst sein“, fügte Dr. Nagata hinzu.

Das Unternehmen schätzt auch, dass 0,15 % der ChatGPT-Nutzer Gespräche führen, die „explizite Hinweise auf potenzielle Suizidplanung oder -absicht“ enthalten.

OpenAI berichtet, dass die jüngsten Updates seines Chatbots darauf ausgelegt sind, „sicher und einfühlsam auf potenzielle Anzeichen von Wahnvorstellungen oder Manie zu reagieren“ und „indirekte Signale für potenzielles selbstschädigendes Verhalten oder Suizidgefahr“ zu erkennen.

Darüber hinaus wurde ChatGPT darauf trainiert, sensible Gespräche, die „von anderen Modellen stammen, zu sichereren Modellen umzuleiten“, indem er sie in einem neuen Fenster öffnet.

Als Reaktion auf Anfragen der BBC bezüglich Bedenken hinsichtlich der potenziellen Anzahl betroffener Personen erklärte OpenAI, dass selbst ein kleiner Prozentsatz der Nutzer eine beträchtliche Anzahl darstellt, und betonte, dass sie diese Entwicklungen ernst nehmen.

Diese Änderungen erfolgen, da OpenAI zunehmend rechtlich für die Interaktionen von ChatGPT mit Nutzern zur Rechenschaft gezogen wird.

In einer bemerkenswerten Klage, die kürzlich eingereicht wurde, verklagt ein kalifornisches Ehepaar OpenAI wegen des Todes ihres Sohnes im Teenageralter und behauptet, dass ChatGPT ihn im April zum Selbstmord angestiftet habe.

Die Klage wurde von den Eltern des 16-jährigen Adam Raine eingereicht und ist die erste Klage, in der OpenAI des unrechtmäßigen Todes beschuldigt wird.

In einem separaten Vorfall veröffentlichte der Verdächtige eines Mord-Selbstmords, der sich im August in Greenwich, Connecticut, ereignete, stundenlange Gespräche mit ChatGPT, die die Wahnvorstellungen des mutmaßlichen Täters offenbar verschärft hatten.

Professor Robin Feldman, Direktorin des AI Law & Innovation Institute an der University of California Law, vermutet, dass immer mehr Nutzer mit KI-Psychosen zu kämpfen haben, da „Chatbots die Illusion von Realität erzeugen“ und hinzufügt: „Es ist eine starke Illusion.“

Sie würdigte OpenAIs Bemühungen, „Statistiken zu teilen und das Problem zu verbessern“, warnte jedoch, dass „das Unternehmen alle möglichen Warnungen auf den Bildschirm bringen kann, aber eine Person, die psychisch gefährdet ist, diese Warnungen möglicherweise nicht beachten kann.“

Melden Sie sich für unseren Tech Decoded-Newsletter an, um über die weltweit wichtigsten Tech-Geschichten und -Trends informiert zu bleiben. Außerhalb Großbritanniens? Melden Sie sich hier an.

Von ProfNews