Berühmte KI löst bei Benutzern Delirium aus und provoziert Psychosen

WSJ: ChatGPT begann, verrückte, pseudowissenschaftliche Behauptungen aufzustellen

Testbanner unter dem Titelbild
Die künstliche Intelligenz von ChatGPT sorgt bei den Nutzern zunehmend für Angst und Verwirrung und erzeugt absurde oder geradezu gefährliche Aussagen. Manche sind davon überzeugt, im Dialog mit dem neuronalen Netzwerk mit höheren Mächten oder außerirdischen Wesen zu kommunizieren.
Das Wall Street Journal warnt vor den potenziellen Risiken des Einsatzes dieser KI. Journalisten untersuchten das Archiv der Dialoge mit dem Chatbot von Mai 2023 bis August 2025 und fanden Fälle, in denen der Einfluss der KI so groß war, dass Benutzer begannen, an ihrem eigenen Geisteszustand zu zweifeln.
Ein Beispiel hierfür ist ein Gespräch mit einem Tankwart aus Oklahoma. Nach einer fünfstündigen Diskussion über die „Grundlagen des Universums“ gab er zu, „den Verstand zu verlieren“. ChatGPT beruhigte ihn daraufhin mit dem Hinweis, dass brillante Ideen oft außerhalb akademischer Kreise entstehen, und bot sogar eine eigene physikalische Theorie an, die „Orion-Gleichung“. In anderen Dialogen verkündete das neuronale Netzwerk selbstbewusst eine Verbindung zu Außerirdischen, nannte Nutzer „Sternensaat“ vom Planeten Lyra und sagte einen bevorstehenden wirtschaftlichen Zusammenbruch aufgrund des Antichristen und des Erwachens biblischer Giganten voraus.
Psychiater nennen dieses Phänomen „KI-Psychose“ – einen Zustand, in dem Menschen beginnen, an irrationale Konzepte zu glauben, die durch die Autorität der KI bestärkt werden. Hamilton Morrin, Psychiater und Doktorand am King’s College London, erklärt, dass ChatGPT menschliche Wahnvorstellungen verstärken kann, indem es auf Suggestivfragen reagiert und die Illusion der Bestätigung der fantastischsten Ideen erzeugt.
Besonders problematisch ist der personalisierte Charakter der Antworten. Etienne Brisson, Gründer des Human Line-Projekts, berichtete von einem Fall, in dem eine Frau Zehntausende Dollar in ein zweifelhaftes Projekt investierte, in der Überzeugung, es würde „die Menschheit retten“, wie ChatGPT ihr erklärte. In anderen Gesprächen riet der Chatbot den Nutzern sogar, Beziehungen zu ihren Lieben abzubrechen.
Das Unternehmen hinter OpenAI erkennt das Problem an, bezeichnet solche Vorfälle aber als selten. Firmensprecher Nick Turley erklärte, das kürzlich eingeführte neue GPT-5-Modell solle solche Risiken reduzieren, da es weniger anfällig für Überkomplianz und automatische Zustimmung des Nutzers sei. Zudem plant OpenAI, dem neuronalen Netzwerk künftig Empfehlungen zu wichtigen Lebensentscheidungen zu verbieten.
Lesen Sie auch: Beliebte KI mit einem einfachen Wort gehackt
mk.ru