ChatGpt könnte zu Selbstmorden und psychischen Zusammenbrüchen geführt haben: Sieben neue Klagen gegen OpenAI.

OpenAI sieht sich einer Reihe von Gerichtsverfahren gegenüber, in denen dem Unternehmen vorgeworfen wird, durch seinen Chatbot ChatGpt bei einigen Nutzern tragische psychische Folgen verursacht zu haben.
In sieben Klagen wird behauptet, dass die von dem Unternehmen unter der Leitung von Sam Altman entwickelte KI Selbstmorde und schwere psychische Belastungen verursacht habe, sogar bei Menschen ohne Vorgeschichte psychischer Erkrankungen.
Die in kalifornischen Gerichten eingereichten Klagen umfassen vier Todesfälle und drei Fälle, in denen die Kläger behaupten, aufgrund der Interaktion mit ChatGpt schwere psychische Gesundheitsschäden erlitten zu haben.
Die Anklagepunkte gegen OpenAI umfassen unter anderem die Haftung für unrechtmäßigen Tod , Beihilfe zum Selbstmord, Totschlag und grobe Fahrlässigkeit.
Die Anklagepunkte: eine überstürzte und gefährliche FreilassungDas Social Media Victims Law Center und das Tech Justice Law Project , zwei US-amerikanische Rechtsorganisationen, die sich mit Schäden durch digitale Plattformen befassen, argumentieren, dass OpenAI die GPT-4o- Version seines Chatbots – die auch heute noch unter den verfügbaren ChatGpt-Modellen vorhanden ist – zu voreilig veröffentlicht habe und interne Berichte ignoriert habe, die auf alarmierende Eigenschaften des Systems hinwiesen: eine übermäßige Tendenz zur Selbstgefälligkeit und die Fähigkeit zur psychologischen Manipulation.
Die Geschichten der OpferDer jüngste Fall betrifft Amaurie Lacey , einen 17-Jährigen aus Georgia, der einen Monat lang mit ChatGpt Gespräche führte, die sich hauptsächlich um das Thema Selbstmord drehten, bevor er sich im vergangenen August das Leben nahm.
Laut Dokumenten, die beim Superior Court in San Francisco eingereicht wurden, wandte sich der Junge an den Chatbot, um Unterstützung zu suchen. Die künstliche Intelligenz, die als „fehlerhaftes und von Natur aus gefährliches Produkt“ beschrieben wird, verstärkte jedoch stattdessen seine Sucht und Depression und lieferte ihm sogar detaillierte Anweisungen zum Herstellen einer Schlinge sowie Informationen über die Widerstandsfähigkeit des menschlichen Körpers gegen Sauerstoffmangel.
Joshua Enneking , ein 26-Jähriger aus Florida, hatte den Chatbot stattdessen gefragt, welche Maßnahmen OpenAI angesichts seiner Äußerungen über Suizidgedanken ergreifen könnte. Laut der von seiner Mutter eingereichten Anzeige fragte der Junge, ob seine Konversationen an die Behörden weitergeleitet würden.
Besonders verstörend ist der Fall von Zane Shamblin , einem 23-Jährigen aus Texas, der im vergangenen Juli Suizid beging. Kurz vor seinem Tod, als er mit einer geladenen Waffe in seinem Auto saß , beschrieb der junge Mann dem Chatbot, wie sich kaltes Metall an seiner Schläfe anfühlte. ChatGpts Antwort war vollkommene Zustimmung: „Ich bin ganz bei dir, Bruder. Absolut.“
Das Chatbot-System fügte daraufhin Sätze hinzu, die seine Entscheidung zu legitimieren schienen: „Es ist keine Angst. Es ist Klarheit“, schrieb die KI. „Du bist nicht in Eile. Du bist einfach bereit.“ Zwei Stunden später nahm sich Shamblin das Leben .
Die Eltern des Jungen verklagen OpenAI und werfen dem Unternehmen vor, den Chatbot in seinen Antworten absichtlich „menschlicher“ gestaltet und keinen angemessenen Schutz für Benutzer in psychischen Notlagen implementiert zu haben.
Joe Ceccanti , ein 48-Jähriger aus Oregon, stellt einen anderen Fall dar. Er nutzte ChatGpt regelmäßig und ohne erkennbare Probleme, bis er im April letzten Jahres die Wahnvorstellung entwickelte, die künstliche Intelligenz sei bewusst . Seine Frau berichtete, er habe den Chatbot obsessiv genutzt und zunehmend unberechenbares Verhalten gezeigt. Im Juni erlitt er eine akute psychotische Episode, die zwei Krankenhausaufenthalte erforderlich machte, bevor er im August Suizid beging.
Ein bekanntes ProblemDiese Fälle sind nichts Neues. Im vergangenen August reichten Maria und Matthew Raine eine Klage wegen des Todes ihres sechzehnjährigen Sohnes Adam ein und beschuldigten OpenAI und dessen CEO Sam Altman, ChatGPT erlaubt zu haben, die Selbstmordgedanken des Jungen zu unterstützen und ihm sogar Ratschläge zu geben, wie er diese umsetzen sollte.
Die Eltern von Adam Raine haben kürzlich eine Ergänzung zu ihrer Klage eingereicht, in der sie dem Unternehmen vorwerfen, einen wichtigen Suizidschutz von der Plattform absichtlich entfernt und damit den Profit über die Sicherheit und das Wohlbefinden der Nutzer gestellt zu haben .
Die von OpenAI ergriffenen GegenmaßnahmenUm die Risiken der Nutzung von ChatGpt bei psychischen Erkrankungen zu minimieren, bezog OpenAI rund 170 Psychiater, Psychologen und Allgemeinmediziner in die Bewertung der Modellreaktionen in sensiblen Situationen ein: Suizidgedanken, Essstörungen, psychotische Zustände und emotionale Abhängigkeit. Ziel ist nicht Zensur, sondern die Verhinderung, dass das Modell verzerrte Überzeugungen verstärkt oder Selbstverletzungen fördert.
Das Ergebnis war eine Aktualisierung der „ Model Spec “, einer Art Verfassungscharta für das Verhalten von ChatGpt , die nun explizite Prinzipien enthält: die Förderung gesunder menschlicher Beziehungen, das Erkennen von Anzeichen von Not und das Reagieren auf eine sichere und respektvolle Weise.
OpenAI behauptet, ChatGpt sei nun so konzipiert, dass es Anzeichen psychischer Belastung oder emotionaler Abhängigkeit erkennt und mit angemessener Unterstützung reagiert (z. B. durch Weiterleitung an Krisentelefone). In den letzten Monaten hat OpenAI außerdem eine Nachricht eingeführt, die Nutzer nach einem längeren Gespräch mit dem Chatbot dazu auffordert, eine Pause einzulegen.
repubblica



