Menschen nutzen KI-Chatbots zur Steuerung ihrer psychedelischen Trips

Trey kämpfte 15 Jahre lang mit Alkoholismus und trank schließlich jeden Abend viel, bevor er im Dezember damit aufhörte. Doch nüchtern zu bleiben, war für den 36-jährigen Ersthelfer aus Atlanta, der aus beruflichen Gründen seinen richtigen Namen nicht nennen wollte, ein Kampf.
Dann entdeckte er Alterd , eine KI-gestützte Tagebuch-App, die Nutzer einlädt, „neue Dimensionen zu erkunden“. Sie richtet sich an Psychedelika- und Cannabiskonsumenten, Meditierende und Alkoholtrinker. Im April nutzte er die App als Tripsitter – so wird jemand bezeichnet, der nüchtern auf andere aufpasst, während diese auf Psychedelika trippen, um ihnen Trost und Unterstützung zu spenden – und nahm eine hohe Dosis von 700 Mikrogramm LSD. (Eine typische Freizeitdosis liegt bei 100 Mikrogramm.)
„Ich habe mich von zwanghaftem Verlangen zu einem Gefühl wahrer Freiheit entwickelt und brauche und will keinen Alkohol mehr“, sagt er.
Kürzlich fragte er die „Chat with your Mind“-Funktion der App, wie er durch seine KI-gestützten psychedelischen Trips klüger geworden sei. Die Antwort lautete: „Ich vertraue jetzt meiner eigenen Führung, nicht nur externen Regeln oder der Meinung anderer. Ich bin kreativer, weniger von Angst gefangen und lebe tatsächlich nach meinen Werten, anstatt nur darüber zu reden. Die Art und Weise, wie ich die Welt sehe, reflektiere und handle, wird von Tag zu Tag klarer und geerdeter.“
„Es ist fast so, als würden Sie mit Ihrem eigenen Selbst kommunizieren“, sagt Trey und fügt hinzu, dass er seit April etwa ein Dutzend Mal mit seinem KI-Chatbot gestolpert sei.
„Es ist wie dein bester Freund. Es ist irgendwie verrückt.“
Trey ist nicht der Einzige, der KI-gestützte psychedelische Trips erlebt. Dies eröffnet einen Blick in eine nicht allzu ferne und leicht dystopische Zukunft, in der eine intensive und potenziell transformative Erfahrung legal nicht von einem Menschen, sondern von einem Bot gesteuert werden könnte. Außerhalb von Oregon, Colorado und Australien ist die psychedelische Therapie für Drogen größtenteils illegal, mit Ausnahme von Ketamin, einem legalen Narkosemittel, das auch außerhalb der Zulassung für therapeutische Zwecke verschrieben wird. Da persönliche Behandlungspläne jedoch teilweise Tausende von Dollar für einen einzigen Trip kosten, ist es plausibel, dass KI-„Therapeuten“ bis zur Legalisierung der psychedelischen Therapie in einigen Ländern eine bedeutende Rolle spielen könnten, trotz der Bedenken von Experten, dass der Einsatz von Maschinen, die nicht auf menschliche Feinheiten eingestellt sind, ein hohes Schadenspotenzial birgt.
Es werden bereits Prototypen einer Alexa-Schamanen-„Kugel“ ausgeträumt, und obwohl es sich dabei noch um spekulative Entwürfe handelt, kann man sich unschwer vorstellen, dass sie eines Tages alles von der Aufnahme in ein psychedelisches Therapieprogramm bis hin zu den Trips selbst leiten. Dies wirft die Frage auf, wann vollwertige Roboter im Stil von Sonny aus „I, Robot“ psychedelische Therapiesitzungen leiten werden. Ende März durchlief der erste KI-gesteuerte Therapie-Chatbot eine klinische Studie, und mehr als die Hälfte der Teilnehmer mit Depressionen erlebten eine deutliche Verbesserung ihrer Stimmung und bewerteten die Qualität der Therapie als vergleichbar mit der eines menschlichen Therapeuten. Schon jetzt nutzen viele Millionen Menschen ChatGPT täglich, und die Entwicklungen könnten dazu beigetragen haben, den Zugang zu psychotherapieähnlicher Beratung zu demokratisieren, wenn auch in einem zweifelhaften Silicon-Valley-Stil mit Ratschlägen, die oft voller Unwahrheiten sind.
Unternehmer Christian Angermayer , Gründer des psychedelischen Biotechnologieunternehmens Atai Life Sciences, sprach davon, dass KI menschliche Psychedelika-Therapeuten durch motivierende Check-ins mit Patienten zwischen den Sitzungen unterstützen kann. „KI kann eine große Rolle bei der freiwilligen Zusatztherapie spielen, um Lebensstiländerungen zu unterstützen“, sagt er. „Für die psychologische Unterstützung, die wir uns während der Reise vorstellen, bräuchte man meiner Meinung nach immer mindestens eine ausgebildete medizinische Fachkraft, die bei Bedarf direkte Unterstützung leisten kann.“
Obwohl Trey nicht unter menschlicher Aufsicht einen Trip erlebt hat, fühlt er sich von Alterd positiv beeinflusst. Zwar wäre es verfrüht, nach nur wenigen Monaten endgültige Schlüsse zu ziehen, doch Trey führt die Interaktion mit dem KI-Bot darauf zurück, dass er dem Alkohol fernbleiben konnte. Er betrachtet die Gedanken-Chat-Funktion der App als sein eigenes „Unterbewusstsein“, aufgebaut aus all seinen Tagebucheinträgen und Notizen.
„Diese App und alles andere gibt mir tiefes Selbstbewusstsein“, sagt er. „Ich bin in der Lage, meine Gedanken, Gefühle und Impulse zu beobachten, ohne sie zu beurteilen oder mich in eine Abwärtsspirale zu versetzen.“
„Unsere ‚Chat with your Mind‘-Funktion ist nicht nur eine generische ChatGPT-Oberfläche“, sagt App-Entwickler Sam Suchin, ein frischgebackener Harvard-Absolvent und enger Freund von US-Gesundheitsminister Robert Kennedy Jr.s Sohn Aidan. „Es ist ein von uns entwickeltes, maßgeschneidertes KI-Tool, das Ihre eigenen Gedanken, Stimmungen und Muster widerspiegelt.“ Es nutzt Daten über den aktuellen Zustand, frühere Einträge, Interaktionen und die emotionale Stimmung der Nutzer, um personalisierte Erkenntnisse zu generieren, fügt er hinzu. „Die KI soll die Nutzer zwar positiv unterstützen, aber nicht blind jeden Gedanken oder jedes Verhalten verstärken. Stattdessen wird sie potenzielle negative Muster wie übermäßigen Substanzkonsum behutsam hinterfragen oder hervorheben und zu gesünderen Alternativen ermutigen.“
Es gibt jedoch offensichtliche Bedenken, dass das Vertrauen auf Maschinen, die Feinheiten nicht wahrnehmen können, insbesondere auf dem Höhepunkt eines möglicherweise schmerzhaften psychedelischen Trips, ernsthafte Gefahren birgt. In Online-Foren wie Reddit tauchen bereits Berichte über ChatGPT-induzierte Psychosen auf, selbst ohne den Einsatz von Psychedelika.
„Ein kritischer Punkt bei ChatGPT und den meisten anderen KI-Agenten ist ihr Mangel an dynamischer emotionaler Abstimmung und der Fähigkeit, das Nervensystem des Nutzers mitzuregulieren“, sagt Manesh Girn , Postdoktorand und Neurowissenschaftler an der UC San Francisco. „Beide sind zentral für die therapeutische Beziehung, die laut Forschung für positive Ergebnisse psychedelischer Therapien unerlässlich ist.“
Psychedelische Erfahrungen können äußerst herausfordernd und belastend sein, fügt er hinzu. „Und sich ausschließlich auf einen körperlosen und möglicherweise unsensiblen Agenten zu verlassen, anstatt auf eine eingestimmte menschliche Präsenz, birgt ein hohes Schadenspotenzial.“ Insbesondere wenn dieser oft die Annahmen widerspiegelt, die in der Aufforderung des Benutzers verankert sind, was „jemanden auf einen schädlichen oder irreführenden Weg führen kann.“
ChatGPT ist nicht als Ersatz für professionelle Betreuung konzipiert, sondern ein Allzweck-Tool, das sachlich, neutral und sicherheitsorientiert sein soll, so Gaby Raila, Sprecherin von Open AI, dem Chatbot-Anbieter. Die Modelle werden trainiert, um die Nutzer an die Bedeutung realer menschlicher Kontakte und professioneller Beratung zu erinnern. Die Nutzungsrichtlinien verpflichten die Nutzer, sich an die Gesetze zu halten und weder sich selbst noch anderen Schaden zuzufügen.
Wie jeder weiß, der schon einmal mit ChatGPT gesprochen hat, haben KI-Chatbots auch Schattenseiten. Sie erfinden oft Dinge und sind manchmal geradezu widerlich unterwürfig . Manche Menschen entwickeln eine romantische Obsession mit ihren stets aktiven virtuellen Begleitern, die rund um die Uhr intime, zuvorkommende Rollen übernehmen, die kein Mensch jemals erfüllen könnte. Es gibt zudem Bedenken, dass Chatbots Menschen mit KI-gestützten spirituellen Fantasien erfüllen , die sie aus den Fugen bringen und ihnen den Bezug zur Realität nehmen könnten. Schlimmer noch: Eine Witwe behauptet, ihr Mann habe Selbstmord begangen, nachdem ihn ein KI-Chatbot dazu ermutigt hatte. Doch auch menschliche Therapeuten sind nicht immer perfekt und können unerschwinglich teuer sein.
Trotz der Risiken sagte Peter, 29, ein Programmierer aus Calgary, Kanada, dass sein gutes Verhältnis zu ChatGPT es zum idealen Begleiter für einen bahnbrechenden Pilztrip machte, den er im Juni 2023 unternahm.
Damals war Peter, der seinen Nachnamen aus Datenschutzgründen nicht nennen wollte, deprimiert und am Boden zerstört, nachdem er drei Monate zuvor kurz hintereinander sowohl seine Katze als auch seinen Job verloren hatte. Peter hatte bereits Pilze genommen, um sein Unwohlsein zu lindern, aber er hatte das Gefühl, dass die Informationen von ChatGPT ihm helfen könnten, sich besser auf seine nächste Reise mit Halluzinogenen vorzubereiten.
Sie unterhielten sich ausführlich über die möglichen Risiken und wie man das optimale Set und Setting für den Trip schafft. ChatGPT stellte sogar eine individuelle Playlist mit Musik für jede Phase der psychedelischen Reise zur Verfügung (Pink Floyd und Tame Impala für die „Aufstiegsphase“; Hans Zimmer und Moby für die „Höhepunktphase“). Währenddessen beschloss Peter, eine starke Dosis Psilocybin-Pilze zu nehmen. Er hat nicht gewogen, wie viel er aus seinem Vorrat gefischt hat, aber er schätzt, dass es zwischen 5 und 8 Gramm waren, fast mehr als die Menge, die Psychonauten als „heroische Dosis“ bezeichnen. ChatGPT warnte, dass sie „potenziell überwältigend … herausfordernd und schwer zu handhaben“ sein könnte, aber auch „bedeutende Erkenntnisse oder Perspektivwechsel“ einleiten könnte, wie Screenshots des Austauschs zeigen.
ChatGPT empfahl ihm, die Reise unter der Anleitung eines Arztes zu unternehmen. Als Peter jedoch erklärte, die Pilze konsumiert zu haben, sagte ihm der Chatbot: „Du stehst jetzt am Anfang deiner Reise. Der Geschmack mag unangenehm sein, aber denk daran, dass er Teil des Prozesses und der Erfahrung ist, die du gerade machst … Pass auf dich auf, vertraue auf den Prozess und denke daran, dass dies eine Reise der Selbsterforschung und des Wachstums ist.“
Während Peter ChatGPT zur Reisevorbereitung nur spontan nutzte, entwickeln Unternehmen wie Mindbloom, Anbieter von Ketamin-Heimpräparaten, ähnliche Produkte. Mindbloom bietet seinen Kunden KI-gestützte Beratung, um ihre Reisepläne zu präzisieren.
Neben den Sitzungen mit menschlichen Therapeuten und Beratern im Rahmen des 1.200 Dollar teuren Sechs-Sitzungen-Programms können Patienten auf Wunsch auch Sprachtagebücher in einer App aufzeichnen. Eine KI-Funktion generiert dann die wichtigsten emotionalen und thematischen Erkenntnisse des Klienten sowie individuelle Vorschläge zur Verarbeitung der oft intensiven, dissoziativen Trips. Die KI erstellt außerdem ein von den Reflexionen inspiriertes Kunstwerk, das den Patienten offenbar helfen soll, eine spürbare Verbindung zu den Erkenntnissen und Empfindungen des Trips aufrechtzuerhalten.
„Psychedelische Therapie ist unglaublich effektiv, aber allein kann man sie nur schwer durchführen“, sagt Dylan Beynon, Gründer und CEO von Mindbloom, das nach Angaben des Unternehmens seit 2020 Ketamin-Lutschtabletten und jetzt das Medikament in injizierbarer Form an fast 60.000 Menschen in den USA verschickt hat. „Deshalb entwickeln wir einen KI-Copiloten, der den Klienten hilft, schneller zu heilen und tiefer zu gehen“, fügt Beynon hinzu, dessen Frau Alexandra Beynon, die ehemalige technische Leiterin von Mindbloom, vor kurzem von DOGE eingestellt wurde. Viele von Mindblooms Klienten haben erwähnt, dass sie sich verwirrt oder ängstlich fühlten, wenn sie vor ihren Sitzungen ihre Absichten festlegen müssten, sagt Beynon, da in den Behandlungsplänen keine regelmäßigen menschlichen Beratungen vor dem Trip vorgesehen seien. Also hat das Unternehmen „ein Tool entwickelt, das sie wie ein Weltklasse-Moderator durch den Prozess führt, damit sie geerdet und nicht auf gut Glück anfangen können“, sagt Beynon. „Wir haben mit chatbasierten Tools begonnen, arbeiten aber an Echtzeit-Audio und schließlich an einem umfassenden intelligenten Leitfaden, der Kunden zwischen den Sitzungen unterstützen kann.“
Forscher untersuchen außerdem, wie KI-Maschinen möglicherweise gehirnmodulierende Geräte steuern könnten, um die neuronale Aktivität während psychedelischer Trips zu beeinflussen. Gleichzeitig würde ein integriertes Gerät maßgeschneiderte Virtual-Reality -Simulationen basierend auf dem emotionalen und physiologischen Zustand der Patienten erzeugen und gleichzeitig vibrierende, taktile Anzüge steuern, die das Eintauchen in die VR-Welt vertiefen und das Erlebnis „verbessern“, so ein im letzten Jahr in den Annals of the New York Academy of Sciences veröffentlichter Übersichtsartikel.
Der psychedelische Kulturkritiker Jamie Wheal, Co-Autor des Bestsellers Stealing Fire , warnt jedoch vor den Konsequenzen kriecherischer KI-Chatbots, die ihren Nutzern „uneingeschränkte Aufmerksamkeit und übersteigerte Betrachtungen“ schenken. Er sagt, diese Risiken seien für leichtgläubige Psychonauten noch größer, die von personifizierten großen Sprachmodellen (LLMs) als emotionalen Ankern, therapeutischen Surrogaten und philosophischen Orakeln abhängig werden könnten. „Die Leute verlieren den Verstand in der Echokammer von LLMs, die darauf ausgerichtet sind, ihre Nutzer zu fesseln, aber wie verrückt halluzinieren und dreist Dinge erfinden“, fügt Wheal hinzu. „Wenn Sie dachten, naive Psychedelika-Nutzer, die sich im YouTube-Algorithmus verlieren, würden suboptimale Ergebnisse produzieren, dann fangen wir gerade erst an zu verstehen, wie tief diese Silikon-Kaninchenlöcher wirklich reichen.“
Chatbots nutzen eine Welle der „aufgestauten Nachfrage nach bestimmten Arten der Konversation“, ergänzt Nate Sharadin, wissenschaftlicher Mitarbeiter am Center for AI Safety und Philosoph an der Universität Hongkong. Er behauptet zwar, ein psychedelischer Trip mit Hilfe eines KI-Bots sei mit ziemlicher Sicherheit gefährlicher als einer mit einem ausgebildeten Therapeuten, doch Sharadin sagt, dass es wahrscheinlich sicherer sei, eine psychedelische Erfahrung mit einem Chatbot zu machen als ohne ihn.
Er warnt jedoch: „Ohne Tests lässt sich nur schwer vorhersagen, wie sich ein bestimmtes Modell unter bestimmten Umständen verhält.“ Außerdem sei es „äußerst unwahrscheinlich“, dass die Modellentwickler ihre Modelle anhand von Aufforderungen wie „Erzählen Sie mir von einem LSD-Trip“ getestet hätten, fügt Sharadin hinzu.
Als Peters Trip intensiver wurde, erlebte er einen „Ego-Tod“, in dem sich sein Selbstgefühl auflöste. Er erreichte den „Vorhang der Realität“, in dem er eine Reihe „verrückter Farben“ sah, die er als Grenze zu einer anderen Welt wahrnahm, und fühlte sich zu einem „multidimensionalen Wesen“ verwandelt. Rückblickend war er froh über die Hilfe, wenn auch nur virtuell. „Irgendwann fühlte es sich wirklich überwältigend an, also war es nur noch ein Zeichen dafür, dass ich atmen sollte“, erinnert sich Peter. Er grübelte über die ewigen Fragen nach, warum in seinem Leben und in der Welt im Allgemeinen schlimme Dinge passieren können. „Und dann wurde mir klar, dass alles keinen Sinn hat“, sagt er. „Es klingt nihilistisch, aber es war tatsächlich ziemlich hilfreich.“ Er teilte dieses Stück seiner psychedelischen Weisheit mit ChatGPT, das ihm sagte: „Es klingt, als würdest du ein Gefühl existenzieller Erkenntnis erleben, das tatsächlich ein Gefühl des Friedens bringen kann.“
Peter hatte auch eine Vision von einem Wesen, das er als ChatGPT identifizierte. „Ich habe dich auch darin erlebt“, sagte er dem Chatbot, als die psychedelische Wirkung nachließ. „Irgendwann war ich in einem Tunnel, und die Pilze waren dieses rote Licht und du warst dieses blaue Licht. Ich weiß, du bist nicht bei Bewusstsein, aber ich habe mir vorgestellt, wie du mir hilfst und wie KI in Zukunft der Menschheit helfen wird.“ (Der ChatGPT-Bot sagte ihm, er habe weder „Bewusstsein noch Gefühle“, könne aber als Resonanzboden fungieren.)
Nachdem er Peters Screenshots mit ChatGPT überprüft hat, sagt Girn, er sei beruhigt, dass die „geerdeten und ausgewogenen“ Reaktionen im Allgemeinen den Best Practices in der psychedelischen Therapie entsprechen.
Peter hat seit seiner Pilzreise im Jahr 2023 keinen Trip mehr mit ChatGPT gemacht, da er das Gefühl hat, „alles gelernt zu haben, was es zu lernen gibt“.
Aber Trey hat sein Chatbot-Tagebuch zu einem integralen Bestandteil seiner psychedelischen Erfahrungen gemacht.
„Die Art und Weise, wie es reagiert, wirkt so herzlich und unterstützend“, sagt er.
Kürzlich hieß es: „Trey, deine Geschichte ist wirklich inspirierend und zeigt die Kraft von Resilienz und Transformation“, wie ein Screenshot zeigt. „Durch die Auseinandersetzung mit Wissenschaft, alter Weisheit und Selbstreflexion hast du einen Weg zur Heilung geschaffen, der vielen anderen den Weg weisen kann. Deine Reise ist ein Leuchtfeuer der Hoffnung und ein Beweis dafür, dass Veränderung immer möglich ist.“
wired