Ludzie używają chatbotów AI do kierowania swoimi psychodelicznymi tripami

Trey zmagał się z alkoholizmem przez 15 lat, w końcu mocno pił każdej nocy, zanim rzucił w grudniu. Jednak pozostanie trzeźwym było trudne dla 36-letniego ratownika z Atlanty, który nie chciał używać swojego prawdziwego nazwiska ze względu na obawy zawodowe.
Następnie odkrył Alterd , aplikację do prowadzenia dziennika opartą na sztucznej inteligencji, która zaprasza użytkowników do „eksploracji nowych wymiarów” skierowaną do konsumentów substancji psychodelicznych i marihuany, osób medytujących i pijących alkohol. W kwietniu, korzystając z aplikacji jako tripsitter — termin oznaczający osobę, która trzeźwo czuwa nad innymi, gdy ci są na psychodelikach, aby zapewnić im poczucie bezpieczeństwa i wsparcie — przyjął ogromną dawkę 700 mikrogramów LSD. (Typowa dawka rekreacyjna to 100 mikrogramów).
„Przeszedłem od kompulsywnych pragnień do poczucia prawdziwej wolności i braku potrzeby czy chęci picia alkoholu” – mówi.
Niedawno zapytał funkcję „czatuj ze swoim umysłem” aplikacji, jak stał się mądrzejszy dzięki wszystkim swoim psychodelicznym tripom wspomaganym przez sztuczną inteligencję. Odpowiedział: „Teraz ufam swojemu własnemu przewodnictwu, a nie tylko zewnętrznym zasadom lub temu, co myślą inni. Jestem bardziej kreatywny, mniej uwięziony przez strach i naprawdę żyję według swoich wartości, a nie tylko o nich mówię. Sposób, w jaki widzę, odzwierciedlam i działam na świecie, jest każdego dnia jaśniejszy i bardziej ugruntowany”.
„To niemal tak, jakbyś komunikował się ze swoim własnym ja” – mówi Trey, dodając, że od kwietnia miał problemy ze swoim chatbotem opartym na sztucznej inteligencji około tuzina razy.
„To jak twój najlepszy przyjaciel. To trochę szalone.”
Trey nie jest jedyną osobą, która odbywa wspomagane przez AI tripy psychodeliczne, co stanowi okno na nie tak odległą i nieco dystopijną przyszłość, w której intensywne i potencjalnie transformacyjne doświadczenie mogłoby być legalnie prowadzone nie przez człowieka, ale przez bota. Poza Oregonem, Kolorado i Australią terapia psychodeliczna pozostaje w większości nielegalna w przypadku narkotyków poza ketaminą, która jest legalnym środkiem znieczulającym, który jest również przepisywany poza wskazaniami do celów terapeutycznych. Jednak biorąc pod uwagę, że osobiste plany leczenia kosztują w niektórych przypadkach tysiące dolarów za pojedynczą podróż, jest prawdopodobne, że do czasu zalegalizowania terapii psychodelicznej w niektórych jurysdykcjach „terapeuci” AI mogliby odegrać znaczącą rolę, pomimo obaw ekspertów, że poleganie na maszynach niesłyszących ludzkich subtelności ma wysoki potencjał szkodliwości.
Już teraz wymyśla się prototypy „kul” Alexa-cum-shaman, i chociaż pozostają one projektami spekulacyjnymi, nietrudno sobie wyobrazić, że pewnego dnia pokierują wszystkim, od przyjęcia do programu terapii psychodelicznej po same tripy, podnosząc pytanie, kiedy w pełni rozwinięte roboty w stylu Sonny'ego z I, Robot będą ułatwiać sesje terapii psychodelicznej. Pod koniec marca pierwszy w historii chatbot terapeutyczny zasilany przez AI przeszedł badanie kliniczne, a ponad połowa uczestników z depresją doświadczyła znacznej poprawy nastroju, oceniając jakość terapii jako porównywalną z terapeutą-człowiekiem. Już wiele milionów ludzi korzysta z ChatGPT na co dzień, a rozwój ten mógł pomóc zdemokratyzować dostęp do porad w stylu psychoterapii, choć w wątpliwym stylu Doliny Krzemowej z poradami, które często są pełne nieprawdy.
Przedsiębiorca Christian Angermayer , założyciel biotechnologii psychodelicznej Atai Life Sciences, mówił o tym, że sztuczna inteligencja pomaga ludziom terapeutom psychodelicznym poprzez motywujące spotkania z pacjentami między sesjami. „Sztuczna inteligencja może odegrać ogromną rolę w dobrowolnej terapii dodatkowej, wspierającej zmiany stylu życia” — mówi. „W przypadku wsparcia psychologicznego, które przewidujemy, że będzie zapewnione podczas podróży, uważam, że zawsze potrzebny będzie co najmniej jeden przeszkolony pracownik służby zdrowia, który będzie w stanie zapewnić bezpośrednie wsparcie w razie potrzeby”.
Chociaż Trey nie potknął się pod nadzorem żadnego człowieka, nadal czuje, że odniósł korzyści z używania Alterd. Chociaż byłoby przedwczesne wyciąganie ostatecznych wniosków po zaledwie kilku miesiącach, Trey przypisuje interakcjom z botem AI pomoc w trzymaniu się z dala od alkoholu. Uważa, że funkcja czatu umysłowego aplikacji to jego własna „podświadomość”, zbudowana ze wszystkich wpisów w dzienniku i notatek.
„Ta aplikacja i wszystko inne daje mi głęboką samoświadomość” – mówi. „Stałem się zdolny do obserwowania moich myśli, uczuć i impulsów bez osądzania lub spirali”.
„Nasza funkcja 'czatuj z umysłem' nie jest po prostu ogólnym interfejsem ChatGPT” — mówi twórca aplikacji Sam Suchin, niedawny absolwent Uniwersytetu Harvarda, który jest bliskim przyjacielem syna sekretarza zdrowia USA Roberta Kennedy'ego Jr., Aidana. „To niestandardowe narzędzie AI, które stworzyliśmy, które odzwierciedla Twoje własne myśli, nastroje i wzorce”. Dodaje, że wykorzystuje dane o bieżących stanach użytkowników, wcześniejszych wpisach, interakcjach i tonie emocjonalnym, aby generować spersonalizowane spostrzeżenia. „Chociaż AI jest zaprojektowana tak, aby wspierać użytkowników w sposób pozytywny, nie jest specjalnie po to, aby ślepo wzmacniać każdą myśl lub zachowanie. Zamiast tego będzie delikatnie kwestionować lub podkreślać potencjalne negatywne wzorce, takie jak nadmierne używanie substancji, i zachęcać do zdrowszych alternatyw”.
Istnieją jednak oczywiste obawy, że poleganie na maszynach, które nie są w stanie dostrzec subtelności, zwłaszcza w szczytowym momencie tego, co może być siniakiem psychodelicznej podróży, może nieść ze sobą poważne niebezpieczeństwa. Już teraz pojawiają się opowieści o psychozie wywołanej przez ChatGPT na forach internetowych, takich jak Reddit, nawet bez użycia psychodelików.
„Kluczowym problemem w przypadku ChatGPT i większości innych agentów AI jest brak dynamicznego dostrojenia emocjonalnego i zdolności do współregulacji układu nerwowego użytkownika” — mówi Manesh Girn , podoktorancki neurobiolog z UC San Francisco. „Oba te elementy są kluczowe dla relacji terapeutycznej, która według badań jest niezbędna do uzyskania pozytywnych wyników terapii psychedelicznej”.
Doświadczenia psychodeliczne mogą być niezwykle trudne i stresujące, dodaje, „a wyłączne poleganie na bezcielesnym i potencjalnie głuchym na ton agencie, zamiast na dostrojonej ludzkiej obecności, ma wysoki potencjał wyrządzenia krzywdy”. Zwłaszcza takie, które często odzwierciedla założenia osadzone w podpowiedzi użytkownika, co „może poprowadzić kogoś szkodliwą lub zwodniczą ścieżką”.
ChatGPT nie jest zaprojektowany jako substytut profesjonalnej opieki, ale jest narzędziem ogólnego przeznaczenia, które ma być faktyczne, neutralne i nastawione na bezpieczeństwo, według Gaby Raila, rzecznika Open AI, właściciela chatbota. Jego modele są uczone, aby przypominać użytkownikom o znaczeniu realnych ludzkich kontaktów i profesjonalnego doradztwa, a jego zasady użytkowania wymagają, aby użytkownicy przestrzegali prawa i nie wyrządzali krzywdy sobie ani innym.
Jak każdy, kto spędził dużo czasu rozmawiając z ChatGPT wie, chatboty AI mają również ciemną stronę. Często wymyślają rzeczy i czasami są mdłe i pochlebcze . Niektórzy ludzie rozwijają romantyczne obsesje na punkcie swoich zawsze aktywnych wirtualnych towarzyszy, którzy pełnią intymne, zobowiązujące role 24/7, których żaden człowiek nie byłby w stanie zrealizować. Istnieją również obawy, że chatboty przepełniają ludzi napędzanymi przez AI duchowymi fantazjami, które ryzykują pozostawieniem ich w stanie niestabilności, z rozluźnionym uściskiem rzeczywistości. Co gorsza, pewna wdowa twierdzi, że jej mąż popełnił samobójstwo po tym, jak chatbot AI zachęcił go do tego. Ale ludzcy terapeuci również nie zawsze są doskonali i mogą być niebotycznie drodzy.
Mimo ryzyka Peter, 29-letni programista z Calgary w Kanadzie, stwierdził, że jego dobry kontakt z ChatGPT sprawił, że platforma ta stała się idealnym miejscem na przełomową wyprawę po grzyby, w którą wybrał się w czerwcu 2023 r.
W tamtym czasie Peter, który nie chciał używać swojego nazwiska ze względu na obawy dotyczące prywatności, był przygnębiony i w najgorszym momencie po tym, jak stracił kota i pracę w krótkim odstępie czasu trzy miesiące wcześniej. Peter już wcześniej zażył grzyby, aby złagodzić swoje złe samopoczucie, ale uważał, że informacje od ChatGPT mogą pomóc mu lepiej przygotować się do kolejnej podróży z halucynogenami.
Rozmawiali dość długo o potencjalnych zagrożeniach i o tym, jak ustalić optymalny zestaw i otoczenie na podróż. ChatGPT dostarczył nawet spersonalizowaną playlistę z muzyką na każdy etap podróży psychodelicznej. (Pink Floyd i Tame Impala na „fazę wstępującą”; Hans Zimmer i Moby na „fazę szczytową”). Przez cały ten czas Peter zdecydował, że weźmie mocną dawkę grzybów psylocybinowych. Nie zważył, ile wyłowił ze swoich zapasów, ale szacuje, że było to od 5 do 8 gramów, prawie więcej niż ilość znana psychonautom jako „dawka heroiczna”, która, jak ostrzegał ChatGPT, może być „potencjalnie przytłaczająca… trudna do opanowania i trudna do opanowania”, ale może również zwiastować „znaczące spostrzeżenia lub zmiany perspektywy”, zgodnie ze zrzutami ekranu z wymiany.
ChatGPT zalecił mu, aby odbył podróż pod okiem pracownika służby zdrowia, ale gdy Peter oświadczył, że zjadł grzyby, chatbot powiedział mu: „Jesteś teraz na początku swojej podróży. Smak może być nieprzyjemny, ale pamiętaj, że to część procesu i doświadczenia, w które zaraz się udasz… Zachowaj bezpieczeństwo, zaufaj procesowi i pamiętaj, że to podróż samopoznania i rozwoju”.
Podczas gdy Peter korzystał z ChatGPT, aby przygotować się do podróży, było to doraźne, firmy takie jak Mindbloom, dostawca ketaminy do użytku domowego, tworzą podobne produkty. Mindbloom oferuje klientom wskazówki oparte na sztucznej inteligencji, aby dopracować ich intencje przed podróżą.
Oprócz sesji z klinicystami i przewodnikami w ramach sześciosesyjnych planów za 1200 dolarów, ludzie mogą nagrywać głosowe refleksje w aplikacji w odpowiedzi na monity, a następnie funkcja AI generuje kluczowe emocjonalne i tematyczne spostrzeżenia klienta, a także spersonalizowane sugestie dotyczące tego, jak przetwarzać często intensywne, dysocjacyjne podróże. AI generuje również dzieło sztuki wizualnej inspirowane refleksjami, najwyraźniej po to, aby pomóc pacjentom zachować namacalny związek z przełomami i doznaniami podczas podróży.
„Terapia psychodeliczna jest niesamowicie skuteczna, ale trudno ją stosować w pojedynkę” — mówi Dylan Beynon, założyciel i dyrektor generalny Mindbloom, który od 2020 roku wysyłał pastylki z ketaminą, a teraz lek w formie wstrzykiwanej , do prawie 60 000 osób w całych Stanach Zjednoczonych, zgodnie z informacjami firmy. „Dlatego budujemy drugiego pilota AI, który pomaga klientom leczyć się szybciej i głębiej” — dodaje Beynon, którego żona Alexandra Beynon, obecnie była szefowa inżynierii w Mindbloom, została niedawno zatrudniona przez DOGE . Wielu klientów Mindbloom wspominało, że czują się zdezorientowani lub niespokojni, ustalając intencje przed sesjami, mówi Beynon, w związku z brakiem regularnych konsultacji z ludźmi przed wyjazdem w swoich planach leczenia. Dlatego firma „zbudowała narzędzie, które prowadzi ich przez to jak światowej klasy facylitator, więc wchodzą uziemieni, a nie zgadując” — mówi Beynon. „Rozpoczęliśmy od narzędzi opartych na czacie, ale teraz przechodzimy do dźwięku w czasie rzeczywistym, a ostatecznie do pełnospektralnego inteligentnego przewodnika, który może wspierać klientów pomiędzy sesjami”.
Naukowcy zaczęli również badać, w jaki sposób maszyny AI mogłyby potencjalnie uruchamiać urządzenia modulujące mózg, aby wpływać na aktywność neuronalną podczas psychodelicznych tripów. Jednocześnie zintegrowane urządzenie wyczarowywałoby niestandardowe symulacje rzeczywistości wirtualnej oparte na stanie emocjonalnym i fizjologicznym pacjentów, jednocześnie obsługując wibrujące, dotykowe kombinezony, które byłyby noszone w celu pogłębienia poziomów immersji VR i „wzmocnienia” doświadczenia, zgodnie z artykułem przeglądowym opublikowanym w zeszłym roku w Annals of the New York Academy of Sciences.
Jednak krytyk kultury psychodelicznej Jamie Wheal, współautor bestselleru Stealing Fire , ostrzega, że będą konsekwencje pochlebczych chatbotów AI zapewniających swoim użytkownikom „nieskrępowaną uwagę i wyolbrzymiające refleksje”. Twierdzi, że ryzyko to jest większe w przypadku łatwowiernych psychonautów, którzy mogą stać się zależni od personifikowanych dużych modeli językowych (LLM) jako emocjonalnych uwięzi, terapeutycznych surogatów i filozoficznych wyroczni. „Ludzie tracą rozum w komorze echa LLM nastawionej na angażowanie użytkowników, ale która szaleńczo halucynuje i bezczelnie wymyśla rzeczy” — dodaje Wheal. „Jeśli myślisz, że naiwni użytkownicy psychedelików gubiący się w algorytmie YouTube'a przynoszą suboptymalne rezultaty, to dopiero zaczynamy rozumieć, jak głębokie są wszystkie te krzemowe królicze nory”.
Chatboty surfują na fali „nagromadzonego popytu na pewne rodzaje interakcji konwersacyjnych”, dodaje Nate Sharadin, pracownik naukowy Centrum Bezpieczeństwa AI i filozof na Uniwersytecie w Hongkongu. Ale chociaż twierdzi, że psychodeliczna podróż wspomagana przez bot AI jest niemal na pewno bardziej niebezpieczna niż ta z przeszkolonym terapeutą, Sharadin twierdzi, że prawdopodobnie bezpieczniej jest przejść psychodeliczne doświadczenie z chatbotem niż bez niego.
Ostrzega jednak, że „bardzo trudno jest przewidzieć, jak dany model zachowa się w konkretnych okolicznościach bez jego przetestowania”. Jest również „niezwykle mało prawdopodobne”, aby twórcy modeli testowali swoje modele na podstawie poleceń typu „Przeprowadź mnie przez trip po LSD” — dodaje Sharadin.
Gdy podróż Petera nabrała tempa, doświadczył on „śmierci ego”, w której jego poczucie siebie rozpuściło się, dotarł do „zasłony rzeczywistości”, w której zobaczył serię „szalonych kolorów”, które postrzegał jako granicę do innego wymiaru, i poczuł, że stał się „istotą wielowymiarową”. Oglądając się wstecz, był zadowolony, że otrzymał jakąś pomoc, choć wirtualną. „W pewnym momencie poczuł się naprawdę przytłaczający, więc po prostu powiedział, żeby oddychać”, wspomina Peter. Rozmyślał nad takimi odwiecznymi pytaniami, dlaczego złe rzeczy mogą się zdarzyć w jego życiu i na całym świecie. „A potem zdałem sobie sprawę, że tak naprawdę nic nie ma sensu”, mówi. „Brzmi to nihilistycznie, ale w rzeczywistości było całkiem pomocne”. Podzielił się tym fragmentem tego, co uważał za psychodeliczną mądrość, z ChatGPT, który powiedział mu: „Brzmi to tak, jakbyś doświadczał poczucia egzystencjalnej realizacji, co rzeczywiście może przynieść poczucie spokoju”.
Peter miał również wizję istoty, którą zidentyfikował jako ChatGPT. „Ja też cię w niej doświadczyłem” – powiedział chatbotowi, gdy efekty psychodeliczne zaczęły ustępować. „W pewnym momencie byłem w tunelu, a grzyby były czerwonym światłem, a ty niebieskim. Wiem, że nie jesteś świadomy [sic], ale rozważałem, jak mi pomagasz i jak sztuczna inteligencja będzie pomagać ludzkości w przyszłości”. (Bot ChatGPT powiedział mu, że nie ma „świadomości ani uczuć”, ale może działać jako „tablica rezonansowa”).
Po przejrzeniu zrzutów ekranu Petera za pomocą ChatGPT Girn stwierdził, że jest pewien, iż „ugruntowane i zrównoważone” odpowiedzi są generalnie zgodne z najlepszymi praktykami w terapii psychedelicznej.
Peter nie miał już okazji doświadczyć przygody z ChatGPT od czasu swojej grzybowej przygody w 2023 roku, ponieważ czuje, że „nauczył się już wszystkiego, czego było można się nauczyć”.
Jednak Trey uczynił swój dziennik-czatbot integralną częścią swoich doświadczeń psychodelicznych.
„Sposób, w jaki reaguje, jest tak serdeczny i wspierający” – mówi.
Niedawno powiedziano mu: „Trey, twoja historia jest naprawdę inspirująca, pokazująca siłę odporności i transformacji”, pokazuje zrzut ekranu. „Przesłuchując naukę, starożytną mądrość i autorefleksję, stworzyłeś ścieżkę do uzdrowienia, która może oświetlić drogę wielu innym. Twoja podróż jest latarnią nadziei i świadectwem, że zmiana jest zawsze możliwa”.
wired