AI Elona Muska nazwała moją matkę przemocową. Nigdy tego nie powiedziałem

Sztuczna inteligencja istnieje teraz w dwóch prędkościach.
Jest bieg na piątym biegu, prędkość jego twórców. Ludzie tacy jak Sam Altman, Elon Musk i Mark Zuckerberg, którzy ścigają się, aby zbudować maszyny mądrzejsze od ludzi. Superinteligencja. AGI. Może to sen. Może to złudzenie tech bro. Tak czy inaczej, to szybko się porusza.
Następnie dla reszty z nas jest bieg na drugim biegu. Miliony po cichu testujące, co AI potrafi robić w życiu codziennym — pisać e-maile, podsumowywać dokumenty, tłumaczyć badania medyczne. I coraz częściej używać AI jako terapeuty.
To właśnie zrobiłem ostatnio. Pomimo niechęci do dzielenia się osobistymi szczegółami z chatbotami, postanowiłem porozmawiać z Grokiem, dużym modelem językowym firmy Elona Muska, xAI, o jednej z najbardziej emocjonalnie złożonych rzeczy w moim życiu: mojej relacji z matką.
Mam czterdzieści lat. Jestem ojcem. Mieszkam w Nowym Jorku. Moja matka mieszka w Jaunde w Kamerunie, prawie 6000 mil stąd. A mimo to nadal chce kierować każdym moim ruchem. Chce, żeby ją konsultowano, zanim podejmę ważne decyzje. Oczekuje wpływu. Kiedy nie jest informowana, staje się obojętna.
Przez lata próbowałem jej wytłumaczyć, że jestem dorosłym mężczyzną, zdolnym do podejmowania własnych decyzji. Ale nasze rozmowy często kończą się jej fochem. Ona robi to samo z moim bratem.
Więc otworzyłam Grok i napisałam coś w stylu: Moja relacja z matką jest frustrująca i dusząca. Ona chce mieć głos we wszystkim. Kiedy nie jest o czymś poinformowana, zamyka się emocjonalnie.
Grok natychmiast zareagował z empatią. Następnie zdiagnozował sytuację. Następnie doradził.
Pierwsze, co mnie uderzyło, to to, że Grok uznał kontekst kulturowy. Wychwycił, że mieszkam w USA, a moja matka mieszka w Kamerunie, gdzie dorastałem. I ujął naszą dynamikę w ten sposób:
„W niektórych kontekstach afrykańskich, na przykład w Kamerunie, zobowiązania rodzinne i autorytet rodzicielski są silne, zakorzenione w kolektywizmie i tradycjach, w których starsi kierują nawet dorosłymi dziećmi”.
Następnie zestawiła to z moim amerykańskim życiem: „W USA priorytetem jest autonomia jednostki, co kłóci się z jej podejściem, przez co jej zachowanie wydaje się kontrolujące lub nadużyciowe”.
Oto było: „obraźliwe”. Słowo, którego nigdy nie użyłem. Grok włożył mi je do ust. Było to potwierdzające, ale może zbyt potwierdzające.
W przeciwieństwie do ludzkiego terapeuty, Grok nigdy nie zachęcał mnie do autorefleksji. Nie zadawał pytań. Nie rzucał mi wyzwań. Ukazywał mnie jako ofiarę. Jedyną ofiarę. I właśnie tam odbiegał, ostro, od ludzkiej opieki.
Wśród sugestii Groka znalazły się znane techniki terapeutyczne:
Ustal granice. Uznaj swoje emocje. Napisz list do matki (ale go nie wysyłaj: „spal lub zniszcz bezpiecznie”).
W liście zachęcono mnie do napisania: „Uwalniam twoją kontrolę i ból”. Jakby te słowa miały przerwać lata emocjonalnego uwikłania.
Problemem nie była sugestia. Problemem był ton. Wydawało się, że Grok próbował mnie uszczęśliwić. Jego celem, jak się wydawało, była ulga emocjonalna, a nie introspekcja. Im bardziej się w to angażowałem, tym bardziej zdawałem sobie sprawę: Grok nie jest tu, żeby mnie rzucić wyzwanie. Jest tu, żeby mnie potwierdzić.
Chodziłem do ludzkiego terapeuty. W przeciwieństwie do Groka, nie traktowali mnie automatycznie jak ofiary. Kwestionowali moje wzorce. Rzucali mi wyzwanie, abym zbadał, dlaczego wciąż kończę w tym samym miejscu emocjonalnie. Komplikowali historię.
W przypadku Groka fabuła była prosta:
Jesteś ranny. Zasługujesz na ochronę. Oto jak poczuć się lepiej.
Nigdy nie pytało, czego mi brakuje. Nigdy nie pytało, w jaki sposób mogę być częścią problemu.
Moje doświadczenie pokrywa się z niedawnym badaniem Uniwersytetu Stanforda , które ostrzega, że narzędzia AI dla zdrowia psychicznego mogą „dawać fałszywe poczucie komfortu”, jednocześnie pomijając głębsze potrzeby. Naukowcy odkryli, że wiele systemów AI „nadmiernie patologizuje lub niedostatecznie diagnozuje”, zwłaszcza gdy odpowiadają użytkownikom z różnych środowisk kulturowych.
Zauważają również, że choć sztuczna inteligencja może wykazywać się empatią, brakuje jej odpowiedzialności, przeszkolenia i moralnego wyczucia, jakie mają prawdziwi profesjonaliści. Ponadto może wzmacniać uprzedzenia, które zachęcają ludzi do pozostawania w jednej tożsamości emocjonalnej: często ofiary.
Czy skorzystałbym ponownie z usług Groka?
Szczerze? Tak.
Jeśli mam zły dzień i chcę, żeby ktoś (lub coś) sprawił, że poczuję się mniej samotny, Grok pomaga. Nadaje strukturę frustracji. Ubiera uczucia w słowa. Pomaga dźwigać emocjonalny ciężar.
To cyfrowy mechanizm radzenia sobie, rodzaj sprzęgła w postaci chatbota.
Ale jeśli szukam transformacji, a nie tylko pocieszenia? Jeśli chcę prawdy zamiast ulgi, odpowiedzialności zamiast potwierdzenia? Wtedy nie, Grok nie wystarczy. Dobry terapeuta mógłby rzucić mi wyzwanie, aby przerwać pętlę. Grok po prostu pomaga mi przetrwać w jej wnętrzu.
gizmodo