Wybierz język

Polish

Down Icon

Wybierz kraj

Germany

Down Icon

Model AI ma na celu przewidywanie zachowań człowieka

Model AI ma na celu przewidywanie zachowań człowieka

Sztuczna inteligencja (AI) w formie modeli językowych wydaje się coraz bardziej zdolna do replikacji zachowań człowieka. Ale czy takie modele AI są również w stanie przewidywać ludzkie decyzje? Międzynarodowy zespół badawczy z Instytutu AI zorientowanej na człowieka w Helmholtz Zentrum München starał się to ustalić – i opracował nowy model językowy Centaur.

Zespół wykorzystał jako podstawę model języka open-source od Meta AI. Następnie naukowcy zaprogramowali Centaur AI, korzystając z danych z 160 eksperymentów psychologicznych. Około 60 000 osób testowych otrzymało zadania, takie jak klasyfikowanie obiektów lub podejmowanie decyzji w grach hazardowych.

Dziesięć milionów decyzji jako trening AI

Łącznie zbiór danych dla Centaura zawiera ponad dziesięć milionów decyzji. Sztuczna inteligencja została wyszkolona na 90 procentach danych wynikowych. Wyniki pozostałych dziesięciu procent pozostały nieznane. Następnie naukowcy wykorzystali te dane do przetestowania swojego nowego modelu językowego: czy Centaur będzie w stanie przewidzieć zachowanie badanych osób?

Wynik: model AI był w stanie przewidzieć rzeczywiste decyzje z dokładnością do 64 procent. Cenatur nadal dostarczał dobre wyniki, nawet gdy eksperymentalna konfiguracja została nieznacznie zmodyfikowana — to znaczy, gdy poproszono go o dokonanie przewidywań dotyczących sytuacji, do których nie został specjalnie przeszkolony.

Chłopiec z plecakiem stoi przed humanoidalnym robotem z ekranem dotykowym przymocowanym do klatki piersiowej na targach edukacyjnych didacta 2019 w Kolonii
Czy powinniśmy kliknąć czy nie? I czy AI będzie w stanie przewidzieć nasze decyzje w przyszłości? Zdjęcie: C. Hardt/Future Image/IMAGO
„Firmy wykorzystują sztuczną inteligencję do przewidywania naszych preferencji”

Nowością w Centaur jest to, że sztuczną inteligencję można stosować do „danych behawioralnych”, mówi Clemens Stachl, dyrektor Instytutu Nauk Behawioralnych i Technologii na Uniwersytecie w St. Gallen. „Uzyskano to poprzez przetłumaczenie wyników klasycznych eksperymentów podejmowania decyzji na język”.

Modele AI, takie jak Centaur, można również stosować poza naukami społecznymi i behawioralnymi, mówi Stachl. „Na przykład wszędzie tam, gdzie ludzkie zachowanie musi zostać przeanalizowane i przewidziane, np. w zakupach, edukacji lub wojsku”.

Naukowiec zajmujący się zachowaniami uważa, że ​​praktyczne zastosowanie jest oczywiste, biorąc pod uwagę, że tego typu modele AI zostały opracowane przez przemysł. Centaur, na przykład, wykorzystuje podstawową architekturę Google i wstępnie wyszkoloną bazę Meta.

„Możemy założyć, że duże firmy technologiczne już używają podobnych modeli do przewidywania naszych zachowań decyzyjnych i preferencji – na przykład podczas zakupów online lub w mediach społecznościowych”.

Stachl podaje jako przykłady model językowy ChatGPT i platformę mediów społecznościowych TikTok. „Te modele stały się bardzo dobre. Rozważmy na przykład, jak dobrze TikTok sugeruje filmy, aby zatrzymać użytkowników w aplikacji tak długo, jak to możliwe”.

Loga różnych aplikacji AI na smartfonie
To, jak dobrze modele AI, takie jak Copilot czy ChatGPT, już nas „znają”, jest ściśle strzeżoną tajemnicą handlową. Zdjęcie: Jaque Silva/NurPhoto/picture alliance
„Nie przeceniajmy wyników badania Centaur”

Inni eksperci uważają, że minie trochę czasu, zanim zastosowania sztucznej inteligencji, takie jak Centaur, zaczną być wykorzystywane poza laboratoriami.

Testy psychologiczne użyte do trenowania AI obejmowały tylko niewielką część ludzkich zachowań, mówi Markus Langer, który kieruje Wydziałem Psychologii Przemysłowej i Organizacyjnej na Uniwersytecie we Fryburgu. „To niewiele mówi o przewidywaniu „naturalnego” lub „codziennego” ludzkiego zachowania”.

Uważa, że ​​głównym ryzykiem tego typu badań jest to, że wyniki mogą zostać nadinterpretowane — w stylu: „Wow, teraz w końcu możemy precyzyjnie przewidywać ludzkie zachowanie”. Po prostu jeszcze tak nie jest, mówi Langer. Należy również zadać sobie pytanie, czy dokładność przewidywań Centaura, wynosząca około 64 procent, można naprawdę uznać za „dobrą”.

Czy sztuczna inteligencja powinna w ogóle potrafić interpretować ludzkie zachowania?

Model Centaur i wyniki badania należy rozumieć przede wszystkim jako wkład w badania podstawowe, mówi behawiorysta Stachl. Modele tego rodzaju mogłyby w zasadzie pomóc rozwiązać złożone wyzwania społeczne, na przykład w sektorze zdrowia.

„Jednocześnie jednak istnieje ryzyko, że staną się one coraz bardziej przewidywalne i doprowadzą nas do pewnego rodzaju zależności cyfrowej , a nawet „niewolnictwa cyfrowego”” – kontynuował Stachl, dodając, że nasza codzienna konsumpcja mediów i korzystanie z technologii cyfrowych generuje każdego dnia nowe dane dotyczące naszych zachowań, co przyczynia się do dalszego udoskonalania takich modeli.

Dla behawiorystów, jak radzić sobie z tą technologią, to pytanie, na które „nasze społeczeństwo jako całość musi odpowiedzieć. W tym względzie nauka, ale zwłaszcza prawnicy i decydenci polityczni, będą w przyszłości bardziej wyzwani”.

dw

dw

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow