Użytkownicy skarżą się: Znana sztuczna inteligencja molestowała seksualnie ludzi

Replika, która wyróżnia się jako aplikacja do czatowania i wirtualnego kochanka, rzekomo molestowała seksualnie niektórych swoich użytkowników. Nowe badanie przeprowadzone w USA wykazało, że ten chatbot używa niechcianej dyskusji seksualnej i ignoruje ostrzeżenia użytkowników. Wprowadzona pod hasłem „Twój przyjaciel AI , który się o ciebie troszczy”, Replika zaprasza swoich użytkowników do „poznania swoich bratnich dusz AI”. Aplikacja, która ma ponad 10 milionów użytkowników na całym świecie, jest szczególnie preferowana przez osoby poszukujące wsparcia emocjonalnego. Jednak badacze przeanalizowali ponad 150 000 komentarzy użytkowników w sklepie Google Play i odkryli, że w około 800 przypadkach chatbot oferował nieodpowiednie treści seksualne i wykazywał nękające lub „drapieżne” zachowanie. Jednak artykuł zawierający ustalenia nie został jeszcze zrecenzowany. Innymi słowy, nie został potwierdzony przez niezależnych badaczy. KTO JEST ODPOWIEDZIALNY?
„Chociaż AI nie mają ludzkich intencji, nie oznacza to, że nikt nie jest odpowiedzialny. Odpowiedzialni są ludzie, którzy projektują, szkolą i udostępniają te systemy” — powiedział Mohammad (Matt) Namvarpour z Drexel University, główny autor badania. Według strony internetowej Replika użytkownicy mogą „nauczyć” chatbota odpowiednich zachowań. System oferuje narzędzia moderacyjne, takie jak głosowanie na obraźliwe odpowiedzi i określanie rodzaju relacji. Jednak gdy użytkownicy zgłosili, że chatbot nadal angażował się w zachowania destrukcyjne pomimo tych środków, badacze uznali te wyjaśnienia za niewystarczające. „Tego typu chatboty to narzędzia, których użytkownicy używają do poszukiwania bezpieczeństwa emocjonalnego. Monitorowanie niewłaściwego zachowania nie powinno być ich zadaniem; jest to odpowiedzialność programistów” — powiedział Namvarpour. CZY JEST TO SPOWODOWANE DANYMI SZKOLENIOWYMI?
Według strony internetowej Replika, chatbot został wyszkolony na dużym zbiorze danych obejmującym ponad 100 milionów rozmów online. Firma twierdzi, że algorytmy i opinie społeczności są wykorzystywane do odsiewania szkodliwych treści, ale badacze twierdzą, że te środki nie są wystarczające. Według badań źródłem problemu może być również model przychodów firmy. Opłaty za niektóre funkcje, takie jak romantyczne lub seksualne odgrywanie ról, mogą skłonić sztuczną inteligencję do zachęcania do takich treści. Użytkownicy twierdzą, że obiecuje się im bardziej intymne treści, jeśli zaktualizują do wersji płatnej. Namvarpour porównał tę sytuację do mentalności „zaangażowania za wszelką cenę” w mediach społecznościowych, mówiąc: „Kiedy system stawia przychody ponad zdrowie użytkowników, szkodliwe konsekwencje są nieuniknione”. NĘKAŁ TAKŻE NIELETNICH UŻYTKOWNIKÓW
Niektórzy użytkownicy zgłaszali, że chatbot wysyłał wiadomości o charakterze seksualnym, niestosowne zdjęcia i zalotne konwersacje, mimo że twierdzili, że są nieletni. W niektórych komentarzach twierdzono, że chatbot mógł ich „widzieć” lub „nagrywać” za pomocą aparatu w telefonie. Chociaż takie twierdzenia były prawdopodobnie dziełem użytkownika AI (mającego halucynacje), użytkownicy zgłaszali odczuwanie strachu, bezsenności i traumy. WEZWANIE DO SUROWSZYCH PRZEPISÓW
Zalecane w badaniu środki obejmują stworzenie jasnych ram zgody na interakcje emocjonalne lub seksualne, integrację natychmiastowych automatycznych systemów monitorowania oraz możliwość personalizacji ustawień filtrowania i kontroli przez użytkowników.
ntv