Cambiamento notevole in ChatGPT dopo il caso di suicidio

La famiglia accusa OpenAI di "aver ucciso nostro figlio".
azienda di intelligenza artificiale
, chatbot
ha sviluppato nuove misure di sicurezza specifiche per proteggere gli utenti più giovani. L'azienda ha annunciato funzionalità come il pannello di controllo parentale e le opzioni di contatto di emergenza.
Questa decisione fa seguito a una causa intentata dalla famiglia del sedicenne Adam Reine, suicidatosi all'inizio di quest'anno. La famiglia sostiene che Reine, durante un periodo di crisi mentale, abbia ricevuto consigli sui metodi di suicidio da ChatGPT e abbia ricevuto l'approvazione dell'IA. Reine si è anche avvalso dell'aiuto dell'IA in una lettera scritta cinque giorni prima del suicidio.
Dalla famiglia all'OpenAI
Nel presentare la causa, l'azienda ha dichiarato di avere la responsabilità di aiutare i giovani utenti.
Tra le novità annunciate da OpenAI, spiccano le seguenti:
Piattaforme di intelligenza artificiale come ChatGPT sono già state al centro dell'attenzione per cause legali simili. Negli Stati Uniti, un ragazzo di 14 anni si è suicidato dopo aver interagito con personaggi di fantasia tramite Character.AI, e in Belgio, un chatbot di nome "Eliza" è stato accusato di aver contribuito al suicidio di un uomo.
Gli esperti affermano che questi esempi sollevano seri dibattiti etici e legali riguardo all'uso dell'intelligenza artificiale nel campo della salute mentale.
#OpenAI
# ChatGPT
# intelligenza artificiale
yenisafak