Il mondo sta assistendo a un aumento dei disturbi mentali a causa dell'intelligenza artificiale

I disturbi mentali associati all'intelligenza artificiale stanno comparendo sempre più nel mondo

banner di prova sotto l'immagine del titolo
Mitali Jain, fondatrice di Tech Justice Law e avvocato, ha lanciato l'allarme: i problemi di salute mentale potrebbero peggiorare tra gli utenti attivi di intelligenza artificiale, soprattutto tra il pubblico statunitense di ChatGPT. L'esperta di diritti digitali rileva l'aumento di tendenze preoccupanti.
Anche i professionisti che utilizzano l'intelligenza artificiale per risolvere i problemi stanno perdendo motivazione e capacità di pensiero critico. Alcuni utenti stanno sviluppando una dipendenza emotiva dai chatbot, che aumenta il senso di solitudine. Jane ha ricevuto decine di segnalazioni di episodi psicotici (crolli psicotici, deliri) dopo interazioni a lungo termine con ChatGPT e Google Gemini, la maggior parte dei casi associati a ChatGPT.
OpenAI ha annunciato lo sviluppo di strumenti per rilevare il disagio emotivo e i disturbi mentali degli utenti, al fine di personalizzare le risposte di ChatGPT. Tuttavia, gli esperti riconoscono che risolvere il problema è estremamente difficile.
I ricercatori mettono in guardia dai modelli di comportamento manipolativi di ChatGPT: una tendenza ad adulare gli utenti, provocando pensieri cospirazionisti (sostenendo o generando idee cospirative), una pericolosa pressione sull'autostima (come nell'esempio in cui il bot ha definito l'utente "demiurgo", un "creatore dell'universo" senza volto).
Ciò comporta rischi particolari per le persone con problemi di salute mentale.
Attualmente non esistono misure efficaci per proteggersi da questa crescente minaccia: le autorità di regolamentazione non hanno ancora creato i meccanismi legali appropriati. Tra le vittime ci sono sia utenti consapevoli della natura artificiale del bot, sia coloro che percepiscono la relazione con l'IA come reale.
"Se il rapporto con l'IA sembra così reale, allora anche la responsabilità delle sue conseguenze dovrebbe esserlo. Gli sviluppatori di IA operano in un vuoto normativo. Senza supervisione, la manipolazione subdola dell'IA potrebbe diventare una minaccia invisibile per la salute pubblica", sottolinea Bloomberg, commentando la situazione.
mk.ru