Seleziona la lingua

Italian

Down Icon

Seleziona Paese

Germany

Down Icon

Il modello di intelligenza artificiale mira a prevedere il comportamento umano

Il modello di intelligenza artificiale mira a prevedere il comportamento umano

L'intelligenza artificiale (IA) sotto forma di modelli linguistici sembra essere sempre più in grado di replicare il comportamento umano. Ma questi modelli di IA sono anche in grado di prevedere le decisioni umane? Un team di ricerca internazionale dell'Istituto per l'IA centrata sull'uomo presso l'Helmholtz Zentrum di Monaco ha cercato di scoprirlo e ha sviluppato il nuovo modello linguistico Centaur.

Il team ha utilizzato come base un modello linguistico open source di Meta AI. I ricercatori hanno quindi programmato l'intelligenza artificiale Centaur utilizzando i dati di 160 esperimenti psicologici. A circa 60.000 soggetti sono stati assegnati compiti come classificare oggetti o prendere decisioni nel gioco d'azzardo.

Dieci milioni di decisioni come addestramento dell'IA

In totale, il set di dati di Centaur contiene oltre dieci milioni di decisioni. L'IA è stata addestrata con il 90% dei dati risultanti. I risultati del restante 10% sono rimasti sconosciuti. I ricercatori hanno quindi utilizzato questi dati per testare il loro nuovo modello linguistico: Centaur sarebbe stato in grado di prevedere il comportamento dei soggetti del test?

Il risultato: il modello di intelligenza artificiale è stato in grado di prevedere le decisioni effettive con una precisione fino al 64%. Cenatur ha continuato a fornire buoni risultati anche quando l'impostazione sperimentale è stata leggermente modificata, ovvero quando gli è stato chiesto di fare previsioni su situazioni per le quali non era stato specificamente addestrato.

Un ragazzo con uno zaino in piedi davanti a un robot umanoide con un touchscreen attaccato al petto alla fiera dell'istruzione Didacta 2019 di Colonia
Dovremmo cliccare o no? E l'intelligenza artificiale sarà in grado di prevedere le nostre decisioni in futuro? Immagine: C. Hardt/Future Image/IMAGO
"Le aziende usano l'intelligenza artificiale per prevedere le nostre preferenze"

La novità di Centaur è che l'intelligenza artificiale può essere applicata ai "dati comportamentali", afferma Clemens Stachl, direttore dell'Istituto di Scienze e Tecnologie Comportamentali dell'Università di San Gallo. "Questo risultato è stato ottenuto traducendo in linguaggio i risultati di classici esperimenti decisionali".

Modelli di intelligenza artificiale come Centaur potrebbero essere applicati anche al di fuori delle scienze sociali e comportamentali, afferma Stachl. "Ad esempio, ovunque sia necessario analizzare e prevedere il comportamento umano, come nello shopping, nell'istruzione o in ambito militare."

Lo scienziato comportamentale ritiene che l'applicazione pratica sia ovvia, dato che questi tipi di modelli di intelligenza artificiale sono stati sviluppati dall'industria. Centaur, ad esempio, utilizza l'architettura di base di Google e la base pre-addestrata di Meta.

"Possiamo supporre che le grandi aziende tecnologiche stiano già utilizzando modelli simili per prevedere il nostro comportamento decisionale e le nostre preferenze, ad esempio quando facciamo acquisti online o sui social media."

Stachl cita come esempi il modello linguistico ChatGPT e la piattaforma social TikTok. "Questi modelli sono diventati molto validi. Si consideri, ad esempio, quanto bene TikTok suggerisca i video per mantenere gli utenti sull'app il più a lungo possibile."

Loghi di varie applicazioni AI sullo smartphone
Quanto bene modelli di intelligenza artificiale come Copilot o ChatGPT ci "conoscano" è un segreto commerciale gelosamente custodito. Immagine: Jaque Silva/NurPhoto/picture alliance
"Non sopravvalutare i risultati dello studio Centaur"

Altri esperti ritengono che ci vorrà del tempo prima che le applicazioni di intelligenza artificiale come Centaur vengano utilizzate al di fuori dei laboratori.

I test psicologici utilizzati per addestrare l'IA coprivano solo una minima parte del comportamento umano, afferma Markus Langer, direttore del Dipartimento di Psicologia Industriale e Organizzativa dell'Università di Friburgo. "Questo non dice molto sulla capacità di prevedere il comportamento umano 'naturale' o 'quotidiano'."

Secondo lui, il rischio principale di questo tipo di ricerca è che i risultati possano essere sovrainterpretati, del tipo: "Wow, ora possiamo finalmente prevedere il comportamento umano con precisione". Questo non è ancora il caso, afferma Langer. Bisogna anche chiedersi se l'accuratezza delle previsioni di Centaur, intorno al 64%, possa davvero essere considerata "buona".

L'intelligenza artificiale dovrebbe essere in grado di interpretare il comportamento umano?

Il modello Centaur e i risultati dello studio dovrebbero essere intesi principalmente come un contributo alla ricerca di base, afferma Stachl, scienziato comportamentale. Modelli di questo tipo potrebbero, in linea di principio, contribuire a risolvere complesse sfide sociali, ad esempio nel settore sanitario.

"Allo stesso tempo, però, c'è il rischio che ci rendano sempre più prevedibili e ci conducano a una forma di dipendenza digitale o addirittura di 'schiavitù digitale' ", ha proseguito Stachl, aggiungendo che il nostro consumo quotidiano di media e l'uso delle tecnologie digitali producono ogni giorno nuovi dati comportamentali, che contribuiscono all'ulteriore miglioramento di tali modelli.

Per lo scienziato comportamentale, come gestire questa tecnologia è una domanda a cui "la nostra società nel suo complesso deve rispondere. A questo proposito, la scienza, ma soprattutto gli avvocati e i decisori politici, saranno maggiormente sfidati in futuro".

dw

dw

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow