Selecione o idioma

Portuguese

Down Icon

Selecione o país

Portugal

Down Icon

Modelos de linguagem de IA com potencial de registar sinais de depressão

Modelos de linguagem de IA com potencial de registar sinais de depressão

© Lusa

Lusa

A investigação realizada por uma equipa coreana indica que, embora estes grandes modelos de linguagem (LLM, na sigla inglesa) "demonstrem potencial" para detetar esses riscos, "é essencial melhorar o desempenho e a segurança antes da aplicação clínica".

A equipa examinou o potencial dos LLM, que são sistemas de inteligência artificial (IA) treinados em grandes quantidades de dados, pelo que são capazes de compreender e gerar linguagem natural.

O mesmo potencial é demonstrado pelos 'embeddings', uma técnica de processamento da linguagem natural que converte a linguagem humana em vetores matemáticos, que também foram analisados pela equipa.

O estudo baseou-se em dados de 1064 doentes psiquiátricos com idades compreendidas entre os 18 e os 39 anos que realizaram uma série de testes de autoavaliação e de frases incompletas.

Os testes de frases incompletas consistem em dar ao paciente uma série de frases inacabadas para completar com a primeira coisa que lhe vem à cabeça e fornecer informações subjetivas sobre, por exemplo, o seu autoconceito ou relações interpessoais.

Os dados foram processados por modelos LLM, como o GPT-4, o Gemini 1.0 Pro ou o Google Deepmind, e por modelos de incorporação de texto, como o text-embedding-3-large OpenAI.

A investigação refere que estes modelos "demonstraram o seu potencial na avaliação dos riscos para a saúde mental", incluindo o stress e o suicídio, "a partir de dados narrativos de pacientes psiquiátricos".

Alberto Ortiz, do Hospital Universitário La Paz (Madrid), comentou o estudo, no qual não participou, e salientou que este foi realizado em pacientes que já estão em tratamento psiquiátrico, pelo que a generalização dos resultados para aplicar esta metodologia à deteção de riscos na população em geral "não é possível, de momento".

Ortiz disse ao Science Media Centre, uma plataforma de recursos científicos, que a aplicação da IA na saúde mental, em qualquer caso, terá de se centrar nas narrativas subjetivas das pessoas, como é feito nesta investigação.

No entanto, considerou que "uma coisa é detetar riscos e fazer rastreios, e outra é tratar pessoas com sofrimento mental, uma tarefa que vai além da aplicação de uma solução tecnológica e em que a subjetividade do profissional é essencial para desenvolver o vínculo terapêutico".

Leia Também: Primeiros óculos inteligentes da Apple chegam em 2026, diz Bloomberg

noticias ao minuto

noticias ao minuto

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow