
Stress e suicídio: estudo mostra que modelos de ia podem identificar riscos de depressão
- Select a language for the TTS:
- Brazilian Portuguese Female
- Brazilian Portuguese Male
- Portuguese Female
- Portuguese Male
- Language selected: (auto detect) - PT
Play all audios:

A investigação realizada por uma equipa coreana indica que, embora estes grandes modelos de linguagem (LLM, na sigla inglesa) "demonstrem potencial" para detetar esses riscos,
"é essencial melhorar o desempenho e a segurança antes da aplicação clínica". A equipa examinou o potencial dos LLM, que são sistemas de inteligência artificial (IA) treinados em
grandes quantidades de dados, pelo que são capazes de compreender e gerar linguagem natural. O MESMO POTENCIAL É DEMONSTRADO PELOS EMBEDDINGS, UMA TÉCNICA DE PROCESSAMENTO DA LINGUAGEM
NATURAL QUE CONVERTE A LINGUAGEM HUMANA EM VETORES MATEMÁTICOS, QUE TAMBÉM FORAM ANALISADOS PELA EQUIPA. O ESTUDO BASEOU-SE EM DADOS DE 1064 DOENTES PSIQUIÁTRICOS COM IDADES COMPREENDIDAS
ENTRE OS 18 E OS 39 ANOS que realizaram uma série de testes de autoavaliação e de frases incompletas. Os testes de frases incompletas consistem em dar ao paciente uma série de frases
inacabadas para completar com a primeira coisa que lhe vem à cabeça e fornecer informações subjetivas sobre, por exemplo, o seu autoconceito ou relações interpessoais. OS DADOS FORAM
PROCESSADOS POR MODELOS LLM, COMO O GPT-4, O GEMINI 1.0 PRO OU O GOOGLE DEEPMIND, E POR MODELOS DE INCORPORAÇÃO DE TEXTO, COMO O TEXT-EMBEDDING-3-LARGE OPENAI. A investigação refere que
eSTES MODELOS "DEMONSTRARAM O SEU POTENCIAL NA AVALIAÇÃO DOS RISCOS PARA A SAÚDE MENTAL", INCLUINDO O STRESS E O SUICÍDIO, "a partir de dados narrativos de pacientes
psiquiátricos". ALBERTO ORTIZ, DO HOSPITAL UNIVERSITÁRIO LA PAZ (MADRID), COMENTOU O ESTUDO, NO QUAL NÃO PARTICIPOU, E SALIENTOU QUE ESTE FOI REALIZADO EM PACIENTES QUE JÁ ESTÃO EM
TRATAMENTO PSIQUIÁTRICO, pelo que a generalização dos resultados para aplicar esta metodologia à deteção de riscos na população em geral "não é possível, de momento". Ortiz disse
ao Science Media Centre, uma plataforma de recursos científicos, que a aplicação da IA na saúde mental, em qualquer caso, terá de se centrar nas narrativas subjetivas das pessoas, como é
feito nesta investigação. No entanto, considerou que "uMA COISA É DETETAR RISCOS E FAZER RASTREIOS, E OUTRA É TRATAR PESSOAS COM SOFRIMENTO MENTAL, UMA TAREFA QUE VAI ALÉM DA APLICAÇÃO
DE UMA SOLUÇÃO TECNOLÓGICA e em que a subjetividade do profissional é essencial para desenvolver o vínculo terapêutico".