
Chatgpt não pode substituir profissionais de saúde. Ordem dos médicos alerta para riscos do uso de ia
Play all audios:

"É FUNDAMENTAL AFIRMAR QUE A IA NÃO É, NEM PODE SER, UM SUBSTITUTO DO JULGAMENTO CLÍNICO, DA EXPERIÊNCIA MÉDICA NEM DO CONTACTO HUMANO. O diagnóstico é parte essencial do ato médico,
que envolve não apenas dados objetivos, mas também interpretação contextual, escuta ativa e empatia", afirmou Carlos Cortes, em declarações à agência Lusa. O bastonário acrescentou que
a IA DEVE SER ENCARADA COMO UMA FERRAMENTA DE APOIO À DECISÃO CLÍNICA E NÃO COMO AGENTE AUTÓNOMO DE DIAGNÓSTICO. Carlos Cortes insiste que as ferramentas de IA não estão habilitadas a fazer
diagnósticos, pois FALTAM "EVIDÊNCIA CIENTÍFICA ROBUSTA, MECANISMOS DE VALIDAÇÃO RIGOROSOS, E SOBRETUDO, TRANSPARÊNCIA ALGORÍTMICA QUE PERMITE AOS MÉDICOS COMPREENDER E CONFIAR NAS
DECISÕES SUGERIDAS". A Comissão para a Inteligência Artificial da Ordem dos Médicos salienta que "A ADOÇÃO DE IA NA MEDICINA SÓ DEVE OCORRER COM BASE EM VALIDAÇÃO CIENTÍFICA, COM
EXPLICABILIDADE, RESPONSABILIZAÇÃO E SUPERVISÃO MÉDICA CONTÍNUA. A integração de IA nos fluxos clínicos exige o respeito por princípios éticos como a autonomia, a não maleficência e a
justiça". Nos casos de diagnósticos errados o bastonário refere que as "CONSEQUÊNCIAS PODEM SER GRAVÍSSIMAS: ATRASOS NO INÍCIO DE TERAPÊUTICAS ADEQUADAS, AGRAVAMENTO DE ESTADOS
CLÍNICOS, EXPOSIÇÃO A TRATAMENTOS DESNECESSÁRIOS OU INAPROPRIADOS, SOFRIMENTO EVITÁVEL E ATÉ PERDA DE VIDAS HUMANAS", ao mesmo tempo que não assumem responsabilidade moral. Além disso,
a AUSÊNCIA DE EXPLICABILIDADE EM MUITOS ALGORITMOS DIFICULTA A IDENTIFICAÇÃO DE ERROS, ESBATE A FRONTEIRA DA RESPONSABILIDADE E AMEAÇA A CONFIANÇA dos doentes nos médicos e na medicina. O
responsável diz ainda que EM PORTUGAL NÃO FORAM IDENTIFICADOS CASOS EM QUE O USO DE IA TENHA CAUSADO CONSEQUÊNCIAS CLÍNICAS RELEVANTES, embora a ausência de casos não possa ser confundida
com a ausência de risco. "A IMPLEMENTAÇÃO DE TECNOLOGIAS DISRUPTIVAS EXIGE VIGILÂNCIA, CAPACIDADE DE AUDITORIA, SISTEMAS DE REPORTE ESTRUTURADO E REGULAÇÃO PROATIVA", até porque o
país não dispõe de entidade dedicada ao acompanhamento da IA na saúde, representando uma "lacuna grave no setor onde estão em causa a segurança clínica, os diretos dos doentes e a
integridade do ato médico", conclui o bastonário. As declarações do bastonário surgem depois de a plataforma espanhola Maldita ter alertado para a CIRCULAÇÃO EM SITES E REDES SOCIAIS DE
DEPOIMENTOS DE PESSOAS QUE PEDIRAM DIAGNÓSTICOS A MODELOS DE IA. Alegações como "pedi ao ChatGPT para ler a minha mão e ele detetou cancro de pele" ou "ChatGPT diagnostica
uma mulher com cancro um ano antes dos médicos" circulam nas redes sociais, afirmando que a ferramenta de IA é capaz de fazer diagnósticos médicos. Contudo, OS RESULTADOS DOS CHATBOTS
DE IA SÃO BASEADOS EM PROBABILIDADES, OS DADOS DE TREINO PODEM NÃO SER CONFIÁVEIS E NÃO PODEM FAZER A ANÁLISE ABRANGENTE QUE UM MÉDICO FAZ, refere a plataforma.