Chatgpt não pode substituir profissionais de saúde. Ordem dos médicos alerta para riscos do uso de ia

Chatgpt não pode substituir profissionais de saúde. Ordem dos médicos alerta para riscos do uso de ia

Play all audios:


"É FUNDAMENTAL AFIRMAR QUE A IA NÃO É, NEM PODE SER, UM SUBSTITUTO DO JULGAMENTO CLÍNICO, DA EXPERIÊNCIA MÉDICA NEM DO CONTACTO HUMANO. O diagnóstico é parte essencial do ato médico,


que envolve não apenas dados objetivos, mas também interpretação contextual, escuta ativa e empatia", afirmou Carlos Cortes, em declarações à agência Lusa. O bastonário acrescentou que


a IA DEVE SER ENCARADA COMO UMA FERRAMENTA DE APOIO À DECISÃO CLÍNICA E NÃO COMO AGENTE AUTÓNOMO DE DIAGNÓSTICO. Carlos Cortes insiste que as ferramentas de IA não estão habilitadas a fazer


diagnósticos, pois FALTAM "EVIDÊNCIA CIENTÍFICA ROBUSTA, MECANISMOS DE VALIDAÇÃO RIGOROSOS, E SOBRETUDO, TRANSPARÊNCIA ALGORÍTMICA QUE PERMITE AOS MÉDICOS COMPREENDER E CONFIAR NAS


DECISÕES SUGERIDAS". A Comissão para a Inteligência Artificial da Ordem dos Médicos salienta que "A ADOÇÃO DE IA NA MEDICINA SÓ DEVE OCORRER COM BASE EM VALIDAÇÃO CIENTÍFICA, COM


EXPLICABILIDADE, RESPONSABILIZAÇÃO E SUPERVISÃO MÉDICA CONTÍNUA. A integração de IA nos fluxos clínicos exige o respeito por princípios éticos como a autonomia, a não maleficência e a


justiça". Nos casos de diagnósticos errados o bastonário refere que as "CONSEQUÊNCIAS PODEM SER GRAVÍSSIMAS: ATRASOS NO INÍCIO DE TERAPÊUTICAS ADEQUADAS, AGRAVAMENTO DE ESTADOS


CLÍNICOS, EXPOSIÇÃO A TRATAMENTOS DESNECESSÁRIOS OU INAPROPRIADOS, SOFRIMENTO EVITÁVEL E ATÉ PERDA DE VIDAS HUMANAS", ao mesmo tempo que não assumem responsabilidade moral. Além disso,


a AUSÊNCIA DE EXPLICABILIDADE EM MUITOS ALGORITMOS DIFICULTA A IDENTIFICAÇÃO DE ERROS, ESBATE A FRONTEIRA DA RESPONSABILIDADE E AMEAÇA A CONFIANÇA dos doentes nos médicos e na medicina. O


responsável diz ainda que EM PORTUGAL NÃO FORAM IDENTIFICADOS CASOS EM QUE O USO DE IA TENHA CAUSADO CONSEQUÊNCIAS CLÍNICAS RELEVANTES, embora a ausência de casos não possa ser confundida


com a ausência de risco. "A IMPLEMENTAÇÃO DE TECNOLOGIAS DISRUPTIVAS EXIGE VIGILÂNCIA, CAPACIDADE DE AUDITORIA, SISTEMAS DE REPORTE ESTRUTURADO E REGULAÇÃO PROATIVA", até porque o


país não dispõe de entidade dedicada ao acompanhamento da IA na saúde, representando uma "lacuna grave no setor onde estão em causa a segurança clínica, os diretos dos doentes e a


integridade do ato médico", conclui o bastonário. As declarações do bastonário surgem depois de a plataforma espanhola Maldita ter alertado para a CIRCULAÇÃO EM SITES E REDES SOCIAIS DE


DEPOIMENTOS DE PESSOAS QUE PEDIRAM DIAGNÓSTICOS A MODELOS DE IA. Alegações como "pedi ao ChatGPT para ler a minha mão e ele detetou cancro de pele" ou "ChatGPT diagnostica


uma mulher com cancro um ano antes dos médicos" circulam nas redes sociais, afirmando que a ferramenta de IA é capaz de fazer diagnósticos médicos. Contudo, OS RESULTADOS DOS CHATBOTS


DE IA SÃO BASEADOS EM PROBABILIDADES, OS DADOS DE TREINO PODEM NÃO SER CONFIÁVEIS E NÃO PODEM FAZER A ANÁLISE ABRANGENTE QUE UM MÉDICO FAZ, refere a plataforma.