05 Março 2025

FUTURE-AI: Roteiro para uma IA clínica fiável

Como é que os hospitais podem adoptar a inteligência artificial (IA) para melhorar os diagnósticos e tratamentos médicos sem se depararem com armadilhas como a parcialidade, a falta de transparência ou a fraca fiabilidade? Um conjunto de directrizes recentemente publicado, denominado “FUTURE-AI”, está a enfrentar este desafio.

FUTURE-AI: Roteiro para uma IA clínica fiável

Desenvolvido por um consórcio internacional de 117 especialistas nos domínios jurídico, ético, clínico e de IA – e com a participação de Nikolas Papanikolaou, Investigador Principal da Fundação Champalimaud (FC) – o documento fornece um guia detalhado para a criação de IA médica fiável, desde as primeiras fases de concepção até à implementação e monitorização clínica.

Uma colaboração global

“O nosso objetivo é ligar todas as fases do ciclo de vida de uma ferramenta de IA – concepção, desenvolvimento, validação e implementação – para que ninguém fique às escuras sobre a forma como estas ferramentas funcionam ou como mantê-las seguras e justas”, afirma Nikolas Papanikolaou, que lidera o Laboratório de Imagiologia Clínica Computacional da FC e ajudou a lançar a iniciativa FUTURE-AI.

Com origem na Europa, o grupo depressa cresceu para incluir especialistas de 50 países da América do Norte, Ásia, África e região do Golfo. “Queríamos ter sentados à mesma mesa juristas, especialistas em ética, profissionais de saúde e cientistas informáticos”, afirma Papanikolaou. “A IA para a medicina nunca é apenas uma questão de escrever código – há considerações sociais e éticas, factores regulamentares, diferenças de equipamento e muito mais. O FUTURE-AI funde todos estes campos num único projeto.”

Após dois anos de intensa colaboração, o consórcio criou 30 recomendações, organizadas em seis “pilares” orientadores: Equidade, Universalidade, Rastreabilidade, Usabilidade, Robustez e Explicabilidade – formando a mnemónica FUTURE. Por exemplo, a equidade tem a ver com o facto de a IA funcionar bem para todos os grupos de doentes, reduzindo os enviesamentos que podem prejudicar as populações sub-representadas, enquanto a explicabilidade tem a ver com a necessidade de os médicos compreenderem, pelo menos a um nível elevado, por que razão um sistema de IA chega às suas conclusões.
Papanikolaou, que desempenhou um papel fundamental na elaboração das directrizes de usabilidade, sublinha o quão elevados são os riscos: “Não nos podemos dar ao luxo de cometer erros quando se trata da saúde dos doentes. Em última análise, o FUTURE-AI tem a ver com a segurança dos doentes e com evitar atalhos arriscados no desenvolvimento da IA”.

O valor dos dados diversificados e multicêntricos

Enquanto muitas directrizes de IA se concentram numa única fase – como a construção de modelos ou a ética dos dados – o FUTURE-AI analisa quatro fases principais que abrangem todo o ciclo de vida de um algoritmo de cuidados de saúde.

A fase de concepção envolve, desde o início,  todas as partes interessadas  – médicos, cientistas de dados, administradores hospitalares e especialistas em ética. “Se não envolvermos toda a gente desde o primeiro dia, arriscamo-nos a desenvolver um sistema que fica na prateleira sem ser utilizado”, salienta Papanikolaou.

Na fase de desenvolvimento, o FUTURE-AI aborda o risco de “sobre-ajuste”, que acontece quando os algoritmos são treinados com pequenos conjuntos de dados. Em vez disso, os programadores devem recolher grandes conjuntos de dados diversificados e de alta qualidade – aquilo a que Papanikolaou chama os três ingredientes principais: “Quantidade, Qualidade, Diversidade”.

Papanikolaou recorda que os primeiros modelos de detecção de cancro desenvolvidos pela sua equipa, treinados em pequenos conjuntos de dados locais, atingiam uma precisão de 90%, mas que caíam para 60% quando eram testados num outro hospital. Isto melhorou drasticamente em projectos como o ProCAncer-I, que reuniu dados de mais de 13 000 doentes de 13 instituições. “De repente, os mesmos algoritmos tiveram um desempenho muito melhor em novos contextos.”

A terceira fase, Validação, envolve verificações rigorosas de dados externos – examinando o desempenho do modelo com diferentes equipamentos e populações de doentes. Por último, na fase de Implementação, o documento recomenda uma monitorização contínua: “Os dados e o hardware dos cuidados de saúde mudam constantemente. Uma máquina de ressonância magnética pode receber uma atualização de software que afecta o contraste da imagem, o que pode enfraquecer o desempenho de uma ferramenta de IA ao longo do tempo”.

Próximos passos: MLOps e impacto no mundo real

Um tema recorrente no FUTURE-AI é a necessidade de supervisão contínua e de trabalho de equipas multidisciplinares. “Já vimos cientistas informáticos desenvolverem sistemas impressionantes de forma isolada”, explica Papanikolaou. “Mas se não envolverem clínicos e gestores de dados de primeira linha, podem omitir uma falha óbvia – como o facto de uma anotação de imagem ter sido feita de forma diferente noutro hospital.”

A equipa de Papanikolaou está a desenvolver o “MLOps”, uma infraestrutura de software especializada para a IA de imagiologia médica. Foi concebida para evitar a degradação do modelo de IA, monitorizando continuamente a sua precisão e fiabilidade. “Com o MLOps, pretendemos implementar os nossos modelos de radiologia de uma forma escalável e auditável”, afirma Papanikolaou. “Os cientistas de dados podem treinar novamente um algoritmo à medida que chegam novos dados de doentes, enquanto os médicos podem ver facilmente o desempenho da ferramenta. Quando houver uma actualização de software numa máquina de ressonância magnética, seremos notificados, para que possamos revalidar o modelo”.

Os exemplos do mundo real mostram como isto pode ser transformador. Papanikolaou aponta para modelos avançados, desenvolvidos pela sua equipa, que já reduziram o número de biópsias desnecessárias, identificando correctamente um subconjunto de doentes que não têm cancro – e, potencialmente, poupando mais de 20% deles a um procedimento invasivo. “Este é um excelente exemplo”, observa. “Mas para manter esses ganhos, temos de vigiar os nossos modelos com muita atenção.”

“Não podemos simplesmente construir um algoritmo numa redoma e assumir que é perfeito”, diz Papanikolaou. “Se as pessoas não confiarem nele, se for tendencioso ou não funcionar com novos dados, será completamente inútil. Mas se o fizermos correctamente – seguindo orientações como as do FUTURE-AI – podemos realmente melhorar os resultados dos doentes e reduzir os encargos para os sistemas de saúde. É essa a verdadeira promessa da IA na medicina.” 

Scheme Nikolas Papanikolaou Guidelines
Imagem: O FUTURE-AI desenvolveu 30 recomendações, estruturadas em torno de seis pilares fundamentais: Equidade, Universalidade, Rastreabilidade, Usabilidade, Robustez e Explicabilidade – formando em conjunto a mnemónica FUTURE.
Texto de Hedi Young, Science Writer e Content Developer da Equipa de Comunicação, Eventos & Outreach da Fundação Champalimaud.
Traduzido por Ana Gerschenfeld, Health & Science Writer da Fundação Champalimaud.
Loading
Por favor aguarde...