"Não nos podemos dar ao luxo de cometer erros quando se trata da saúde dos doentes. Em última análise, o FUTURE-AI tem a ver com a segurança dos doentes e com evitar atalhos arriscados no desenvolvimento da IA", adiantou Nikolas Papanikolaou, que lidera o Laboratório de Imagiologia Clínica Computacional da Fundação Champalimaud (FC).
A iniciativa FUTURE-AI resulta de dois anos de colaboração de um consórcio de especialistas nos domínios jurídico, ético, clínico e de IA com origem na Europa, mas que se estendeu a países da América do Norte, Ásia, África e da região do Golfo, num total de 117 peritos.
"Queríamos ter sentados à mesma mesa juristas, especialistas em ética, profissionais de saúde e cientistas informáticos", afirmou o investigador principal da FC, ao adiantar que o FUTURE-AI permitiu fundir todas essas áreas num único projeto.
Na prática, este trabalho resultou num guia detalhado para a criação de IA médica fiável, através de 30 recomendações, organizadas em seis pilares orientadores - equidade, universalidade, rastreabilidade, usabilidade, robustez e explicabilidade.
"O nosso objetivo é ligar todas as fases do ciclo de vida de uma ferramenta de IA -- conceção, desenvolvimento, validação e implementação -- para que ninguém fique às escuras sobre a forma como estas ferramentas funcionam ou como mantê-las seguras e justas", adiantou Nikolas Papanikolaou.
Segundo a FC, equidade está relacionada com a garantia de que a IA funciona bem para todos os grupos de doentes, enquanto a explicabilidade tem a ver com a necessidade de os médicos compreenderem, pelo menos a um nível elevado, por que razão um sistema de IA chega às suas conclusões.
A fase de conceção envolve todas as partes interessadas -- médicos, cientistas de dados, administradores hospitalares e especialistas em ética.
"Se não envolvermos toda a gente desde o primeiro dia, arriscamo-nos a desenvolver um sistema que fica na prateleira sem ser utilizado", referiu ainda Papanikolaou, citado num comunicado da fundação.
Na fase de desenvolvimento, o FUTURE-AI aborda o risco de "sobre-ajuste", que acontece quando os algoritmos são treinados com pequenos conjuntos de dados, com as diretrizes a apontar para a necessidade de os programadores recolherem grandes grupos de dados diversificados e de alta qualidade.
Já a fase da validação envolve verificações rigorosas de dados externos, examinando o desempenho do modelo com diferentes equipamentos e populações de doentes, enquanto, na fase de implementação, o documento recomenda uma monitorização contínua.
"Os dados e o 'hardware' dos cuidados de saúde mudam constantemente. Uma máquina de ressonância magnética pode receber uma atualização de 'software' que afeta o contraste da imagem, o que pode enfraquecer o desempenho de uma ferramenta de IA ao longo do tempo", explicou o investigador.
A equipa de Papanikolaou está agora desenvolver o MLOps, uma infraestrutura de 'software' especializada para a IA de imagiologia médica e que está a ser concebida para evitar a degradação do modelo de IA, monitorizando continuamente a sua precisão e fiabilidade.
Papanikolaou salientou que modelos avançados, desenvolvidos pela sua equipa, já reduziram o número de biópsias desnecessárias, identificando corretamente um subconjunto de doentes que não têm cancro e, potencialmente, poupando mais de 20% deles a um procedimento invasivo.
"Não podemos simplesmente construir um algoritmo numa redoma e assumir que é perfeito", reconheceu o investigador da FC, para quem, se este trabalho for feito corretamente, seguindo orientações como as do FUTURE-AI, pode-se "realmente melhorar os resultados dos doentes e reduzir os encargos para os sistemas de saúde".
Leia Também: Pessoas com mais de 55 anos são mais vulneráveis a 'deepfakes'