Consórcio de peritos cria regras para IA fiável nos diagnósticos

Especialistas de 50 países definiram um conjunto de 30 diretrizes para uma utilização fiável da Inteligência Artificial (IA) nos hospitais, que vão desde a fase da conceção desta nova ferramenta até à monitorização clínica.

Notícia

© Shutterstock

Lusa
05/03/2025 15:37 ‧ há 11 horas por Lusa

Tech

Saúde

"Não nos podemos dar ao luxo de cometer erros quando se trata da saúde dos doentes. Em última análise, o FUTURE-AI tem a ver com a segurança dos doentes e com evitar atalhos arriscados no desenvolvimento da IA", adiantou Nikolas Papanikolaou, que lidera o Laboratório de Imagiologia Clínica Computacional da Fundação Champalimaud (FC).

 

A iniciativa FUTURE-AI resulta de dois anos de colaboração de um consórcio de especialistas nos domínios jurídico, ético, clínico e de IA com origem na Europa, mas que se estendeu a países da América do Norte, Ásia, África e da região do Golfo, num total de 117 peritos.

"Queríamos ter sentados à mesma mesa juristas, especialistas em ética, profissionais de saúde e cientistas informáticos", afirmou o investigador principal da FC, ao adiantar que o FUTURE-AI permitiu fundir todas essas áreas num único projeto.

Na prática, este trabalho resultou num guia detalhado para a criação de IA médica fiável, através de 30 recomendações, organizadas em seis pilares orientadores - equidade, universalidade, rastreabilidade, usabilidade, robustez e explicabilidade.

"O nosso objetivo é ligar todas as fases do ciclo de vida de uma ferramenta de IA -- conceção, desenvolvimento, validação e implementação -- para que ninguém fique às escuras sobre a forma como estas ferramentas funcionam ou como mantê-las seguras e justas", adiantou Nikolas Papanikolaou.

Segundo a FC, equidade está relacionada com a garantia de que a IA funciona bem para todos os grupos de doentes, enquanto a explicabilidade tem a ver com a necessidade de os médicos compreenderem, pelo menos a um nível elevado, por que razão um sistema de IA chega às suas conclusões.

A fase de conceção envolve todas as partes interessadas -- médicos, cientistas de dados, administradores hospitalares e especialistas em ética.

"Se não envolvermos toda a gente desde o primeiro dia, arriscamo-nos a desenvolver um sistema que fica na prateleira sem ser utilizado", referiu ainda Papanikolaou, citado num comunicado da fundação.

Na fase de desenvolvimento, o FUTURE-AI aborda o risco de "sobre-ajuste", que acontece quando os algoritmos são treinados com pequenos conjuntos de dados, com as diretrizes a apontar para a necessidade de os programadores recolherem grandes grupos de dados diversificados e de alta qualidade.

Já a fase da validação envolve verificações rigorosas de dados externos, examinando o desempenho do modelo com diferentes equipamentos e populações de doentes, enquanto, na fase de implementação, o documento recomenda uma monitorização contínua.

"Os dados e o 'hardware' dos cuidados de saúde mudam constantemente. Uma máquina de ressonância magnética pode receber uma atualização de 'software' que afeta o contraste da imagem, o que pode enfraquecer o desempenho de uma ferramenta de IA ao longo do tempo", explicou o investigador.

A equipa de Papanikolaou está agora desenvolver o MLOps, uma infraestrutura de 'software' especializada para a IA de imagiologia médica e que está a ser concebida para evitar a degradação do modelo de IA, monitorizando continuamente a sua precisão e fiabilidade.

Papanikolaou salientou que modelos avançados, desenvolvidos pela sua equipa, já reduziram o número de biópsias desnecessárias, identificando corretamente um subconjunto de doentes que não têm cancro e, potencialmente, poupando mais de 20% deles a um procedimento invasivo.

"Não podemos simplesmente construir um algoritmo numa redoma e assumir que é perfeito", reconheceu o investigador da FC, para quem, se este trabalho for feito corretamente, seguindo orientações como as do FUTURE-AI, pode-se "realmente melhorar os resultados dos doentes e reduzir os encargos para os sistemas de saúde".

Leia Também: Pessoas com mais de 55 anos são mais vulneráveis a 'deepfakes'

Partilhe a notícia

Escolha do ocnsumidor 2025

Descarregue a nossa App gratuita

Nono ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.

* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com
App androidApp iOS

Recomendados para si

Leia também


Newsletter

Receba os principais destaques todos os dias no seu email.

Mais lidas