Os agentes de IA trazem eficiência da automação, decisões e ações em escala, mas "o risco desta autonomia tem de ser controlado e monitorizado desde o início", refere o 'lead solutions architect & GenAI Evangelist' na tecnológica.
"A questão não é apenas de automação, mas sim do grau de autonomia que queremos atribuir a estes sistemas. Se não houver limites bem definidos, os agentes podem começar a tomar decisões que não compreendemos ou antecipamos", prossegue Vítor Domingos.
Os agentes de IA são sistemas inteligentes autónomos com capacidade de realizar tarefas sem intervenção humana.
"Quando um sistema autónomo começa a atuar fora do esperado, deixa de ser apenas um problema técnico para se tornar uma questão de responsabilidade legal e, eventualmente, social", e "o que vejo é a falta de mecanismos robustos de auditoria e reversibilidade", aponta o responsável da Hitachi Digital Services.
"Se um agente de IA toma uma decisão errada, como se corrige? Como se responsabiliza? São perguntas para as quais ainda não existem respostas técnicas e regulatórias claras", adverte.
Questionado sobre o género de agentes de IA que desenvolve e quais os setores que mais estão a recorrer a este tipo de soluções, o evangelista de IA generativa (GenAI) começa por dizer que "as necessidades do mercado atual são para agentes especializados, desenvolvidos para resolver problemas específicos e escalar processos operacionais" que os clientes têm.
E dá exemplos como os agentes para infraestrutura e operações (GenAIOps), "utilizados em IT para automatizar monitorização, deteção de falhas e resolução de problemas antes de impactarem o negócio", para os setores de telecomunicações, 'cloud', cibersegurança, indústria ou os assistentes inteligentes para suporte e atendimento ao cliente, "agentes que conseguem entender contexto, resolver 'tickets' automaticamente e gerar relatórios detalhados", nas áreas da saúde, finanças, comércio e Administração Pública.
Outro exemplo são os agentes de decisão para análise e previsões, que são sistemas capazes de "analisar milhões de variáveis e sugerir estratégias de negócio", para os setores das finanças, logística, 'supply chain' [cadeia de abastecimento].
"Ou seja, não são agentes de IA genéricos, mas sim soluções verticais, desenvolvidas para setores que querem reduzir custos, automatizar operações e lidar com dados complexos em grande escala", explica o responsável.
Questionado sobre como está a ser compatibilizado o regulamento europeu de IA (AI Act) com o desenvolvimento dos agentes de IA, Vítor Domingos responde: "Uma coisa não impede a outra".
"O EU AI Act é um quadro de risco para avaliar as aplicações de IA. Existem restrições para o uso de IA em vários setores e a UE quer limitar a forma como a IA produz decisões que afetam a sociedade e, em particular, os seres humanos", prossegue.
No entanto, "quando se pensa em agentes de IA, pensa-se num robô que toma decisões por nós, mas há vários níveis de autonomia. Há decisões que podem ser feitas por nós e outras que simplesmente não podem ser delegadas a uma máquina ou que necessitam de supervisão humana", refere.
A versão atual do regulamento europeu "estabelece que os agentes de IA não podem tomar decisões críticas que nos afetam diretamente -- seja na saúde, no acesso a crédito, ou em situações militares".
Estas são classificadas "como de alto risco", sublinha.
Contudo, "na minha opinião, independentemente do nível de risco, todas as decisões tomadas por agentes devem ser registadas e explicadas, de forma a poderem ser auditadas e controladas. Sem isto, entramos num território onde a IA opera sem supervisão e sem responsabilização", conclui.
Leia Também: Este gadget quer ser o seu aliado para terminar de ler livros