Um novo documento da Meta - ao qual a empresa chamou de Frontier AI Framework - indica que, apesar das palavras do CEO Mark Zuckerberg no passado, há alguns cenários em que a tecnológica não disponibilizará publicamente sistemas de Inteligência Artificial (IA) desenvolvidos internamente.
O documento indica que não serão lançados publicamente sistemas de IA que sejam considerados de “alto risco” ou de “risco crítico” - que seriam capazes de ajudar a criar ataques de cibersegurança e também ataques biológicos ou químicos.
A Meta afirma que, caso um sistema de IA seja considerado de alto risco ou de risco crítico, limitará o acesso e não o lançará até que sejam implementadas proteções para “reduzir o risco a níveis moderados”.
“Acreditamos que, ao considerar tanto os benefícios como os riscos de tomar decisões sobre como desenvolver e disponibilizar IA avançada, é possível oferecer essa tecnologia para a sociedade de uma forma que preserve os benefícios dessa tecnologia enquanto se mantém um nível apropriado de risco”, pode ler-se no documento da Meta.
Leia Também: Meta sem planos para abandonar o trabalho remoto