Meta promete não lançar IA que seja demasiado perigosa

A empresa indica que avaliará os riscos internamente e criará as devidas proteções.

Notícia

© Shutterstock

Miguel Patinha Dias
04/02/2025 09:24 ‧ há 3 horas por Miguel Patinha Dias

Tech

Meta

Um novo documento da Meta - ao qual a empresa chamou de Frontier AI Framework - indica que, apesar das palavras do CEO Mark Zuckerberg no passado, há alguns cenários em que a tecnológica não disponibilizará publicamente sistemas de Inteligência Artificial (IA) desenvolvidos internamente.

 

O documento indica que não serão lançados publicamente sistemas de IA que sejam considerados de “alto risco” ou de “risco crítico” - que seriam capazes de ajudar a criar ataques de cibersegurança e também ataques biológicos ou químicos.

A Meta afirma que, caso um sistema de IA seja considerado de alto risco ou de risco crítico, limitará o acesso e não o lançará até que sejam implementadas proteções para “reduzir o risco a níveis moderados”.

“Acreditamos que, ao considerar tanto os benefícios como os riscos de tomar decisões sobre como desenvolver e disponibilizar IA avançada, é possível oferecer essa tecnologia para a sociedade de uma forma que preserve os benefícios dessa tecnologia enquanto se mantém um nível apropriado de risco”, pode ler-se no documento da Meta.

Leia Também: Meta sem planos para abandonar o trabalho remoto

Partilhe a notícia

Escolha do ocnsumidor 2025

Descarregue a nossa App gratuita

Nono ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.

* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com
App androidApp iOS

Recomendados para si

Leia também

Últimas notícias


Newsletter

Receba os principais destaques todos os dias no seu email.

Mais lidas