Com a designação de "Frontier Model Forum", a sua missão é promover "um desenvolvimento responsável" dos modelos de inteligência artificial (IA) mais sofisticados e "minimizar os potenciais riscos", refere um comunicado.
Os membros comprometem-se a partilhar entre eles e com os legisladores, investigadores e associações boas práticas para tornar os novos sistemas menos perigosos.
A União Europeia (UE) está a finalizar um projeto de regulação da IA que deve impor obrigações às empresas do setor, como a transparência com os utilizadores ou o controlo humano sobre a máquina.
Nos Estados Unidos, as tensões políticas no Congresso impediram qualquer esforço nesse sentido. A Casa Branca tem incitado os grupos envolvidos a garantirem a segurança dos seus produtos, em nome do "dever moral", segundo as palavras da vice-presidente, Kamala Harris, em maio.
Na semana passada, a administração norte-americana obteve "compromissos" da Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI para respeitarem "três princípios" no desenvolvimento da IA - segurança, proteção e confiança.
Leia Também: "Há postos de trabalho que serão eliminados", diz líder da OpenAI