"O primeiro, Gemini Robotics, é um modelo de visão-linguagem-ação que permite aos robôs realizar tarefas do mundo real com generalidade, interatividade e destreza", refere a tecnológica, numa nota.
Este é capaz de se adaptar a novas situações, 'entendendo' "instruções em linguagem natural" e manipulando objetos com precisão.
"O Gemini Robotics destaca-se na resolução de novas tarefas, no manuseamento de novos objetos e na interação com ambientes dinâmicos", podendo "também pode realizar tarefas complexas, como dobrar origami e embalar lanches".
De acordo com a tecnológica, "é adaptável a várias plataformas robóticas, desde sistemas de dois braços até robôs humanoides como o Apollo da Apptronik, permitindo que conclua tarefas do mundo real de forma eficaz".
Já o segundo modelo de IA, o Gemini Robotics-ER, "concentra-se no raciocínio espacial e aprimora a compreensão do mundo do Gemini para robótica, permitindo um melhor controlo e segurança nas ações robóticas".
Ou seja, "o modelo pode compreender intuitivamente objetos, como agarrar numa caneca de café, e planear ações seguras".
"Estamos a trabalhar em parceria com a Apptronik para avançar a próxima geração de robôs humanoides, e a tornar o nosso modelo Gemini Robotics-ER disponível para testadores confiáveis, incluindo Agile Robots, Agility Robots, Boston Dynamics e Enchanted Tools", refere a tecnológica.
"Para promover a investigação sobre segurança em robótica na academia e na indústria, estamos a lançar novos 'benchmarks' e estruturas para a segurança semântica em IA e robótica" e "estamos a adotar uma abordagem holística para a nossa investigação, combinando segurança física, de conteúdo e semântica", refere a Google DeepMind, que sublinha o "desenvolvimento responsável e a segurança, garantindo que os robôs possam trabalhar com segurança ao lado dos humanos".
Leia Também: Matilde foi a 1.ª a ser submetida a esta cirurgia. Como está após um ano?