O vídeo do ataque na Nova Zelândia, que provocou 50 mortes em duas mesquitas, difundido em direto pelo terrorista, foi visionado cerca de quatro mil vezes, antes de a empresa Facebook o retirar da rede social, embora ele tivesse sido partilhado de novo por utilizadores que o tinham guardado, permitindo mais de um milhão de novas visitas.
A Facebook admitiu hoje, num blogue da empresa, que o seu sistema de inteligência artificial para detetar conteúdo não permitido "não é perfeito" e que falhou ao não reconhecer o vídeo do ataque terrorista.
Na mensagem do blogue da empresa, o vice-presidente de gestão de produto da Facebook, Guy Rosen, explicou que embora a inteligência artificial tenha alcançado um grau de evolução muito significativo, que permite proatividade nos processos de deteção de imagens não autorizadas, o sistema tem falhas.
"A inteligência artificial é baseada em dados de treino, o que significa que são precisos milhares de exemplos de conteúdo para que se possam detetar certos tipos de texto, imagens ou vídeos", explicou Rosen, para justificar a falha no caso da transmissão ao vivo do ataque.
"Precisamos de fornecer aos nossos sistemas grandes volumes de dados, o que é difícil, já que, felizmente, esse tipo de acontecimento não é comum", afirmou o vice-presidente da Facebook, acrescentando que o sistema tem provado ser eficaz em casos de nudez, propaganda terrorista e violência gráfica.
Guy Rosen também disse que se coloca o desafio informático de discernir entre conteúdos como o deste ataque terrorista e outros que, sendo semelhantes visualmente, são inócuos, como, por exemplo, de jogos de vídeo onde personagens disparam sobre pessoas.
Também a plataforma de vídeos YouTube informou, esta semana, que retirou de vários canais "dezenas de milhares" de vídeos do ataque, garantindo que o que sucedeu neste caso da Nova Zelândia "é inédito" naquele portal da Internet, por causa da escala a que aconteceu e da velocidade com que ocorreu.