Facebook diz que utilizadores não denunciaram vídeo em direto do ataque
A rede social Facebook revelou hoje que não recebeu qualquer denúncia vinda de quem viu em direto o vídeo do ataque terrorista em Christchurch (Nova Zelândia) que fez 50 mortos, e que agiu imediatamente depois de notificada pela polícia.
© Reuters
Tech Christchurch
A rápida difusão do vídeo pelas redes sociais suscitou várias críticas à moderação do conteúdo de 'sites' como o Twitter, o Youtube e particularmente o Facebook, criticado por não ter sido capaz de detetar rapidamente o conteúdo do vídeo e retirá-lo de imediato.
A rede social revelou hoje novos detalhes acerca da resposta que deu à publicação do ataque terrorista, divulgando que o vídeo em direto publicado pelo autor do atentado, com cerca de 17 minutos, apenas foi denunciado 12 minutos após o fim do ataque.
"Nenhum utilizador que viu o vídeo em direto o reportou", tendo sido visto cerca de 4.000 vezes no total antes de ser removido, disse o conselheiro geral do Facebook, Chris Sonderby, acrescentando que a equipa do Facebook eliminou o vídeo poucos minutos depois de ser notificada pela polícia.
A equipa do Facebook indicou no domingo que eliminou 1,5 milhões de vídeos que mostravam o ataque terrorista apenas nas primeiras 24 horas, dos quais 1,2 milhões foram removidos da plataforma antes que os utilizadores pudessem vê-los,o que significa que 300 mil cópias foram publicadas no 'site' antes de serem retiradas pela equipa do Facebook.
Um vídeo divulgado anteriormente pela equipa do Facebook mostrou que a rede social utiliza inteligência artificial para detetar conteúdo censurável e, ao mesmo tempo, conta com as denúncias do público para retirar conteúdo que viole os seus padrões. Essas denúncias são posteriormente enviadas para revisores humanos que decidem o que deve ser feito.
O Youtube anunciou hoje que removeu "dezenas de milhares" de vídeos do ataque, acrescentando que a velocidade com que os vídeos foram colocados no 'site', nas horas após o ataque, atingiu um novo vídeo a cada segundo.
O procedimento normal para determinar se o conteúdo deve ser removido por violar os termos da empresa inclui observadores humanos que analisam uma pré-seleção feita por um sistema de inteligência artificial, mas neste caso o Youtube ignorou e automatizou o processo para o acelerar.
Na terça-feira, a primeira-ministra da Nova Zelândia, Jacinda Ardern, confessou a sua frustração em relação ao facto do vídeo ter permanecido 'online' durante dias após o ataque, acrescentando que a responsabilidade desta situação recai sobre a equipa do Facebook.
Brenton Tarrant, um australiano nacionalista branco, de 28 anos e que está em prisão preventiva, é o suposto responsável pelos ataques às mesquitas Al-Noor e de Linwood, na sexta-feira, que fizeram 50 mortos e quase meia centena de feridos.
Descarregue a nossa App gratuita.
Oitavo ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.
* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com