A Apple viu-se envolvida numa polémica quando revelou estar a trabalhar num projeto de forma a identificar imagens de abuso sexual de crianças no iCloud. Os críticos notaram que o sistema poderia ser abuso por regimes autoritários que, ao pressionarem a Apple, teriam acesso a informações sobre adversários políticos e minorias.
Determinada a esclarecer a situação, a Apple já afirmou que foi mal interpretada sobre este projeto e agora adianta ao 9to5mac que já usa um sistema semelhante no iCloud Mail. A empresa nota que é “dedicada a proteger as crianças em todo o ecossistema” e por isso criou “proteções robustas em todos os níveis da plataforma de software”.
“Como parte deste compromisso, a Apple usa tecnologia de comparação de imagens para ajudar a encontrar e denunciar exploração de crianças. Tal como acontece com filtros de ‘spam’ no e-mail, os nossos sistemas usam assinaturas eletrónicas para encontrar suspeitas de exploração de crianças”, conta a Apple.
A empresa garante que faz uma “avaliação individual” de cada vez que o sistema denuncia uma imagem e, caso viole os termos e condições do serviço, “qualquer conta que encontrarmos com este material será bloqueada”.
Leia Também: Executivo da Apple admite problema em combater pornografia infantil