De acordo com o estudo, "ao contrário das formas tradicionais de desinformação, que muitas vezes se baseiam em narrativas em texto, a VMD aproveita o poder combinando de texto, imagens, vídeo e áudio para criar um conteúdo atraente e muitas vezes altamente enganador".
O facto de este tipo de desinformação conjugar vários formatos resulta num apelo a múltiplos sentidos que pode aumentar a probabilidade de envolvimento do público, "tornando a desinformação mais persuasiva e mais difícil de refutar".
"O impacto do VMD é particularmente pronunciado em áreas críticas como a política, a saúde pública, segurança, defesa e ação climática", sendo que, no caso da política, por exemplo, "os 'deepfakes' e as imagens manipuladas têm sido utilizadas para deturpar líderes, influenciar eleições e alimentar a desconfiança do público".
Segundo o estudo, a propagação deste tipo de desinformação assenta em vários fatores, como a difusão acelerada através das plataformas digitais ou os avanços cada vez mais sofisticados da inteligência artificial (IA).
"As redes sociais e as plataformas de partilha de conteúdos tornaram-se canais primários tanto para a informação como para a desinformação. O grande volume de conteúdo digital -- combinado com a amplificação algorítmica -- permite que narrativas falsas ou enganosas se espalhem rapidamente."
Além disso, a crescente sofisticação de ferramentas de IA (como os 'deepfakes') tornou muito mais fácil a criação de falsificações altamente realistas, sendo que este tipo de ferramentas está cada vez mais ao alcance de qualquer pessoa, sem exigir conhecimentos sobre o assunto.
O estudo destaca ainda lacunas na deteção de desinformação e nas suas contramedidas, pois embora existam iniciativas de verificação de factos e ferramentas de deteção baseadas em IA, "estas lutam para acompanhar a rápida evolução da VMD".
Assim, a resposta a estes desafios "exige uma ação urgente e coordenada que abranja a inovação tecnológica, medidas regulamentares, iniciativas educativas e colaboração da indústria".
De forma a combater este fenómeno, o estudo reforça a necessidade de aplicar normas de certificação para verificar a autenticidade dos conteúdos audiovisuais face aos riscos associados à VMD.
"Incentivar práticas de inteligência de fonte aberta (OSINT) no jornalismo", bem como "reforçar a literacia mediática para aumentar a resiliência do público contra a VMD", são também estratégias defendidas no estudo.
A utilização de IA como ferramenta de deteção de desinformação também pode ser útil, uma vez que processa uma grande quantidade de dados num curto espaço de tempo, embora "as soluções baseadas em IA enfrentem desafios", relacionados sobretudo com a precisão da informação.
Leia Também: Estudo. Homens portugueses só desabafam quando chegam a ponto de rutura