África não dispõe de meios para lidar com ameaças da IA, diz investigador

O investigador norte-americano Nathaniel Allen afirmou à Lusa que a Inteligência artificial (IA) "está a desenvolver-se tão rapidamente que os governos africanos não dispõem - nem ninguém dispõe -- de quadros legislativos para lidar com algumas das suas ameaças potenciais".

Notícia

© Shutterstock

Lusa
19/03/2024 09:55 ‧ 19/03/2024 por Lusa

Tech

Inteligência Artificial

"Quando temos algoritmos orientados por IA que conseguem ultrapassar sistemas de verificação, e criar falsificações profundas -- "deep fakes" - convincentes de líderes mundiais, é difícil saber como responder e, normalmente, as respostas demoram tempo", acrescentou Nate Allen, investigador e professor de Estudos de Segurança no Africa Center for Strategic Studies (ACSS), em Washington.

"Muitos governos africanos vão enfrentar grandes desafios em matéria de segurança e de aplicação de quaisquer quadros reguladores, que proporcionem uma base ética comum pela qual os governos, as empresas e os cidadãos possam ser responsabilizados", disse.

O que acontece com a IA, ilustrou ainda, está neste momento a ocorrer com a tentativa de tipificação da cibercriminalidade a nível mundial.

"Não se pode aplicar uma lei se não se sabe ao que se aplica, e este é o grande problema do cibercrime, em que o mundo não consegue chegar a acordo sobre o que o constitui e há grandes disputas entre regimes autoritários e democráticos sobre um tratado global que o impeça, globalmente entendido o cibercrime enquanto tal", explicou o investigador do ACSS.

Por outro lado, sublinhou, o simples facto de existir uma lei "pode fazer uma enorme diferença", porém, "tão ou mais importante do que ter diretrizes, é que os países considerem o impacto da IA nas leis que já estão em vigor".

Por exemplo, perguntou o especialista, "o que é que as 'deep fakes' impulsionadas pela IA significam para as leis sobre fraude e falsificação de identidade e para as leis sobre difamação? E como é que essas leis podem ter de ser atualizadas no sentido de tomarem em conta o potencial de utilização da IA para fins de fraude".

"Isso é tão importante, se não mais importante, do que ter em vigor algum tipo de normativo abrangente sobre a IA", concluiu.

Na elaboração de políticas de utilização da IA em África, disse Allen, "o foco tem estado um pouco mais na forma como é incorporada essa tecnologia para vários fins relacionados com o desenvolvimento e não se tem centrado suficientemente nos seus danos potenciais".

Normalmente, são os ministérios da comunicação e outros do género que se ocupam do problema, mas em contrapartida, "não há quase nenhum esforço de reflexão sobre as implicações militares e de segurança para os países africanos, no que diz respeito à IA, apesar de a IA já ter sido incorporada há algum tempo em algumas tecnologias militares", disse.

"Sempre que um drone utiliza - e os drones estão a proliferar -- a IA nos sistemas de reconhecimento de imagem, desde a leitura de matrículas a dados biométricos" há questões éticas, mas não apenas, que se colocam, disse Allen, chamando a atenção para o facto de os drones com incorporação de IA estarem a "ser cada vez mais utilizados na definição de alvos" militares.

"Segundo consta, a primeira arma autónoma, com incorporação de IA, foi utilizada em solo africano em 2020, durante o conflito na Líbia. Além de adotarem a tecnologia, não tenho conhecimento de nenhum Governo africano que esteja realmente a pensar em como utilizar e empregar eticamente este tipo de avanços, o que é um grande problema", afirmou.

Nate Allen considerou que a principal forma como a IA está a ter um "impacto estratégico" em África é no modo como "molda o conteúdo com que as pessoas interagem online".

"Esta é uma preocupação importante, porque, apesar de haver alguns países em África onde apenas 20% da população tem acesso à Internet, as conversas na Internet influenciam o que se passa 'offline' ainda que as pessoas não tenham consciência disso", disse.

A questão que se coloca, sublinha Nate Allen, é: "E se esse conteúdo está a ser influenciado por um ator estrangeiro que está a espalhar desinformação? Ou por um algoritmo concebido por uma empresa de redes sociais que visa otimizar o envolvimento em vez de estar atenta ao facto ser veículo de um discurso político baseado em factos".

"As consequências são problemáticas, desestabilizadoras e, em particular, os países onde não há muita capacidade e experiência no Estado para lidar com isto, vão ter problemas", defendeu o investigador do ACSS.

A tecnologia progride à frente dos reguladores e "estará sempre à frente da capacidade da maioria deles de compreender, quanto mais de fazer alguma coisa", disse Allen.

Mas, para dar resposta a este tipo de questões, acrescentou o investigador, "não é sequer necessário criar uma regulamentação sólida, basta ter consciência de que existe um problema em primeiro lugar", em África, como em qualquer parte do mundo.

Leia Também: CEO da OpenAI esperava "mais empatia" de Elon Musk

Partilhe a notícia

Produto do ano 2024

Descarregue a nossa App gratuita

Oitavo ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.

* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com
App androidApp iOS

Recomendados para si

Leia também


Newsletter

Receba os principais destaques todos os dias no seu email.

Mais lidas