"O uso de modelos de inteligência artificial [IA] generativa como o ChatGPT representam diversos tipos de riscos à cibersegurança das empresas devido à sua capacidade de analisar uma elevada quantidade de dados e criar conteúdo convincente e autêntico", alerta o responsável na Noesis para as operações de tecnologias de informação, 'cloud' e segurança ('IT operations, cloud & security associate director').
José Gomes destaca "dois principais riscos", sendo o primeiro "um risco para os utilizadores e sistemas das organizações".
O ChatGPT, "se usado de forma perniciosa, pode ser um importante aliado para os 'hackers', ajudando-os a criar mensagens de 'phishing' [para 'pescar' dados sensíveis] cada vez mais sofisticadas e altamente convincentes".
Ora, "a possibilidade de agregar informação dispersa sobre a organização ou até sobre os seus colaboradores pode contribuir para criar mensagens mais completas e mais passíveis de 'enganar' os colaboradores de uma determinada organização, conseguindo assim corromper os sistemas e obter acesso à infraestrutura informática e rede da organização", alerta o responsável da tecnológica Noesis.
Alerta ainda que "estes modelos podem ser usados para gerar conteúdo malicioso, contornar filtros de segurança e explorar vulnerabilidades, resultando em potenciais violações de segurança e ataques mais bem-sucedidos".
Já numa outra perspetiva, "a massificação do uso destas ferramentas coloca um outro desafio às organizações, relacionado com a forma como os utilizadores utilizam estas ferramentas e que informação disponibilizam ao ChatGPT".
Isto porque a "possibilidade de um colaborador divulgar ou disponibilizar informação sensível ao ChatGPT sobre a sua organização, enquanto utiliza" o modelo de IA generativa da OpenAI "no seu dia a dia é enorme e pode provocar enormes danos para as organizações", aponta.
De acordo com José Gomes, "há medidas que devem ser adotadas para mitigar os riscos".
Primeiro, "é crucial implementar programas abrangentes de consciencialização e formação dos colaboradores".
O responsável da Noesis defende ser "fundamental que toda a estrutura humana de uma empresa esteja consciente dos perigos potenciais dos modelos de IA generativa".
Além disso, é fundamental estabelecer diretrizes claras e políticas de segurança específicas para lidar com conteúdo gerado por IA" e "estabelecer uma política clara de 'governance' e de utilização destas ferramentas e utilizar versões passíveis de ser controladas e auditadas pelos sistemas de informação, ao invés do uso generalizado de soluções 'open-source' e disponíveis na Internet".
Além disso, aponta que "o reforço das práticas e soluções de cibersegurança, como o uso de tecnologias de proteção e de deteção avançadas pode ajudar a identificar e bloquear conteúdo malicioso", bem como a avaliação regular do "estado dos seus sistemas e soluções de cibersegurança, bem como colaborar com especialistas em segurança".
Questionado como vê a adoção de modelos de IA generativos em Portugal, José Gomes refere que "tem seguido uma trajetória de crescimento gradual, comparável à de outros países europeus".
"Embora Portugal esteja a fazer progressos na integração destes modelos em várias indústrias, poderá estar ainda um pouco atrás das nações mais desenvolvidas em termos de implementação abrangente", aponta.
Por exemplo, países como o Reino Unido, a Alemanha e a França "estão a liderar a adoção, mas em Portugal nota-se um interesse crescente e um investimento em aplicações de IA generativa".
"Depois do 'boom' global e o uso indiscriminado do ChatGPT, nota-se nas empresas uma preocupação crescente não só com a segurança, mas também com a forma como é possível integrar estas ferramentas nos seus sistemas e tirar verdadeiro partido das mesmas, nas suas operações", considera José Gomes, referindo que "há uma margem considerável para melhorias e expansão, especialmente em setores como a saúde, financeiro ou indústria", só para dar alguns exemplos.
Leia Também: Grupo chinês Baidu lança IA equivalente a ChatGPT