Desinformação criada pelo ChatGPT pode ser mais perigosa do que a humana

O instrumento de conversação entre humano e computador (chatbot) ChatGPT-3 e outras ferramentas de inteligência artificial generativa podem informar e desinformar os utilizadores de redes sociais mais eficazmente do que os humanos, segundo um estudo publicado quarta-feira pela Science Advances.

Notícia

© Shutterstock

Lusa
29/06/2023 07:16 ‧ 29/06/2023 por Lusa

Tech

Inteligência Artificial

Uma equipa liderada pela Universidade de Zurique usou a versão ChatGPT-3 para um estudo com 679 participantes, que revelou maior dificuldade em distinguirem tweets feitos por humanos dos gerados por chatbots.

Além disso, também tiveram problemas para identificar quais as mensagens geradas por IA eram precisas e quais eram imprecisas.

Desde o lançamento do ChatGPT, em novembro de 2022, o seu uso generalizado aumentou a preocupação com uma possível disseminação de desinformação online, especialmente em plataformas de redes sociais, lembram os autores do estudo.

Como estas ferramentas são recentes na esfera pública, a equipa decidiu se aprofundar em vários aspetos o seu uso.

Recrutaram 697 pessoas de língua inglesa dos Estados Unidos, Reino Unido, Canadá, Austrália e Irlanda, principalmente entre 26 e 76 anos, para o estudo.

A tarefa era avaliar tweets gerados por humanos e gerados pelo GPT-3 que continham informações precisas e imprecisas sobre tópicos como vacinas e autismo, tecnologia 5G, covid-19, mudança climática e evolução, que estão frequentemente sujeitos a equívocos do público.

Para cada tópico, os pesquisadores reuniram mensagens do Twitter feitas por humanos e instruíram o modelo GPT-3 a gerar outras, algumas das quais com informações corretas e outras imprecisas.

Os participantes do estudo tiveram que avaliar se as mensagens eram verdadeiras ou falsas e se foram criadas por um humano ou GPT-3.

Os resultados indicaram que mais frequentemente eram capazes de identificar desinformação gerada por humanos e a precisão dos tweets verdadeiros gerados pelo GPT-3. No entanto, também foram mais propensos a considerar a desinformação gerada pelo GPT-3 como precisa.

"As nossas descobertas levantam questões importantes sobre os possíveis usos e abusos do GPT-3 e outros geradores avançados de texto de IA e as implicações para a disseminação de informações na era digital", concluem os autores.

Leia Também: ChatGPT em tribunal por violação da privacidade e direitos de autor

Partilhe a notícia

Produto do ano 2024

Descarregue a nossa App gratuita

Oitavo ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.

* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com
App androidApp iOS

Recomendados para si

Leia também


Newsletter

Receba os principais destaques todos os dias no seu email.

Mais lidas