Em entrevista à agência EFE, no âmbito da sua participação no Fórum Económico Mundial de Davos, Xing tenta acalmar as dúvidas que começam a surgir em torno da inteligência artificial, mas fala também da necessidade de uma regulamentação gradual desta tecnologia.
"Quando temos melhores ferramentas, tornamo-nos mais criativos, mais curiosos e essa parte não pode ser substituída pela máquina, por isso há sempre essa simbiose em que a máquina e o humano coexistem e se melhoram mutuamente", reflete Xing, que foi também o primeiro diretor do Centro de Aprendizagem Automática e Saúde da Universidade Carnegie Mellon (Estados Unidos), outro dos mais prestigiados centros de investigação em IA do mundo.
Na prática, isto significa, por exemplo, que a falta de uma determinada facilidade em matemática deixará de excluir um jovem do estudo das ciências se ele preencher essa lacuna com a inteligência artificial.
"Quando eu era estudante, precisava de saber calcular a raiz quadrada de um número. Era uma competência importante, mas agora ninguém precisa de saber isso e não nos desqualifica para fazer ciência. Agora, a criatividade e a curiosidade tornam-se o principal motor e as competências podem ser reforçadas pela tecnologia", afirma.
Para o académico, tudo isto significa que todos os programas de licenciatura, praticamente sem exceção, devem incluir a inteligência artificial no currículo, que em breve se tornará "a matemática da nova era, uma base fundamental da estrutura do conhecimento que abrirá o caminho para a aprendizagem de outras coisas".
Sobre o impacto da IA no trabalho e na aprendizagem, Xing afirma que se se tratar apenas de memorizar informação, um computador fá-lo-á melhor do que qualquer outra pessoa, o que, segundo ele, "é uma coisa boa, porque assim o cérebro fica livre para fazer outras coisas mais interessantes e criativas".
A Universidade de Inteligência Artificial Mohamed bin Zayed, que Xing dirige, está localizada em Abu Dhabi (Emirados Árabes Unidos) e tem sido uma das apostas do governo na sua vontade de investir no desenvolvimento de setores capazes de reduzir a sua dependência económica dos hidrocarbonetos.
Xing, que é também investigador, professor e empresário, afirma que as máquinas não vão substituir os seres humanos, mas dar-lhes-ão "maiores possibilidades de tomar decisões".
De facto, uma das suas últimas decisões foi a criação de duas novas faculdades dedicadas à Saúde Pública Digital e às Ciências da Decisão.
"As máquinas não nos podem substituir. Pensemos na razão pela qual vamos a um concerto e gostamos de ouvir um pianista. Podíamos pôr lá um robô e ele tocaria sem uma única nota errada, com perfeição absoluta, mas a pergunta que faço é o que sentiria o público?", questionou.
"Há muitas coisas em que os humanos oferecem um valor diferente das máquinas, como um chefe de cozinha, um companheiro, um artista, e o mais importante são as pessoas que fazem as perguntas (à inteligência artificial)", prossegue.
De acordo com o cientista, o maior risco em relação à IA é "a falta de compreensão" que existe em torno dela, pelo que uma prioridade é educar o público em geral sobre os seus benefícios e contrariar o medo que está a provocar em certas camadas da população.
"Diria que os sistemas de conversação, os grandes modelos de linguagem (LLM) ou o Chat GPT são bastante bons e as pessoas já encontram muitas aplicações interessantes, como escrever artigos, resumir coisas, mas noutras áreas, especialmente no domínio da IA, em aplicações para a ciência, para fazer aparelhos, para conduzir ou para tarefas domésticas, ainda estamos muito longe de poder utilizar a IA", explicou.
Sobre a regulamentação das novas tecnologias, o investigador considera que seria "impraticável e até contraproducente" regulamentar todo o processo de inteligência artificial, embora admita que é necessária uma regulamentação ética nas fases iniciais.
Para dar um exemplo, compara-o ao caso da indústria automóvel: "Regulamenta-se a produção de automóveis, mas na realidade começa-se por regulamentar as estradas e as regras de trânsito, depois sobe-se e verifica-se se há alguma coisa no processo de produção que possa causar riscos, portanto há uma sequência em vez de acontecer tudo ao mesmo tempo".
Leia Também: Alunos podem usar modelos de IA mas estes dão apenas "luzes" dos temas