Desinformação, perda de emprego e até mesmo uma ameaça para a Humanidade: estes são alguns dos riscos identificados por Geoffrey Hinton com a aplicação e desenvolvimento das soluções atuais de Inteligência Artificial generativa. O especialista, que é responsável pela criação de algumas tecnologias fundamentais dos sistemas de IA que temos hoje, decidiu despedir-se do cargo que ocupava na Google para poder “falar livremente” sobre estes riscos.
“Basta olhar para como estava há cinco anos e para como está agora. É diferente e propagou-se. É assustador”, assume Hinton ao The New York Times. Este perito trabalha no segmento da Inteligência Artificial desde 1972, com investigações pioneiras e desenvolvimento de soluções que são a fundação dos modelos atuais de IA generativa.
Em 2012, Hinton e dois alunos seus, Ilya Sutskever e Alex Krishevsky, criaram uma rede neural que permitiu um avanço importantíssimo na criação de sistemas de visão computacional. Na prática, ensinaram os computadores a analisar milhares de fotografias e depois conseguirem reconhecer, só a partir desses dados, os objetos que faziam parte dessas imagens (como animais, carros ou plantas). A tecnologia inovadora deu origem a uma empresa, a DNNResearch, que foi vendida à Google, num leilão épico, em 2013. Um dos dois alunos, Ilya Sutskever, é hoje uma das figuras de proa na OpenAI, a empresa que está por trás do famoso ChatGPT.
Em 2018, Geoffrey Hinton venceu mesmo o Prémio Turing, considerado o Nobel da Computação, juntamente com Yoshua Bengio e Yann LeCun.
Agora, com a saída da Google, Hinton vai poder falar de forma livre e sem restrições sobre o que considera serem os perigos da IA. O especialista já afirmou que a feroz competição entre gigantes neste setor só poderá ser travada com regulamentação internacional. Hinton pediu ainda para uma maior colaboração entre cientistas, para impedir que a IA se torne incontrolável, noticia o ArsTechnica: “Não considero que [os investigadores] devam escalar mais isto até perceberem se a conseguem controlar”.
A criação de conteúdos falsos, como fotos, vídeos e textos, mas com aspeto real, poderá contribuir para disseminar bastante desinformação. Outro risco associado é a perda de postos de trabalho em cargos como assistentes pessoais, tradutores ou consultores que executam tarefas mais rotineiras.
A postura de Hinton agora tem valido também algumas críticas, nomeademente de Sasha Luccioni, da Hugging Face, que escreveu no Twitter: “Algumas pessoas estão a referir-se a isto como sendo: ‘olhem, a IA está a tornar-se tão perigosa que até os pioneiros estão a saltar fora’, mas para mim é mais: as pessoas que causaram o problema estão a sair agora”.
Hinton já clarificou depois que a saída da Google tem como objetivo alertar para os perigos da IA sem ter de se preocupar com o impacto das suas palavras na Google e que não saiu para poder criticar livremente o antigo empregador.