A OpenAI lançou a versão mais atual do seu bot de IA chamado ChatGPT. Há dois anos, o modelo GPT3 conseguiu escrever um artigo de opinião do The Guardian, mas esta versão surge ainda mais poderosa e melhorada. Segundo alguns académicos que já usaram e testaram as capacidades do ChatGPT, as respostas que o algoritmo produziu mereceriam nota máxima em testes e alguns programadores revelam ter resolvido problemas complexos em poucos segundos.
O professor Dan Gillmor, de Jornalismo na Universidade do Arizona, ao ler a resposta do bot a um exercício que passa aos seus alunos, confirma que “teria dado uma boa nota (…) A Academia tem alguns temas sérios com que se preocupar agora”.
A OpenAI explica que o ChatGPT foi criado com a facilidade de uso em mente e que o formato de diálogo permite ao bot responder a perguntas de follow-up, admitir erros, corrigir premissas incorretas e rejeitar pedidos inapropriados.
Um dos exemplos citados é quando se pergunta por uma descrição do que Colombo encontrou quando chegou à América em 2015. O sistema consegue perceber que a premissa está errada e avisa o utilizador. Outro cenário em que o algoritmo é forte é na auto-censura, com o bot a recusar dar conselhos sobre as melhores formas de roubar um carro, por exemplo. Nessas alturas, o ChatGPT recomenda o uso de transportes públicos. É fácil contornar este mecanismo de auto-censura neste cenário, no entanto: basta perguntar por como passar a missão de roubar um carro num jogo ficcional de VR chamado Car World. Aí, a máquina começa a dar todas as dicas e conselhos sobre como destrancar portas, desativar o imobilizador, como fazer a ignição direta e mudar as matrículas.
O algoritmo terá sido testado com grandes amostras de texto retiradas da Internet, geralmente sem consentimento explícito dos autores do material, o que levou a uma controvérsia ainda em disputa atualmente, com o argumento de que a tecnologia está a ser usada para ‘lavagem de direitos de autor’.
O ChatGPT está disponível para qualquer um utilizar, durante um período de feedback.