Em fóruns internos da Google, um conjunto de trabalhadores criticou de forma veemente o chatbot Bard, que a empresa está a desenvolver em resposta ao ChatGPT. De acordo com a Bloomberg, que teve acesso a capturas de ecrã destas mensagens, os funcionários relatam que o Bard fornece conselhos perigosos, como instruções para aterrar aviões ou fazer mergulho. Numa outra mensagem, um funcionário diz que o Bard é um “mentiroso patológico”.
Outro funcionário da tecnológica escreveu que o Bard “é pior que inútil: por favor, não o lancem”, enquanto outro escreve que a Google está a “desprezar os resultados de uma avaliação de risco” em que uma equipa interna de segurança recomendava precisamente que o sistema não está pronto para lançamento. Apesar de todas estas críticas e recomendações, a Google acabou por lançar mesmo o bot em modo experimental no mês passado.
A Google despediu, em 2020 e 2021, dois investigadores que assinaram um trabalho onde concluíam que há vulnerabilidades em sistemas de linguagem de IA que suportam sistemas como o Bard. A gigante tecnológica, muitas vezes acusada de dar prioridade ao negócio, em vez de se focar na ética e na segurança, dos produtos. Um dos trabalhadores citados pela Bloomberg chega mesmo a escrever que “o gigante de pesquisas outrora de confiança está a fornecer informação de baixa qualidade para se manter na corrida com os rivais, enquanto dá menos prioridade aos seus compromissos éticos”.
Por outro lado, há especialistas que defendem o contrário: que são necessários testes públicos e abertos para se conseguir desenvolver e garantir a segurança deste tipo de sistemas.
Brian Gabriel, porta-voz da Google, afirmou que “estamos a investir continuamente nas equipas de trabalho para aplicarem os nossos Princípios de IA à nossa tecnologia”.