Ao mesmo tempo que atualizou os princípios de aplicação da Inteligência Artificial, a Google viu o diretor executivo da DeepMind Demis Hassabis a publicar no blogue uma explicação detalhada sobre o novo foco destes. Na revisão, a Google retirou os textos nos quais se comprometia a não permitir o uso da tecnologia para causar o mal e onde se comprometia a não usar IA para vigilância, armas ou tecnologia para ferir pessoas.
Hassabis explica que os princípios incluem inovação, colaboração e desenvolvimento “responsável” da Inteligência Artificial, sem que assuma qualquer compromisso claro: “Há uma competição global pela liderança na IA dentro de um panorama geopolítico cada vez mais complexo. Acreditamos que as democracias devam liderar o desenvolvimento, guiadas por valores como liberdade, igualdade e respeito pelos direitos humanos. Também acreditamos que empresas, governos e organizações que partilham estes valores devem trabalhar para criar IA que protejam as pessoas, promovam crescimento global e suportem a segurança nacional”.
O The Verge lembra que Hassabis entrou na Google em 2014 quando esta adquiriu a DeepMind e, na altura, evitou que a tecnologia da startup pudesse ser usada por militares em operações de vigilância. Ouro ponto importante é que quando assumiu o compromisso de não desenvolver armas com IA, a Google já estava a colaborar com o Pentágono desde 2018 no Projeto Maven (uso de IA para analisar filmagens de drones) e com o governo israelita no Projeto Nimbus.
A atualização dos termos da IA agora coloca a Google em linha com o que fazem os principais rivais que permitem o uso de IA em algumas instâncias militares.