Investigadores da Universidade da Califórnia e do The Washington Post tentaram calcular as necessidades de recursos do ChatGPT para realizar o volume de tarefas que está a ser pedido pelos utilizadores dos EUA, começando pelos pedidos mais básicos. Por exemplo, para escrever um e-mail de cem palavras, o assistente da OpenAI consome água e o volume varia de acordo com o estado em que o utilizador se encontre e a localização do centro de dados mais próximo.
O estudo mostra que um utilizador do Texas ‘gasta’ 235 mililitros de água quando pede um e-mail de cem palavras ao chatbot, enquanto em Washington esse uso sobe para 1408 mililitros. A ocupação cada vez mais densa dos centros de dados para fazer face ao crescente uso de Inteligência Artificial generativa faz com que seja necessário mudar para sistemas de arrefecimento líquidos que bombeiam grandes quantidades de água para baixar as temperaturas.
Também os requisitos de eletricidade do ChatGPT devem ser tidos em conta. Para escrever o tal e-mail, o assistente precisa de energia suficiente para alimentar mais de 12 lâmpadas LED durante uma hora. Os investigadores calcularam que se um décimo da população dos EUA usasse o ChatGPT para escrever um e-mail por semana durante um ano, o processo exigiria a mesma quantidade de energia necessária para alimentar 670 mil casas durante 20 dias, noticia o Digital Trends.
O grupo Meta, por exemplo, necessitou de 22 milhões de litros de água para treinar os modelos Llama 3.1 mais recentes. Os centros de dados da Google no estado do Oregon consomem um quarto de toda a água disponível na cidade. O supercluster Memphis da xAI está a consumir 150 MW de eletricidade (suficiente para 30 mil casas). Assim, é fácil perceber que o desafio das necessidades energéticas da Inteligência Artificial ainda deve piorar nos próximos tempos, antes de começar a ter uma trajetória positiva.