A Google anunciou os chips Ironwood, a sétima geração de TPU destinados a Inteligência Artificial. Segundo a Google Cloud, este acelerador consegue entregar 24 vezes mais poder de computação do que o atual supercomputador mais rápido, quando construído em escala. Neste desenvolvimento, a gigante teve uma estratégia diferente, focando-o particularmente na inferência, o processo no qual os modelos de IA fazem previsões ou geram respostas.
Amin Vahdat, vice-presidente da Google e responsável pelos sistemas de aprendizagem automática e Cloud AI, conta que “o Ironwood está construído para suportar a próxima fase de IA generativa e os seus tremendos requisitos para computação e comunicação (…) Isto é o que chamamos de ‘era da inferência’, na qual os agentes de IA vão proativamente obter e gerar dados para colaborativamente entregar análises e respostas e não apenas dados”, cita o VentureBeat.
Este novo componente, quando escalado a 9216 chips por módulo, é capaz de entregar 42,5 exaflops de computação (contra os 1,7 exaflops conseguidos pelo El Capitan, o supercomputador mais rápido da atualidade). Cada chip Ironwood é capaz de atingir um pico de computação de 4614 teraflops, tem 192 GB de HBM (memória de elevada largura de banda) e que consegue atingir uma largura de banda de 7,2 terabits por segundo (mais 4,5 vezes do que a geração anterior, conhecida como Trillium).
Numa altura em que os consumos energéticos estão na ordem do dia, também há boas notícias: os Ironwood conseguem duas vezes mais performance por watt do que a Trillium e são cerca de 30 vezes mais eficientes do que os primeiros TPU da Google, lançados em 2018.