A ROOST (acrónimo em inglês para Ferramentas Robustas e Abertas de Segurança Online) quer desenvolver e disponibilizar tecnologias gratuitamente e de código aberto, assentes em Inteligência Artificial, que ajudem a identificar, analisar e denunciar material de abuso sexual de menores online. A iniciativa surge de uma parceria entre a Google, OpenAI, Roblox e Discord. Ainda não há muitos detalhes sobre as ferramentas de deteção, mas sabe-se que vão usar grandes modelos de Inteligência Artificial e unificar diferentes opções para lidar com o conteúdo ilegal.
Eric Schmidt, antigo diretor executivo da Google e cofundador desta iniciativa, conta que “começa com uma plataforma focada na proteção de crianças, mas a ROOST tem uma abordagem colaborativa, de código aberto, que vai ajudar a fomentar a inovação e tornar a infraestrutura essencial mais transparente, acessível e inclusiva com o objetivo de criar uma internet mais segura para todos”, cita o The Verge.
Os fundadores da ROOST contribuem com investimento financeiro e conhecimentos técnicos, estando estabelecidas parcerias com os criadores de modelos de IA fundacionais para criar práticas comuns de segurança. Parte do objetivo da parceria é também tornar as tecnologias que já existem mais acessíveis, combinar vários sistemas de deteção e denúncia numa solução unificada e que seja mais fácil de implementar.
A Discord traz para a mesa a plataforma de partilha de informação Lantern, na qual já colabora com a Meta e a Google. A Roblox pode contribuir com uma versão atualizada do modelo que já usa para detetar profanidade, racismo, bullying, sexting e outros conteúdos inapropriados em clipes de áudio. Ainda não se sabe como é que estas tecnologias vão coexistir com soluções já existentes como o PhotoDNA da Microsoft que analisa imagens em busca de conteúdo sexual.
A ROOST conta com 27 milhões de dólares para os próximos quatro anos e é apoiada por várias organizações filantrópicas dos EUA.