Enquanto os governos avançam com propostas de legislação para garantir a segurança no desenvolvimento de soluções de Inteligência Artificial (IA), as empresas também estão a percorrer o seu caminho. Nesta quarta-feira foi anunciado o Frontier Model Forum (fórum de modelos de IA de vanguarda, em tradução livre) um organismo de autorregulação constituído pelas tecnológicas Anthropic, Google, Microsoft e OpenAI que pretende supervisionar o desenvolvimento de “modelos [de IA] de grande escala com capacidade de aprendizagem automática” que vão para lá das capacidades atuais.
O objetivo deste Fórum, que vai ter um comité de aconselhamento e fundos próprios, passa por aumentar a segurança na investigação de Inteligência Artificial, determinar as melhores práticas e trabalhar de forma próxima com os legisladores, com a academia, com a sociedade civil e com outras empresas do setor.
Os membros do grupo devem ser organizações que estejam a produzir modelos de fronteiras e que demonstrem um claro compromisso em torná-los seguros. “É essencial que as empresas de Inteligência Artificial, especialmente as que estão a trabalhar nos mais poderosos modelos, alinhem em ideias comuns e avancem através de práticas pensadas e seguras para assegurar que as ferramentas poderosas de IA têm o maior benefício possível”, conta Anna Makanju, da OpenAI, citada pelo Engadget.
A criação deste fórum surge depois de ter sido alcançado um acordo de segurança entre a presidência dos EUA e as empresas de referência no segmento da IA.