Está a ser elaborado um código de conduta que ajuda os governos a mitigar os riscos e potenciais maus usos da Inteligência Artificial. Documento vai ser validado pelos países do G7 hoje, segunda-feira, e deve ser apresentado como voluntário. Os líderes do G7 (Canadá, França, Alemanha, Itália, Japão, Reino Unido e EUA) juntaram-se à União Europeia e arrancaram o processo de elaboração em maio, a partir de um fórum que ficou conhecido como processo de IA Hiroshima.
O documento, a que a Reuters já teve acesso, é composto por 11 pontos que promovem uma IA segura e de confiança em todo o mundo, fornecendo ainda linhas de ação voluntárias para as organizações, mesmo as que estão a trabalhar nos modelos mais avançados e de IA generativa.
O código incita as empresas a tomar medidas apropriadas para identificar, avaliar e mitigar riscos em todo o ciclo de vida da IA, bem como para endereçar incidentes e padrões de má utilização. As empresas são ainda convidadas a publicar relatórios públicos nas suas capacidades, limitações e o uso e mau uso de sistemas de IA, além de investirem em controlos de segurança robustos.
A responsável digital da Comissão Europeia Vera Jourova descreveu, em Quioto, que o Código de Conduta é uma base forte para garantir a segurança e que irá servir de ponte enquanto a regulamentação não é colocada em prática.