Vídeos, áudios e texto gerado por Inteligência Artificial podem ser usados para manipular a informação pública e a OpenAI está a lançar uma ferramenta desenhada para detetar precisamente este conteúdo deepfake gerado pelo seu popular DALL-E.
A startup quer assim ajudar os investigadores a detetar conteúdo deepfake que tenha sido criado com recurso a este gerador de imagens, mas reconhece que esta ferramenta é apenas uma pequena parte do que tem de ser feito para combater este flagelo nos próximos tempos.
O detetor de deepfakes vai ser partilhado, nesta fase, com um pequeno grupo de investigadores ligados à área da desinformação, para que o possam testar em ambiente real e ajudar a melhorá-lo. A OpenAI afirma que o detetor consegue identificar corretamente 98,8% das imagens criadas pelo DALL-E 3, a versão mais recente do gerador, mas a empresa admite que o desempenho não é tão bom para imagens geradas por outras soluções como o Midjourney ou o Stability.
Segundo o New York Times, a OpenAI vai juntar-se, com a Google e a Meta, por exemplo, ao comité C2PA, de Coalition for Content Provenance and Authenticity, num esforço de criação de credenciais para os conteúdos digitais, como se fosse uma espécie de ‘informação nutricional’ sobre os conteúdos, mostrando como e onde foram criados e por quem.
Com o aumento de popularidade das soluções de IA, as empresas que as criam estão a ser cada vez mais pressionadas no sentido de evitarem o mau uso e de ajudarem a identificar a informação enganadora e maliciosa.