Em meados de 2020, surgiram notícias de que as autoridades estavam a debater-se com um grande volume de denúncias e de casos de abuso sexual de menores online. Nos últimos tempos, foram sendo anunciadas várias detenções e operações em curso. Agora sabe-se que os investigadores e grupos de defesa das crianças solicitaram o uso de conteúdo deepfake (criado artificialmente, mas que é verosímil) para produzir conteúdos de pornografia infantil. O objetivo é que as imagens sejam usadas em investigações para atrair os pedófilos e detê-los.
As autoridades pretendiam usar este material, sublinhe-se, gerado por sistemas de inteligência artificial, para poderem infiltrar-se nos circuitos dos pedófilos online na darkweb. Muitos destes grupos exigem imagens explícitas de abusos infantis para admitir novos membros, explica o The Next Web.
O debate sobre a utilização de deepfakes recaiu sobre a questão ética. É ilegal para os investigadores disponibilizarem imagens reais, pelo que a opção pedida foi a utilização de imagens artificiais. A nova legislação aprovada permite também a detenção e acusação de pessoas que tentem assediar pais ou investigadores à paisana, e que os abusadores acreditam ser menores.
O pedido foi recebido com alguma oposição, com Stephan Thomae, o líder do grupo parlamentar alemão Free Democrats, a dizer que o “objetivo deve ser na verdade eliminar o material de pornografia infantil online e não enriquecê-lo com material gerado por computadores”. Não se sabe se as autoridades desenvolveram também um método para marcar e monitorizar as imagens usadas para as conseguir apagar depois.