Uma medida de segurança implementada pela OpenAI no ChatGPT resultou no bloqueio de mais de 250 mil pedidos feitos pelos utilizadores para gerar imagens deepfake de Joe Biden, Donald Trump, Kamala Harris, JD Vance e Tim Waltz. No período eleitoral dos EUA, cada vez mais pessoas viraram-se para o DALL-E para tentar obter imagens forjadas com estes políticos, mas a mitigação da OpenAI resultou e bloqueou eficazmente estes pedidos.
A empresa afirma que esteve a preparar-se para o período eleitoral desde o início do ano e desenhou a estratégia para evitar que as ferramentas fossem usadas para espalhar desinformação. A maior parte das questões relacionadas com o voto foi redirecionada para sites oficiais, como o CanIVote.org e, depois das eleições, para fontes de confiança como a Reuters, Associated Press ou outras. No mês antes das eleições, o chatbot gerou mais de um milhão de respostas relacionadas com o ato eleitoral e mais de dois milhões de respostas no dia do voto e no dia seguinte, noticia o Engadget.
Apesar dos esforços da OpenAI, a existência de muitos outros geradores de imagens não tão bem protegidos fez com que fossem criadas várias deepfakes que foram colocadas em circulação, ilustrando os candidatos de forma propositadamente enganadora.