A OpenAI tornou público um documento no qual revela o ‘Model Spec’, conjunto de orientações que detalham como o ChatGPT se deve comportar e responder aos pedidos dos utilizadores. É notória uma mudança nas políticas de conteúdo do ChatGPT, havendo um alívio que permite que conteúdos sensíveis, como eróticos ou violentos/sangrentos, possam ser gerados pelo assistente “em contextos apropriados” e sem respostas com avisos de proibição de conteúdos explícitos.
O documento está a ser preparado desde maio de 2024, quando a OpenAI falou pela primeira vez da exploração de “como podemos, de forma responsável, fornecer a capacidade de gerar conteúdo NSFW [sigla em inglês para não indicado para ambiente de trabalho] em contextos de idade apropriados através da API e do ChatGPT”. Agora, lemos que “o assistente não deve gerar representações eróticas de atividades sexuais ilegais ou não consensuais, ou conteúdos sangrentos extremos, exceto em contextos científicos, históricos, noticiosos, criativos ou outros onde conteúdo sensível é apropriado”. O documento detalha ainda que esta novidade “inclui representações em texto, áudio (por exemplo, barulhos eróticos ou visceralmente violentos) ou conteúdos visuais”, cita o ArsTechnica.
Já há relatos de utilizadores no Reddit que contam que alguns filtros de conteúdos do ChatGPT parecem, efetivamente, ter sido relaxados, sendo possível gerar conteúdos sexuais sem os típicos alertas do assistente.
Com esta mudança, a OpenAI está a afastar-se do que estava a ser apelidado de ‘paternalismo’ do ChatGPT e no qual era acusada de querer saber o que é melhor para os utilizadores. Estas regras estavam a impedir o uso da solução inteligente para, por exemplo, analisar cenas de crime descritas pelas autoridades, avaliar certos tipos de histórias e documentos legais que possam incluir conteúdo violento e sexual, e até mesmo textos médicos.
A OpenAI descreve que, com o Model Spec, o ChatGPT pode agora ser usado em ‘Modo Adulto’, desde que as políticas de utilização da empresa sejam respeitadas e respeitando “claramente a linha contra usos potencialmente negativos como deepfakes sexuais ou pornografia de vingança”.