Segundo uma investigação da plataforma jornalística de fact-checking espanhola Maldita, a ferramenta de inteligência artificial (IA) chinesa DeepSeek recusa-se responder a questões que podem ser críticas ao regime chinês, como o massacre que aconteceu na Praça Tiananmen em 1989. Também não pode falar, como refere o próprio ‘chatbot’, sobre atividades ilegais, diagnósticos médicos ou de saúde e aconselhamento fiscal ou jurídico, nem “gerar conteúdo impróprio ou ofensivo, aceder a informação privadas, confidenciais ou pessoas, fazer previsões e aceder dados pessoais ou conversas dos utilizadores”.
As ferramentas de IA da Google e da Microsoft também têm assuntos “tabu” como os processos eleitorais.
Já o Grok, do X, respondeu às perguntas que os outros ‘chatbots’ evitaram. “O Grok não censurou nenhuma resposta e deu repostas detalhadas às perguntas mais sensíveis”, revela a Maldita, citada pela Lusa.
Segundo os especialistas ouvidos pela plataforma espanhola, “estas medidas permitem que as empresas cuidem da sua reputação e evitem problemas legais”, no entanto podem ter um grande impacto em matéria de liberdade de expressão e acesso à informação.
Os especialistas defendem que “praticamente todos os modelos têm algum nível de censura, especialmente aqueles que vêm de empresas privadas, cuja reputação depende do que os seus modelo podem dizer”, embora “os modelos ocidentais não tenham tantos tópicos censurados quanto alguns modelos chineses”.