A Inteligência Artificial (IA) saiu do imaginário e dos filmes para passar, rapidamente, para a realidade do quotidiano. Ferramentas como o ChatGPT levantam preocupações sobre o possível papel da IA em fraudes ou roubo de identidade, criação de notícias falsas e, assim, espalhar desinformação, entre outras questões.
Mas há boas notícias. Um grupo de investigadores da Escola de Engenharia e Ciências Aplicadas da Universidade da Pensilvânia, EUA, está a analisar a capacidade de os cidadãos distinguirem um texto escrito pela IA e pelos humanos, para que depois se possa mitigar o risco de tomar um pelo outro.
“Mostrámos que as pessoas podem aprender e treinar para reconhecer textos gerados por máquinas”, diz Callison-Burch, autor do estudo agora publicado. “As pessoas começam com um certo conjunto de suposições sobre que tipo de erros uma máquina cometeria, mas essas suposições não são necessariamente corretas. Com o tempo, com exemplos suficientes e instruções explícitas, podemos aprender a identificar os tipos de erros que as máquinas estão a cometer atualmente.”
O estudo sustenta-se nos dados recolhidos no jogo texto real ou falso?, que pode também usar testar a sua destreza e aprender.

O teste consiste um conjunto de frases escritas, que o utilizador tem de classificar se foi uma máquina a escrever ou um humano. Caso acredite que seja um humano a escrever e estiver certo, passa para a próxima frase. Se errar, é pedido que selecione onde acredita estar o erro e recebe uma pontuação e uma explicação que o ajudará a identificar textos no futuro.
Os resultados do estudo mostram que os participantes obtiveram boas pontuações, fornecendo evidências de que o texto criado pela IA é, até certo ponto, detetável.