Nos últimos dias, o debate sobre inteligência artificial (IA) e proteção infantil ganhou novo fôlego. Um relatório da organização Common Sense Media classificou o Gemini, um chatbot da Google que usa IA, como tecnologia de “alto risco” para menores, apontando a ausência de filtros eficazes e mecanismos de verificação de idade, apesar de a Google assegurar uma “experiência para menores de 13 anos” e uma “experiência para adolescentes”, especialmente desenhadas para os utilizadores mais novos.
Todavia, serão as medidas voluntárias das empresas suficientes para proteger os menores? Como compatibilizar essa proteção com direitos fundamentais como a privacidade e a liberdade digital?
Filtros e controlos parentais são, seguramente, sinais positivos, sobretudo quando tal vem da iniciativa das próprias empresas que disponibilizam este género de soluções. Assim, estas formas de controlo parental permitem aos pais acompanhar e, de alguma forma, “controlar” a utilização deste tipo de ferramentas de IA, reduzindo o risco de exposição a conteúdos nocivos.
No entanto, confiar apenas na boa vontade das empresas tecnológicas é insuficiente, até porque estas medidas de segurança variam de plataforma para plataforma e nem sempre funcionam como prometido.
É certo que já existe legislação recente da UE que impõe regras rigorosas de segurança e gestão de riscos para serviços digitais e setores críticos. Contudo, tais diplomas não abordam de forma direta a proteção infantil, nem impõem mecanismos específicos como filtros etários ou contas supervisionadas.
Assim, sem normas claras e fiscalização eficaz, cada empresa acabará por definir os seus próprios critérios, deixando pais e educadores sem referências claras.
Quanto à compatibilização entre a proteção e os direitos fundamentais como a privacidade e a liberdade digital dos menores, é preciso ter presente que proteger os menores não pode significar isolá-los do mundo digital. O desafio está em evitar que a proteção se transforme num controlo excessivo, restringindo direitos fundamentais como a privacidade e a liberdade de expressão.
As medidas devem ser proporcionais à idade e maturidade do menor, com especial atenção à recolha de dados pessoais. Assim, quanto menos informação pessoal for tratada, menor será o risco futuro. A transparência também é crucial, nomeadamente através da explicação simples e clara de como funcionam os filtros, que dados são recolhidos e como podem os pais e os jovens intervir em caso de acontecer uma falha.
A proteção infantil na era da IA exige responsabilidade partilhada entre empresas, governos, pais e sociedade civil. As medidas voluntárias são importantes, mas não substituem a regulação nem a educação digital.
A pergunta que impera é: qual a responsabilidade civil ou criminal das empresas se os filtros falharem e um menor for exposto a riscos?
A responsabilidade civil das empresas pelos danos causados com a utilização da IA está expressamente prevista, contudo, existem dúvidas quanto à responsabilidade penal, nos casos em que não estejam implementados filtros adequados. É certo que os filtros podem evitar a reprodução de conteúdos programáticos protegidos ou falsos, mas também, a produção de textos difamatórios, discriminatórios ou que incitam ao ódio.
Torna-se necessário, porém, encontrarmos o equilíbrio certo, criando um espaço digital seguro e livre para todos, mas responsável!
*Augusto Almeida Correia, associado coordenador de Propriedade Intelectual e Privacidade, e Filipa Duarte Gonçalves, associada sénior de Penal e Contraordenacional da PRA – Raposo, Sá Miranda & Associados