A Europa decidiu apertar as regras para a Inteligência Artificial (IA) e Portugal tenta agora recuperar o atraso. Na União Europeia, o grande motor desta mudança é o AI Act, aprovado em 2024, a nova lei que define como a IA pode ser usada. Mas qual poderá ser o impacto desta medida?
Trata-se da primeira lei do género no mundo e organiza a tecnologia por níveis de risco. O que for considerado perigoso, como manipulação de pessoas ou pontuações sociais de cidadãos (social scoring), passa a ser proibido. O que tiver impacto sério na vida das pessoas, como sistemas usados na saúde, segurança ou decisões de contratação em processos de recrutamento, terá regras apertadas de segurança, supervisão humana e transparência. Tecnologias simples, como chatbots ou jogos, apenas precisam de informar claramente que estão a usar IA.
As regras estão a entrar em vigor de forma faseada e a Europa está a criar espaços de teste supervisionados, onde empresas, especialmente pequenas e médias, podem experimentar novas soluções de IA de forma segura, recebendo orientação das autoridades antes de as lançar no mercado. São ambientes controlados em que o objetivo é permitir inovação sem risco imediato de multas ou sanções por incumprimento, desde que cumpram certas regras básicas de transparência e segurança durante o teste.
Nos diversos países europeus, a implementação está a avançar a ritmos diferentes. Cada Estado-Membro tem de escolher uma autoridade responsável para vigiar e orientar o uso da IA, mas, até meados de 2025, apenas cerca de sete países tinham concluído esta escolha. França, Alemanha e Itália avançaram mais cedo, criando exemplos concretos: a Comissão Nacional de Informática e Liberdades (CNIL), em França, já publica guias de transparência e avaliação de risco em sistemas de alto risco, como recrutamento e reconhecimento facial; na Alemanha, alguns estados auditam sistemas de IA em saúde e infraestruturas críticas; já a Itália lançou orientações para IA no setor público e em serviços essenciais, com monitorização de impacto em direitos fundamentais. No entanto, outros países ficaram para trás, criando um mapa europeu desigual em preparação e supervisão.
No caso português, a decisão chegou tarde. Só em setembro de 2025 é que Portugal confirmou que será a ANACOM a liderar a supervisão da IA, em articulação com várias entidades setoriais ligadas à saúde, segurança, direitos dos consumidores e outras áreas sensíveis. O país falhou o prazo inicial dado por Bruxelas e agora precisa de recuperar tempo. A ANACOM terá de ganhar capacidade técnica rapidamente, esclarecer regras, apoiar empresas e informar os cidadãos. Portugal continua com uma estratégia nacional de IA menos desenvolvida do que a de outros países europeus, o que aumenta a urgência de agir.
Para consumidores e empresas, o impacto será visível. A lei pretende proteger pessoas e reforçar a confiança. Isto traduz-se em mais transparência quando interagimos com sistemas automáticos, limites claros ao uso de tecnologias que possam espiar, manipular ou discriminar e responsabilidades mais definidas quando algo corre mal. Serviços essenciais como saúde, transportes ou educação passarão a ter sistemas de IA mais controlados e auditados. Para as empresas, haverá custos e trabalho adicional, mas também maior segurança jurídica. Quem se adaptar cedo ganha vantagem num mercado europeu que valoriza confiança e segurança técnica. A maior ameaça para Portugal é transformar estas regras em burocracia pesada que atrasa o País em vez de o fazer avançar.
A Europa lidera a corrida global à regulação da IA, e Portugal já está a alinhar, embora com atraso. O desafio agora é fazer a máquina funcionar depressa e bem. Se conseguir, estas novas regras podem aumentar a confiança dos consumidores, impulsionar empresas e pôr o país numa posição mais competitiva. Num setor que evolui à velocidade da própria tecnologia, ficar para trás não é apenas um risco. É uma escolha.
Os textos nesta secção refletem a opinião pessoal dos autores. Não representam a VISÃO nem espelham o seu posicionamento editorial.