Tem sido muito, nos últimos tempos, o frenesim em torno do ChatGPT, um modelo de linguagem ou um quasi-bot de conversação assente num sistema de inteligência artificial generativa. De acordo com um Tweet publicado por um dos seus fundadores, esta ferramenta logrou a surpreendente adesão de 1 milhão de utilizadores logo após o seu lançamento, um marco que a Meta (antes, Facebook) demorou 10 meses a atingir e que a empresa de streaming Netflix só alcançou decorridos três anos.
O entusiasmo é facilmente explicável… É que ao contrário de formas mais tradicionais de Inteligência Artificial (‘IA’), então “reduzidas” ao reconhecimento e classificação de padrões com base em conteúdos “pré-existentes” ou à automatização de processos, aquilo que caracteriza o ChatGPT (e outros da mesma “família”) é a capacidade de – com base em dados absolutamente colossais (petabytes de informação oriunda de redes sociais, artigos publicados na Internet e outras fontes) – replicar interações “quasi-humanas”, gerando (novos) conteúdos e, em particular, texto (sem prejuízo da possibilidade de outros outputs, como imagens, vídeo ou áudio).
O objetivo? Obter respostas e lograr interações o mais naturais e “humanas” possível. Um desiderato que parece, de facto, estar a ser cumprido (apesar de alguns momentos de “baixa” do sistema). Tudo isto, através da utilização de programas de Natural Processing Language que permitem à ferramenta analisar e compreender a linguagem humana de maneira a, mais do que processar apenas uma resposta, garantir o respetivo alinhamento com a intenção da pergunta do utilizador. E à data de hoje, pelo menos, pode afirmar-se que o ChatGPT vem “dando cartas” na obtenção dos mais variados resultados, desde textos de teor académico ou técnico, a discursos, para não mencionar as composições musicais e as obras artísticas.
A esta luz, não são de estranhar a grande expectativa e as muitas promessas associadas à ferramenta, nos mais variados domínios e por referência às mais diversas finalidades. Assim como não é de discordar dos muitos que veem nesta ferramenta um mecanismo indutor de eficiências e promotor da produtividade na prossecução de tarefas várias.
Este bright side não pode, contudo, ignorar ou silenciar a posição dos mais céticos ou dos mais cautelosos, que apontam a esta tecnologia riscos vários… À cabeça, riscos em matéria de direitos fundamentais, como sejam as questões éticas sobre os resultados gerados, e, bem assim, problemas de privacidade e respeitantes ao combate à desinformação. Somam-se, depois, os riscos no plano da segurança, cibercrime e ataques informáticos. E tudo isto, claro está, sem esquecer outras preocupações, igualmente transversais, respeitantes à potencial usurpação da titularidade de obras e à compensação devida a artistas, por violação de direitos de propriedade intelectual, a que acrescem interrogações mais recentes quanto ao problema da fraude em ambiente escolar-académico.
Todas estas incertezas justificam um olhar atento e crítico-construtivo sobre o enquadramento normativo que se avizinha, e no qual a União Europeia surge a assumir um papel de charneira. Referimo-nos, em particular, à Proposta de Regulamento Inteligência Artificial e à Proposta de Diretiva relativa à adaptação das regras de responsabilidade civil extracontratual à Inteligência Artificial.
Quanto à primeira, destacam-se de entre os seus objetivos os de i) assegurar a segurança, a legalidade, e a conformidade dos sistemas de IA colocados no mercado da União com os direitos fundamentais e valores da União; ii) garantir a segurança jurídica, em ordem a facilitar o investimento e a inovação no domínio da IA, e, enfim, iii) facilitar o desenvolvimento de um mercado único (não fragmentado) para aplicações de IA legítimas, seguras e de confiança.
Para o efeito, estabelecem-se regras harmonizadas para o desenvolvimento, a colocação no mercado e a utilização de sistemas de IA na União, assentes numa abordagem proporcional e escalonada, que diferencia os sistemas de IA segundo quatro níveis de risco. Em resultado, são proibidas as utilizações de IA que criam um “risco inaceitável” e consagram-se regras específicas e obrigatórias para os sistemas de “risco elevado”, no plano da qualidade dos dados utilizados, da transparência, da supervisão humana e da segurança dos sistemas, sendo que os sistemas de “risco limitado” se veem igualmente sujeitos a alguns requisitos de transparência. Por seu turno, dispensam-se as utilizações que criam um “risco mínimo” da sujeição a obrigações adicionais (devendo apenas respeito às determinantes da demais legislação em vigor).
A segunda proposta procura, por seu turno, orientar os tribunais dos Estados-membros na operação e concretização da presunção de causalidade e da responsabilidade por danos decorrentes da utilização de IA, considerando, em particular, o respeito ou a violação das regras previstas na primeira proposta.
A adoção de um enquadramento proporcional ao risco, e que é transversal à abordagem europeia na matéria, justifica que, no decurso do processo legislativo, se não ignorem nem descurem as particularidades da realidade do ChatGPT (e similares). Estamos perante ferramentas potencialmente mobilizáveis para fins muitos diversos e passíveis, inclusive, de integração em sistemas de risco elevado, o que justifica a sua sujeição a requisitos particulares, sobretudo no plano da transparência e da realização de avaliações de impacto pormenorizadas.
Por isso mesmo, considera-se necessário preservar um olhar atento, crítico e ponderado sobre as normas projetadas para os sistemas de IA e respetiva adequação à IA generativa (tudo isto, ainda quando na sua génese não sejam criados como ferramentas de IA qualificáveis como “de risco (muito) elevado”).
Naturalmente, que a observação ora tecida e o repto que lhe subjaz não sejam lidos à luz de um chilling effect à inovação e às potencialidades e oportunidades garantidas por este tipo de iniciativas! Não é disso que se trata. Simplesmente, do que se trata é de assegurar a plenitude das potencialidades da revolução digital em curso, garantindo que a disrupção se não faça à custa dos valores europeus e da pessoa como seu sujeito.