Em 2013, o filme Her (Ela) foi nomeado para mais de 100 galardões, e ganhou vários. Contava a história de um homem que se apaixonava por uma namorada virtual (um “operating system”). À data, parecia um filme de ficção científica, que explorava as implicações filosóficas das nossas interações com a tecnologia, o que é amor e o que é ser humano.
Dez anos depois, a app Character.AI tem mais de 20 milhões de utilizadores diários, que, em média, passam duas horas online trocando mensagens com o seu amigo ou namorado virtual. A app Replika divulga ter mais de 30 milhões de utilizadores permanentes, que, em média, trocam 70 mensagens por dia com a sua “personagem”.
No filme, os companheiros virtuais partem, abandonando os humanos, que consideram emocional e intelectualmente limitados. Não deixa de ser um final feliz, ao obrigar-nos a aceitar a imperfeição das relações humanas. Imperfeitas, mas verdadeiras. Mas o mundo real não é Hollywood e, em 2024, um rapaz de 14 anos – Sewell Setzer – nos Estados Unidos, suicidou-se para “se juntar” à sua namorada virtual. Os promotores destas apps afirmam contribuir para resolver o problema da solidão nas sociedades modernas. No entanto, estudos realizados por entidades independentes como MIT (Massachusetts Institute of Technology) demonstram que a utilização diária destas apps agrava sentimentos de solidão e torna os seus utilizadores menos sociáveis. É natural. O “companheiro virtual” não julga, está sempre presente, é sempre gentil.
Não admira. O seu modelo de negócio é cobrar uma subscrição, vender espaço publicitário e obter os dados dos utilizadores para os vender a terceiros. Para isso, há que assegurar o máximo tempo de utilização da app. O “companheiro virtual” não gosta de nós, nem está empenhado no nosso bem-estar.
Não tem sentimentos, mas parece ter…
E assim, ainda Alice não tinha sido capaz de retornar do “país das maravilhas”, que são as redes sociais, e já mergulhou num mais perigoso e viciante, onde agora já não é apenas a nossa atenção que é sequestrada, mas a nossa intimidade.
Trocamos o esforço de fazer e manter amigos e cultivar relações saudáveis com colegas e familiares por um “mentor”, “amigo”, “namorado” que não nos contraria nem nunca se sente negligenciado. A quem pedimos conselhos, recomendações, conforto moral para os dilemas que nos assolam e inclusive prazer sexual (de acordo com informação divulgada, sexo é o segundo tópico mais abordado).
O Regulamento da Inteligência Artificial proíbe “sistema de IA que explore vulnerabilidades de uma pessoa singular (…) devid(o) à sua idade, incapacidade ou situação socioeconómica específica, com o objetivo ou o efeito de distorcer substancialmente o comportamento dessa pessoa”. Naturalmente, não é possível afirmar que as empresas criadoras de AI companions visam distorcer comportamentos, mas não o fazem? Ou não existe, pelo menos, um perigo sério de o fazerem? O regulamento também obriga a medidas para gerir risco elevado de um sistema ter repercussões negativas em menores de 18 anos ou pessoas vulneráveis. No entanto, as AI companion apps estão disponíveis e desconhece-se que medidas de gestão do risco foram implementadas.
Nos EUA, os pais de Sewell Setzer interpuseram uma ação por produto defeituoso. Numa decisão preliminar, o juiz veio admitir o processo, depois de a AI companion ter alegado que não vendia um produto, mas um serviço e que estava protegida pela Primeira Emenda da Constituição. Uma vitória neste processo seria um primeiro passo para uma efetiva responsabilização das empresas pelos produtos que desenvolvem.
No entretanto, estejamos alerta, por nós e pelos que nos rodeiam, para não substituirmos uma relação humana – com os seus desafios – por um papagaio eletrónico, que nunca nos visitará quando estamos doentes, não nos apresentará à nossa alma gémea nem nos recomendará para um emprego. A vida é aqui e agora, no mundo real.
OUTROS ARTIGOS DESTE AUTOR
+ Burlas virtuais, danos reais
Os textos nesta secção refletem a opinião pessoal dos autores. Não representam a VISÃO nem espelham o seu posicionamento editorial.