A ética é considerada o ramo da Filosofia que reflete sobre os comportamentos humanos (as suas causas, os seus sucessos ou os seus erros) de um ponto de vista moral. Esta avaliação, que implica ainda a liberdade das pessoas para escolherem os atos que praticam, faz da ética uma qualidade exclusivamente humana. É por isso paradoxal falar de uma ética das máquinas. Porém, à medida que vamos colocando cada vez mais decisões nas mãos de máquinas, esta é uma disciplina necessária. Relativamente a um artigo de Núria Bigas Fortmatjé sobre o tema e publicado pela Universitat Oberta de Catalunya, o professor de Filosofia do Direito da UOC, David Martínez, assinalava que “não só é aconselhável, como até indispensável que os algoritmos incluam parâmetros éticos”. Um dos exemplos clássicos utilizados para defender a necessidade de que, no futuro, a inteligência artificial tenha uma base moral é o dos automóveis autónomos. Embora haja relatórios que garantam que as viaturas sem condutor acabem por ser mais seguras do que as atuais, é certo que terão de tomar decisões em que estarão em jogo vidas humanas. Uma vez que a ética é uma característica da nossa espécie, só nós podemos tentar transmiti-la às máquinas. É neste sentido que surgem ideias como as do projeto Máquina Moral, implementado pelo MIT, no qual, através de um jogo online, estão a ser recolhidos dados para ver como reagimos perante diferentes cenários com possíveis vítimas num acidente rodoviário.
Mais sobre o Vodafone Future
Oficial YouTube Facebook Linkedin
Francesca Rossi, diretora de Ética na Inteligência Artificial da IBM, acredita que, embora tenham sido alcançados grandes progressos, ainda temos de ser pacientes: “As pessoas têm de perceber que a IA existe há 70 anos, mas que ainda está em desenvolvimento. Temos muitos desafios pela frente e muitas coisas que não sabemos fazer.” A maior capacidade das máquinas para processar informação, juntamente com a imensa quantidade de dados que geramos no nosso dia-a-dia, faz com que os algoritmos sejam cada vez mais exatos, mas isso não significa que sejam também mais éticos, uma vez que só aprendem o que lhes é ensinado. Há alguns anos, uma máquina de inteligência artificial programada pela Microsoft começou a demonstrar comportamentos racistas, homófobos e antissemitas depois de passar apenas um dia no Twitter. E num estudo publicado em 2017, a revista “Science” garantia que muitas máquinas de inteligência artificial se tornavam machistas quando aprendiam a comunicar por palavras, devido ao facto deste preconceito estar implícito em muitos idiomas.
Enfrentar o risco de que os modelos de aprendizagem baseados em comportamentos humanos em grande escala reproduzam estereótipos e preconceitos existentes na população é uma das tarefas ds Francesca Rossi. “Só será possível entender os problemas e resolvê-los com uma abordagem multidisciplinar e envolvendo todos”, garante Rossi. Uma tarefa na qual devem estar envolvidos, em conjunto, empresas tecnológicas, governos e instituições como as Nações Unidas, uma vez que avançamos para um futuro no qual as máquinas terão cada vez mais importância nas suas relações com os humanos.
Entrevista e edição Noelia Núñez, David Giraldo
Texto José L. Álvarez Cedena