Já ouviu falar no “trolley problem” (dilema da carruagem nos carris, em tradução livre)? Basicamente, é um “suponhamos”. Imagine que vê uma carruagem desgovernada num carril que vai matar cinco pessoas que não se conseguirão desviar a tempo e que tem a oportunidade de desviar o veículo para um outro carril, onde irá matar uma pessoa. O que faria? Iria ficar quieto e deixar o destino seguir o seu curso? Iria intervir com o argumento de que sacrificar uma vida humana é menos mau do que sacrificar cinco? E, nesse caso, se fossem cinco desconhecidos versus um amigo ou familiar?
Este dilema levanta questões interessantes sobre ética e moral e recentemente ganhou novo fôlego no mundo da tecnologia quando o MIT desenvolveu um questionário para abordar esta temática no contexto dos carros autónomos. Assim, ao longo de 13 situações, os questionados na Máquina Moral são desafiados a fazer escolhas difíceis perante um cenário de acidente com veículos deste género.
Vamos a exemplos práticos: deve o carro autónomo privilegiar a segurança dos passageiros ou dos peões? A prioridade deve ser a vida de crianças ou de idosos? De homens ou de mulheres? De executivos ou de criminosos? De pessoas ou de animais? De cães ou de gatos?
Nenhuma resposta surge com facilidade, algo que só torna o “trolley problem” mais interessante. Claro que podemos achar que, em termos gerais, algumas soluções são mais óbvias (ou não) que outras – poupar as crianças, privilegiar os humanos em detrimento dos animais… –, mas os resultados do inquérito mostram que essa é uma tendência dos ocidentais. No Médio Oriente, por exemplo, notou-se maior preocupação com os idosos. Além disso, os criminosos também saem prejudicados do inquérito, com muitos participantes a preferirem poupar cães em vez de criminosos (algo que já não acontece com gatos).
Também não estou a ver os fabricantes de automóveis a instruírem um carro autónomo para poupar a vida de um peão em troca da de um passageiro. Portanto, fará sentido questionar se os carros autónomos deverão ter sequer alguma espécie de moral nos seus algoritmos? Irá a regulamentação obrigar a algo do género? Terá essa regulamentação de ser diferente consoante a zona do globo onde estamos?
Parece-me incontestável que a condução autónoma vai reduzir em muito a mortalidade rodoviária, mas parece-me igualmente incontestável que as falhas ou opções tomadas por estes veículos irão ser muitíssimo mais escrutinadas do que os disparates que vemos constantemente nas estradas. Talvez o melhor seja não fazer grande coisa para evitar entrar em terrenos de moral dúbia. Menos é mais?