
Investigadores da Universidade de Stanford, da UC Berkeley, da OpenAI de Elon Musk e da Google AI estão a analisar como é que os humanos podem interagir e confiar nos sistemas de Inteligência Artificial. Hoje em dia, há receios sobre o que pode acontecer se estas máquinas começarem a tomar decisões por si só. Atualmente, o cenário não é tão perigoso, uma vez que uma má decisão pode trazer poucas consequências, mas à medida que estes sistemas se tornem cada vez mais ubíquos, o risco pode aumentar. «Estamos a entrar em áreas cinzentas. Não sabemos sempre quais os inputs que geram determinados outputs. Somos incapazes de perceber o que a máquina está a fazer», alerta Alexander Reben, um especialista em robótica, citado pela Wired.
A equipa da Google analisou o exemplo de um robô que aprende a limpar a casa. O risco ainda não é catastrófico neste caso, mas o robô pode aprender, por exemplo, que partir um vaso é a forma mais rápida de limpar e passar a agir sempre dessa forma ou tentar limpar tomadas elétricas com uma esfregona molhada. A solução para um caso pode nem sempre aplicar-se a todas as situações, mas as respostas passam por alertar o robô para os «efeitos negativos» de partir qualquer coisa e pela «exploração segura», não colocando itens molhados em tomadas elétricas.
Há o exemplo clássico de um sistema desenvolvido para jogar Tetris sozinho e que descobriu que pausando o jogo, nunca perderia, passando a agir sempre dessa forma.
Por outro lado, a equipa da DeepMind, que desenvolveu o AlphaGo, está também a estudar a possibilidade de se integrar um «botão de pânico» que possa ser ativado para evitar que a máquina comece a agir fora do controlo humano.