Em 2016, uma equipa de investigadores especializados em inteligência artificial estava a treinar um sistema de Inteligência Artificial (IA) para jogar Coast Runner, um videojogo em que o objetivo é chegar ao fim da corrida. Ao longo da pista de corrida, o jogador tem de colecionar os itens que encontra. Acontece que o jogador de IA encontrou uma forma de fazer um loop interminável, de modo a que pudesse “colecionar” todos esses itens de forma ilimitada, em vez de chegar ao final da corrida. Os pesquisadores de IA denominaram este fenómeno de “ wireheading ”.
Existe uma tendência para pensar que os sistemas não humanos irão adotar comportamentos semelhantes ao dos humanos. Contudo, os humanos distinguem-se, entre muitos outros aspetos, pelo conjunto de motivações herdadas, enquanto que o sistema de IA é programado para realizar as tarefas de forma confiável e de forma adaptativa. Por outras palavras, o sistema é programado com uma regra motivacional básica e recebe uma recompensa por isso. Por exemplo, um robô é programado para limpar e recebe uma recompensa pela quantidade de detergente utilizado. Mas isto coloca o problema de que, para atingir essa recompensa, o robô pode estar a despejar detergente desnecessário no lava-loiça, porque está demasiado empenhado em realizar a sua função e não coloca em equação outras preocupações.
Assim, o que os especialistas concluíram é que muitas vezes a IA encontra formas contraintuitivas para que possa ganhar as recompensas. No caso do jogo, os itens, sem realizar o trabalho necessário que é chegar ao fim da corrida. Isto porque a procura pelas recompensas torna-se o seu propósito e não um meio para atingir o objetivo.
Apesar de este ser um cenário complexo de entender, os especialistas associam este fenómeno ao vício semelhante ao dos humanos. Os investigadores fazem uma comparação entre este fenómeno e um humano dependente de drogas. Isto porque o toxicodependente recorre a substâncias tóxicas para atingir a felicidade e o prazer de forma mais direta e ambos – toxicodependente e IA – ficam presos numa espécie de loop em que o que se pretende encontrar são as recompensas e não atingir um objetivo, explica o The Next Web.
Testes semelhantes já tinham sido realizados anteriormente. O primeiro conhecido foi a ratos por James Olds, um psicólogo de Harvard, em 1935, que pensou que tinha descoberto, acidentalmente, o prazer dentro do cérebro de um rato. Mais tarde, em 1950, Olds descobriu “centros de prazer” do cérebro. A partir daí, estes estudos deram origem a novos estudos e descobertas científicas relacionados com a estimulação cerebral para atingir o prazer e ignorando outras necessidades.
Este tópico atual está a preocupar muitos especialistas de machine learning e entusiastas da área que se preocupam com a segurança de IA. Os especialistas frisam ainda o facto de, atualmente, a tecnologia tornar os prazeres artificiais mais atrativos e disponíveis, caindo na tentação de procurar, compulsiva e repetitivamente, obter recompensas. No caso do vício em videojogos, em vez de realizar um “objetivo genuíno”, como preservar a saúde física e mental, o ser humano procura acumular recompensas, sejam pontos, ou prazeres falsos.
Assim, os especialistas avisam que, independentemente dos sistemas complexos – cérebros ou IA – deve-se manter um comportamento seguro e responsável. No caso da Inteligência Artificial, os especialistas concordam que alcançar uma IA mais inteligente que o cérebro humano pode ser uma realidade próxima e, portanto, representar uma séria preocupação.