O objetivo dos cientistas da Microsoft foi criar um sistema capaz de se adaptar ao mundo real, de interpretar as imagens captadas pelo drone e enviadas para comando central, replicando a capacidade humana de ‘ler’ as condições no mundo real e de se ajustar. O treino deste sistema de IA foi feito com recurso a simulações e os investigadores concluem que este pode conseguir comandar um drone de forma autónoma. “Estavamos interessados em explorar a questão de o que é que é preciso para construir sistemas autónomos para alcançar níveis de desempenho” semelhantes aos que se conseguem com humanos.
O trabalho distingue a componente percetiva (ler o ambiente) da política de controlo (decidir o que fazer com base no que vê). O sistema consegue mapear a informação visual diretamente nas ações de controlo ao converter uma sequência de frames de vídeo em representações que resumem o mundo real.
A framework foi aplicada a um quadcóptero com uma câmara frontal e a equipa tentou fazer com que o drone passasse num circuito de corrida usando apenas imagens da câmara. O módulo de percepção comprimiu as imagens de entrada de um total de 27 mil variáveis para as 10 mais essenciais que pudessem descrever o ambiente. As imagens descodificadas forneciam uma descrição daquilo que o drone podia ver à sua volta, como portões e localizações de obstáculos, noticia o Venturebeat.
As pistas mediam 40 e 45 metros, com a forma de um S e de um círculo e os investigadores acreditam que a solução tem um grande potencial para ser aplicada no mundo real. Algumas das aplicações passam pela capacidade de procurar e reconhecer humanos que possam estar em perigo.
Este trabalho surge na sequência do lançamento do desafio Game of Drones da Microsoft que coloca quadcópteros a correr uns contra os outros numa simulação AirSim.