Dois investigadores do Facebook criaram uma rede neuronal artificial capaz de resolver problemas de matemática avançada em menos de um segundo – problemas esses que para ferramentas de cálculo especializadas chegam a demorar 30 vezes mais tempo na resolução. Além da rapidez, o sistema também apresenta taxas de eficácia elevadas e mostra que a aprendizagem automática também funciona na resolução de problemas matemáticos complexos.
Guillaume Lample e François Charton, investigadores que trabalham no laboratório de inteligência artificial do Facebook em Paris, França, conseguiram treinar um algoritmo para resolver integrações simbólicas e equações diferenciais, tarefas matemáticas que segundo os autores «são difíceis, para humanos treinados e software de computador».
No estudo publicado, e citado pela publicação MIT Technology Review, os investigadores provam que é possível treinar mecanismos de inteligência artificial para resolver problemas matemáticos que vão além de equações simples como adição ou multiplicação, e com uma elevada taxa de eficácia.
Num teste com 500 equações e um tempo máximo de 30 segundos de resolução, a taxa de eficácia do algoritmo do Facebook situou-se sempre acima dos 98%, enquanto o segundo melhor classificado, a ferramenta Mathematica, obteve uma taxa de resolução próxima dos 85%. «Em qualquer equação, o nosso modelo tipicamente encontra a solução em menos de um segundo», escrevem os autores.
O reconhecimento de símbolos matemáticos e dos processos a eles associados, em equações complexas, tem sido uma tarefa de lógica difícil na área da inteligência artificial, que tem mostrado sinais de evolução mais notórios noutras tarefas como reconhecimento de padrões, processamento de linguagem natural e cálculo de decisões em videojogos. Com o conjunto de dados certo, dizem Guillaume Lample e François Charton, o sistema consegue até chegar ao mesmo resultado, mas usando fórmulas de resolução diferentes – um sinal claro de que “aprendeu” a dominar diferentes conceitos matemáticos.
«Propomos uma abordagem para gerar de forma arbitrária grandes conjuntos de dados de equações, com as respetivas soluções. Mostramos que um simples modelo treinado nestes conjuntos de dados consegue performances extremamente boas a computar funções integrais e a resolver equações diferenciais, superando as frameworks mais avançadas como o Matlab ou o Mathematica», escreve a dupla de investigadores Facebook.
«Estes resultados sugerem que, no futuro, frameworks matemáticas podem beneficiar da integração de componentes neuronais nas suas resoluções», acrescentam ainda.
No estudo não é feita qualquer referência sobre como esta descoberta poderá vir a ser usada pelo Facebook, mas este trabalho pode vir a contribuir para a resolução de problemas matemáticos que a tecnológica venha a ter na construção de novos algoritmos e sistemas de recomendação.