A descrição do potencial dos novos algoritmos da Runway (e de outras organizações) é bastante promissora: um sistema onde escrevemos uma descrição e é gerado um vídeo correspondente. A empresa, que já disponibiliza um editor web de vídeo especializado em ferramentas de Inteligência Artificial, anunciou que está a semanas de lançar a segunda iteração do algoritmo, a Gen-2.
O Gen-1 lançado a 1 de fevereiro é um algoritmo que transforma vídeo, por exemplo, uma animação em 3D ou um clipe gravado com um telemóvel, adicionando-lhe uma camada gerada por IA.
Já o Gen-2 promete gerar vídeos completamente de raiz, só com instruções de texto. Nesta fase, o acesso à ferramenta será restrito, noticia a Bloomberg News, com os utilizadores interessados a terem de ficar em lista de espera a partir do canal de Discord da Runway.
Apesar de os primeiros resultados obtidos ainda não serem completamente fotorrealistas, não deixam de ser impressionantes. Digno de nota é comparar os vídeos gerados pelo sistema da Runway com o que é conseguido pelos sistemas rivais da Meta e da Google, especialmente se tivermos em consideração que a Runway é uma startup com apenas 45 pessoas e está longe de conseguir ter os recursos que estas duas gigantes têm.
Acompanhe a série de publicações que a Runway fez no Twitter a demonstrar as capacidades do seu algoritmo.