A OpenAI afirma ter encontrado evidências de que a startup DeepSeek usou os modelos proprietários da norte-americana para treinar o rival chinês de baixo custo. Fonte da OpenAI revelou ao Finantial Times terem sido encontradas evidências de ‘destilação’, uma técnica usada pelos programadores para obter melhor desempenho nos modelos mais pequenos ao utilizar resultados provenientes de modelos maiores e mais capazes. A técnica permite aos modelos mais pequenos atingir resultados equivalentes em tarefas específicas, a uma fração do custo.
Apesar de a prática de ‘destilação’ ser comum na indústria, o seu uso para treinar e construir modelos rivais constitui uma quebra nos termos de serviço da OpenAI: “O problema é quando [tiras da plataforma e] estás a construir o teu próprio modelo para os teus próprios fins”, afirmou uma pessoa próxima da OpenAI que quis manter o anonimato.
De recordar que a DeepSeek entrou na ribalta nos últimos dias, recolhendo as preferências dos utilizadores e arrasando as ações de grandes tecnológicas como a Nvidia, a Microsoft ou a Amazon.
No ano passado, a OpenAI e a Microsoft estavam a investigar contas que se acreditava pertencerem à DeepSeek e que estavam a usar a interface de programação (API) da OpenAI, acabando por bloquear-lhes o acesso.
Nesta fase, nem a OpenAI ou a Microsoft, nem a DeepSeek teceram quaisquer comentários adicionais sobre a situação.
Também David Sacks, o czar da IA e da cripto para Donald Trump, afirmou à Fox News que “há uma técnica na IA chamada destilação… quando um novo modelo aprende com outro modelo e ‘suga’ o conhecimento do modelo parente (…) Há evidências substanciais de que o que a DeepSeek fez aqui foi destilar o conhecimento dos modelos da OpenAI e não creio que a OpenAI esteja muito contente com isso”.
A DeepSeek descreveu que usou apenas 2048 gráficas H800 da Nvidia e gastou 5,6 milhões de dólares para treinar o modelo V3 com 671 mil milhões de parâmetros, uma fração do hardware e custos que OpenAI e Google usaram para treinar modelos equiparados.
Alguns peritos, no entanto, já tinham alertado que o modelo chinês gerava respostas que indicavam ter sido treinado com resultados do GPT-4 da OpenAI. Outros especialistas indicam que é uma prática comum para laboratórios de IA na China e nos EUA usarem resultados de empresas como a OpenAI, que tiveram o investimento para contratar pessoas para treinar os seus modelos, de forma a produzir respostas semelhantes às que um humano produziria.