A Microsoft anunciou uma nova família de modelos de linguagem, que se distinguem por serem mais pequenos no número de parâmetros, e que foram desenvolvidos com vista à pergunta: ‘quantos parâmetros são realmente necessários para construir um modelo com raciocínio de senso comum?’. Os Phi-3 pretendem oferecer um desempenho elevado no domínio da Inteligência Artificial, mas tendo uma fração do tamanho dos LLM (grandes modelos de linguagem) tradicionais.
O primeiro Phi-3 a estar disponível, na variante mini, pode ser encontrado no Azure, HuggingFace e Ollama, e possui apenas 3,8 mil milhões de parâmetros. O modelo prova que dados sintéticos de alta qualidade são uma opção viável para treinar modelos, nasceu nos laboratórios de Research da Microsoft e foi impulsionado pela mais recente equipa de GenAI da empresa. A Microsoft aplicou-lhe uma camada extra de segurança, além de outras medidas de Responsible AI, para mitigar problemas comuns com linguagem prejudicial que surgem noutros modelos, explica o comunicado de imprensa.
A abordagem por pequenos modelos pode ajudar a derrubar as barreiras associadas ao custo e à eficiência destas soluções. Mesmo com ‘apenas’ 3,8 mil milhões de parâmetros, o Phi-3 mini supera concorrentes de maior dimensão e é capaz de executar tarefas que habitualmente seriam encaminhadas para um modelo maior. Ao disponibilizar o modelo no HuggingFace e no Ollama, além de no Azure, a Microsoft pretende permitir que qualquer pessoa execute o modelo localmente e aproveite os benefícios da Inteligência Artificial generativa, sem ser necessária uma ligação à Internet ou acesso à cloud.
Os planos da Microsoft passam por disponibilizar em breve o Phi-3 small (sete mil milhões de parâmetros) e o Phi-3 medium (14 mil milhões de parâmetros), que prometem propostas de valor semelhantes com desempenho em escala.