O parceiro próximo da Microsoft e colaborador, Openai, pode estar sugerindo que a DeepSeek roubou seu IP e violou seus termos de serviço. Mas a Microsoft ainda quer novos modelos brilhantes de Deepseek em sua plataforma em nuvem.
A Microsoft anunciou hoje que o R1, o chamado modelo de raciocínio da Deepseek, está disponível no Azure AI Foundry Service, a plataforma da Microsoft que reúne vários serviços de IA para empresas sob um único banner. Em uma postagem no blog, a Microsoft disse que a versão do R1 no Azure AI Foundry “passou por avaliações rigorosas de equipe e segurança vermelhas”, incluindo “avaliações automatizadas do comportamento do modelo e extensas revisões de segurança para mitigar riscos potenciais”.
Em um futuro próximo, disse a Microsoft, os clientes poderão usar sabores “destilados” de R1 para executar localmente em copilot+ PCs, a marca de hardware do Windows da Microsoft que atende a certos requisitos de prontidão da IA.
“Enquanto continuamos expandindo o catálogo de modelos na Azure AI Foundry, estamos empolgados em ver como os desenvolvedores e empresas alavancam […] R1 para enfrentar os desafios do mundo real e oferecer experiências transformadoras ”, continuou a Microsoft no post.
A adição de R1 aos serviços em nuvem da Microsoft é curiosa, considerando que a Microsoft iniciou uma investigação sobre o abuso potencial da Deepseek de seus serviços e o Openai. De acordo com pesquisadores de segurança que trabalham para a Microsoft, a Deepseek pode ter exfiltrado uma grande quantidade de dados usando a API da OpenAI no outono de 2024. A Microsoft, que também é o maior acionista do OpenAI, notificou o OpenAI da atividade suspeita, por Bloomberg.
Mas o R1 é o assunto da cidade, e a Microsoft pode ter sido persuadida a trazê -la para sua dobra de nuvens enquanto ainda mantém o fascínio.
Não está claro se a Microsoft fez alguma modificação no modelo para melhorar sua precisão – e combater sua censura. De acordo com um teste da organização de confiabilidade da informação NewsGuard, o R1 fornece respostas imprecisas ou não-respostas 83% do tempo, quando perguntado sobre tópicos relacionados às notícias. Um teste separado constatou que o R1 se recusa a responder a 85% dos avisos relacionados à China, possivelmente uma conseqüência da censura do governo à qual os modelos de IA desenvolvidos no país estão sujeitos.