Microsoft investe em treinar modelos de IA próprios
Microsoft anunciou, em 11 de setembro de 2025, em um town hall interno, investimentos significativos para treinar modelos de IA próprios e ampliar sua capacidade de computação. A empresa revelou que o MAI-1-preview foi treinado em 15 mil GPUs Nvidia H100 e que planeja clusters de treino de 6 a 10 vezes maiores, mirando competir com Meta, Google e xAI. A estratégia da Microsoft investe em treinar modelos de ia próprios é mantém produtos compatíveis com múltiplos modelos, enquanto expande a capacidade interna para criar “frontier models” e acelerar recursos no Microsoft 365 e no GitHub Copilot.
Tabela de conteúdos
O que foi anunciado e por que importa
Mustafa Suleyman, chefe da Microsoft AI, disse aos funcionários que a companhia quer ter capacidade de treinar internamente modelos de ponta (“frontier”) de diversos tamanhos, usando seu próprio supercluster. A fala confirma uma guinada: depois de lançar seus primeiros modelos in-house no mês passado, a Microsoft agora acelera investimentos estruturais para que esses modelos evoluam com independência e escala, sem abrir mão da estratégia multimodelos em produtos.
“Devemos ter capacidade para construir modelos de ponta em casa, de todos os tamanhos, mas ser pragmáticos e usar outros modelos onde necessário.”
Mustafa Suleyman, chefe da Microsoft AI (town hall interno)
Capacidade de treino: de 15 mil H100 para 6–10× mais
Segundo Suleyman, o MAI-1-preview foi “apenas” treinado em 15 mil H100 — um cluster pequeno no cenário de modelos frontier. A meta é multiplicar essa infraestrutura por 6 a 10 vezes, colocando a Microsoft no patamar dos maiores treinamentos do mercado. Clusters maiores permitem modelos com mais parâmetros, janelas de contexto amplas, melhor alinhamento e, principalmente, custo de inferência mais eficiente por token a partir de otimizações de arquitetura e hardware.
Estado atual | Planejado (curto/médio prazo) | Objetivo estratégico |
~15 mil H100 (MAI-1-preview) | 6–10× maior (90 mil–150 mil H100, equivalente) | Paridade com Meta, Google, xAI em treino de frontier models |
“Vamos fazer investimentos significativos no nosso próprio cluster… Hoje, o MAI-1-preview foi treinado em 15 mil H100s, um cluster pequeno no panorama geral.”
Mustafa Suleyman, chefe da Microsoft AI
Estratégia multimodelos continua no centro
Satya Nadella reforçou que a Microsoft “definitivamente dará suporte a múltiplos modelos” nos produtos, citando o GitHub Copilot como exemplo. Na prática, isso significa combinar modelos proprietários com modelos de parceiros (OpenAI, Anthropic e outros) conforme o caso de uso, custo, latência e qualidade. A abordagem reduz dependência, eleva a resiliência e permite escolher o melhor modelo para cada tarefa.
“Estou ansioso para construirmos capacidade de modelos, para que possamos criar produtos orientados a modelos.”
Satya Nadella, CEO da Microsoft
Anthropic deve abastecer partes do Microsoft 365
Segundo o The Information, a Microsoft deve utilizar modelos da Anthropic para alguns recursos do Microsoft 365 em breve. O relatório aponta que, em testes internos, certos modelos da Anthropic superaram opções da OpenAI em cenários de Excel e PowerPoint, motivando uma adoção parcial no 365 Copilot. Isso reforça a filosofia multimodelos: selecionar a melhor opção por tarefa, independentemente do fornecedor.
Relação com a OpenAI: cooperação e autonomia
O lançamento dos primeiros modelos in-house no mês passado adicionou complexidade à parceria com a OpenAI, mas não a substituiu. A Microsoft segue como parceira e provedora de infraestrutura para a OpenAI, ao mesmo tempo em que constrói capacidades próprias. A mensagem dos executivos é clara: cooperação onde faz sentido e autonomia para acelerar roadmaps internos, gerenciar custos e garantir continuidade mesmo em cenários de choque de oferta de GPU.
Implicações para clientes e desenvolvedores
Para clientes corporativos, a expansão promete respostas mais rápidas, custos previsíveis e novas features de automação em 365, Dynamics e Azure AI. Para desenvolvedores, a aposta é que o GitHub Copilot ganhe qualidade e contexto de código ampliado, enquanto o Azure oferece opções de modelo diversificadas com SLAs reforçados. Em ambos os casos, governança, segurança e privacidade de dados devem permanecer como pilares — especialmente em setores regulados.
Contexto de mercado: corrida por computação e eficiência
Com Meta, Google e xAI dimensionando clusters massivos, a competição não é só por velocidade de treino, mas por eficiência de inferência, caching, compressão e especialização de modelos. A Microsoft, ao integrar hardware de ponta (H100 e sucessores) com sua pilha de software (Orquestração do Copilot, Azure AI e ferramentas internas), busca reduzir custo por chamada e ampliar confiabilidade, o que é decisivo para adoção em massa.
Fontes e validação
As informações deste artigo baseiam-se na reportagem de Tom Warren para o The Verge (11 set 2025) e no relato do The Information sobre o uso da Anthropic no Microsoft 365. Citações diretas foram traduzidas do inglês para o português, preservando o sentido. Não identificamos vídeos, tweets ou posts do Instagram embutidos nas matérias originais que justifiquem incorporações neste artigo.
O que a Microsoft anunciou exatamente?
Resposta direta: vai ampliar muito a capacidade de treinar modelos próprios. Expansão: a empresa investirá em um supercluster para treinar frontier models internamente e manterá produtos compatíveis com múltiplos modelos. Validação: confirmação em town hall interno reportado pelo The Verge.
Quantas GPUs foram usadas no MAI-1-preview?
Resposta direta: cerca de 15 mil Nvidia H100. Expansão: Suleyman disse que esse cluster é pequeno no panorama atual e que a Microsoft planeja estruturas 6–10× maiores. Validação: citação atribuída por Tom Warren (The Verge).
Isso muda a parceria com a OpenAI?
Resposta direta: cooperação continua, com mais autonomia interna. Expansão: a Microsoft seguirá suportando múltiplos modelos em produtos, enquanto expande o treino in-house para reduzir custos e riscos. Validação: falas de Nadella e Suleyman na reunião interna, reportadas pelo The Verge.
O Microsoft 365 usará modelos da Anthropic?
Resposta direta: sim, em partes, segundo o The Information. Expansão: alguns recursos do 365 Copilot devem ser parcialmente abastecidos por modelos Anthropic, que superaram opções da OpenAI em testes de Excel e PowerPoint. Validação: reportagem do The Information citada na cobertura.
Quais os impactos práticos para usuários?
Resposta direta: melhor desempenho e novas funções no Copilot. Expansão: clusters maiores tendem a reduzir latência, melhorar a qualidade de respostas e habilitar recursos mais avançados em 365, GitHub e Azure AI. Validação: inferência baseada na estratégia anunciada e histórico de evolução dos copilots.
Considerações finais sobre Microsoft investe em treinar modelos de IA proprios
A Microsoft sinaliza uma segunda fase da sua estratégia de IA: além de integrar parceiros, quer dominar a capacidade de treinar e operar modelos de ponta. Com planos de multiplicar por 6–10× sua infraestrutura além dos 15 mil H100 usados no MAI-1-preview, o objetivo é acelerar produtos como Copilot e fortalecer a resiliência tecnológica. O movimento preserva a cooperação com a OpenAI e adiciona a Anthropic como fornecedora tática, compondo uma arquitetura multimodelos orientada a desempenho, custo e confiabilidade.