NoticiasInteligência ArtificialTecnologia

Microsoft investe em treinar modelos de IA próprios

PUBLICIDADE

Microsoft anunciou, em 11 de setembro de 2025, em um town hall interno, investimentos significativos para treinar modelos de IA próprios e ampliar sua capacidade de computação. A empresa revelou que o MAI-1-preview foi treinado em 15 mil GPUs Nvidia H100 e que planeja clusters de treino de 6 a 10 vezes maiores, mirando competir com Meta, Google e xAI. A estratégia da Microsoft investe em treinar modelos de ia próprios é mantém produtos compatíveis com múltiplos modelos, enquanto expande a capacidade interna para criar “frontier models” e acelerar recursos no Microsoft 365 e no GitHub Copilot.

O que foi anunciado e por que importa

Mustafa Suleyman, chefe da Microsoft AI, disse aos funcionários que a companhia quer ter capacidade de treinar internamente modelos de ponta (“frontier”) de diversos tamanhos, usando seu próprio supercluster. A fala confirma uma guinada: depois de lançar seus primeiros modelos in-house no mês passado, a Microsoft agora acelera investimentos estruturais para que esses modelos evoluam com independência e escala, sem abrir mão da estratégia multimodelos em produtos.

“Devemos ter capacidade para construir modelos de ponta em casa, de todos os tamanhos, mas ser pragmáticos e usar outros modelos onde necessário.”

Mustafa Suleyman, chefe da Microsoft AI (town hall interno)

Capacidade de treino: de 15 mil H100 para 6–10× mais

Segundo Suleyman, o MAI-1-preview foi “apenas” treinado em 15 mil H100 — um cluster pequeno no cenário de modelos frontier. A meta é multiplicar essa infraestrutura por 6 a 10 vezes, colocando a Microsoft no patamar dos maiores treinamentos do mercado. Clusters maiores permitem modelos com mais parâmetros, janelas de contexto amplas, melhor alinhamento e, principalmente, custo de inferência mais eficiente por token a partir de otimizações de arquitetura e hardware.

PUBLICIDADE
Estado atualPlanejado (curto/médio prazo)Objetivo estratégico
~15 mil H100 (MAI-1-preview)6–10× maior (90 mil–150 mil H100, equivalente)Paridade com Meta, Google, xAI em treino de frontier models

“Vamos fazer investimentos significativos no nosso próprio cluster… Hoje, o MAI-1-preview foi treinado em 15 mil H100s, um cluster pequeno no panorama geral.”

Mustafa Suleyman, chefe da Microsoft AI

Estratégia multimodelos continua no centro

Satya Nadella reforçou que a Microsoft “definitivamente dará suporte a múltiplos modelos” nos produtos, citando o GitHub Copilot como exemplo. Na prática, isso significa combinar modelos proprietários com modelos de parceiros (OpenAI, Anthropic e outros) conforme o caso de uso, custo, latência e qualidade. A abordagem reduz dependência, eleva a resiliência e permite escolher o melhor modelo para cada tarefa.

“Estou ansioso para construirmos capacidade de modelos, para que possamos criar produtos orientados a modelos.”

Satya Nadella, CEO da Microsoft

Anthropic deve abastecer partes do Microsoft 365

Segundo o The Information, a Microsoft deve utilizar modelos da Anthropic para alguns recursos do Microsoft 365 em breve. O relatório aponta que, em testes internos, certos modelos da Anthropic superaram opções da OpenAI em cenários de Excel e PowerPoint, motivando uma adoção parcial no 365 Copilot. Isso reforça a filosofia multimodelos: selecionar a melhor opção por tarefa, independentemente do fornecedor.

Relação com a OpenAI: cooperação e autonomia

O lançamento dos primeiros modelos in-house no mês passado adicionou complexidade à parceria com a OpenAI, mas não a substituiu. A Microsoft segue como parceira e provedora de infraestrutura para a OpenAI, ao mesmo tempo em que constrói capacidades próprias. A mensagem dos executivos é clara: cooperação onde faz sentido e autonomia para acelerar roadmaps internos, gerenciar custos e garantir continuidade mesmo em cenários de choque de oferta de GPU.

Implicações para clientes e desenvolvedores

Para clientes corporativos, a expansão promete respostas mais rápidas, custos previsíveis e novas features de automação em 365, Dynamics e Azure AI. Para desenvolvedores, a aposta é que o GitHub Copilot ganhe qualidade e contexto de código ampliado, enquanto o Azure oferece opções de modelo diversificadas com SLAs reforçados. Em ambos os casos, governança, segurança e privacidade de dados devem permanecer como pilares — especialmente em setores regulados.

Contexto de mercado: corrida por computação e eficiência

Com Meta, Google e xAI dimensionando clusters massivos, a competição não é só por velocidade de treino, mas por eficiência de inferência, caching, compressão e especialização de modelos. A Microsoft, ao integrar hardware de ponta (H100 e sucessores) com sua pilha de software (Orquestração do Copilot, Azure AI e ferramentas internas), busca reduzir custo por chamada e ampliar confiabilidade, o que é decisivo para adoção em massa.

Fontes e validação

As informações deste artigo baseiam-se na reportagem de Tom Warren para o The Verge (11 set 2025) e no relato do The Information sobre o uso da Anthropic no Microsoft 365. Citações diretas foram traduzidas do inglês para o português, preservando o sentido. Não identificamos vídeos, tweets ou posts do Instagram embutidos nas matérias originais que justifiquem incorporações neste artigo.

  1. O que a Microsoft anunciou exatamente?

    Resposta direta: vai ampliar muito a capacidade de treinar modelos próprios. Expansão: a empresa investirá em um supercluster para treinar frontier models internamente e manterá produtos compatíveis com múltiplos modelos. Validação: confirmação em town hall interno reportado pelo The Verge.

  2. Quantas GPUs foram usadas no MAI-1-preview?

    Resposta direta: cerca de 15 mil Nvidia H100. Expansão: Suleyman disse que esse cluster é pequeno no panorama atual e que a Microsoft planeja estruturas 6–10× maiores. Validação: citação atribuída por Tom Warren (The Verge).

  3. Isso muda a parceria com a OpenAI?

    Resposta direta: cooperação continua, com mais autonomia interna. Expansão: a Microsoft seguirá suportando múltiplos modelos em produtos, enquanto expande o treino in-house para reduzir custos e riscos. Validação: falas de Nadella e Suleyman na reunião interna, reportadas pelo The Verge.

  4. O Microsoft 365 usará modelos da Anthropic?

    Resposta direta: sim, em partes, segundo o The Information. Expansão: alguns recursos do 365 Copilot devem ser parcialmente abastecidos por modelos Anthropic, que superaram opções da OpenAI em testes de Excel e PowerPoint. Validação: reportagem do The Information citada na cobertura.

  5. Quais os impactos práticos para usuários?

    Resposta direta: melhor desempenho e novas funções no Copilot. Expansão: clusters maiores tendem a reduzir latência, melhorar a qualidade de respostas e habilitar recursos mais avançados em 365, GitHub e Azure AI. Validação: inferência baseada na estratégia anunciada e histórico de evolução dos copilots.

Considerações finais sobre Microsoft investe em treinar modelos de IA proprios

A Microsoft sinaliza uma segunda fase da sua estratégia de IA: além de integrar parceiros, quer dominar a capacidade de treinar e operar modelos de ponta. Com planos de multiplicar por 6–10× sua infraestrutura além dos 15 mil H100 usados no MAI-1-preview, o objetivo é acelerar produtos como Copilot e fortalecer a resiliência tecnológica. O movimento preserva a cooperação com a OpenAI e adiciona a Anthropic como fornecedora tática, compondo uma arquitetura multimodelos orientada a desempenho, custo e confiabilidade.

Diogo Fernando

Apaixonado por tecnologia e cultura pop, programo para resolver problemas e transformar vidas. Empreendedor e geek, busco novas ideias e desafios. Acredito na tecnologia como superpoder do século XXI.

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
0
Adoraria saber sua opinião, comente.x