Deep Cogito lança 4 modelos abertos de IA com intuição autoaperfeiçoada
Deep Cogito, startup de IA sediada em São Francisco, surpreendeu o setor ao lançar quatro novos modelos de linguagem abertos projetados para raciocínio híbrido com intuição autoaperfeiçoada. As novidades, anunciadas em 31 de julho de 2025, marcam um avanço significativo para desenvolvedores e empresas que buscam soluções de inteligência artificial mais eficientes, acessíveis e autônomas. Os modelos da família Cogito v2 se destacam pela capacidade de aprender e melhorar suas cadeias de raciocínio ao longo do tempo, oferecendo respostas mais precisas, curtas e econômicas em termos de processamento.
Tabela de conteúdos
O que são os novos modelos Cogito v2?
Os modelos Cogito v2 chegam em quatro variantes, com diferentes tamanhos e arquiteturas para se adaptar a múltiplos cenários de uso:
- Cogito v2-70B (Dense)
- Cogito v2-109B (Mixture-of-experts/MoE)
- Cogito v2-405B (Dense)
- Cogito v2-671B (MoE)
As versões “Dense” utilizam todos os parâmetros em cada inferência, ideais para baixa latência e ajustes finos mesmo em ambientes com GPUs restritas. Já as “MoE” (mixture of experts) ativam subconjuntos especializados, possibilitando maior escala sem aumento proporcional de custo computacional, essenciais para tarefas de alta complexidade.
Destaques e diferenciais dos modelos abertos Deep Cogito
- Modelos disponíveis de 70B a 671B parâmetros
- Licenças abertas e variantes limitadas, acessíveis por Hugging Face, Unsloth e APIs de Together AI, Baseten e RunPod.
- Versão quantizada em FP8 para rodar modelos massivos com hardware acessível, reduzindo custos e tempo de resposta.
- Treinamento com reflexão interna e iteração das cadeias de raciocínio (machine intuition) para evolução constante.
- Eficiência inédita: modelos treinados por menos de US$3,5 milhões, valor muito abaixo do padrão para IA de fronteira.
Como funciona a intuição autoaperfeiçoada (machine intuition)?
O principal diferencial do Cogito v2 é incorporar a intuição “autotreinada” no próprio processo de aprendizado, não só na execução. Durante o treinamento, o modelo é estimulado a distilar suas próprias cadeias de raciocínio — caminhos mentais percorridos até uma resposta. Assim, aprende a evitar desvios desnecessários e a privilegiar trajetórias de solução mais diretas e produtivas, aprimorando suas respostas a cada iteração
“Os modelos Cogito desenvolvem melhor intuição do trajeto que devem percorrer ao raciocinar, resultando em cadeias 60% mais curtas que as do DeepSeek R1”
Drishan Arora, CEO da Deep Cogito (via X)
Aplicações e benchmarks: em que os modelos Cogito v2 se destacam?
Nos testes realizados, o Cogito v2-671B MoE igualou ou superou os líderes em benchmarks abertos como MMLU, GSM8K e MGSM, além de alcançar o patamar de modelos fechados como Claude 4 Opus. Por usarem cadeias de raciocínio menores, implicam menos custo em tempo de processamento e respostas mais ágeis — essenciais para uso empresarial ou local.
- Resolução de problemas matemáticos: Cogito calcula respostas corretas usando menos etapas e evita erros comuns de conversão de unidades.
- Raciocínio jurídico e lógico: Justifica decisões complexas com respostas fundamentadas e sintéticas.
- Interpretação de perguntas ambíguas: Identifica relações familiares mesmo em perguntas reescritas e com pronomes diversos.
Acesso, uso e ambiente open source
Os modelos podem ser baixados por desenvolvedores para uso local, experimentados em diferentes modos (reflexivo ou direto) e ajustados para tarefas específicas de empresas e pesquisadores. Há versões otimizadas para hardware mais simples (FP8) e suporte de empresas-parceiras como Hugging Face, Together AI, Baseten, RunPod e Unsloth. Toda a linha Cogito permanece com código aberto, incentivando adaptações e experimentações pela comunidade IA global.
Por que esse lançamento importa para a IA?
Criando modelos que aprendem a pensar melhor (não apenas mais), a Deep Cogito propõe uma filosofia diferente: menos tokens, mais inteligência e eficiência. O método de distilação iterativa com ampliação (IDA) sugere um caminho para IA realmente autônoma, capaz de gerar soluções criativas, justificar respostas e reduzir consumo computacional. Esse modelo pode inaugurar uma nova geração de LLMs abertos eficazes para múltiplos usos — de assistentes personalizados a aplicações empresariais criticas.
Considerações finais
O lançamento do Cogito v2 reafirma a força da comunidade open source e coloca a Deep Cogito entre as iniciativas líderes na busca por IA eficiente, transparente e com raciocínio avançado — indo além do simples processamento para criar “intuição” de máquina. A expectativa para próximos passos está alta, tanto para desenvolvedores como indústrias que já colhem benefícios tangíveis com inferências mais rápidas e precisas.
Onde baixar os modelos Deep Cogito v2?
Os modelos Cogito v2 estão disponíveis para download gratuito na Hugging Face e para uso local via Unsloth. Também é possível acessá-los por APIs da Together AI, Baseten e RunPod, com diferentes níveis de licença, incluindo código aberto. Isso facilita testes, integrações e ajustes para projetos próprios ou empresariais.
Por que a intuição autoaperfeiçoada é inovação na IA?
A intuição autoaperfeiçoada permite que o modelo refine constantemente seus caminhos de resposta, tomando atalhos lógicos a cada nova iteração. Isso traz mais assertividade, desempenho e eficiência — essenciais para aplicações em larga escala e ambientes com restrição de hardware, reduzindo custos e tempo de processamento.
Qual modelo Cogito v2 escolher para meu projeto?
Modelos Dense (70B, 405B) são indicados para ambientes com GPU limitada e aplicações de baixa latência. Modelos MoE (109B, 671B) se destacam em tarefas complexas e benchmarks de ponta, com grande escalabilidade e menor custo computacional por parâmetro ativado.
A Cogito v2 supera os benchmarks de grandes concorrentes?
Sim, nos testes divulgados, o Cogito v2-671B MoE igualou ou superou modelos abertos líderes e se aproximou do desempenho de modelos fechados prestigiosos, mantendo cadeias de raciocínio menores e respostas mais rápidas — diferencial competitivo para aplicações críticas.