NoticiasInteligência ArtificialTecnologia

Sora 2 da OpenAI chega com física realista

Sora 2 da OpenAI chega com física realista

Anunciado em 30 de setembro de 2025, o Sora 2 é o novo modelo de geração de vídeo e áudio da OpenAI. A atualização promete física mais fiel ao mundo real, maior controle de cenas (inclusive em múltiplos planos) e diálogos e efeitos sonoros sincronizados.

A estreia vem acompanhada de um novo app social para iOS, chamado apenas “Sora”, com o recurso de cameos para inserir sua aparência e voz em cenas geradas por IA. O lançamento começa com convite nos EUA e Canadá, com expansão rápida prevista, Sora 2 gratuito com limites generosos, opção Sora 2 Pro para assinantes do ChatGPT Pro no sora.com e planos de chegada à API. O Sora 1 Turbo seguirá disponível e sua biblioteca permanece intacta.

O que muda no Sora 2

Se o primeiro Sora (fevereiro de 2024) foi o “momento GPT‑1” do vídeo, o Sora 2 busca um salto para um “momento GPT‑3.5”: cenas complexas com simulação de mundo mais consistente, persistência de estado e comportamentos emergentes difíceis para modelos anteriores. A OpenAI destaca domínio mais robusto de pre-training e post-training em grande escala de dados de vídeo — áreas ainda incipientes quando comparadas ao texto, mas cruciais para aproximar a IA de um simulador geral do mundo físico.

Prompt: Bigfoot is really kind to him, a little too kind, like oddly kind. Bigfoot wants to hang out but he he wants to hang too much

Física mais realista e falhas “plausíveis”

Modelos anteriores frequentemente “forçavam” o sucesso do pedido textual, deformando objetos ou “teletransportando” itens para cumprir o prompt. O Sora 2 tenta evitar esses atalhos: se um jogador de basquete erra o arremesso, a bola rebate no aro/placa em vez de surgir no cesto. Em tarefas mais extremas — como rotinas de ginástica olímpica, mortais para trás em stand-up paddle com dinâmica de flutuabilidade e rigidez, ou triplo axel — o modelo demonstra melhor obediência a leis físicas. Quando erra, muitos “erros” parecem vir do agente interno que o Sora 2 implicitamente simula, não de quebras arbitrárias da realidade, preservando a verossimilhança.

Persistência de estado

O Sora 2 acompanha objetos, iluminação e posição em múltiplos planos de câmera, mantendo consistência temporal e espacial entre tomadas, um desafio clássico em geração de vídeo.

Mais controle, mais estilos

O novo modelo segue instruções intrincadas, em múltiplos takes, com fidelidade à continuidade da cena. Em termos de estética, se sobressai em estilos realista/cinematográfico e anime, sem perder controle de câmera e composição descritos no prompt.

Vídeo + áudio: diálogos e efeitos sincronizados

O Sora 2 gera paisagens sonoras, fala e efeitos com alto grau de realismo, e sincroniza diálogo e sons com o vídeo. Isso amplia uso em narrativas, publicidade e prototipagem audiovisual, reduzindo a necessidade de sound design manual em etapas iniciais.

“Cameos”: traga a vida real para a cena

Ao observar um vídeo curto seu (gravado no app, para verificação e captura de traços), o Sora 2 pode inserir você — ou amigos — em ambientes gerados, preservando aparência e voz com precisão. A OpenAI relata que o recurso é geral e funciona para humanos, animais e objetos, com controle do titular sobre uso e revogação.

Novo app social “Sora” para iOS

A OpenAI está lançando um app social para iOS, disponível na App Store, focado em criar, remixar e descobrir vídeos gerados com Sora 2. O feed é customizável e prioriza conteúdos de quem você segue/interage e vídeos que tendem a inspirar suas próprias criações. A OpenAI afirma que não otimiza para tempo de consumo; a meta é maximizar a criação. O acesso começa por convite, para entrar com amigos e explorar os cameos.

“Estamos no início de uma nova era de experiências co‑criativas. O Sora 2 deve trazer mais alegria, criatividade e conexão.”

Sora Team (OpenAI)

Lançamento responsável: bem‑estar e segurança

A OpenAI publicou princípios para o feed do app (Feed Philosophy) e um documento de segurança (Sora 2 Safety). Entre as medidas:

  • Controle do usuário sobre o que aparece no feed, com recomendação instrutível em linguagem natural.
  • Pesquisas periódicas de bem‑estar e ajustes proativos do feed.
  • Foco em criação, não em maximizar tempo de tela (sem “otimização de rolagem infinita”).
  • Proteção a adolescentes: limites diários de gerações no feed e permissões mais rígidas para cameos.
  • Controles parentais via ChatGPT: desativar personalização algorítmica, ajustar DMs e limitar rolagem.
  • Moderação humana escalada para revisar casos de bullying.
  • Consentimento e revogação: você decide quem usa seu cameo e pode remover vídeos a qualquer momento.

Quanto à monetização, a OpenAI diz que, por ora, considera apenas pagamento opcional para gerar vídeos extras caso a demanda supere a computação disponível, com transparência sobre mudanças futuras.

Disponibilidade e próximos passos

App iOSDownload; alerta push quando o acesso abrir
PaísesInício nos EUA e Canadá; expansão rápida prevista
PreçoGratuito no começo, com limites generosos (sujeito a computação)
Websora.com (acesso após convite)
ProSora 2 Pro experimental no sora.com para ChatGPT Pro; em breve no app
APIPlanejada
LegadoSora 1 Turbo continua disponível; sua biblioteca permanece

Fontes e materiais oficiais

Todos os links acima são da OpenAI e detalham arquitetura, segurança e filosofia de design do produto.


  1. O que é o Sora 2 e por que ele importa?

    Resposta direta: Sora 2 é o novo modelo de vídeo+áudio da OpenAI. Expansão: Ele traz simulação de mundo mais fiel, física realista, controles multi‑tomada e áudio sincronizado, elevando a criação audiovisual por IA. Validação: Baseado em docs oficiais (System Card, Safety, Feed Philosophy).

  2. Como funcionam os cameos (aparência e voz)?

    Resposta direta: você grava um vídeo curto no app. Expansão: O sistema captura traços para inserir sua aparência e voz com fidelidade em cenas geradas; você controla quem pode usar e pode revogar a qualquer momento. Validação: Políticas de consentimento e segurança da OpenAI (Sora 2 Safety).

  3. O Sora 2 já está disponível no meu país?

    Resposta direta: início nos EUA e Canadá. Expansão: Faça o download do app iOS, ative o aviso por push e aguarde convite; expansão para outros países é planejada rapidamente. Validação: Nota de disponibilidade oficial da OpenAI e página do app na App Store.

  4. Qual a diferença entre Sora 2 e Sora 2 Pro?

    Resposta direta: Pro é uma versão experimental de maior qualidade. Expansão: Disponível em sora.com para assinantes ChatGPT Pro (e em breve no app), oferecendo geração superior sujeita a limites de computação. Validação: Anúncio da OpenAI e documentação de produto.

  5. Há controles parentais e proteção a adolescentes?

    Resposta direta: sim, com limites e ajustes. Expansão: Limites de gerações no feed para teens, permissões mais rígidas em cameos e controles parentais via ChatGPT para personalização e DMs. Validação: Feed Philosophy e Sora 2 Safety descritos pela OpenAI.

Considerações finais

O Sora 2 sinaliza um avanço importante para vídeo gerado por IA, aproximando a tecnologia de um simulador geral do mundo. A combinação de física mais estável, controle de narrativa e áudio sincronizado abre caminho para novas formas de criação e prototipagem. Com o app Sora, a OpenAI aposta em experiências co‑criativas ancoradas em bem‑estar e consentimento. A disponibilidade começando por EUA e Canadá, a opção Sora 2 Pro e os planos de API indicam uma expansão acelerada. Agora, a principal pergunta é como criadores, marcas e educadores transformarão esse novo poder de geração em histórias que conectem — com responsabilidade.

Diogo Fernando

Apaixonado por tecnologia e cultura pop, programo para resolver problemas e transformar vidas. Empreendedor e geek, busco novas ideias e desafios. Acredito na tecnologia como superpoder do século XXI.

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
0
Adoraria saber sua opinião, comente.x