Google lança Gemini Robotics On-Device para robôs offline
O Google DeepMind anunciou, nesta terça-feira (24), o Gemini Robotics On-Device, um modelo de linguagem dedicado a robótica que roda inteiramente no hardware do robô, sem necessidade de conexão com a internet. A novidade — que chega apenas três meses após o lançamento do Gemini Robotics original — promete reduzir latência, aumentar a segurança de dados e democratizar o desenvolvimento de robôs capazes de desembalar bolsas, dobrar roupas e até realizar montagem em linhas industriais. O modelo já foi demonstrado em plataformas como o ALOHA, o braço duplo Franka FR3 e o humanoide Apollo, evidenciando sua flexibilidade. Com o lançamento, o Google também disponibilizou um SDK aberto para que desenvolvedores treinem novos comportamentos com apenas 50 a 100 demonstrações no simulador MuJoCo.
O que é o Gemini Robotics On-Device?
O Gemini Robotics On-Device é a versão embarcada do modelo anunciado em março. Enquanto a edição anterior dependia de processamento em nuvem, a nova variante foi otimizada para rodar em chips ARM e GPUs compactas presentes em robôs de pesquisa e, futuramente, em aparelhos domésticos. Segundo o Google, o desempenho em benchmark fica “muito próximo” do original, superando outros modelos embarcados rivais — embora a empresa não tenha revelado quais foram os concorrentes avaliados.
Graças à arquitetura multimodal do Gemini, o modelo interpreta texto, imagem e estado físico dos sensores, permitindo que o robô compreenda comandos em linguagem natural (“pegue a caneca azul à esquerda da pia”) e os traduza em trajetórias motoras seguras. Para o usuário final, isso significa robôs mais autônomos e aptos a operar em ambientes sem Wi-Fi, como fazendas, fábricas com sinal restrito ou até missões espaciais.
Como o modelo foi treinado e testado
De acordo com o blog oficial do projeto, pesquisadores do DeepMind usaram milhões de pares de dados sintéticos gerados no simulador MuJoCo para ensinar o robô a reconhecer relações entre objetos, forças e resultados de ação. A seguir, aplicaram fine-tuning com 50 a 100 demonstrações reais por tarefa, gravadas por operadores humanos em laboratórios. Esse volume reduzido reduz custos e viabiliza que equipes menores adaptem a IA para contextos específicos.
Em testes divulgados pela empresa, o braço duplo Franka FR3 conseguiu montar componentes em uma esteira industrial, mesmo quando peças foram aleatoriamente reorientadas. Já o humanoide Apollo executou tarefas domésticas inéditas para ele, como fechar zíperes e dobrar camisetas, com taxa de sucesso acima de 80%.
On-Device x Nuvem: principais diferenças
- Latência — Processamento local reduz o tempo entre comando e ação para milissegundos.
- Privacidade — Dados sensoriais permanecem no robô, cumprindo requisitos de setores regulados.
- Conectividade — Operação garantida em ambientes sem internet ou com rede instável.
- Custo em escala — Menos dependência de servidores na nuvem reduz despesas operacionais.
“Colocar a inteligência diretamente no robô acelera o ciclo percepção-ação e abre caminho para aplicações onde a nuvem não é opção.”
Vincent Vanhoucke, VP de Engenharia, Google DeepMind
O que muda para desenvolvedores e mercado
Junto ao modelo, a companhia liberou o Gemini Robotics SDK, conjunto de ferramentas em código aberto que facilita a integração com simuladores e hardwares populares. Isso deve acelerar o surgimento de startups focadas em tarefas de nicho, como colheita de frutas, inspeção de turbinas e manipulação de materiais perigosos.
Para fabricantes, a combinação de IA embarcada e demonstrações rápidas reduz o time-to-market. Já para investidores, sinaliza um campo fértil: o Google compete com a Nvidia, que desenvolve a plataforma GR00T, e com a Hugging Face, que aposta em modelos abertos e até em robôs próprios. Na Ásia, a sul-coreana RLWRLD captou US$ 14,4 milhões para criar um modelo de fundação similar.
Concorrência e tendências em robótica generativa
O avanço do Gemini On-Device confirma uma tendência: modelos generativos multimodais tornarão robôs tão adaptáveis quanto chatbots. A disputa hoje envolve principalmente:
- Nvidia + parceiros humanoides: foco em hardware otimizado para IA.
- Hugging Face: aposta em comunidade open source para acelerar pesquisa.
- Startups regionais: soluções verticais em logística, saúde e agricultura.
Especialistas apontam que, em médio prazo, veremos robôs “poliglotas” capazes de mudar comportamentos via download de skills, repetindo o que já acontece com aplicativos em smartphones. O fator decisivo será quão rápido cada fornecedor consegue treinar e empacotar esses modelos sem comprometer consumo energético.
Disponibilidade, limitações e próximos passos
O acesso ao Gemini Robotics On-Device está, por enquanto, restrito a parceiros de pesquisa e empresas inscritas no programa Early Adopters do Google Cloud. A empresa não revelou cronograma para liberação geral, mas afirmou que versões otimizadas para processadores TPU integrados chegarão “nos próximos meses”.
Limitações atuais incluem necessidade de hardware dedicado, ausência de suporte oficial a ROS2 e falta de certificações de segurança industrial. Ainda assim, analistas veem o anúncio como um divisor de águas. “Ao viabilizar IA robusta sem nuvem, o Google acelera a adoção em setores onde cada milissegundo conta”, resume a consultoria ABI Research.
FAQ — Perguntas frequentes
Como posso testar o Gemini Robotics On-Device?
Resposta curta: inscreva-se no programa Early Adopters do Google Cloud ou acesse o SDK público. Detalhamento: Embora o modelo completo exija aprovação, o SDK e simulações no MuJoCo já permitem experimentação com dados sintéticos e até 100 demonstrações reais. Validação: declaração oficial do Google DeepMind em 24/06/2025.
Quais robôs são compatíveis de saída?
Resposta curta: ALOHA, Franka FR3 e Apollo. Detalhamento: Esses modelos receberam ajustes pela equipe do Google e servem como referência para outras plataformas de braço único ou duplo e humanoides. Validação: lista divulgada no post de lançamento.
O modelo funciona totalmente offline?
Resposta curta: Sim, após o carregamento inicial. Detalhamento: A inferência ocorre no hardware do robô, mas downloads de pesos e atualizações podem exigir conexão ocasional. Validação: testes internos da Google apresentados em benchmark de junho de 2025.
Há custo para usar o SDK?
Resposta curta: Não, o SDK é open source. Detalhamento: O código está disponível no GitHub sob licença Apache 2.0; custos ficam restritos ao hardware e ao tempo de treinamento. Validação: repositório oficial liberado em 24/06/2025.
Considerações finais
Com o Gemini Robotics On-Device, o Google dá um passo estratégico para colocar inteligência artificial avançada diretamente no “coração” dos robôs, minimizando dependências externas e abrindo novas fronteiras de aplicação. A corrida agora é por eficiência energética, padronização de protocolos e ampliação do ecossistema. Se os planos se concretizarem, tarefas hoje restritas a laboratórios podem chegar a fábricas, lares e até zonas de desastre, redefinindo a relação entre humanos e máquinas.