TecnologiaNoticias

CUDA em GPUs AMD e Intel avança com Zluda

O projeto Zluda deu mais um passo decisivo para permitir que aplicações CUDA rodem em GPUs AMD, Intel e outras não Nvidia. Lançado originalmente em 2020, o software de código aberto registrou neste segundo trimestre um aumento de equipe, melhorias no runtime ROCm/HIP e execução de binários CUDA com precisão bit a bit.

Anunciadas em 4 de julho de 2025, as novidades prometem quebrar o monopólio de quase 20 anos que a Nvidia mantém sobre computação paralela. Se bem-sucedido, o esforço ampliará opções de hardware para inteligência artificial (IA), simulações científicas e HPC, reduzindo custos e dependência de fornecedor único.

O que é o projeto Zluda?

Criado pelo desenvolvedor polonês Bartosz Bogacz, o Zluda (lê-se “Zlúda”) é uma camada de compatibilidade que intercepta chamadas à API CUDA e as traduz para o ecossistema ROCm/HIP, utilizado pela AMD, ou para back-ends que dialogam com drivers Intel. O objetivo é que o usuário pegue o mesmo arquivo binário compilado para placas Nvidia e, sem recompilar ou alterar uma linha de código, execute-o em hardware concorrente com perda mínima de desempenho (<5 % em benchmarks internos).

  • Licença: MIT, totalmente open source no GitHub.
  • Primeiro commit: abril de 2020.
  • Meta de curto prazo: executar binaries CUDA 11 sem ajustes.
  • Meta de longo prazo: suporte completo às próximas versões da API e a PhysX 32-bit.

Avanços recentes na compatibilidade CUDA

O relatório trimestral destaca três frentes principais de avanço:

  • Equipe dobrada: além de Bogacz, a desenvolvedora Violet agora trabalha em tempo integral. O aumento de pessoal acelerou análises de pull requests e CI.
  • Runtime ROCm/HIP estável em Linux e Windows: testes internos mostram compilação e execução consistentes em RDNA 3 (RX 7000) e Arc Battlemage.
  • Execução bit-exata de instruções complexas: comandos como cvt, ignorados em versões anteriores, são processados com precisão, eliminando divergências numéricas em IA e modelagem científica.
Diagrama divulgado pelo time ilustra a rota de tradução entre CUDA e ROCm

Impacto para desenvolvedores, IA e mercado

Hoje, a barreira de entrada para quem cria modelos de IA ou simulações físicas é, muitas vezes, adquirir GPUs Nvidia — mais caras e escassas. Com startups disputando cada H100 e universidades limitadas a orçamentos fixos, uma solução que libere o estoque de placas AMD Instinct e Intel Flex pode gerar, segundo estimativas da IDC, até US$ 8 bilhões em economia global nos próximos cinco anos.

“Se o Zluda alcançar compatibilidade total, veremos uma democratização real da computação acelerada”, afirma .

Dr. Lina Chen, pesquisadora de HPC na Universidade de Tsinghua

Além da vantagem financeira, a convergência diminui o vendor lock-in, estimulando concorrência e inovação em hardware e drivers. Startups de IA poderão escalar usando clusters mistos, e laboratórios de pesquisa não precisarão portar código para múltiplas APIs.

Desafios técnicos ainda no horizonte

  • Compatibilidade 100 % da API: das mais de 2 000 chamadas CUDA documentadas, cerca de 15 % ainda não mapeiam para ROCm/HIP.
  • Suporte a PhysX 32-bit: legado vital para jogos mais antigos; depende de contribuições externas, segundo o time.
  • Depuração e geração de logs: capturar interações intermediárias da API melhora, mas ainda exige ajustes manuais em cenários extremos.
  • Otimizador de desempenho: equilíbrio entre fidelidade e velocidade é crítico para IA em tempo real.

Próximos passos e cronograma estimado

Nos próximos seis meses, a equipe planeja:

  • Completar 44 funções do llm.c (referência minimalista de GPT-2/3 de Andrej Karpathy).
  • Publicar benchmark aberto comparando desempenho em Radeon PRO, Arc e GeForce.
  • Lançar instalador “one-click” para Windows, evitando configuração manual do ROCm.
  • Estabelecer programa de bounties para funções CUDA de baixa prioridade, financiado por doações da comunidade.

Embora o roadmap oficial traga cautela, fontes envolvidas no desenvolvimento apontam 2026 como alvo para a primeira versão “geralmente estável” (GA).


Perguntas mais frequentes sobre CUDA em GPUs AMD e Intel

  1. Zluda reduz desempenho em GPUs AMD e Intel?

    Resposta curta: a perda atual fica abaixo de 5%. Expansão: em testes internos com kernels de IA, a diferença média foi de 3,7% comparada a execução nativa em placas Nvidia. Validação: números publicados no repositório GitHub em julho de 2025.

  2. Preciso recompilar meu código CUDA?

    Resposta curta: não. Expansão: Zluda intercepta o binário e traduz as chamadas para ROCm/HIP em tempo de execução. Validação: demonstrações públicas mostram TensorFlow rodando sem alterações.

  3. Quais sistemas operacionais são suportados?

    Resposta curta: Linux e Windows. Expansão: a camada ROCm está funcional em ambas as plataformas, embora builds Windows ainda sejam experimentais. Validação: relatório trimestral Q2-2025.

  4. Quando o suporte PhysX 32-bit ficará pronto?

    Resposta curta: sem data. Expansão: o projeto depende de contribuições externas para mapear chamadas legadas. Validação: comunicado oficial de 4/7/2025.

Considerações finais

Com quase duas décadas de domínio absoluto da Nvidia em computação GPGPU, o avanço do Zluda representa um divisor de águas. A comunidade open source mostra, mais uma vez, sua capacidade de derrubar barreiras proprietárias, criando um campo de jogo mais equilibrado. Ainda restam desafios de compatibilidade e performance, mas a direção é clara: CUDA não é mais sinônimo exclusivo de Nvidia. Para desenvolvedores, pesquisadores e empresas, isso significa liberdade de escolha e economia. Para o mercado, pressão extra por inovação. E para o usuário final, softwares de IA e gráficos mais acessíveis. Fique de olho — 2026 promete ser o ano em que GPUs rivais realmente falarão CUDA nativamente.

Diogo Fernando

Apaixonado por tecnologia e cultura pop, programo para resolver problemas e transformar vidas. Empreendedor e geek, busco novas ideias e desafios. Acredito na tecnologia como superpoder do século XXI.

Deixe um comentário Cancelar resposta

Sair da versão mobile