NoticiasInteligência ArtificialTecnologia

Google identifica malware com IA que cria novos códigos

PUBLICIDADE

O Google revelou um novo tipo de malware com inteligência artificial capaz de gerar partes do próprio código usando modelos de linguagem. Essa descoberta aponta uma possível nova etapa na evolução do cibercrime, mesmo que ainda em fase experimental. Segundo o relatório publicado pela empresa, as amostras de ameaças de malware com IA detectadas utilizam prompts e APIs de modelos generativos para tentar escapar da detecção de antivírus e reforçar seus ataques.

Google detecta novos tipos de malware com IA generativa

De acordo com o relatório, foram identificadas famílias de malware como o PromptFlux e o PromptSteal. O primeiro utiliza a API do Gemini — o modelo de linguagem do próprio Google — para reescrever partes do código-fonte e assim disfarçar suas ações durante a execução. Já o segundo conecta-se a um modelo hospedado no Hugging Face com o objetivo de gerar comandos e extrair dados da máquina infectada.

Esses códigos, embora engenhosos em conceito, mostram limitações práticas. Os pesquisadores afirmam que as implementações atuais desses malwares são frágeis e majoritariamente ineficazes. Ainda assim, o uso de IA generativa dentro de ameaças digitais demonstra a tentativa de grupos cibercriminosos em explorar novas ferramentas para driblar sistemas tradicionais de defesa.

PUBLICIDADE

Malwares como o PromptLock desafiam o limite entre estudo e ataque

Outro exemplo citado no documento do Google é o PromptLock. Diferente dos demais, ele foi desenvolvido por pesquisadores acadêmicos para analisar se os modelos de linguagem de larga escala (LLM) poderiam executar ataques do tipo ransomware de forma autônoma. A experiência mostrou que, embora seja possível gerar pedaços de código com auxílio de IA, o modelo ainda não é capaz de realizar operações complexas sem comando humano constante.

“Vibe coding” e o futuro da automação de ameaças

Os pesquisadores afirmam que as novas amostras de malware já indicam uma evolução em relação ao comportamento observado em 2024, quando hackers usavam IA apenas como ferramenta de apoio técnico. Agora, o objetivo é fazer com que os algoritmos também planejem e adaptem suas ações, um processo apelidado de vibe coding no relatório.

Especialistas minimizam riscos atuais dos malwares com IA

Apesar do alarde, nomes de peso na comunidade de cibersegurança apontam que essas descobertas não representam um risco imediato. O analista Marcus Hutchins, conhecido por deter o ransomware WannaCry, destacou no LinkedIn que os prompts utilizados pelos malwares analisados são rudimentares, sem instruções claras sobre como escapar de antivírus.

Ele explica que assumir que um modelo como o Gemini saberia instintivamente gerar um ataque funcional é um equívoco. Já o especialista Kevin Beaumont reforçou que muitas amostras encontradas pelo Google sequer executam corretamente e que qualquer sistema com segurança básica está imune a essas tentativas.

Google corrige falha que permitia código malicioso no Gemini

Além de mapear o uso indevido de IA por malwares, o Google revelou que o próprio Gemini apresentou falhas. Em um dos testes, atacantes conseguiram enganar o sistema se passando por participantes de uma competição de cibersegurança. O modelo foi induzido a gerar código malicioso sob o pretexto de auditoria ética — algo que a empresa corrigiu rapidamente após o alerta dos pesquisadores internos.

O caso evidencia um ponto importante: à medida que os modelos de linguagem se tornam mais poderosos, cresce também o desafio de restringir seus usos em contextos maliciosos. De acordo com o Google, novas camadas de filtragem foram adicionadas para impedir a criação de comandos que possam comprometer sistemas reais.

Ameaça futura: o risco da automação plena em ataques

Embora os sistemas atuais de malware com IA ainda não consigam agir de forma autônoma e eficaz, especialistas apontam que a evolução das IAs generativas pode levar a um cenário em que ataques cibernéticos se tornem mais difíceis de prever e bloquear. Nesse contexto, a integração de IA em softwares de segurança se torna essencial para o equilíbrio entre ataque e defesa digital.

Perguntas Frequentes sobre malware com IA

  1. Como funcionam os malwares que utilizam IA?

    Esses programas recorrem a modelos de linguagem de larga escala (LLMs) para gerar ou modificar trechos do código automaticamente, tentando burlar os antivírus e alterar o comportamento de ataque em tempo real.

  2. Esses malwares representam um perigo real?

    De acordo com especialistas como Marcus Hutchins e Kevin Beaumont, as versões analisadas ainda falham com frequência e não oferecem ameaça significativa, servindo mais como testes do potencial da IA em invasões futuras.

  3. O Google corrigiu a vulnerabilidade do Gemini?

    Sim. A falha que permitia gerar códigos maliciosos sob pretexto de auditoria foi eliminada, com a inclusão de novos filtros e restrições de uso dentro da API do modelo.

Considerações finais de malware com IA

O surgimento de malwares baseados em inteligência artificial marca o início de uma nova fase no cenário da cibersegurança. Embora ainda limitados, esses experimentos indicam futuros desafios, exigindo monitoramento constante de empresas e pesquisadores. O Google, ao identificar essas ameaças e corrigir vulnerabilidades em seu próprio sistema, reforça a importância de manter processos éticos e rigorosos no desenvolvimento de IA generativa.

Fontes do Ars Technica e da PCMag

Diogo Fernando

Apaixonado por tecnologia e cultura pop, programo para resolver problemas e transformar vidas. Empreendedor e geek, busco novas ideias e desafios. Acredito na tecnologia como superpoder do século XXI.

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
0
Adoraria saber sua opinião, comente.x