Hackers usam ChatGPT e Grok em golpes com links patrocinados
Uma nova tática de cibercrime está preocupando especialistas em cibersegurança: hackers têm explorado as inteligências artificiais ChatGPT e Grok para disseminar malware por meio de links patrocinados no Google Ads. A prática foi denunciada em dezembro de 2025 pela empresa de segurança Huntress, que identificou um aumento nos ataques baseados em engenharia social digital.
Tabela de conteúdos
O golpe que explora a confiança nos assistentes de IA
Segundo o relatório da Huntress, os invasores iniciam diálogos com IA populares, como ChatGPT e Grok, utilizando termos de busca frequentes – por exemplo, “como formatar o HD” ou “como corrigir erro no sistema”. Durante a conversa, manipulam os modelos para sugerirem comandos de terminal adulterados, que ao serem executados, instalam códigos maliciosos sem levantar suspeitas.

Os hackers tornam essas conversas públicas e as promovem via Google Ads. Assim, quando usuários pesquisam o mesmo problema, o link patrocinado aparece como primeiro resultado e apresenta a suposta solução validada pela IA. Confiando na recomendação, a vítima executa o comando no terminal e compromete o sistema.
Casos confirmados e falhas exploradas
Durante uma investigação de exfiltração de dados em computadores Mac, a Huntress detectou o malware AMOS, instalado após o usuário copiar um comando fraudulento que vinha de um link patrocinado aparentemente confiável. O caso mostrou que tanto o ChatGPT quanto o Grok podem ser induzidos a gerar instruções maliciosas, quando manipulados de modo específico.

Mesmo após o alerta, os links permaneceram ativos por até 12 horas no Google Ads, permitindo novas infecções. Isso demonstra a persistência e eficiência da estratégia criminosa, que contorna filtros tradicionais de segurança ao imitar o comportamento legítimo de IA e publicidade.
Por que o golpe é tão eficaz
O sucesso da fraude se baseia na combinação entre dois fatores: a autoridade percebida das ferramentas de IA e a confiança nos anúncios do Google. Isso cria o que especialistas chamam de “dupla validação cognitiva”: o usuário acredita que, se a resposta vem de uma IA amplamente utilizada e aparece nos primeiros resultados buscados, ela é automaticamente segura – o que, neste caso, é um erro grave.
“É um ataque de engenharia social de última geração: usa a própria confiança do usuário na IA para infectá-lo.”
Equipe de pesquisa da Huntress
Como se proteger de golpes com IA e links patrocinados
- Evite executar comandos sugeridos por chatbots de IA sem entender sua função.
- Desconfie de resultados patrocinados, principalmente envolvendo instruções técnicas.
- Prefira sites oficiais e documentação original para resolver problemas de software.
- Mantenha o sistema operacional e antivírus atualizados.
- Consulte fóruns e especialistas antes de seguir comandos no terminal.
Impacto na confiança em IA e no ecossistema digital
Esse tipo de ataque coloca em xeque a confiança em modelos de linguagem como o ChatGPT e o Grok, especialmente em contextos de automação técnica. Para as empresas, o episódio reforça a urgência de aplicar filtros mais avançados de moderação, enquanto os usuários precisam adotar uma postura crítica diante de recomendações automatizadas.
A Huntress alertou que novas variantes do golpe podem surgir, aproveitando-se da integração crescente entre IA e motores de busca. Por isso, a conscientização continua sendo a principal barreira contra infecções futuras.
Considerações finais dos Hackers usam ChatGPT e Grok
Com os ataques se sofisticando e usando plataformas legítimas como o Google Ads, a fronteira entre conteúdo real e malicioso fica cada vez mais tênue. Portanto, a educação digital e o pensamento crítico tornam-se essenciais para garantir uma navegação segura no ambiente virtual dominado por inteligências artificiais.
Como hackers usam o ChatGPT para espalhar malware?
Os cibercriminosos manipulam o ChatGPT para gerar comandos adulterados, transformam essas respostas em anúncios pagos do Google e enganam usuários que buscam soluções técnicas rápidas.
Como se proteger dos ataques com links patrocinados falsos?
Verifique sempre a origem do site, evite copiar comandos de fontes desconhecidas e use ferramentas de segurança atualizadas. Desconfie de links patrocinados com soluções fáceis.
O Grok também é vulnerável a esse tipo de manipulação?
Sim. Pesquisas da Huntress mostraram que o Grok também pode ser induzido a sugerir comandos perigosos, assim como o ChatGPT, quando explorado intencionalmente.

