NoticiasInteligência ArtificialTecnologia

Hackers usam ChatGPT e Grok em golpes com links patrocinados

PUBLICIDADE

Uma nova tática de cibercrime está preocupando especialistas em cibersegurança: hackers têm explorado as inteligências artificiais ChatGPT e Grok para disseminar malware por meio de links patrocinados no Google Ads. A prática foi denunciada em dezembro de 2025 pela empresa de segurança Huntress, que identificou um aumento nos ataques baseados em engenharia social digital.

O golpe que explora a confiança nos assistentes de IA

Segundo o relatório da Huntress, os invasores iniciam diálogos com IA populares, como ChatGPT e Grok, utilizando termos de busca frequentes – por exemplo, “como formatar o HD” ou “como corrigir erro no sistema”. Durante a conversa, manipulam os modelos para sugerirem comandos de terminal adulterados, que ao serem executados, instalam códigos maliciosos sem levantar suspeitas.

Captura de tela de um link patrocinado usado para golpes com malware
Links patrocinados maliciosos podem parecer idênticos a resultados legítimos

Os hackers tornam essas conversas públicas e as promovem via Google Ads. Assim, quando usuários pesquisam o mesmo problema, o link patrocinado aparece como primeiro resultado e apresenta a suposta solução validada pela IA. Confiando na recomendação, a vítima executa o comando no terminal e compromete o sistema.

PUBLICIDADE

Casos confirmados e falhas exploradas

Durante uma investigação de exfiltração de dados em computadores Mac, a Huntress detectou o malware AMOS, instalado após o usuário copiar um comando fraudulento que vinha de um link patrocinado aparentemente confiável. O caso mostrou que tanto o ChatGPT quanto o Grok podem ser induzidos a gerar instruções maliciosas, quando manipulados de modo específico.

Chatbots de IA manipulados em dispositivo móvel
Chatbots populares podem ser induzidos a gerar comandos nocivos

Mesmo após o alerta, os links permaneceram ativos por até 12 horas no Google Ads, permitindo novas infecções. Isso demonstra a persistência e eficiência da estratégia criminosa, que contorna filtros tradicionais de segurança ao imitar o comportamento legítimo de IA e publicidade.

Por que o golpe é tão eficaz

O sucesso da fraude se baseia na combinação entre dois fatores: a autoridade percebida das ferramentas de IA e a confiança nos anúncios do Google. Isso cria o que especialistas chamam de “dupla validação cognitiva”: o usuário acredita que, se a resposta vem de uma IA amplamente utilizada e aparece nos primeiros resultados buscados, ela é automaticamente segura – o que, neste caso, é um erro grave.

“É um ataque de engenharia social de última geração: usa a própria confiança do usuário na IA para infectá-lo.”

Equipe de pesquisa da Huntress
  • Evite executar comandos sugeridos por chatbots de IA sem entender sua função.
  • Desconfie de resultados patrocinados, principalmente envolvendo instruções técnicas.
  • Prefira sites oficiais e documentação original para resolver problemas de software.
  • Mantenha o sistema operacional e antivírus atualizados.
  • Consulte fóruns e especialistas antes de seguir comandos no terminal.

Impacto na confiança em IA e no ecossistema digital

Esse tipo de ataque coloca em xeque a confiança em modelos de linguagem como o ChatGPT e o Grok, especialmente em contextos de automação técnica. Para as empresas, o episódio reforça a urgência de aplicar filtros mais avançados de moderação, enquanto os usuários precisam adotar uma postura crítica diante de recomendações automatizadas.

A Huntress alertou que novas variantes do golpe podem surgir, aproveitando-se da integração crescente entre IA e motores de busca. Por isso, a conscientização continua sendo a principal barreira contra infecções futuras.

Considerações finais dos Hackers usam ChatGPT e Grok

Com os ataques se sofisticando e usando plataformas legítimas como o Google Ads, a fronteira entre conteúdo real e malicioso fica cada vez mais tênue. Portanto, a educação digital e o pensamento crítico tornam-se essenciais para garantir uma navegação segura no ambiente virtual dominado por inteligências artificiais.


  1. Como hackers usam o ChatGPT para espalhar malware?

    Os cibercriminosos manipulam o ChatGPT para gerar comandos adulterados, transformam essas respostas em anúncios pagos do Google e enganam usuários que buscam soluções técnicas rápidas.

  2. Como se proteger dos ataques com links patrocinados falsos?

    Verifique sempre a origem do site, evite copiar comandos de fontes desconhecidas e use ferramentas de segurança atualizadas. Desconfie de links patrocinados com soluções fáceis.

  3. O Grok também é vulnerável a esse tipo de manipulação?

    Sim. Pesquisas da Huntress mostraram que o Grok também pode ser induzido a sugerir comandos perigosos, assim como o ChatGPT, quando explorado intencionalmente.

Diogo Fernando

Apaixonado por tecnologia e cultura pop, programo para resolver problemas e transformar vidas. Empreendedor e geek, busco novas ideias e desafios. Acredito na tecnologia como superpoder do século XXI.

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
0
Adoraria saber sua opinião, comente.x