Hackers norte-coreanos usam IA para golpes digitais, revela Microsoft
Grupos hackers ligados à Coreia do Norte estão transformando ferramentas de inteligência artificial (IA) em verdadeiros multiplicadores de força para suas operações cibernéticas. Relatórios da Microsoft Threat Intelligence destacam que esses criminosos estão utilizando IA para automatizar fraudes, falsificar identidades e até gerar deepfakes para se infiltrar em empresas do setor de tecnologia.
Tabela de conteúdos
Microsoft identifica operação cibernética responsável por fraudes globais
Segundo o laboratório da Microsoft especializado em ameaças digitais, a capacidade de cibercriminosos norte-coreanos foi significativamente ampliada por meio de IAs generativas. Os grupos identificados — Coral Sleet, Sapphire Sleet e Jasper Sleet — estão recorrendo a esses recursos para automatizar ataques, aprimorar engenharia social e desenvolver softwares maliciosos mais sofisticados.
Essas ferramentas permitem que os hackers criem scripts e códigos maliciosos com alta precisão, além de ocultar rastros de detecção em redes corporativas. De acordo com o relatório, as IAs são usadas desde o estágio de reconhecimento de alvos até a manipulação de respostas automáticas para manter a confiança de suas vítimas.
Engenharia social e IA: a nova combinação perigosa
Os grupos se aproveitam especialmente de sites de emprego e plataformas de freelancers. Utilizando IA, o grupo Jasper Sleet analisa descrições de vagas e molda currículos falsos que replicam perfeitamente os requisitos procurados pelas empresas. Em seguida, as IAs ajudam a construir perfis fictícios altamente convincentes, com fotos de rostos gerados artificialmente e respostas automatizadas para entrevistas online.
Essa tática tem resultado em aprovações fraudulentas em diversas empresas internacionais, principalmente em áreas de tecnologia da informação. Uma vez dentro das estruturas das companhias, os hackers utilizam acessos internos para coletar dados e roubar informações sensíveis sem levantar suspeitas imediatas.
Deepfakes ampliam o alcance dos golpes corporativos
Outro ponto alarmante revelado pela Microsoft é o uso de deepfakes — vídeos e vozes gerados por IA — como artifício para enganar recrutadores e sistemas de segurança. Usando o aplicativo Faceswap, os hackers norte-coreanos inserem rostos de supostos funcionários de tecnologia em documentos de identidade roubados. Há registros de um mesmo rosto gerado por IA sendo usado em múltiplos cadastros, o que demonstra o nível de automação envolvido.
Além das imagens falsificadas, as IAs também são aplicadas para simular vozes em tempo real durante entrevistas, o que permite enganarem até recrutadores experientes. Em alguns casos, as ferramentas ainda conseguem reproduzir sotaques ou respostas automáticas pré-programadas, dificultando a identificação manual das fraudes.
Após a contratação, as IAs continuam presentes no cotidiano dos hackers infiltrados, auxiliando-os na criação de respostas profissionais e até na geração de códigos técnicos complexos, mantendo a ilusão de competência técnica real.
Objetivo final: espionagem e roubo de dados corporativos
Os investigadores apontam que o propósito principal desses ataques é o roubo sistemático de informações confidenciais, incluindo segredos industriais, credenciais corporativas e dados de pesquisa tecnológica. Com o apoio da IA, os grupos conseguem infiltrar-se com mais rapidez e extrair grandes quantidades de dados sem acionar sistemas de detecção de intrusão.
“A inteligência artificial elevou os ataques da Coreia do Norte a um novo patamar, tornando-os mais direcionados e difíceis de detectar”, afirmou um pesquisador da Microsoft Threat Intelligence.
Microsoft Threat Intelligence
De acordo com o relatório, essas práticas colocam sob risco empresas de tecnologia, finanças e defesa, especialmente aquelas com processos de contratação remotos. O uso crescente de IA também tem dificultado a atribuição dos ataques, já que os rastros de autoria ficam disfarçados em dados sintéticos gerados por máquinas.
O cenário global de cibersegurança e o papel das gigantes tecnológicas
A Microsoft e outras empresas do setor vêm reforçando seus protocolos de segurança e desenvolvendo sistemas de detecção de deepfakes e assinaturas comportamentais, capazes de identificar padrões de escrita e comunicação típicos de inteligências artificiais. Esses filtros são atualizados com dados de ameaças globais em tempo real.
A investigação da Microsoft também revelou que os ataques estão se tornando cada vez mais integrados com movimentos geopolíticos da Coreia do Norte, o que levanta alertas entre agências ocidentais de segurança cibernética. Há indícios de que parte das informações coletadas é redirecionada para programas tecnológicos e militares norte-coreanos.
Como se proteger de golpes potencializados por IA
- Desconfie de candidatos ou contatos com perfis perfeitos demais nas redes;
- Implemente processos de verificação de identidade com autenticação multifatorial;
- Utilize ferramentas corporativas de detecção de deepfakes e inconsistências digitais;
- Eduque equipes de RH e TI sobre as novas técnicas de engenharia social com IA.
Apesar da sofisticação, especialistas lembram que a segurança cibernética corporativa ainda depende fortemente da conscientização humana. Investir em educação digital e monitoramento proativo continua sendo a melhor defesa contra esses ataques cada vez mais sofisticados.
Perguntas frequentes sobre hackers norte-coreanos
Como hackers da Coreia do Norte utilizam inteligência artificial em ataques?
Eles utilizam IA para automatizar tarefas, criar perfis falsos, desenvolver malwares e usar deepfakes para enganar empresas e se infiltrar em sistemas corporativos.
O que são deepfakes e por que são perigosos?
Deepfakes são gravações de áudio, vídeo ou imagem geradas por IA. Elas podem simular identidade de pessoas reais e são usadas para manipular processos de verificação e entrevistas remotas.
Como se proteger de ataques baseados em IA?
Empresas podem adotar autenticação multifatorial, verificação manual de documentos, monitoramento comportamental e treinamento contínuo de suas equipes de TI e RH.
Considerações finais
A ascensão de hackers norte-coreanos usando IA confirma uma nova era na cibercriminalidade. As capacidades de geração de textos, vozes e imagens sintéticas estão transformando os ataques digitais em operações quase invisíveis. A resposta das empresas e governos precisa ser igualmente avançada, com monitoramento inteligente, parcerias internacionais e políticas de prevenção atualizadas para enfrentar um inimigo que agora pensa — literalmente — como uma máquina.
Fonte: CyberScoop

