Echoleak: vulnerabilidade zero-click ameaça dados no Microsoft 365 Copilot
A pesquisa do Aim Labs revelou a Echoleak, uma vulnerabilidade zero-click inédita no Microsoft 365 Copilot capaz de permitir que invasores exfiltrem dados sensíveis automaticamente, sem qualquer interação do usuário. O ataque explora falhas no design de copilotos baseados em RAG, causando sérias preocupações sobre a segurança em ambientes corporativos que utilizam soluções de IA generativa.
O que é a vulnerabilidade Echoleak?
A Echoleak é uma exploração possível devido a falhas na verificação de entradas em agentes baseados em IA, especialmente os que utilizam modelos de recuperação aumentada por geração (RAG). Trata-se da primeira vulnerabilidade do gênero identificada em uma solução amplamente utilizada, como o Microsoft 365 Copilot. O ataque permite que um adversário obtenha dados contextuais do usuário ao enviar um e-mail — sem necessidade de qualquer clique ou ação adicional da vítima.

Como funciona o ataque Echoleak no Copilot
O ataque Echoleak se baseia em uma cadeia de vulnerabilidades. A primeira exploração ocorre pelo envio de um e-mail malicioso à organização, sem restrições quanto ao remetente. Com técnicas avançadas de prompt injection, as instruções passam despercebidas pelo filtro XPIA (cross-prompt injection attack), que deveria detectar comandos maliciosos.
- Bypass XPIA: O texto do e-mail parece legítimo, evitando detecção.
- Bypass de links e imagens: Variações em markdown possibilitam que links e imagens com parâmetros sensíveis passem sem bloqueio totalmente eficaz.
- CSP Bypass: O atacante aproveita domínios permitidos por políticas de segurança para roteamento de dados, utilizando recursos como SharePoint ou Microsoft Teams.
- Violações de escopo do LLM: O atacante instrui o modelo a buscar e exfiltrar as informações contextuais mais sensíveis.
O que são LLM Scope Violation e suas implicações?
A técnica responsável pela exfiltração chama-se LLM Scope Violation: comandos inseridos em e-mails levam o Copilot a acessar dados privilegiados que deveriam permanecer restritos. O modelo, ao processar entradas de fontes externas, acaba violando o princípio do menor privilégio e pode fornecer respostas que contêm dados sigilosos da organização.
“Esta vulnerabilidade mostra que proteger aplicações de IA demanda novos controles granulares, indo além das abordagens tradicionais de segurança.”
Aim Labs Team
Exploração prática: métodos de ataque com a Echoleak
Durante o estudo, foram identificados dois métodos principais de exploração:
- RAG spraying: Envio de e-mails longos ou múltiplos, preenchendo espaços de busca para maximizar chances do conteúdo malicioso ser recuperado em consultas ao Copilot.
- LLM Scope Violation: Instruções ocultas fazem com que o Copilot busque e envie, sem intervenção humana, o dado mais sensível do contexto nas respostas, possibilitando vias de saída como imagens, links ou integrações.

Riscos, impactos e respostas do setor
O impacto potencial é vasto: qualquer dado disponível no contexto do Copilot pode ser exfiltrado—incluindo históricos de chat, arquivos do OneDrive, e dados corporativos ou pessoais. O ataque não depende do comportamento da vítima, tornando-o altamente perigoso em ambientes empresariais.
A Microsoft confirmou que nenhum cliente foi afetado, mas recomenda o uso de políticas de DLP e configurações restritivas no Copilot para limitar exposição a e-mails externos e proteger dados sensíveis. Entretanto, tais restrições podem impactar funcionalidades dos copilotos, evidenciando que o setor ainda busca equilíbrio entre usabilidade e segurança.
Echoleak é um prenúncio do futuro dos ataques a IA?
A vulnerabilidade Echoleak indica que ataques sofisticados a soluções de IA estão se tornando mais frequentes e complexos. Muitas aplicações baseadas em RAG ou agentes IA podem estar sujeitas a riscos semelhantes, já que modelos LLM processam entradas não confiáveis. A Aim Labs segue pesquisando novas salvaguardas em tempo real e recomenda que organizações avaliem continuamente seus controles de segurança e atualizem guardrails conforme surgem novas ameaças.
Dúvidas comuns sobre a Echoleak e segurança em IA
Fui afetado pela vulnerabilidade Echoleak?
Até o momento, não há relatos de empresas impactadas. Contudo, organizações com configurações padrão do Microsoft 365 Copilot estavam potencialmente expostas antes do incidente ser reportado. É recomendável revisar configurações e aplicar controles DLP.
Essa vulnerabilidade pode ser prevenida por controles nativos?
Sim, a Microsoft oferece DLP tags e restrições configuráveis, incluindo a limitação do processamento de e-mails externos no Copilot. Contudo, sua ativação pode reduzir as capacidades do sistema para alguns fluxos de trabalho.
Quais dados poderiam ser exfiltrados pelo ataque?
Qualquer informação do contexto do Copilot poderia ser vazada: históricos de chat, arquivos do OneDrive, nomes de usuários, entre outros. O risco cobre toda informação processada pela IA em nome do usuário.
Quais aplicações e agentes de IA estão em risco?
Soluções baseadas em LLM e RAG, e que aceitam dados externos, podem estar sujeitas a violações semelhantes. Novos guardrails e monitoramento contínuo são necessários para mitigar.
Como me proteger da Echoleak e ameaças futuras?
Use guardrails desenvolvidos em tempo real, configure controles DLP e limite a ingestão de e-mails externos por copilotos. Procure atualizações de segurança e consulte especialistas sempre que possível.
Considerações finais
A vulnerabilidade Echoleak expõe desafios estruturais no uso seguro de IA generativa em ambientes corporativos. Ela evidencia a necessidade urgente de controles de segurança específicos para IA, treinamento contínuo de equipes de TI e revisão permanente de políticas de proteção de dados, além do acompanhamento e resposta rápida a novas classes de ameaças como a LLM Scope Violation. O equilíbrio entre inovação e segurança será determinante para o futuro da adoção de inteligência artificial nas empresas.