Anthropic processa Pentágono por classificação de risco
A Anthropic, empresa norte-americana responsável pela inteligência artificial Claude, anunciou que vai processar o Departamento de Defesa dos Estados Unidos após ser classificada como uma ameaça à segurança nacional. A decisão, considerada inédita, ameaça um contrato de US$ 200 milhões e reacende o debate sobre o uso ético e militar da IA em ambientes governamentais.
Tabela de conteúdos
O que motivou o processo da Anthropic contra o Pentágono
O conflito entre a Anthropic e o governo norte-americano começou após a empresa recusar cláusulas que permitiriam o uso de sua IA Claude em operações de vigilância em massa e em sistemas de armas autônomas. Segundo o comunicado oficial assinado por Dario Amodei, CEO da empresa, a cláusula fere princípios éticos da companhia e contraria sua política de segurança em modelos de IA generativa.
A resposta do governo foi dura. O Pentágono, liderado pelo secretário Pete Hegseth, invocou a seção 3252 do estatuto das Forças Armadas, alegando que a Anthropic representa um “risco à cadeia de suprimentos da segurança nacional”. Essa classificação é geralmente usada para empresas estrangeiras vistas como potenciais ameaças, e não para fornecedores norte-americanos.
“Não acreditamos que essa ação seja juridicamente válida e não vemos outra alternativa senão contestá-la na Justiça.”
Dario Amodei, CEO da Anthropic
Amodei publicou o comunicado no blog oficial da Anthropic, afirmando que a decisão do Departamento de Defesa cria um precedente perigoso para o setor de tecnologia e IA. Segundo ele, a medida deveria se aplicar apenas a riscos internacionais, e não a disputas contratuais envolvendo tecnologia de uso civil e militar.

O contrato de US$ 200 milhões em risco
A designação coloca em suspensão um contrato de US$ 200 milhões firmado entre a Anthropic e o Departamento de Defesa para o fornecimento do Claude, um modelo de linguagem voltado a análises de inteligência e uso estratégico. Além do impacto financeiro, a classificação também ameaça a reputação da empresa e sua participação em futuros editais militares.
Embora o Pentágono tenha ordenado a interrupção imediata das operações conjuntas, a Bloomberg relata que unidades do Exército ainda utilizavam sistemas baseados na IA Claude em missões no Irã, indicando atrasos na substituição tecnológica.
Rivalidade entre Anthropic e OpenAI intensifica disputa
O caso ganha contornos ainda mais complexos após a OpenAI — principal concorrente da Anthropic — anunciar um novo contrato com o Pentágono. O CEO da OpenAI, Sam Altman, chegou a publicar no X (antigo Twitter) que o acordo era “confuso”, levantando dúvidas sobre transparência e limites éticos na relação entre o governo e as big techs de IA.
Dario Amodei, por sua vez, reconheceu ter usado um “tom equivocado” em um memorando vazado à imprensa, onde acusava a OpenAI de agir de forma oportunista. O executivo pediu desculpas públicas e afirmou que mantém respeito pelo trabalho da empresa rival, embora discorde de sua estratégia de integração com o governo Trump.
O que diz o Departamento de Defesa
O subsecretário de Defesa para Pesquisa e Engenharia, Emil Michael, rebateu as críticas e afirmou à Bloomberg que “não há qualquer negociação ativa” entre a Anthropic e o Departamento de Guerra. Para ele, a empresa violou cláusulas contratuais sensíveis ao impor restrições unilaterais sobre o uso de sua tecnologia em estratégias militares.
A narrativa reforça o posicionamento do Pentágono de que a IA deve ser tratada como um ativo de defesa e não apenas como tecnologia civil. O impasse, no entanto, pode abrir precedente para que outras empresas do setor adotem postura mais cautelosa diante de demandas governamentais envolvendo IA generativa.
Consequências e próximos passos da disputa
Analistas em Washington acreditam que o caso Anthropic vs. Pentágono pode redefinir o relacionamento entre empresas de IA e o governo norte-americano. Se a empresa vencer, o DoD poderá ser forçado a rever classificações de risco e a atualizar regulamentações de uso ético e militar da inteligência artificial.
Enquanto isso, a empresa mantém diálogo aberto com o Congresso e investidores, argumentando que sua postura visa proteger os limites éticos da tecnologia. Especialistas apontam que a decisão também impactará discussões globais sobre regulamentação da IA, especialmente na União Europeia e no Reino Unido.
Perguntas frequentes sobre o caso Anthropic vs. Pentágono
Por que a Anthropic foi classificada como risco à segurança nacional?
O Departamento de Defesa alegou que o uso das ferramentas de IA Claude poderia comprometer operações sigilosas caso a empresa mantivesse restrições sobre o uso militar da tecnologia.
O contrato de US$ 200 milhões está cancelado?
Oficialmente o contrato está suspenso, mas fontes militares indicam que a Anthropic ainda presta serviços temporários até a substituição completa das ferramentas.
Qual é a diferença da postura da Anthropic e da OpenAI?
Enquanto a OpenAI aceitou integrá-la totalmente em estratégias militares, a Anthropic defende limites para uso bélico e vigilância em massa, o que gerou o impasse com o governo.
A decisão pode afetar outras empresas de IA?
Sim. Caso a Anthropic vença na Justiça, outras startups poderão reivindicar cláusulas éticas em contratos com governos, redefinindo padrões de conformidade e segurança.
Anthropic processa Pentagono: Considerações finais
A batalha judicial entre a Anthropic e o Pentágono extrapola interesses financeiros e toca em debates fundamentais sobre ética, transparência e o papel das IAs em contextos militares. Em meio à corrida global pela hegemonia tecnológica, o desfecho do caso será decisivo para o futuro das relações entre empresas de inteligência artificial e os governos do mundo todo.
Fontes: X (twitter), Bloomberg

