Anthropic limita uso do Claude Code sem avisar usuários
A Anthropic, empresa líder em inteligência artificial, surpreendeu assinantes do Claude Code ao restringir drasticamente os limites de uso da ferramenta nesta segunda-feira (17/07/2025), sem aviso prévio ou comunicação oficial. O impacto atingiu principalmente usuários do plano Max, que pagam US$ 200 mensais, gerando confusão e críticas pela falta de transparência.
Tabela de conteúdos
O que mudou nos limites do Claude Code?
Desde o início da semana, dezenas de usuários de alto volume reportaram, principalmente no GitHub oficial do Claude Code, mensagens-alerta afirmando “Claude usage limit reached” (Limite de uso alcançado). O alerta surge mesmo para assinantes do plano Max, que esperavam maior liberdade de uso pela assinatura de US$ 200 mensais.
Os usuários passaram a receber apenas o aviso do limite atingido, acompanhado por um horário estimado para o reset. Sem comunicado ou ajuste visível nos termos, muitos imaginaram, equivocadamente, que seus planos haviam sido rebaixados ou que o sistema passou a monitorar incorretamente as atividades.
“O rastreamento dos limites de uso mudou e não é mais preciso. Em apenas 30 minutos e poucas requisições, atingi 900 mensagens? Isso não faz sentido.”
Usuário do GitHub
Resposta oficial da Anthropic e cenário atual
A TechCrunch procurou a Anthropic sobre a frustração dos clientes. Em resposta, a empresa confirmou os problemas, mas evitou dar detalhes: “Estamos cientes de que alguns usuários do Claude Code estão enfrentando períodos de resposta mais lenta e estamos trabalhando para resolver a situação.”
A ausência de transparência sobre as restrições preocupou a comunidade. Muitos relataram dificuldades em avançar projetos ou mesmo manter processos de trabalho que dependem da IA, principalmente porque o Claude Code é uma das poucas opções avançadas no mercado e alternativas, como Gemini e Kimi, não entregam a mesma performance segundo relatos.
Impacto entre usuários e relação com outros problemas recentes
Além dos limites, usuários da API também enfrentaram sobrecargas e mensagens de erro, conforme debates nos fóruns oficiais e status do sistema. O curioso é que, apesar das falhas relatadas, a página de uptime da Anthropic continua marcando 100% de disponibilidade, alimentando ainda mais questionamentos sobre a transparência da empresa.
“O novo método de limitar o uso pegou todos de surpresa. Eu simplesmente parei de conseguir avançar no meu projeto”, relatou um assinante Max anônimo. “Testei o Gemini e o Kimi, mas nada entrega o conjunto de recursos do Claude Code.”
Usuário anônimo à TechCrunch
Como funcionam os planos do Claude Code e por que há tanta confusão?
A Anthropic adota um sistema de planos escalonados, mas sem garantias absolutas de acesso. O plano Max, de US$ 200 ao mês, promete limites 20 vezes superiores ao plano Pro (5x maior que o plano gratuito). Contudo, segundo a política, os limites podem variar de acordo com a demanda — sobretudo para usuários gratuitos — e nunca há um valor fixo. Assim, mesmo quem paga caro pode ser surpreendido por travas sem conhecimento prévio ou detalhamento das regras em vigor.
Tal modelo impede o usuário de planejar com segurança o uso da ferramenta, gerando incertezas para empresas e profissionais que dependem de alta disponibilidade.
Plano | Limite de Uso (Estimado) | Mensalidade (USD) |
Max | 20x Pro | 200 |
Pro | 5x Gratuito | 20 |
Gratuito | Varia conforme demanda | 0 |
Um dos usuários conta que, embora o investimento mensal seja alto, conseguia anteriormente realizar operações diárias que valeriam mais de US$ 1.000 se fossem cobradas por chamada API comum. Isso fez com que parte dos clientes já antecipasse uma possível restrição futura, mas esperava ao menos comunicação clara por parte da empresa.
“Basta serem transparentes. O silêncio faz perder a confiança.”
Usuário Max do Claude Code
Transparência e confiança: dilema para serviços de IA
A polêmica reforça debates sobre a confiança em provedores de IA. Mudanças técnicas sem alerta, especialmente em ferramentas críticas, podem minar a relação entre empresas e seu público. Os usuários sugerem que a Anthropic reveja sua política de comunicação e forneça painéis claros com limites, histórico e regras dinâmicas explícitas.
Considerações finais sobre Anthropic limita uso do Claude
A controvérsia sobre os limites inesperados do Claude Code evidencia como o setor de IA precisa evoluir em termos de transparência e comunicação com seus clientes. Assinantes esperam previsibilidade para planejar projetos e serviços. A resposta da Anthropic, até o momento, ficou aquém das expectativas, destacando a importância de políticas claras e relacionamento de confiança em tempos de rápida inovação em inteligência artificial.
Como funcionam os limites de uso do Claude Code?
O Claude Code adota limites dinâmicos, que variam conforme o plano do usuário (Gratuito, Pro ou Max). No entanto, a empresa não define valores fixos e pode alterar restrições sem aviso, dificultando o planejamento dos assinantes. Isso significa que mesmo usuários do plano Max podem enfrentar travas inesperadas.
Posso ser avisado antes de mudanças nos limites do Claude?
Atualmente, a Anthropic não faz comunicação antecipada de alterações nos limites de uso. Usuários relatam que desejam mais transparência e alertas proativos para evitar surpresas em projetos críticos.
Quais alternativas ao Claude Code existem?
Os principais concorrentes mencionados são o Gemini e o Kimi, mas usuários consideram que nenhum alcança o mesmo nível de recursos oferecidos pelo Claude Code, justificando a preocupação com as restrições na Anthropic.