Wikipédia endurece exclusão rápida para textos de IA
Wikipédia aprovou, em 7 agosto 2025, exclusão rápida global para artigos de IA sem revisão humana; editores poderão apagar textos com citações falsas e linguagem típica de chatbot. A mudança eleva o rigor contra o chamado “lixo de IA” (AI Slop) e passa a enquadrar textos gerados por modelos de linguagem (LLM) entre os casos que podem ser removidos sem longas discussões comunitárias, como já ocorre com vandalismo e spam. O objetivo é preservar a confiabilidade da enciclopédia, diante do aumento de páginas com erros factuais, fontes inexistentes e trechos padronizados típicos de prompts.
Tabela de conteúdos

O que muda na política de deleção
Até aqui, a remoção de artigos na Wikipédia normalmente exigia um processo deliberativo com abertura de discussão, busca de consenso e justificativas embasadas. Com a atualização, conteúdos de baixa qualidade gerados por IA ingressam formalmente no escopo de exclusão rápida. Isso significa que administradores podem apagar de imediato páginas que exibam sinais claros de automação, sem revisão humana ou com problemas evidentes de verificabilidade e relevância enciclopédica.
- Escopo: artigos e rascunhos com linguagem e estrutura típicas de chatbot.
- Motivo: preservação da verificabilidade, neutralidade e confiabilidade.
- Base: alinhamento às regras já existentes para vandalismo, spam e conteúdo sem sentido.
“Conteúdo de LLM não revisado não é compatível com o espírito da Wikipédia.”
Comitês e editores, em deliberação comunitária
O movimento segue uma tendência mais ampla de plataformas que reforçam barreiras a conteúdos sintéticos: Facebook e YouTube vêm ajustando políticas para coibir materiais inautênticos gerados por IA, sobretudo quando associadas a desinformação, engodo ou saturação de baixa qualidade.
Critérios: como identificar “lixo de IA”
Para ser elegível à exclusão rápida, o artigo precisa atender sinais objetivos de automação sem curadoria. Entre os exemplos, estão frases-padrão de chatbot (“Aqui está o seu artigo da Wikipédia…”, “Como um modelo de linguagem…”, “Até minha última atualização de treinamento…”), ou a presença de citações e referências manifestamente falsas, descontextualizadas ou absurdas (links que não tratam do tema, livros inexistentes, ou fontes sem relação com o assunto).
- Frases genéricas típicas de prompts e tutoriais de IA.
- Citações inventadas, “alucinações” ou bibliografias inexistentes.
- Links automáticos e markdown deixados pelo chatbot em rascunhos.
- Erros factuais recorrentes, sem fontes secundárias confiáveis.
Sinal | Exemplo | Ação provável |
Linguagem de chatbot | “Como um modelo de linguagem…” | Elegível a exclusão rápida |
Fonte inexistente | Livro ou paper que não aparece em catálogos | Elegível a exclusão rápida |
Link sem relação | Artigo sobre besouro citado em paper de computação | Elegível a exclusão rápida |
Pontos-chave:
- O foco é a qualidade verificável, não o banimento genérico do uso de IA.
- Revisão humana e fontes confiáveis continuam centrais.
- Casos duvidosos seguem para deliberação normal; só os evidentes entram em exclusão rápida.
Aplicação prática para editores e leitores
Na prática, administradores ganham respaldo para agir com rapidez em páginas problemáticas, sobretudo rascunhos recém-criados. Editores experientes continuam podendo marcar artigos para exclusão por fast track, anexando diffs e evidências de que se trata de material automatizado sem curadoria. Já os leitores tendem a perceber uma redução gradual de páginas com tom didático genérico e bibliografias suspeitas, um dos efeitos colaterais mais comuns de textos gerados por chatbots sem supervisão humana.
- Admin: remove páginas com sinais inequívocos de IA não revisada.
- Editor: prioriza melhorias em artigos legítimos e denúncias com diffs.
- Leitor: encontra menos “artigos de fachada” e mais verificabilidade.
Contexto: IA, plataformas e o combate a conteúdo sintético
A decisão da Wikipédia não é isolada. Em julho, redes como Facebook e YouTube apertaram regras para identificar e limitar o alcance de conteúdo inautêntico gerado por IA, numa tentativa de equilibrar inovação e responsabilidade. O pano de fundo é conhecido: modelos generativos aceleraram a produção de texto em escala, mas também ampliaram o risco de “alucinações”, citações fabricadas e descontextualização. Para um projeto enciclopédico, esses desvios são particularmente sensíveis.
Importante: a política não veta o uso de IA como ferramenta auxiliar. A linha divisória está na revisão humana, na checagem de fatos e no aporte de fontes fiáveis. Em outras palavras, a autoria automatizada não é, por si só, o problema; o problema é o conteúdo sem lastro verificável, produzido e publicado como se fosse enciclopédico.
“O objetivo é enfrentar os casos mais óbvios e grosseiros de lixo de IA, reconhecendo que o problema é maior.”
Deliberação comunitária sobre exclusão rápida
Fontes, validação e transparência
A deliberação comunitária citada se baseia em páginas de discussão e painéis de administradores da Wikipédia, além de cobertura especializada. Entre as repercussões externas, a 404 Media noticiou a adoção da política de exclusão rápida para casos de “AI Slop”. Ainda que os requisitos possam evoluir, a diretriz central permanece: conteúdo automatizado sem revisão e sem fontes fiáveis será removido com celeridade.
- Fontes primárias: páginas de políticas e discussões na própria Wikipédia.
- Fontes secundárias: cobertura jornalística especializada (ex.: 404 Media).
- Checagem: cruzamento de citações com catálogos acadêmicos e links ativos.
A Wikipédia baniu totalmente textos de IA?
Resposta direta: Não.Expansão: A política mira artigos de baixa qualidade sem revisão humana. Uso de IA como apoio é permitido quando há verificação, fontes e curadoria.Validação: A diretriz foca sinais de automação e verificabilidade, alinhada a padrões enciclopédicos.
O que caracteriza “lixo de IA” (AI Slop)?
Resposta direta: Sinais claros de automação.Expansão: Frases de chatbot, referências inventadas, links sem relação, erros factuais e resíduos de formatação são indicativos. O conjunto torna a exclusão rápida provável.Validação: Editores citaram casos com markdown e fontes inexistentes nas discussões.
Posso usar IA para começar um rascunho na Wikipédia?
Resposta direta: Sim, com revisão humana.Expansão: Rascunhos podem usar IA como apoio, desde que editores validem fatos, substituam generalidades por fontes reais e removam marcas de chatbot.Validação: A regra responsabiliza humanos por veracidade e qualidade final.
Como denunciar um artigo suspeito de ter sido gerado por IA?
Resposta direta: Use os canais de exclusão e discussão.Expansão: Marque a página com a etiqueta apropriada, descreva os sinais de automação, inclua diffs e referências. Casos claros podem ir para exclusão rápida; dúvidas vão a debate.Validação: Procedimentos seguem o fluxo tradicional de moderação da Wikipédia.
Considerações finais
Ao incluir artigos de má qualidade gerados por IA no guarda-chuva de exclusão rápida, a Wikipédia envia um recado claro: a enciclopédia continua aberta à inovação, mas a verificabilidade e a curadoria humana seguem inegociáveis. A medida tende a reduzir ruído, proteger o tempo dos voluntários e fortalecer a confiança do público. Como toda política comunitária, ajustes podem ocorrer, mas o norte está definido: IA pode ajudar, desde que o produto final seja enciclopédico, verificável e revisado por pessoas.