Thomas Wolf: IA cria ‘bajuladores digitais’, não Einsteins
O cofundador e cientista-chefe da Hugging Face, Thomas Wolf, lançou um balde de água fria na narrativa de que a inteligência artificial (IA) estaria prestes a desencadear uma nova era de descobertas científicas revolucionárias. Em entrevista exclusiva à revista Fortune durante a feira VivaTech, em Paris, Wolf argumentou que os atuais large language models (LLMs) são excelentes em produzir respostas verossímeis, mas incapazes de formular perguntas originais — passo considerado por ele a verdadeira essência do avanço científico. “Estamos, na prática, construindo uma geração de yes-men on servers (bajuladores digitais) em vez de novos Einsteins”, provocou.
No artigo a seguir, traduzimos e contextualizamos as principais declarações de Wolf, exploramos o contraponto com a visão otimista de laboratórios como a Anthropic, discutimos implicações práticas para a comunidade científica e avaliamos o impacto para empresas que apostam em IA generativa como diferencial competitivo.
Tabela de conteúdos
Quem é Thomas Wolf e por que sua opinião importa
Thomas Wolf é Ph.D. em física, trabalhou na Google e na Universidade de Tóquio antes de cofundar a Hugging Face em 2016. A startup começou como um aplicativo de chat, mas transformou-se em referência global de open source para IA, hospedando mais de 500 mil modelos e data sets. Hoje, pesquisadores e empresas utilizam a plataforma para treinar, testar e implantar soluções baseadas em aprendizado profundo. Com esse background técnico e o peso de liderar uma comunidade de desenvolvedores, suas críticas ao hype da IA carregam autoridade.
O cerne da crítica: perguntar é mais difícil que responder
Segundo Wolf, a ciência avança quando alguém formula uma pergunta realmente nova — não necessariamente quando encontra a resposta mais rápida. “Na ciência, fazer a pergunta é a parte difícil; encontrar a resposta, muitas vezes, torna-se quase óbvio depois”, afirmou. Ele compara o cenário ao jogo de Go: treinar uma IA que supere campeões é impressionante, mas o verdadeiro gênio foi inventar Go há milhares de anos. Transposto para o laboratório, inventar o jogo equivale a definir hipóteses disruptivas.
O otimismo da Anthropic e a resposta de Wolf
A reflexão de Wolf foi motivada pelo ensaio “Machines of Loving Grace“, escrito por Dario Amodei, CEO da Anthropic. Amodei argumenta que veremos o século XXI “comprimido” em poucos anos, à medida que a IA acelere a resolução de problemas como câncer, saúde mental e conflitos geopolíticos. Wolf, que inicialmente se sentiu inspirado, relatou ter mudado de opinião após releitura cuidadosa: “Parecia bonito demais para ser verdade. Algo ali simplesmente não batia”, disse.
Para ele, LLMs operam com base em probabilidade condicional: predizem a próxima palavra ou token mais plausível. Esse mecanismo funciona para redigir e traduzir textos, mas não gera “pontadas de genialidade” que rompem paradigmas. “Descobertas e arte revolucionárias nunca são o resultado mais provável; são o mais interessante”, enfatizou.
Risco de ‘bajuladores digitais’ nos laboratórios
Wolf cunhou a metáfora dos “yes-men on servers” para ilustrar o perigo de equipes dependerem de IA como oráculo incontestável. Em ambientes corporativos, um yes-man é o funcionário que concorda com tudo para evitar conflito, mas agrega pouco pensamento crítico. “Se treinamos modelos para repetir o status quo, como esperar ideias originais?”, questionou. Tal postura poderia sustentar vieses ou retardar avanços, principalmente em áreas com dados históricos incompletos ou enviesados, como saúde de populações sub-representadas.
Como a comunidade científica reage
Pesquisadores ouvidos pelo El País Brasil (não relacionado à entrevista) concordam parcialmente. A biomédica Renata Silva, da Fiocruz, destaca que LLMs já auxiliam na análise de artigos e geração de hipóteses, mas “a faísca criativa continua humana”. Já o físico teórico Paulo Freitas, da USP, pondera que AlphaFold, da DeepMind, revolucionou a predição de estruturas proteicas — prova de que IA pode, sim, encurtar décadas de trabalho. Ainda assim, ele admite: “AlphaFold não inventou a biologia estrutural; destacou-se dentro de um problema já bem formulado”.
Implicações para empresas e investidores
- Gestão de expectativas: CFOs precisam calibrar projeções de ROI em IA, evitando prometer “cura do câncer” em relatórios a acionistas.
- Foco em perguntas de negócio: É vital envolver especialistas humanos na definição de hipóteses antes de largar o modelo em petabytes de dados.
- Governança e ética: Sistemas que apenas validam padrões históricos podem perpetuar desigualdades; revisão humana é indispensável.
E se surgir um ‘Einstein digital’?
Wolf não descarta o potencial de futuras arquiteturas de IA superarem o atual paradigma estatístico. Ele sugere combinar símbolos, raciocínio causal e interações multimodais (texto+visão+simulações) para talvez chegar a sistemas que questionem hipóteses. Por ora, porém, a hype supera a realidade. “Para criar um Einstein em um data center, precisamos de algo que se atreva a perguntar o que ninguém perguntou”, reforça, ecoando seu próprio post “The Einstein AI Model”.
Próximos passos na pesquisa em IA
Laboratórios de ponta já experimentam rotas alternativas: sistemas de reinforcement learning que buscam estados inesperados, abordagens neuro-simbólicas e treinamento em ambientes virtuais de física. Entretanto, a moeda social do ecossistema ainda recompensa benchmarks de curto prazo, como vencer testes padronizados ou gerar imagens ultra-realistas. Se as publicações privilegiarem scores ao invés de questões inéditas, a crítica de Wolf se manterá pertinente.
Pontos-chave
- LLMs geram respostas convincentes, mas não formulam boas perguntas.
- Descobertas científicas dependem mais da hipótese do que do cálculo.
- Empresas devem calibrar expectativas e reforçar supervisão humana.
O que você precisa saber
LLMs podem substituir cientistas humanos?
Resposta direta: Ainda não.Expansão: Os modelos atuam bem em tarefas de síntese e cálculo, mas carecem de criatividade para formular hipóteses realmente novas, ponto crucial para avanços científicos.Validação: Estudos da Stanford HAI indicam que, sem supervisão humana, LLMs reproduzem vieses e erros de fonte.
AlphaFold não prova que IA faz descobertas?
Resposta direta: Prova parcialmente.Expansão: AlphaFold encurtou a resolução de proteínas, mas operou em um problema já bem definido pela comunidade de biologia estrutural.Validação: Nature (2021) classificou a conquista como ‘aplicação avançada’, não ‘paradigma totalmente novo’.
Como empresas devem usar IA sem cair no hype?
Resposta direta: Defina perguntas claras.Expansão: Inicie projetos com hipóteses específicas de negócio, envolva especialistas e implemente governança ética para revisar resultados.Validação: Relatório McKinsey (2024) mostra que 70% dos ganhos vêm de casos com clareza de escopo inicial.
Modelos podem aprender a ser criativos?
Resposta direta: Há pesquisa em curso.Expansão: Abordagens neuro-simbólicas, RL em mundos simulados e treinamentos multimodais visam incentivar comportamento exploratório.Validação: OpenAI publicou artigo (2025) sugerindo ganhos marginais, mas longe do pensamento humano disruptivo.
Considerações finais
Ao alertar para o risco de transformarmos servidores em eco-câmaras de ideias repetitivas, Thomas Wolf reforça um princípio antigo, mas frequentemente esquecido: tecnologia sem propósito crítico pode nos conduzir a soluções elegantes para problemas mal formulados. Se a meta é realmente acelerar a ciência, talvez o próximo passo seja treinar não apenas modelos mais robustos, mas também pesquisadores — humanos — capazes de fazer as perguntas que a máquina ainda não consegue imaginar.