Google contrata engenheiros para corrigir alucinações de IA no Search
O Google anunciou a abertura de vagas para engenheiros especializados em qualidade de respostas de IA (AI Answers Quality), em meio a críticas por respostas incorretas e alucinações produzidas por seu sistema de busca com inteligência artificial, o AI Overviews. A medida reflete uma tentativa da empresa de restaurar a confiança dos usuários e aprimorar a precisão das informações exibidas em seu mecanismo de busca.
A nova função: engenheiros de AI Answers Quality
De acordo com a listagem oficial da vaga, o Google busca profissionais capazes de revisar, testar e melhorar as respostas fornecidas por suas soluções de inteligência artificial no Google Search. O objetivo é aperfeiçoar os resultados gerados pelo sistema de AI Overviews, que sintetiza informações da web em formato de resposta direta.
Segundo o texto da vaga: “Na Busca do Google, estamos reinventando o que significa procurar informações – de qualquer forma e em qualquer lugar. Para isso, precisamos resolver desafios complexos de engenharia e expandir nossa infraestrutura enquanto mantemos uma experiência acessível e útil para todos ao redor do mundo”.

Por que as alucinações de IA se tornaram um problema?
Com a expansão da inteligência artificial nas buscas, o Google passou a incluir respostas resumidas geradas por IA logo no topo dos resultados. Essa nova forma de entrega de informação, conhecida como AI Mode, tem causado estranheza, pois em alguns casos o sistema inventa fatos, gera valores incorretos e até apresenta informações conflitantes quando a mesma pergunta é feita de maneiras diferentes.
O fenômeno, chamado de “alucinação de IA”, ocorre quando o modelo de linguagem cria uma resposta plausível, mas totalmente falsa. Isso decorre de limitações nos dados de treinamento e na forma como a IA interpreta a confiabilidade das fontes.
Recentemente, um usuário relatou à imprensa que, ao buscar o valor de uma startup, o sistema mencionou US$ 4 milhões. Ao reformular a pergunta, obteve como resposta US$ 70 milhões. Nenhuma das cifras correspondia às fontes citadas nos resultados. Casos como esse têm alimentado o debate sobre a confiabilidade das informações geradas por IA.
Críticas e riscos à credibilidade das buscas
O jornal britânico The Guardian publicou recentemente uma análise indicando que o sistema AI Overviews chegou a fornecer conselhos médicos potencialmente perigosos ou incorretos. A reportagem reforça que, apesar dos avanços, ainda há falhas graves na curadoria de informações sensíveis feitas pela IA do Google.
Essas deficiências levantam questionamentos sobre a responsabilidade da empresa no controle de danos informativos e o impacto social de exibir dados imprecisos para bilhões de usuários diários. O próprio conceito de “autoridade nas buscas” está em xeque, já que a IA substitui a citação direta de fontes por resumos automatizados.
Google força uso do AI Mode e aumenta preocupações
Após as atualizações recentes, o Google passou a exibir os AI Overviews para um número crescente de usuários sem opção clara de desativação. Até mesmo o Discover feed, seção personalizada de notícias no aplicativo móvel, foi atualizado para incluir respostas de IA e até reformular manchetes via IA, fato que causou desconforto entre veículos jornalísticos.
Essas mudanças são parte da estratégia da companhia de transicionar a busca tradicional para um ambiente mais interativo, mas a falta de transparência sobre como esses algoritmos tomam decisões preocupa especialistas em ética digital e engenharia de software.
“A inteligência artificial está se tornando intermediária entre o usuário e os fatos. Isso é perigoso quando o modelo não distingue verdades de inferências mal treinadas.”
Analista de dados e pesquisador de IA, Universidade de Cambridge
Impactos na experiência do usuário e na confiança
Embora o Google enfatize que o AI Overviews foi criado para facilitar o acesso rápido a informações, usuários comuns ainda têm dificuldade em compreender que as respostas vêm de um modelo probabilístico e não de especialistas humanos. A tendência de “crer no primeiro resultado” intensifica esse problema.
Pesquisas de experiência do usuário indicam que mais de 60% dos usuários acreditam totalmente nas respostas fornecidas diretamente na página de resultados, sem verificar os links de origem – um comportamento preocupante diante de eventuais erros sistemáticos.
O que muda com a contratação dos novos engenheiros
Os engenheiros da área de AI Answers Quality deverão atuar tanto na correção de erros de interpretação quanto na melhoria dos algoritmos de seleção de fontes e confiabilidade. A iniciativa pode incluir um processo de auditoria interna, revisão das métricas de precisão e até implementação de novos parâmetros éticos para uso público da IA.
Especialistas indicam que essa decisão marca uma mudança de postura do Google, que até então tratava as “alucinações” como anomalias isoladas. Agora, há o reconhecimento explícito de que a curadoria automatizada precisa de supervisão humana.
Próximos passos e o futuro da busca com IA
O movimento do Google reflete o clima competitivo entre grandes empresas de tecnologia na corrida pela integração da inteligência artificial às plataformas de busca. Microsoft, OpenAI e outras gigantes do setor também enfrentam críticas semelhantes sobre precisão e confiabilidade dos modelos generativos.
Para o usuário final, a expectativa é que os resultados de busca se tornem mais fidedignos, mas a transição exigirá tempo e transparência nas políticas de uso da tecnologia. Enquanto isso, a recomendação é sempre verificar as fontes citadas, sobretudo ao lidar com informações médicas, financeiras ou jurídicas.
Perguntas frequentes
O que são as alucinações de IA no Google Search?
As alucinações ocorrem quando a inteligência artificial cria respostas falsas ou incorretas que parecem plausíveis. Isso acontece quando o modelo de IA não encontra dados claros e usa inferências erradas para preencher lacunas, o que pode gerar informações enganosas.
Por que o Google está contratando engenheiros de AI Answers Quality?
O Google reconheceu que suas respostas automáticas precisam melhorar. Os novos engenheiros irão revisar algoritmos, validar dados e aprimorar a precisão das respostas do AI Overviews, minimizando erros e reforçando a confiabilidade das buscas.
Como essas mudanças afetarão os usuários do Google Search?
Com as novas contratações, as respostas geradas por IA devem se tornar mais coerentes, baseadas em fontes verificadas e menos propensas a alucinações. O objetivo é oferecer uma experiência de busca mais segura e confiável.
A IA do Google pode gerar informações falsas sobre saúde?
Sim. Investigações como a do jornal The Guardian mostraram que, em casos pontuais, o AI Overviews já exibiu orientações médicas incorretas. O Google tem reconhecido esses riscos e está investindo em supervisão humana para evitá-los.
Considerações finais
O avanço da inteligência artificial no ecossistema de buscas representa tanto uma revolução tecnológica quanto um desafio ético. Ao admitir falhas e contratar especialistas para lidar com elas, o Google dá um passo necessário em direção à transparência e à qualidade informacional. Mas o equilíbrio entre automação inteligente e supervisão humana ainda será decisivo para o futuro da busca online.

