OpenAI Files: pressão por supervisão na corrida pela AGI
Quem: a iniciativa OpenAI Files, liderada pelas ONGs Midas Project e Tech Oversight Project. O quê: publicação de um dossiê com denúncias sobre falhas de governança, conflitos de interesse e cultura interna da OpenAI. Quando: 18 de junho de 2025. Onde: Estados Unidos, com repercussão global. Por quê: pressionar por mais transparência na corrida pela inteligência artificial geral (AGI). Como: reunindo documentos internos, depoimentos e análises independentes. Em meio às promessas do CEO Sam Altman de que a AGI chegará “em poucos anos”, o relatório cobra supervisão proporcional ao impacto potencial dessa tecnologia.
Tabela de conteúdos
O que são os “OpenAI Files”?
Em tradução livre, os OpenAI Files são “arquivos OpenAI”: uma base documental que aglutina preocupações sobre práticas de governança, integridade da liderança e cultura organizacional dentro da companhia que criou o ChatGPT. O site oficial descreve o material como “uma coleção de provas de que a empresa não está alinhada com os altos padrões exigidos por um projeto de tamanha magnitude”. Entre memorandos internos e depoimentos de ex-funcionários, o arquivo sustenta a tese de que o crescimento acelerado da OpenAI comprometeu sua missão original de “garantir que a AGI beneficie toda a humanidade”.
- Origem: coletânea organizada por duas ONGs especializadas em ética e regulação tecnológica.
- Escopo: desde 2018 até abril de 2025, cobrindo mudanças societárias e decisões de produto.
- Objetivo: servir de base para recomendações de políticas públicas e autorregulação corporativa.

Falhas de governança e cultura de risco
O dossiê destaca um modus operandi descrito como “cultura de imprudência” (recklessness). Segundo depoimentos, a equipe de segurança da OpenAI teria sido pressionada a encurtar avaliações de risco de novos modelos para cumprir metas agressivas de lançamento. Um exemplo citado é o GPT-5, divulgado com análises de alinhamento ainda preliminares. Além disso, o relatório aponta para:
- Uso massivo de dados de usuários sem consentimento explícito;
- Assinatura de acordos com gigantes de nuvem que ampliam custos energéticos locais;
- Falta de representação externa no conselho de administração.
“Os líderes que correm para ser first-movers ignoram salvaguardas básicas. A sociedade não pode aceitar essa troca.”
Midas Project, Vision for Change
Impacto ambiental e social da corrida pela AGI
Os OpenAI Files ligam o ponto entre treinamento de modelos e picos de consumo elétrico. Cidades norte-americanas com data centers recém-inaugurados já sofreram apagões locais. Para o Washington Post, o custo médio da conta de luz aumentou 5% em regiões vizinhas a essas infraestruturas. Do lado social, a pressa por monetizar levou a falhas bem documentadas: sistemas que propagam teorias da conspiração ou deepfakes políticos antes de eleições críticas.
Pressão dos investidores e o fim do limite de lucro
Quando nasceu como organização sem fins lucrativos em 2015, a OpenAI prometeu limitar o retorno dos investidores a 100× o capital aplicado. O relatório mostra que, em 2023, esse teto começou a ser flexibilizado. Em 2024, a diretoria aprovou a remoção completa do limite, justificando que rodadas bilionárias exigiam “incentivos compatíveis”. A manobra agradou a Wall Street, mas esvaziou a premissa de altruísmo que sustentou a marca nos primeiros anos.
Fase | Modelo de negócios | Limite de retorno |
---|---|---|
2015-2019 | ONG + pesquisa aberta | 100× |
2020-2023 | Captação híbrida | Flexível (até 100×) |
2024-2025 | Mercado + nuvem | Sem limite |
Conflitos de interesse: o portfólio oculto de Sam Altman
Os arquivos listam startups ligadas a Altman em biotecnologia, robótica e fintech que, teoricamente, poderiam ser beneficiadas por modelos da OpenAI ou por acesso privilegiado a APIs. Embora o executivo negue favorecimento, críticos citam falta de firewalls e de divulgação completa dos investimentos pessoais. O ex-cientista-chefe Ilya Sutskever foi incisivo: “Não acho que Sam seja a pessoa que deve ter o dedo no botão da AGI”.
Propostas de transparência e supervisão
O documento encerra com um plano de ação em três frentes:
- Governança independente: criação de conselhos com especialistas em ética, meio ambiente e direitos civis.
- Auditorias públicas: relatórios semestrais de impacto social, divulgados em linguagem acessível.
- Partilha de benefícios: políticas de licenciamento que reservem parte do lucro para fundos sociais.
Essas recomendações dialogam com debates no Congresso dos EUA e iniciativas da União Europeia, que discute multar empresas de IA em até 6% do faturamento global caso descumpram requisitos de segurança.
Considerações finais
Se a OpenAI está realmente a poucos anos de criar uma AGI capaz de automatizar grande parte do trabalho humano, o momento de definir regras é agora. Os OpenAI Files expõem não apenas os bastidores de uma empresa, mas a assimetria de poder entre poucas big techs e bilhões de cidadãos. Transparência, supervisão independente e distribuição justa de benefícios já não são luxo — são pré-requisitos para evitar que a próxima revolução tecnológica repita velhos erros.
O que motivou a criação dos OpenAI Files?
Resposta direta: Denúncias de ex-funcionários e pesquisadores sobre decisões de alto risco na OpenAI.Expansão: As ONGs Midas Project e Tech Oversight Project compilaram documentos que indicam pressões comerciais acima da segurança.Validação: O próprio site da iniciativa fornece links para memorandos internos e reportagens independentes.
A OpenAI quebrou sua promessa de limite de lucro?
Resposta direta: Sim, o limite de 100× foi removido em 2024.Expansão: A alteração buscou atrair novos aportes, mas contradiz o modelo original sem fins lucrativos.Validação: A informação consta em atas do conselho citadas pelo relatório e confirmadas pela imprensa.
Quais impactos ambientais são citados?
Resposta direta: Aumento do consumo elétrico e risco de apagões locais.Expansão: Data centers usados para treinar grandes modelos demandam energia equivalente a pequenas cidades, elevando tarifas.Validação: Estudos da Reuters e do Washington Post, referenciados pelo dossiê, mensuram esses efeitos.
Quais soluções são propostas para governança de IA?
Resposta direta: Conselho independente, auditorias públicas e partilha de lucros.Expansão: Especialistas defendem supervisão externa para balancear interesses privados e bem público.Validação: Recomendações semelhantes aparecem em projetos de lei nos EUA e na UE.