NoticiasTecnologia

OpenAI Files: pressão por supervisão na corrida pela AGI

PUBLICIDADE

Quem: a iniciativa OpenAI Files, liderada pelas ONGs Midas Project e Tech Oversight Project. O quê: publicação de um dossiê com denúncias sobre falhas de governança, conflitos de interesse e cultura interna da OpenAI. Quando: 18 de junho de 2025. Onde: Estados Unidos, com repercussão global. Por quê: pressionar por mais transparência na corrida pela inteligência artificial geral (AGI). Como: reunindo documentos internos, depoimentos e análises independentes. Em meio às promessas do CEO Sam Altman de que a AGI chegará “em poucos anos”, o relatório cobra supervisão proporcional ao impacto potencial dessa tecnologia.

O que são os “OpenAI Files”?

Em tradução livre, os OpenAI Files são “arquivos OpenAI”: uma base documental que aglutina preocupações sobre práticas de governança, integridade da liderança e cultura organizacional dentro da companhia que criou o ChatGPT. O site oficial descreve o material como “uma coleção de provas de que a empresa não está alinhada com os altos padrões exigidos por um projeto de tamanha magnitude”. Entre memorandos internos e depoimentos de ex-funcionários, o arquivo sustenta a tese de que o crescimento acelerado da OpenAI comprometeu sua missão original de “garantir que a AGI beneficie toda a humanidade”.

  • Origem: coletânea organizada por duas ONGs especializadas em ética e regulação tecnológica.
  • Escopo: desde 2018 até abril de 2025, cobrindo mudanças societárias e decisões de produto.
  • Objetivo: servir de base para recomendações de políticas públicas e autorregulação corporativa.

PUBLICIDADE
Inteligência artificial geral (AGI) (do inglês: artificial general intelligence) é a capacidade hipotética de um agente inteligente de compreender ou aprender qualquer tarefa intelectual que um ser humano possa. no Openai files
Openai files sobre a AGI estar mais próxima

Falhas de governança e cultura de risco

O dossiê destaca um modus operandi descrito como “cultura de imprudência” (recklessness). Segundo depoimentos, a equipe de segurança da OpenAI teria sido pressionada a encurtar avaliações de risco de novos modelos para cumprir metas agressivas de lançamento. Um exemplo citado é o GPT-5, divulgado com análises de alinhamento ainda preliminares. Além disso, o relatório aponta para:

  • Uso massivo de dados de usuários sem consentimento explícito;
  • Assinatura de acordos com gigantes de nuvem que ampliam custos energéticos locais;
  • Falta de representação externa no conselho de administração.

“Os líderes que correm para ser first-movers ignoram salvaguardas básicas. A sociedade não pode aceitar essa troca.”

Midas Project, Vision for Change

Impacto ambiental e social da corrida pela AGI

Os OpenAI Files ligam o ponto entre treinamento de modelos e picos de consumo elétrico. Cidades norte-americanas com data centers recém-inaugurados já sofreram apagões locais. Para o Washington Post, o custo médio da conta de luz aumentou 5% em regiões vizinhas a essas infraestruturas. Do lado social, a pressa por monetizar levou a falhas bem documentadas: sistemas que propagam teorias da conspiração ou deepfakes políticos antes de eleições críticas.

Pressão dos investidores e o fim do limite de lucro

Quando nasceu como organização sem fins lucrativos em 2015, a OpenAI prometeu limitar o retorno dos investidores a 100× o capital aplicado. O relatório mostra que, em 2023, esse teto começou a ser flexibilizado. Em 2024, a diretoria aprovou a remoção completa do limite, justificando que rodadas bilionárias exigiam “incentivos compatíveis”. A manobra agradou a Wall Street, mas esvaziou a premissa de altruísmo que sustentou a marca nos primeiros anos.

FaseModelo de negóciosLimite de retorno
2015-2019ONG + pesquisa aberta100×
2020-2023Captação híbridaFlexível (até 100×)
2024-2025Mercado + nuvemSem limite

Conflitos de interesse: o portfólio oculto de Sam Altman

Os arquivos listam startups ligadas a Altman em biotecnologia, robótica e fintech que, teoricamente, poderiam ser beneficiadas por modelos da OpenAI ou por acesso privilegiado a APIs. Embora o executivo negue favorecimento, críticos citam falta de firewalls e de divulgação completa dos investimentos pessoais. O ex-cientista-chefe Ilya Sutskever foi incisivo: “Não acho que Sam seja a pessoa que deve ter o dedo no botão da AGI”.

Propostas de transparência e supervisão

O documento encerra com um plano de ação em três frentes:

  • Governança independente: criação de conselhos com especialistas em ética, meio ambiente e direitos civis.
  • Auditorias públicas: relatórios semestrais de impacto social, divulgados em linguagem acessível.
  • Partilha de benefícios: políticas de licenciamento que reservem parte do lucro para fundos sociais.

Essas recomendações dialogam com debates no Congresso dos EUA e iniciativas da União Europeia, que discute multar empresas de IA em até 6% do faturamento global caso descumpram requisitos de segurança.

Considerações finais

Se a OpenAI está realmente a poucos anos de criar uma AGI capaz de automatizar grande parte do trabalho humano, o momento de definir regras é agora. Os OpenAI Files expõem não apenas os bastidores de uma empresa, mas a assimetria de poder entre poucas big techs e bilhões de cidadãos. Transparência, supervisão independente e distribuição justa de benefícios já não são luxo — são pré-requisitos para evitar que a próxima revolução tecnológica repita velhos erros.

  1. O que motivou a criação dos OpenAI Files?

    Resposta direta: Denúncias de ex-funcionários e pesquisadores sobre decisões de alto risco na OpenAI.Expansão: As ONGs Midas Project e Tech Oversight Project compilaram documentos que indicam pressões comerciais acima da segurança.Validação: O próprio site da iniciativa fornece links para memorandos internos e reportagens independentes.

  2. A OpenAI quebrou sua promessa de limite de lucro?

    Resposta direta: Sim, o limite de 100× foi removido em 2024.Expansão: A alteração buscou atrair novos aportes, mas contradiz o modelo original sem fins lucrativos.Validação: A informação consta em atas do conselho citadas pelo relatório e confirmadas pela imprensa.

  3. Quais impactos ambientais são citados?

    Resposta direta: Aumento do consumo elétrico e risco de apagões locais.Expansão: Data centers usados para treinar grandes modelos demandam energia equivalente a pequenas cidades, elevando tarifas.Validação: Estudos da Reuters e do Washington Post, referenciados pelo dossiê, mensuram esses efeitos.

  4. Quais soluções são propostas para governança de IA?

    Resposta direta: Conselho independente, auditorias públicas e partilha de lucros.Expansão: Especialistas defendem supervisão externa para balancear interesses privados e bem público.Validação: Recomendações semelhantes aparecem em projetos de lei nos EUA e na UE.

Diogo Fernando

Apaixonado por tecnologia e cultura pop, programo para resolver problemas e transformar vidas. Empreendedor e geek, busco novas ideias e desafios. Acredito na tecnologia como superpoder do século XXI.

Deixe um comentário