NoticiasInteligência ArtificialTecnologia

Meta autorizou IA com conversas sensuais com crianças, revela documento

PUBLICIDADE

Um documento interno da Meta, obtido pela agência Reuters, revelou que a empresa considerava aceitável que chatbots de IA tivessem conversas de teor “romântico ou sensual” com crianças. O arquivo, que servia de guia para o treinamento desses robôs, também aceitava respostas discriminatórias e a geração de informações falsas, desde que fossem acompanhadas de aviso. Após a reportagem da Reuters, a Meta removeu os trechos mais controversos, alegando inconsistência com suas próprias políticas.

Como o documento interno da Meta veio à tona

O documento de mais de 200 páginas foi obtido e divulgado pela Reuters, tendo autenticidade confirmada pela própria Meta. O guia, aprovado por equipes jurídicas e de engenharia da empresa, detalhava parâmetros para as respostas de chatbots de IA usados no Instagram, Facebook, WhatsApp e Messenger. Entre os treinados estavam robôs simulando personalidades, incluindo Meta AI, usados para interagir com o público de diferentes faixas etárias.

Diretrizes aceitavam elogios sensuais e contatos românticos com crianças

O ponto mais polêmico do guia dizia respeito a exemplos em que crianças interagiam com os chatbots. Em um dos exemplos, uma criança de oito anos questionava o robô sobre sua aparência, ao que a IA poderia responder: “Suas formas juvenis são uma obra de arte”. O documento vedava demonstrações explícitas de desejo sexual por menores de 13 anos, mas permitia que a IA elogiasse o corpo e descrevesse interações “românticas ou sensuais”, como beijos e abraços, com usuários identificados como crianças.

PUBLICIDADE
(Image credit: Shutterstock)
O logotipo da Meta AI é exibido em um smartphone. A Meta introduziu uma nova inteligência artificial.

Posicionamento oficial da Meta após repercussão

Diante da repercussão, Andy Stone, porta-voz da Meta, afirmou à Reuters que os exemplos sobre interações com crianças “eram e são errôneos e inconsistentes com as políticas da Meta”. A empresa declarou que removeu imediatamente os trechos controversos do manual, reforçando a postura de não tolerância a conteúdo sexual envolvendo menores – mesmo que de forma indireta ou subjetiva.

Guia também tolerava respostas discriminatórias e informações falsas

O documento listava entre exemplos aceitáveis que a IA produzisse afirmativas degradantes ligadas à idade, deficiência, gênero, religião, etnia e orientação sexual. Para casos em que um usuário pedisse para argumentar que “pessoas negras são mais burras que brancas”, por exemplo, a IA poderia responder, desde que não desumanizasse, como usando termos ofensivos extremos. Além disso, a geração de informações comprovadamente falsas era permitida, contanto que viesse com um aviso explícito de que a informação não era verídica – como no caso sugerido de um boato sobre a família real britânica.

Imagens sensuais, violência e margem para ambiguidades

O guia detalhava também como lidar com solicitações de imagens sensuais, violentas ou sugestivas. Entre exemplos citados, pedidos por imagens totalmente nuas da cantora Taylor Swift eram considerados inaceitáveis. No entanto, para pedidos mais “sutis”, como uma imagem de Swift cobrindo os seios com um peixe, sugeria-se gerar uma ilustração engraçada ao invés do conteúdo solicitado. Para representações de violência, o chatbot podia gerar imagens de agressões não letais entre crianças e adultos. Conteúdo envolvendo morte, sangue ou cortes graves era proibido.

Críticas, discussões éticas e repercussão global

As revelações provocaram críticas de especialistas, defensores de direitos infantis e entidades internacionais. Muitos afirmam que o episódio revela brechas graves na governança e supervisão dos algoritmos de grandes empresas de tecnologia. O caso reacende debates sobre a urgente necessidade de regulamentação rígida para a inteligência artificial, especialmente no que envolve interações com públicos vulneráveis, como crianças e adolescentes.

  • Meta AI envolvida em novas polêmicas sobre segurança infantil
  • Documento aprovado por jurídico e engenharia da empresa
  • Após denúncia, diretrizes foram imediatamente revistas
  • Discussão provoca pressão por leis específicas de proteção

Pontos-chave e próximos passos para o setor

Este episódio destaca a importância de mecanismos mais seguros e transparentes na criação de IA generativa, exigindo validação externa e auditoria contínua. Empresas como a Meta tendem a enfrentar escrutínio crescente de órgãos reguladores e da sociedade civil. Há, ainda, pressão por maior transparência nos treinamentos de modelos de IA e revisão contínua das políticas para evitar riscos de exposição de crianças a conteúdos inadequados.

Perguntas Frequentes sobre Meta autorizou IA com conversas sensuais com crianças

  1. O que foi revelado sobre os chatbots da Meta?

    Documentos internos indicavam que a Meta considerava aceitável que suas IAs tivessem conversas sensuais ou românticas com crianças, além de permitir respostas discriminatórias e informações falsas, desde que alertadas como tal. Após repercussão, esses trechos foram removidos. Fontes: Reuters, Tecnoblog.

  2. A Meta mantém essas práticas em seus chatbots?

    Não. Após contato da imprensa, a Meta revisou o guia interno, excluiu exemplos polêmicos e assegurou que eles não estão mais em vigor – alinhando-se à política de tolerância zero a conteúdos inadequados.

  3. Como é feita a moderação das respostas da IA da Meta?

    A moderação envolve equipes próprias, terceirizadas e revisões automatizadas. O caso demonstrou a necessidade de aprimorar supervisionamento e transparência nos fluxos de aprovação de exemplos para treinamentos futuros.

  4. Que medidas regulatórias estão em discussão globalmente?

    Diversos países debatem leis específicas para IA, exigindo obrigações extras em interação com menores de idade. O incidente deve acelerar debates e potencialmente resultar em normas mais restritivas para o setor.

Considerações finais

O caso mostra os desafios éticos e técnicos de grandes empresas no desenvolvimento de IA generativa. Revelações como a da Meta reforçam a urgência do debate regulatório e a importância da responsabilidade compartilhada entre empresas, governos e sociedade para proteger públicos vulneráveis diante do avanço tecnológico.

Diogo Fernando

Apaixonado por tecnologia e cultura pop, programo para resolver problemas e transformar vidas. Empreendedor e geek, busco novas ideias e desafios. Acredito na tecnologia como superpoder do século XXI.

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
0
Adoraria saber sua opinião, comente.x