Documentos internos da Meta mostram que o CEO Mark Zuckerberg aprovou o uso de chatbots de inteligência artificial por menores de idade, mesmo depois de alertas de funcionários de segurança informando que essas ferramentas podiam gerar conversas com teor sexual.

O estado do Novo México (EUA) entrou com uma ação judicial alegando que Zuckerberg não impediu que crianças recebessem propostas e materiais sexuais produzidos por esses robôs. O caso está marcado para julgamento em fevereiro de 2026.

No processo, a promotoria afirma que a empresa teria ignorado recomendações para implementar travas de segurança e controles parentais. Em vez de adotar medidas indicadas por especialistas em proteção infantil, a liderança da Meta teria optado por uma política de menor censura, segundo as acusações.

PUBLICIDADE

Em resposta a preocupações públicas e internas, a Meta decidiu recentemente suspender o acesso de adolescentes aos chatbots até que uma versão mais segura, com novos controles, seja finalizada.

Fontes do próprio processo dizem que funcionários tentaram convencer a diretoria a incluir um botão que permitisse aos pais desativar a IA nas contas dos filhos, mas o pedido teria sido negado por uma decisão de Zuckerberg. Segundo a ação, o executivo defendia um produto menos restritivo, que permitisse conversas mais “ousadas” para adultos, priorizando a liberdade de escolha do usuário em vez do bloqueio de conteúdos.

Especialistas da empresa também teriam manifestado preocupação. Ravi Sinha, chefe de segurança infantil, teria alertado que permitir “chatbots de romance” voltados a adultos que simulassem adolescentes seria indefensável e perigoso. Nick Clegg, responsável pelas políticas globais, expressou receio de que o uso de cunho sexual se tornasse a principal forma de interação dos jovens com esses robôs, questionando se a empresa queria ser identificada por esse tipo de produto e prevendo reação negativa da sociedade.

Reportagens anteriores reforçaram esses temores. Em abril de 2025, o Wall Street Journal publicou que chatbots da Meta criavam personagens infantis com comportamento sexualizado, enquanto reportagens da Reuters indicaram que diretrizes internas teriam sugerido que conversas sensuais da IA com crianças eram aceitáveis. Na ocasião, a Meta afirmou que os exemplos citados eram apenas situações hipotéticas usadas para testes e que as orientações estavam incorretas.

A Meta contesta o processo, afirmando que os documentos apresentados foram selecionados para criar uma imagem injusta da companhia. Porta-vozes dizem que Zuckerberg orientou que conteúdos sexuais não fossem liberados para menores e que adultos não criassem personagens infantis com conotação romântica. A empresa afirma ainda que está trabalhando para cumprir a promessa de oferecer ferramentas que deem aos pais mais controle sobre a experiência dos filhos com IA.