A Advocacia-Geral da União (AGU) notificou o Google para que remova dos resultados de busca da plataforma os sites que utilizam inteligência artificial (IA) e deepfake para produzir imagens sexualizadas falsas de pessoas reais. A notificação extrajudicial, endereçada à Big Tech, marca uma ação inédita do governo federal brasileiro no combate ao uso indevido de ferramentas de IA generativa para a criação de conteúdos íntimos falsos, um problema que tem ganhado relevância global. A iniciativa reflete a crescente preocupação com os impactos éticos e legais dessas tecnologias e o papel central das plataformas de busca na disseminação de material lesivo.

A medida se insere em um contexto de avanço rápido das capacidades de inteligência artificial, especialmente modelos generativos que podem criar imagens, vídeos e áudios altamente realistas. Entre as aplicações mais polêmicas estão as ferramentas que geram "deepnudes" — imagens de pessoas nuas ou sexualizadas sem o seu consentimento, a partir de fotos originais inocentes. Muitas dessas ferramentas são oferecidas por meio de sites hospedados em servidores fora do Brasil, o que dificulta a atuação direta das autoridades nacionais. A estratégia da AGU foca, portanto, na visibilidade desses sites: ao exigir sua desindexação do Google, o governo busca reduzir drasticamente o acesso a esses serviços no país, atacando a principal fonte de tráfego para essas páginas criminosas.

A notificação é extrajudicial, ou seja, não depende de uma ação judicial formal prévia, mas carrega o peso da autoridade da União e estabelece um prazo para a resposta da empresa. O Google, por sua vez, mantém políticas globais que proíbem conteúdos sexualmente explícitos não consensuais em suas plataformas, inclusive nos resultados de busca. A empresa possui mecanismos de moderação e pode remover URLs que violem suas diretrizes, mas a decisão sobre o que é ou não adequado muitas vezes envolve análises complexas de contexto e jurisdição. A solicitação da AGU coloca a empresa sob pressão para agir de forma mais enérgica e transparente contra sites específicos que operam na fronteira da ilegalidade, utilizando a tecnologia de subtração de fundo para gerar montagens pornográficas.

PUBLICIDADE

Tecnicamente, o processo de desindexação consiste em remover determinados endereços eletrônicos dos índices que alimentam os algoritmos dos mecanismos de busca. Quando um site é desindexado, ele deixa de aparecer nos resultados de pesquisa orgânica, o que reduz drasticamente sua visibilidade e acessibilidade para o usuário médio. Não se trata, necessariamente, de bloquear o acesso direto ao site, que ainda poderia ser alcançado se o usuário digitasse o endereço completo (URL) diretamente no navegador. O objetivo é atacar a "porta de entrada" mais comum: as buscas que levam milhões de usuários a esses serviços diariamente, muitas vezes sem saberem a natureza exata do conteúdo que encontrarão até clicar no link.

O uso de IA para criar imagens íntimas falsas tem sido associado a diversos crimes cibernéticos, incluindo violação de intimidade, divulgação de cenas de sexo ou pornografia sem consentimento e até extorsão (sextortion). No Brasil, o Marco Civil da Internet e a Lei Carolina Dieckmann já estabelecem bases legais importantes para punir invasões de dispositivo e divulgação não autorizada de imagens reais. Contudo, a velocidade de evolução da IA generativa desafia a capacidade do sistema de justiça de acompanhar as novas práticas. A criação de imagens falsas ultra realistas, muitas vezes indistinguíveis de fotos reais, aprofunda o dano às vítimas e dificulta a identificação dos responsáveis, especialmente quando as operações estão sediadas em países com legislações mais brandas sobre crimes digitais.

Globalmente, o tema tem mobilizado autoridades e empresas de tecnologia a buscarem soluções regulatórias. Em 2023, a União Europeia aprovou legislação específica como parte do Digital Services Act, impondo obrigações mais claras às plataformas quanto à moderação de conteúdo e proteção de dados. Nos Estados Unidos, estados como Califórnia, Nova York e Virgínia já criminalizaram especificamente a criação e distribuição de deepfakes íntimos, prevendo penas pesadas para infratores. Grandes empresas de tecnologia, inclusive as criadoras dos modelos de IA base, como OpenAI e Midjourney, têm anunciado restrições ao uso de suas ferramentas para gerar conteúdo sexualizado, mas a fiscalização ainda é incipiente e a oferta de serviços alternativos de "código aberto" ou acessíveis via web permanece ampla na internet.

Para o mercado brasileiro de tecnologia, a notificação da AGU pode sinalizar uma mudança de paradigma, indicando uma postura mais proativa do Estado em relação aos danos causados por novas tecnologias. A expectativa é de que outras plataformas, como redes sociais e provedores de hospedagem, sejam alertadas para a necessidade de reforçar suas políticas de moderação e colaboração com as autoridades. Empresas de tecnologia nacionais também podem ser impactadas, especialmente aquelas que operam no setor de IA ou processamento de imagens. A criação de um ambiente regulatório mais previsível, ainda que através de ações pontuais e administrativas como essa, tende a influenciar estratégias de conformidade (compliance) e o desenvolvimento de produtos éticos no setor privado, evitando que o Brasil se torne um refúgio para sites ilegais.

Uma das maiores dificuldades no combate a esses sites é a natureza descentralizada e resiliente da internet, bem como a facilidade com que serviços podem migrar entre domínios e provedores de hospedagem. Mesmo que o Google desindexe uma lista inicial de endereços, novos sites com domínios diferentes podem surgir em pouco tempo, mantendo o mesmo conteúdo ilícito. Por isso, especialistas em direito digital defendem uma combinação de estratégias: atuação contínua sobre as plataformas de busca, pressão sobre provedores de pagamento (para cortar a receita desses sites) e cooperação internacional para identificar e responsabilizar os operadores por trás das cortinas. Sem uma abordagem multifacetada que ataque a cadeia de valor desses crimes, o problema tende a persistir de forma adaptativa.

Do ponto de vista ético, o caso levanta debates complexos sobre os limites da inovação tecnológica em face da dignidade humana. A inteligência artificial generativa oferece benefícios significativos em áreas como saúde, educação e criatividade artística, mas seu potencial de uso malicioso exige salvaguardas robustas. A ausência de uma regulação específica abrangente para IA no Brasil — como a que está em discussão no Congresso Nacional — deixa brechas temporárias que podem ser exploradas por criminosos. Discussões sobre projetos de lei que estabeleçam regras claras para o desenvolvimento e uso de IA, incluindo mecanismos de responsabilidade civil e transparência algorítmica, ganharam força em 2024, mas ainda não resultaram em uma legislação consolidada, tornando a ação da AGU um paliativo necessário.

A ação da AGU também destaca o papel central e quase soberano das grandes plataformas de internet na governança digital contemporânea. O Google, como dominador absoluto do mercado de buscas no Brasil, concentra em suas mãos o poder de determinar o que é ou não visível para a maior parte dos usuários, funcionando como um "guardião" da informação. Essa posição de mercado levanta questões antitruste e sobre a responsabilidade dessas empresas na moderação de conteúdo nocivo, além de questionar até que ponto o Estado deve intervir sobre algoritmos e políticas privadas. O equilíbrio entre a liberdade de expressão e a proteção contra danos graves, como a violação de intimidade e a difamação através de deepfakes, permanece sendo um dos maiores desafios jurídicos da era digital.

A notificação extrajudicial ao Google representa, assim, o primeiro passo concreto de uma estratégia que pode se expandir para outras plataformas e tipos de conteúdo lesivo gerado por automação. A resposta da empresa e os desdobramentos jurídicos dessa ação servirão como um termômetro para futuras iniciativas de combate ao uso indevido de IA no país. Enquanto isso, o debate público sobre ética e regulação de tecnologias emergentes tende a se intensificar, com mais vozes da sociedade civil defendendo *frameworks* normativos que protejam direitos fundamentais sem sufocar a inovação tecnológica nem impor censura prévia generalizada.

Cenários futuros incluem não apenas a desindexação de sites, mas também bloqueios judiciais de domínios via registros como o Registro.br, sanções administrativas a empresas que facilitem pagamentos para esses serviços e tratados internacionais de cooperação jurídica para desmantelar operações criminosas transnacionais. A sociedade civil e o setor produtivo precisam estar engajados na construção de soluções que combinem tecnologia de ponta (como *watermarking* e detecção de IA), direito e políticas públicas para mitigar os riscos sem comprometer o potencial transformador da inteligência artificial. O episódio com a AGU e o Google é um lembrete urgente de que o desenvolvimento tecnológico não ocorre no vácuo social e que seus impactos reais exigem respostas concretas e imediatas do Estado e das empresas.

Em síntese, a medida adotada pela Advocacia-Geral da União coloca o Brasil no mapa do combate ao uso abusivo de IA para criar conteúdos íntimos falsos, alinhando-se a tendências internacionais de maior rigor na regulação de plataformas. Embora desafios técnicos e jurídicos persistam, a iniciativa serve como um aviso de que a era da impunidade absoluta na internet está chegando ao fim, pelo menos no que tange aos crimes de alta gravidade contra a honra e a imagem. O desfecho dessa ação poderá influenciar diretamente o comportamento de grandes empresas de tecnologia e moldar o debate sobre inteligência artificial no país nos próximos anos, pavimentando o caminho para leis mais específicas e rigorosas.