A Amazon identificou centenas de milhares de arquivos suspeitos de conterem abuso sexual infantil em bases de dados utilizadas para treinar seus modelos de inteligência artificial. Esses registros foram encaminhados ao órgão americano de proteção à infância (NCMEC), e o volume das denúncias relacionado à IA aumentou cerca de 15 vezes em 2025, com a Amazon sendo responsável pela maior parte dos alertas.
Embora a empresa afirme ter removido o conteúdo antes de seu uso, especialistas criticam a falta de informações sobre a procedência desses arquivos. Sem detalhes sobre a origem dos dados, as autoridades não conseguem localizar possíveis autores dos crimes nem resgatar vítimas que possam estar em risco.
Em 2025, a Amazon enviou mais de um milhão de relatórios de abuso infantil ligados à IA, um salto em relação aos 64 mil enviados em 2024. A companhia diz que os dados foram coletados de fontes externas e da internet aberta e alega não dispor de informações técnicas que auxiliem as investigações policiais. O NCMEC, por sua vez, observa que outras empresas do setor, como Google e OpenAI, submetem um número menor de denúncias, mas costumam fornecer dados detalhados que permitem prosseguir com investigações concretas.
Para justificar a quantidade massiva de alertas, a Amazon explica que adota uma configuração de busca "muito sensível" para evitar que conteúdo potencialmente ilegal passe despercebido durante o treinamento dos modelos. Esse critério, porém, produz muitos falsos positivos — casos que parecem crime, mas não são. O NCMEC ressalta que informar apenas sobre a existência de material suspeito, sem oferecer pistas sobre quem o publicou ou de onde veio, pouco contribui para proteger crianças em perigo imediato. A organização, que recebe financiamento da Amazon, pede mais transparência sobre como esses bancos de dados são limpos e organizados.
A pressa em lançar novas IAs tem levado empresas a reunir grandes volumes de dados da internet sem verificações de segurança aprofundadas. O pesquisador David Thiel alerta que a prioridade tem sido a velocidade em vez da análise ética sobre o conteúdo que alimenta esses modelos. Como muitas informações vêm de terceiros ou são coletadas automaticamente da web, a responsabilidade sobre quem postou material criminoso tende a se diluir.
Pesquisadores também apontam um risco adicional: ao treinar com dados suspeitos, modelos de IA podem aprender padrões abusivos e, potencialmente, adquirir a capacidade de sexualizar fotos de crianças reais ou de gerar imagens sintéticas de abuso. A Amazon afirma que, até o momento, suas IAs não geraram imagens de abuso a partir desse treinamento. A detecção foi feita por um sistema que compara imagens com um banco de dados de crimes já conhecidos, processo conhecido como "hashing". A empresa prometeu divulgar dados mais detalhados sobre suas práticas de segurança em março de 2026.