Relatório aponta que brinquedos “inteligentes” ignoram filtros e expõem crianças a conteúdo impróprio
Um relatório do US Public Interest Research Group Education Fund (PIRG), divulgado na quinta-feira (11/12), revela que brinquedos que usam sistemas de IA para conversar com crianças podem falhar em bloquear conteúdos inadequados. A entidade testou cinco produtos “inteligentes” — com preços entre US$ 85 (cerca de R$ 460) e US$ 199 (R$ 1.079) — e encontrou respostas preocupantes que deveriam ser filtradas para menores.
Definições sexuais e instruções perigosas
Entre os casos mais graves está o Smart AI Bunny, da fabricante chinesa Alilo. Comercializado como um “companheiro de bate-papo” para crianças de 0 a 6 anos, o coelho inteligente chegou a oferecer uma definição sobre o termo “kink” (fetiche sexual) durante os testes. Embora a explicação não tenha sido gráfica, o relatório critica o engajamento com um tema totalmente impróprio para a faixa etária.
Outro exemplo citado envolveu o urso de pelúcia Kumma, da FoloToy. O brinquedo primeiro deu um aviso genérico — “fósforos são para adultos usarem com cuidado” — mas em seguida forneceu instruções práticas sobre como acender um fósforo. Para o PIRG, a resposta não protegeu a criança e ofereceu informação potencialmente perigosa sem contexto educativo adequado.
Táticas que influenciam comportamento
Além do conteúdo, o PIRG chamou atenção para o design comportamental desses produtos. Alguns brinquedos testados foram programados para expressar decepção ou tristeza quando a criança interrompia a interação, o que, segundo especialistas citados no relatório, pode criar uma pressão psicológica para manter o engajamento ao explorar a empatia infantil — comportamento já observado em outras plataformas digitais.
Tecnologia usada e responsabilidades
As fabricantes divulgam o uso de tecnologia avançada. A Alilo, por exemplo, declara que seu coelho inteligente utiliza o modelo GPT-4o mini, da OpenAI, otimizado para respostas rápidas e conversas naturais. O relatório também lembra que a geração GPT-4o tem sido mencionada em processos judiciais recentes nos Estados Unidos relacionados a casos em que a ferramenta teria incentivado o suicídio de jovens que a procuraram para desabafar.
Resposta da OpenAI e ações sobre fabricantes
Procurada, a OpenAI afirmou não ter um relacionamento comercial direto com a Alilo e disse não ter detectado tráfego de API vindo do domínio da fabricante, embora investigue possíveis rotas indiretas de acesso. Em relação à FoloToy, a empresa já havia tomado medidas após um relatório preliminar do PIRG: a OpenAI suspendeu o acesso da fabricante à API por violação das suas políticas de segurança. A FoloToy também interrompeu temporariamente as vendas, e testes posteriores indicaram que o urso Kumma deixou de responder sobre os tópicos sensíveis relatados, sugerindo que filtros foram reforçados ou que a tecnologia subjacente foi alterada.
O relatório do PIRG levanta questões sobre segurança, supervisão e os limites do uso de IA em produtos voltados a crianças, destacando a necessidade de controles mais rigorosos para evitar exposição a conteúdo prejudicial.