Introdução

A entrada da inteligência artificial generativa nos campos forenses e periciais está forçando um debate que até pouco tempo parecia restrito a laboratórios e conferências técnicas: até que ponto um laudo produzido com auxílio ou por uma IA pode fundamentar uma denúncia criminal? A decisão que será julgada pela 5ª Turma do Superior Tribunal de Justiça (STJ) coloca essa pergunta no centro do sistema de justiça, com potencial para redesenhar procedimentos de investigação e produção de prova no Brasil.

O caso levado ao STJ surge depois de decisão do Tribunal de Justiça de São Paulo (TJ-SP), que entendeu que o laudo técnico produzido por inteligência artificial generativa não foi elaborado de forma clandestina ou fraudulenta, permitindo sua utilização no processo. A análise no STJ deve confirmar ou reformar esse entendimento e, mais importante, delinear limites e condições para o uso de laudos automatizados em esfera penal, onde a garantia dos direitos e a segurança jurídica exigem padrões mais rígidos.

PUBLICIDADE

Neste artigo, vamos explorar com profundidade o que está em jogo: a natureza do laudo produzido por IA generativa; os critérios jurídicos de admissibilidade da prova; a responsabilidade do perito humano que assina ou valida relatórios automatizados; e a necessidade prática de transparência, auditoria e padrões técnicos. Também relacionaremos essas questões ao panorama mais amplo de adoção de IA em empresas e órgãos públicos, apontando como decisões judiciais podem impactar práticas de mercado e conformidade.

Para contextualizar a importância do tema, é preciso lembrar que ferramentas baseadas em modelos generativos tornaram-se ubiquamente acessíveis e são já utilizadas em tarefas que vão desde geração de textos e sumarização até análises complexas de dados. A ausência de padrões regulatórios maduros para laudos produzidos por essas tecnologias gera incerteza processual e operacional. O julgamento da 5ª Turma do STJ, portanto, não é apenas um caso isolado: trata-se de um marco potencial para a definição de rotinas e controles sobre evidências digitais e periciais automatizadas.

Desenvolvimento

O núcleo do caso é simples na formulação: um laudo técnico realizado com suporte de IA generativa foi utilizado como base para uma denúncia criminal, e a validade dessa prova foi questionada. O TJ-SP concluiu que o laudo não havia sido elaborado de modo clandestino ou fraudulento e, por isso, poderia integrar o conjunto probatório. Agora, a 5ª Turma do STJ irá analisar se esse entendimento se sustenta em sede de direito material e processual, considerando princípios constitucionais como o devido processo legal, o contraditório e a ampla defesa.

Tecnicamente, laudos com suporte de IA generativa podem variar muito em metodologia e grau de automação. Há situações em que a IA atua apenas como ferramenta de apoio — por exemplo, para classificar grandes volumes de dados, sugerir correlações ou transformar formatos brutos em relatórios mais legíveis — enquanto em outras a geração do conteúdo pode ser altamente automatizada, com intervenção humana mínima. Essa diferença é crucial para a avaliação jurídica: quanto maior o papel do perito humano na definição da metodologia e na validação dos resultados, mais fácil será sustentar a responsabilidade técnica e a rastreabilidade do laudo.

Historicamente, o Direito já enfrentou desafios análogos com outras tecnologias: perícias em áudio, vídeo, análise de imagens e algoritmos de reconhecimento facial tiveram de ser integradas gradualmente ao arcabouço probatório, com desenvolvimento de critérios técnicos e de admissão. A novidade aqui é a característica generativa dos modelos, que podem sintetizar conclusões ou narrativas a partir de padrões detectados nos dados, sem que seja imediato para um juiz ou advogado entender a cadeia de inferência usada pelo sistema.

As implicações práticas dessa decisão são múltiplas. Se o STJ confirmar a possibilidade de uso de laudos feitos por IA generativa sem requisitos adicionais, investigações poderão adotar essas ferramentas de forma mais ampla, acelerando análises e reduzindo custos. Por outro lado, isso pode aumentar o risco de erro ou vieses não identificados em modelos que não foram desenvolvidos para fins periciais, ou que não guardam logs e explicabilidade suficientes para permitir contestação técnica.

Um ponto chave diz respeito à responsabilidade do perito humano. No modelo atual, o laudo pericial é subscrito por um profissional com atribuição técnica e ética, que responde por sua metodologia e conclusões. Quando a IA participa do processo, é necessário definir até que ponto o perito pode ou deve se responsabilizar por resultados que emanam de um modelo treinado e operado por terceiros. Isso impõe a necessidade de controles como documentação meticulosa da metodologia, versão dos modelos, dados de treino, parâmetros usados e registros de auditoria.

Há exemplos práticos que ajudam a entender os riscos e benefícios. Em auditoria de sistemas financeiros, por exemplo, modelos automatizados podem identificar padrões de fraude com mais velocidade do que análise humana, mas sem a devida explicabilidade podem ser contestados em juízo. Em incidentes de segurança cibernética, um laudo automatizado que correlacione logs e aponte uma origem pode ser valioso para a investigação, mas se não houver rastreabilidade das inferências, a defesa pode alegar falta de prova técnica robusta.

Especialistas em tecnologia e direito têm defendido que a aceitação de laudos gerados por IA deve estar condicionada a salvaguardas: a possibilidade de contraditório técnico — com acesso a artefatos e logs relevantes; certificação ou acreditação de métodos periciais que envolvam IA; e regras claras sobre responsabilidades do perito humano. Esses elementos permitem conciliar o uso de tecnologia com as garantias processuais, minimizando riscos de decisões baseadas em caixas-pretas inatingíveis.

Analisando o cenário internacional, vários países e tribunais vêm debatendo normas sobre evidências algorítmicas e a necessidade de transparência. Organizações de padronização e corpos técnicos têm proposto frameworks de auditoria para modelos de IA, enfatizando métricas de robustez, explicabilidade e controle de vieses. No Brasil, a discussão normativa ainda está em desenvolvimento, e decisões como a do STJ podem acelerar a adoção de requisitos obrigatórios para laudos automatizados.

Para empresas e órgãos públicos brasileiros que desenvolvem ou contratam serviços de IA, a decisão do STJ terá impacto direto em governança e conformidade. Escritórios de advocacia, departamentos jurídicos e equipes de compliance precisarão revisar cláusulas contratuais, exigir SLAs que considerem auditabilidade e retenção de logs, além de promover treinamentos para peritos sobre como validar e documentar relatórios automatizados. O mercado de fornecedores de tecnologia também deve observar uma demanda por soluções com maior explicabilidade e funções de auditoria integradas.

Em termos de tendências, espera-se que a integração de IA em perícias incentive a emergência de padrões técnicos nacionais, possivelmente alinhados a normas internacionais. Ferramentas de “explainable AI” (XAI) e plataformas de MLOps com rastreabilidade de experimentos tendem a se tornar requisitos mínimos para laudos que possam ser utilizados em processos criminais. Ao mesmo tempo, haverá espaço para regulamentações setoriais que definam limites de uso em áreas sensíveis, como segurança pública, saúde e finanças.

Conclusão

O julgamento da 5ª Turma do STJ sobre a validade de laudos técnicos produzidos por IA generativa é um marco com implicações que vão além do caso específico: envolve a adequação do sistema de justiça a uma realidade tecnológica que tem potencial para acelerar e ampliar a produção de prova, mas que também exige salvaguardas rigorosas para preservar direitos fundamentais.

Resumo dos pontos principais: o TJ-SP entendeu que, no caso concreto, o laudo não foi produzido de forma clandestina ou fraudulenta e, por isso, poderia ser utilizado; o STJ avaliará se esse entendimento deve ser mantido em caráter consolidado, considerando a necessidade de transparência, rastreabilidade e responsabilização do perito humano. A decisão tende a influenciar práticas investigativas, demandas por auditoria de modelos e requisitos contratuais no mercado de tecnologia.

O futuro próximo deverá trazer uma combinação de decisões judiciais, orientações técnicas e adoção de padrões de governança para laudos periciais que utilizem IA. Para o Brasil, isso representa uma oportunidade para estruturar requisitos que conciliem inovação com segurança jurídica: acreditação de laboratórios, normas de documentação e exigência de acessibilidade técnica para o contraditório.

Convidamos os profissionais de tecnologia e direito a acompanhar de perto o julgamento e a antecipar mudanças em seus processos e contratos. A conversa sobre IA e prova judicial não é apenas técnica: é institucional e cidadã, porque define como a sociedade irá confiar — ou não — em conclusões produzidas, mesmo que geradas por algoritmos sofisticados.