O Tribunal da Relação de Guimarães identificou um caso em que um advogado apresentou acórdãos inexistentes durante um processo judicial, alegando tê-los obtido com o auxílio de inteligência artificial. O incidente, revelado em uma decisão recente do tribunal, expõe os riscos associados ao uso de ferramentas de IA generativa no ambiente jurídico, onde a precisão factual é essencial.

De acordo com o tribunal, o advogado citou julgados que não constam nos repositórios oficiais de jurisprudência portuguesa. Ao ser confrontado, o profissional admitiu que utilizou uma ferramenta de IA para "desencantar" esses acórdãos, presumivelmente referindo-se a chatbots como o ChatGPT ou similares. Essa confissão destaca uma prática preocupante: a dependência de modelos de linguagem sem verificação posterior, o que pode comprometer a integridade dos processos judiciais.

O episódio ocorre em um momento de crescente adoção de IA no setor jurídico globalmente. Em Portugal, assim como em outros países da União Europeia, profissionais do direito começam a integrar essas tecnologias para pesquisa de jurisprudência e redação de peças processuais. No entanto, casos como esse reforçam a necessidade de cautela, pois as IAs generativas são propensas a produzir informações plausíveis mas fictícias, conhecidas como 'alucinações'.

PUBLICIDADE

A inteligência artificial generativa, baseada em grandes modelos de linguagem (LLMs, na sigla em inglês), opera prevendo sequências de texto com base em padrões aprendidos de vastos conjuntos de dados. Ferramentas como o GPT-4, da OpenAI, ou o Claude, da Anthropic, excel em gerar respostas coerentes, mas não possuem compreensão real do mundo. Elas podem inventar fatos para preencher lacunas, especialmente em domínios especializados como o direito, onde os dados de treinamento podem ser incompletos ou desatualizados.

No caso de Guimarães, o tribunal não detalhou o processo específico nem identificou o advogado, preservando a confidencialidade. Contudo, a menção explícita à IA serve como alerta público. Os acórdãos citados foram verificados e encontrados inexistentes nos bancos de dados oficiais, como o da Direção-Geral da Política de Justiça. Essa falha obrigou o tribunal a desconsiderar as citações, prolongando o andamento do caso.

Episódios semelhantes já ocorreram em outras jurisdições. Em 2023, nos Estados Unidos, o advogado Steven Schwartz, de Nova York, submeteu ao tribunal uma petição repleta de referências a precedentes fictícios gerados pelo ChatGPT, incluindo casos como 'Varghese v. China Southern Airlines' e 'Martinez v. Delta Airlines'. O juiz analisou as citações e, ao não encontrá-las, multou o advogado em US$ 5 mil, criticando a falta de diligência.

Esse precedente americano ilustra um padrão recorrente. Advogados, pressionados por prazos apertados, recorrem à IA para agilizar pesquisas. No entanto, sem checagem cruzada em fontes primárias, como bases de dados jurídicas oficiais (Westlaw, LexisNexis nos EUA; no Brasil, o Jusbrasil ou o site do STJ), os erros se propagam para os tribunais.

No contexto português e europeu, a adoção de IA no direito avança com ferramentas dedicadas. Plataformas como o Lexis Portugal ou o Wolters Kluwer CCH integram módulos de IA para análise de contratos e previsão de outcomes judiciais. Contudo, essas soluções comerciais geralmente incluem salvaguardas, como citações rastreáveis e alertas sobre possíveis imprecisões.

A União Europeia, por meio do AI Act aprovado em 2024, classifica sistemas de IA generativa como de 'alto risco' em contextos sensíveis, como o judiciário. Em Portugal, a Comissão Nacional de Proteção de Dados (CNPD) monitora aplicações de IA, exigindo transparência em processos que envolvam dados pessoais. Tribunais superiores, como o Supremo Tribunal de Justiça, discutem protocolos para validação de evidências geradas por IA.

Para profissionais, os impactos são práticos. O uso indevido pode resultar em sanções disciplinares pela Ordem dos Advogados Portugueses (OA), incluindo suspensões ou cassações de licenças. Além disso, há custos indiretos: tempo gasto pelo tribunal em verificações, erosão da confiança no sistema e possível necessidade de perícias técnicas para autenticar documentos.

No Brasil, o cenário é análogo e igualmente relevante para profissionais de tecnologia e direito. A Ordem dos Advogados do Brasil (OAB) publicou em 2024 orientações sobre ética no uso de IA, recomendando verificação humana obrigatória. O Conselho Nacional de Justiça (CNJ) testa ferramentas de IA para triagem de processos no âmbito do Programa Justiça 4.0, mas enfatiza a supervisão judicial.

Casos isolados já surgiram. Em 2024, um advogado em São Paulo foi repreendido por citar jurisprudência imprecisa gerada por IA em uma ação trabalhista. Plataformas locais como o Projuris e o Astrea usam IA para automação, mas com integração a bases oficiais como o Diário da Justiça Eletrônico (DJe).

Essa convergência Brasil-Portugal reflete tendências globais. Relatórios da Thomson Reuters indicam que 79% dos advogados nos EUA usam IA em 2024, contra 20% em 2023. No Brasil, uma pesquisa da FGV Direito SP aponta adoção similar entre grandes escritórios, impulsionada por eficiência em tarefas repetitivas.

Contudo, alucinações permanecem o calcanhar de Aquiles. Modelos de IA melhoram com fine-tuning em dados jurídicos — como o LegalBERT ou o InstructIR —, mas não eliminam o risco. Desenvolvedores incorporam mecanismos de 'recusa' para admitir ignorância, mas usuários ainda confiam excessivamente em outputs polidos.

Olhando adiante, espera-se maior regulação. Em Portugal, o Parlamento discute emendas à Lei de Organização Judiciária para incluir cláusulas sobre IA. No Brasil, projetos de lei no Congresso propõem certificação de ferramentas jurídicas. Associações internacionais, como a International Bar Association, defendem treinamentos obrigatórios em literacia digital para advogados.

Empresas de tecnologia respondem com produtos híbridos: IA + verificação humana automatizada. Exemplos incluem o Harvey AI, que cita fontes reais, e o Casetext CoCounsel, adquirido pela Thomson Reuters, com rastreabilidade total.

Para o leitor brasileiro de tecnologia, o caso de Guimarães serve de lição. Profissionais de TI envolvidos em legaltech devem priorizar auditorias de output. No ecossistema jurídico-tecnológico, onde startups como a DeepLegal e a Jusbrasil inovam, equilibrar inovação e confiabilidade define o sucesso.

Em síntese, o incidente no Tribunal da Relação de Guimarães exemplifica os perigos das alucinações de IA no direito, onde erros factuais têm consequências reais. Embora a tecnologia acelere pesquisas e análises, a verificação em fontes primárias permanece indispensável. À medida que tribunais e ordens profissionais estabelecem diretrizes, o setor jurídico evolui para uma integração responsável de IA.

Desdobramentos prováveis incluem mais advertências judiciais e treinamentos padronizados. No Brasil, o CNJ pode acelerar adoção de plataformas validadas, beneficiando eficiência sem sacrificar acurácia. Para tecnologia, reforça a demanda por IAs 'alucinógenas-proof', com foco em transparência e accountability.

A relevância persiste: em um mundo onde IA permeia profissões reguladas, profissionais brasileiros precisam navegar esses desafios com diligência, garantindo que a inovação fortaleça, não comprometa, a justiça.