Uma decisão recente tonificou o debate sobre o uso de inteligência artificial no Judiciário brasileiro. A pergunta que importa: como compatibilizar IA com o devido processo legal, o contraditório e a motivação das decisões?
Uma decisão recente parece ter tonificado o debate sobre o uso de inteligência artificial no Direito. É o caso do voto de um desembargador que absolveu um homem de 35 anos por estupro de vulnerável contra uma criança de 12 anos em Minas Gerais.
O julgamento mostrou que a IA já se faz presente no Judiciário brasileiro. Resta saber em que extensão. Não cabe mais discutir se a tecnologia deve ser usada, mas como ela pode ser incorporada sem corroer garantias processuais que sustentam a legitimidade da jurisdição.
De um lado, o risco da delegação irresponsável à máquina de escolhas que exigem valoração jurídica, sensibilidade probatória e controle democrático. De outro, a recusa acrítica, no sentido de ignorar que a pressão por produtividade também gera erros, inconsistências e decisões frágeis, o que pode ser evitado com a utilização das ferramentas certas.
A pergunta que importa, então, é objetiva: como compatibilizar IA com o devido processo legal, o contraditório e a motivação das decisões?
A resposta passa por uma tese simples, mas exigente. IA pode apoiar o trabalho jurídico, desde que permaneça instrumental, auditável e subordinada a deveres reforçados de transparência, participação e fundamentação.
Mas há um ponto adicional, frequentemente subestimado, que condiciona a legitimidade e a utilidade do uso: não basta "ter IA"; é preciso trabalhar com IA que compreenda o sistema jurídico brasileiro, treinada e calibrada com modelos e dados legais nacionais.
No caso citado, segundo noticiário, o uso da IA pelo relator se deu para a melhoria na construção de um parágrafo, o que, à toda evidência, não tem problema algum. É lícito, é correto!
Há usos de IA que são, em regra, compatíveis com o Estado de Direito:
Em todos esses casos, a tecnologia atua como ferramenta de eficiência, sem substituir o núcleo decisório.
O problema começa quando a IA passa a influenciar, direta ou indiretamente, o conteúdo da decisão judicial, a seleção do que será considerado relevante, ou a forma como o caso é enquadrado.
Nesses cenários, surgem três tensões centrais:
Se a IA atua como "caixa-preta", sugerindo conclusões sem explicitar premissas, dados e limites, ela pode comprometer exatamente esses três pilares.
O contraditório contemporâneo não se limita a falar por último; ele envolve participação efetiva. Quando ferramentas algorítmicas passam a orientar triagens, priorizações, agrupamentos de casos, recomendações de precedentes ou minutas, surge um novo objeto de debate: o método.
Em termos práticos, compatibilizar IA com contraditório exige reconhecer um direito mínimo das partes de:
Sem isso, cria-se uma assimetria: a parte discute fatos e direito, enquanto o processo é silenciosamente moldado por critérios não debatidos.
A motivação é o ponto em que o Estado presta contas. Se a decisão se apoia em uma ferramenta, a fundamentação precisa demonstrar que o juiz:
A IA pode ajudar a organizar argumentos, comparar precedentes e apontar inconsistências. Mas a fundamentação não pode ser substituída por uma "autoridade tecnológica". Em outras palavras, a decisão deve ser explicável em linguagem jurídica, independentemente de como a IA foi usada internamente.
Para evitar tanto o fetichismo tecnológico quanto o medo paralisante, apresentamos uma reflexão doutrinária: sempre que IA for utilizada em atividade capaz de influenciar o resultado do processo (ainda que como "apoio"), devem ser observados, ao menos, os seguintes deveres:
Deve ser possível identificar quando e para que a IA foi empregada. Não se trata de expor segredos industriais, mas de garantir rastreabilidade institucional: houve apoio algorítmico? em qual etapa? com qual finalidade?
O sistema de justiça precisa manter registro mínimo do insumo algorítmico relevante: versão da ferramenta, parâmetros gerais, logs essenciais, data e responsável pelo uso. Sem rastro, não há controle; sem controle, não há devido processo legal.
Supervisão não pode ser "carimbo". O operador deve ter condições materiais de revisar, contestar e rejeitar a sugestão da IA, com tempo, treinamento e responsabilidade atribuída.
A valoração probatória, a subsunção jurídica e o enfrentamento dos argumentos das partes são indelegáveis. IA pode sugerir; não pode decidir.
Se a IA influenciou a seleção de precedentes, a priorização do caso, a triagem de pedidos ou a minuta-base, deve existir espaço para as partes questionarem o resultado e seus pressupostos, especialmente quando houver risco de erro material ou viés.
A decisão deve se sustentar por razões jurídicas controláveis. A IA pode ter auxiliado na pesquisa, mas o fundamento deve ser reconstruível sem apelo à "autoridade do algoritmo".
A pauta não é proibir IA, mas exigir garantias processuais. Na prática, isso significa:
A mensagem é igualmente objetiva: tecnologia sem governança aumenta risco institucional. A adoção de IA precisa vir acompanhada de protocolos de uso, registro, treinamento e critérios de transparência compatíveis com o processo justo.
O ponto é de legitimidade democrática: decisões judiciais não podem se tornar incompreensíveis ou "mágicas". Se a sociedade não consegue entender por que o Estado decidiu, a confiança no sistema se deteriora.
A IA pode ser uma aliada relevante para reduzir ruído informacional, melhorar consistência e acelerar rotinas. Mas, no sistema de justiça, eficiência não é valor absoluto. É condicionada por garantias.
Compatibilizar IA com o devido processo legal, o contraditório e a motivação exige assumir que a tecnologia deve operar sob deveres reforçados de transparência, auditabilidade, supervisão humana e fundamentação independente.
A adoção responsável da tecnologia pressupõe IA treinada e calibrada com dados legais nacionais: legislação brasileira atualizada, jurisprudência dos tribunais superiores e cortes locais, atos normativos relevantes, padrões redacionais e terminologia forense brasileira. Isso não elimina riscos, mas reduz drasticamente a chance de erro estrutural e aumenta a auditabilidade do raciocínio.
Em síntese: não é só governança do uso; é governança do modelo.
Esse é o caminho do meio — não o da automação que desresponsabiliza, nem o da recusa que perpetua ineficiências e erros humanos evitáveis.
Se o sistema de justiça vai usar IA (e vai), a pergunta correta é: com quais controles, com qual prestação de contas e com qual compromisso com o processo justo?
Ali Mazloum é Desembargador Federal do Tribunal Regional Federal da 3ª Região. Amir Mazloum e Walid Mazloum são advogados, sócios do escritório Mazloum Advogados.