A IA é compatível com o Devido Processo Legal?
Tecnologia Jurídica

A IA é compatível com o Devido Processo Legal?

27 Fev 202612 min de leituraAli Mazloum, Amir Mazloum e Walid Mazloum

Uma decisão recente tonificou o debate sobre o uso de inteligência artificial no Judiciário brasileiro. A pergunta que importa: como compatibilizar IA com o devido processo legal, o contraditório e a motivação das decisões?

Uma decisão recente parece ter tonificado o debate sobre o uso de inteligência artificial no Direito. É o caso do voto de um desembargador que absolveu um homem de 35 anos por estupro de vulnerável contra uma criança de 12 anos em Minas Gerais.

O julgamento mostrou que a IA já se faz presente no Judiciário brasileiro. Resta saber em que extensão. Não cabe mais discutir se a tecnologia deve ser usada, mas como ela pode ser incorporada sem corroer garantias processuais que sustentam a legitimidade da jurisdição.

De um lado, o risco da delegação irresponsável à máquina de escolhas que exigem valoração jurídica, sensibilidade probatória e controle democrático. De outro, a recusa acrítica, no sentido de ignorar que a pressão por produtividade também gera erros, inconsistências e decisões frágeis, o que pode ser evitado com a utilização das ferramentas certas.

A pergunta que importa, então, é objetiva: como compatibilizar IA com o devido processo legal, o contraditório e a motivação das decisões?

A resposta passa por uma tese simples, mas exigente. IA pode apoiar o trabalho jurídico, desde que permaneça instrumental, auditável e subordinada a deveres reforçados de transparência, participação e fundamentação.

Mas há um ponto adicional, frequentemente subestimado, que condiciona a legitimidade e a utilidade do uso: não basta "ter IA"; é preciso trabalhar com IA que compreenda o sistema jurídico brasileiro, treinada e calibrada com modelos e dados legais nacionais.

No caso citado, segundo noticiário, o uso da IA pelo relator se deu para a melhoria na construção de um parágrafo, o que, à toda evidência, não tem problema algum. É lícito, é correto!


O que a IA pode (e não pode) fazer no processo

Há usos de IA que são, em regra, compatíveis com o Estado de Direito:

  • Organização de documentos e classificação de peças
  • Pesquisa de jurisprudência e detecção de inconsistências
  • Sumarização de autos e apoio à gestão de gabinete
  • Saneamento de processos
  • Correção de texto e melhoria de estruturação

Em todos esses casos, a tecnologia atua como ferramenta de eficiência, sem substituir o núcleo decisório.

O problema começa quando a IA passa a influenciar, direta ou indiretamente, o conteúdo da decisão judicial, a seleção do que será considerado relevante, ou a forma como o caso é enquadrado.

Nesses cenários, surgem três tensões centrais:

  • (i) Devido processo legal: decisões devem ser produto de procedimento justo, com controle racional e institucional do caminho decisório
  • (ii) Contraditório: as partes precisam ter condições reais de influenciar o convencimento do julgador, inclusive sobre critérios que afetem o julgamento
  • (iii) Motivação: a fundamentação não é ornamento; é o mecanismo que permite controle, recurso, previsibilidade e legitimidade

Se a IA atua como "caixa-preta", sugerindo conclusões sem explicitar premissas, dados e limites, ela pode comprometer exatamente esses três pilares.


Contraditório em tempos de algoritmos: o direito de "contraditar o método"

O contraditório contemporâneo não se limita a falar por último; ele envolve participação efetiva. Quando ferramentas algorítmicas passam a orientar triagens, priorizações, agrupamentos de casos, recomendações de precedentes ou minutas, surge um novo objeto de debate: o método.

Em termos práticos, compatibilizar IA com contraditório exige reconhecer um direito mínimo das partes de:

  • Saber se houve uso de IA em etapa relevante (triagem, análise do caso, sugestão de minuta, correção de texto, recomendação de precedentes, análise de risco, etc.)
  • Conhecer qual foi a finalidade do uso (gestão, pesquisa, apoio à fundamentação, detecção de padrões)
  • Poder questionar limitações, vieses e erros do resultado apresentado como apoio técnico

Sem isso, cria-se uma assimetria: a parte discute fatos e direito, enquanto o processo é silenciosamente moldado por critérios não debatidos.


Motivação das decisões: por que "IA sugeriu" não é fundamento

A motivação é o ponto em que o Estado presta contas. Se a decisão se apoia em uma ferramenta, a fundamentação precisa demonstrar que o juiz:

  • Compreendeu o caso concreto e as provas
  • Selecionou normas e precedentes de modo justificável
  • Enfrentou argumentos relevantes das partes
  • Não terceirizou o raciocínio para um sistema opaco

A IA pode ajudar a organizar argumentos, comparar precedentes e apontar inconsistências. Mas a fundamentação não pode ser substituída por uma "autoridade tecnológica". Em outras palavras, a decisão deve ser explicável em linguagem jurídica, independentemente de como a IA foi usada internamente.


A tese jurídica: deveres mínimos para uso legítimo de IA no sistema de justiça

Para evitar tanto o fetichismo tecnológico quanto o medo paralisante, apresentamos uma reflexão doutrinária: sempre que IA for utilizada em atividade capaz de influenciar o resultado do processo (ainda que como "apoio"), devem ser observados, ao menos, os seguintes deveres:

1. Dever de transparência funcional (uso declarado)

Deve ser possível identificar quando e para que a IA foi empregada. Não se trata de expor segredos industriais, mas de garantir rastreabilidade institucional: houve apoio algorítmico? em qual etapa? com qual finalidade?

2. Dever de auditabilidade e registro (rastro decisório)

O sistema de justiça precisa manter registro mínimo do insumo algorítmico relevante: versão da ferramenta, parâmetros gerais, logs essenciais, data e responsável pelo uso. Sem rastro, não há controle; sem controle, não há devido processo legal.

3. Dever de supervisão humana qualificada (human-in-the-loop real)

Supervisão não pode ser "carimbo". O operador deve ter condições materiais de revisar, contestar e rejeitar a sugestão da IA, com tempo, treinamento e responsabilidade atribuída.

4. Dever de não delegação do núcleo decisório

A valoração probatória, a subsunção jurídica e o enfrentamento dos argumentos das partes são indelegáveis. IA pode sugerir; não pode decidir.

5. Dever de contraditório sobre o uso relevante

Se a IA influenciou a seleção de precedentes, a priorização do caso, a triagem de pedidos ou a minuta-base, deve existir espaço para as partes questionarem o resultado e seus pressupostos, especialmente quando houver risco de erro material ou viés.

6. Dever de fundamentação independente e verificável

A decisão deve se sustentar por razões jurídicas controláveis. A IA pode ter auxiliado na pesquisa, mas o fundamento deve ser reconstruível sem apelo à "autoridade do algoritmo".


Impactos práticos: o que muda para a advocacia e para o Judiciário

Para a advocacia

A pauta não é proibir IA, mas exigir garantias processuais. Na prática, isso significa:

  • Pedir esclarecimentos sobre uso de ferramentas em etapas sensíveis
  • Apontar riscos de vieses e erros materiais
  • Reforçar a necessidade de enfrentamento específico dos argumentos, sobretudo quando a decisão aparentar padronização excessiva

Para a magistratura e a gestão judiciária

A mensagem é igualmente objetiva: tecnologia sem governança aumenta risco institucional. A adoção de IA precisa vir acompanhada de protocolos de uso, registro, treinamento e critérios de transparência compatíveis com o processo justo.

Para o público geral informado

O ponto é de legitimidade democrática: decisões judiciais não podem se tornar incompreensíveis ou "mágicas". Se a sociedade não consegue entender por que o Estado decidiu, a confiança no sistema se deteriora.


Conclusão: eficiência não pode custar legitimidade

A IA pode ser uma aliada relevante para reduzir ruído informacional, melhorar consistência e acelerar rotinas. Mas, no sistema de justiça, eficiência não é valor absoluto. É condicionada por garantias.

Compatibilizar IA com o devido processo legal, o contraditório e a motivação exige assumir que a tecnologia deve operar sob deveres reforçados de transparência, auditabilidade, supervisão humana e fundamentação independente.

A adoção responsável da tecnologia pressupõe IA treinada e calibrada com dados legais nacionais: legislação brasileira atualizada, jurisprudência dos tribunais superiores e cortes locais, atos normativos relevantes, padrões redacionais e terminologia forense brasileira. Isso não elimina riscos, mas reduz drasticamente a chance de erro estrutural e aumenta a auditabilidade do raciocínio.

Em síntese: não é só governança do uso; é governança do modelo.

Esse é o caminho do meio — não o da automação que desresponsabiliza, nem o da recusa que perpetua ineficiências e erros humanos evitáveis.

Se o sistema de justiça vai usar IA (e vai), a pergunta correta é: com quais controles, com qual prestação de contas e com qual compromisso com o processo justo?


Ali Mazloum é Desembargador Federal do Tribunal Regional Federal da 3ª Região. Amir Mazloum e Walid Mazloum são advogados, sócios do escritório Mazloum Advogados.

Leia também