Como a IA pode auxiliar magistrados sem substituir o raciocínio humano e a função jurisdicional. Especialistas debatem os limites éticos e constitucionais dessa aplicação nos tribunais brasileiros.
A inteligência artificial começa a ser utilizada por tribunais brasileiros para triagem de processos, análise de jurisprudência e apoio à tomada de decisão. Mas quais são os limites éticos e constitucionais dessa aplicação?
O CNJ (Conselho Nacional de Justiça) já implementou sistemas de IA em diversos tribunais para:
O Projeto Victor, desenvolvido em parceria com a Universidade de Brasília (UnB), analisa recursos no STF com alto grau de precisão, identificando automaticamente quais processos tratam de repercussão geral reconhecida — tarefa que antes demandava centenas de horas de trabalho humano.
Contudo, a aplicação da IA no Judiciário levanta questões constitucionais relevantes que não podem ser ignoradas.
O princípio do juiz natural (art. 5º, LIII e XXXVII, CF/88) garante que ninguém será processado nem sentenciado senão pela autoridade competente. A decisão jurisdicional é, por essência, um ato humano — impregnado de valores, contexto e responsabilidade que nenhum algoritmo pode assumir.
O contraditório (art. 5º, LV, CF/88) exige que as partes possam influenciar efetivamente o convencimento do julgador. Se uma IA sugere a decisão sem que as partes saibam quais critérios foram utilizados, esse direito fundamental fica comprometido.
A IA pode apoiar, mas jamais substituir, o raciocínio do magistrado. A função jurisdicional é indelegável.
Há também o risco de perpetuação de vieses históricos presentes nos dados de treinamento dos modelos. Se a jurisprudência passada refletia desigualdades sociais, raciais ou de gênero, um sistema treinado nesses dados tenderá a reproduzi-las — de forma sistemática e em escala.
O equilíbrio ideal está em três pilares fundamentais:
As partes e seus advogados devem ter acesso às informações sobre quando e como a IA foi utilizada no processo. A explicabilidade dos sistemas é condição de validade do ato processual.
As recomendações geradas por IA devem poder ser contestadas pelas partes, com direito a réplica técnica sobre as premissas e limitações do sistema utilizado.
Juízes e servidores precisam compreender o funcionamento básico das ferramentas que utilizam — não para serem programadores, mas para supervisionar e questionar as recomendações algorítmicas com discernimento.
O futuro do Judiciário será, inevitavelmente, híbrido. A questão não é se a IA será usada, mas como será usada — com quais controles, com qual transparência e com qual compromisso com os direitos fundamentais.
As experiências internacionais — da União Europeia com o AI Act ao debate norte-americano sobre algorithmic accountability — apontam para um modelo em que a tecnologia serve ao processo justo, e não o contrário.
O Judiciário que souber integrar IA com responsabilidade será mais eficiente, mais consistente e, paradoxalmente, mais humano.