Usamos cookies para personalizar e melhorar sua experiência em nosso site e aprimorar a oferta de anúncios para você. Visite nossa Política de Cookies para saber mais. Ao clicar em "aceitar" você concorda com o uso que fazemos dos cookies

Marca Bahia Notícias Justiça
Você está em:
/
/

Artigos

Tratado como número: os riscos da triagem automatizada por inteligência artificial

Por Marcus Seixas Souza

Foto: Divulgação

Imagine que você entra com uma ação na Justiça discutindo um conflito em torno de uma relação contratual. Antes mesmo de um juiz ler uma linha do seu processo, um sistema de inteligência artificial já o classificou: caso repetitivo, podendo lhe ser aplicada uma solução padronizada firmada para servir como paradigma para casos semelhantes. O problema é que o seu caso não é repetitivo. Tem um detalhe que o torna diferente (uma cláusula contratual específica, uma situação de vulnerabilidade que agrava o dano, uma circunstância que a regra geral não contempla). A IA não percebeu. E agora o seu processo aguarda, suspenso, uma decisão coletiva que talvez nunca o alcance.


Isso não é ficção. Tribunais brasileiros já utilizam sistemas automatizados para triagem e agrupamento de processos em larga escala, com o objetivo legítimo de dar mais velocidade a uma Justiça historicamente sobrecarregada. O raciocínio é compreensível: se milhares de processos discutem a mesma questão jurídica, faz sentido julgá-los conjuntamente, com uma decisão única que sirva a todos. O mecanismo existe há anos na legislação processual brasileira e, bem aplicado, é um instrumento valioso de eficiência.


O problema começa quando a identificação do que é "a mesma questão jurídica" passa a ser feita por um algoritmo de IA. Essas aplicações são boas em reconhecer padrões (palavras que se repetem, estruturas textuais semelhantes, pedidos formulados da mesma forma). O que eles fazem mal é perceber a exceção: aquele detalhe que, para o olho humano treinado, transforma um caso aparentemente comum em algo que merece atenção distinta. A padronização que torna o sistema mais rápido pode, paradoxalmente, torná-lo mais injusto.


O erro de classificação algorítmica tem consequências práticas que vão além do inconveniente burocrático. Um processo enquadrado incorretamente como caso repetitivo pode ter seu andamento suspenso por meses ou anos, enquanto aguarda o desfecho de um julgamento coletivo. Se a tese fixada nesse julgamento não se aplicar perfeitamente ao caso concreto, o cidadão pode sair sem a tutela que buscava. Não porque a lei não o protegeria, mas porque a máquina o colocou na fila errada.


Existe, é verdade, um remédio processual para essa situação. A lei permite que a parte demonstre que seu caso é diferente dos demais (o que no jargão técnico se conhece como distinguishing) e pleiteie que seja tratado de forma individualizada. É uma ferramenta importante e necessária. Mas ela pressupõe que alguém perceba o erro, saiba como argumentar e tenha êxito na demonstração dessa diferença substancial entre o seu caso concreto e a controvérsia mais geral objeto da decisão paradigma.


Há ainda uma dimensão menos visível, mas igualmente relevante: a concentração de poder que a automação pode produzir. Grandes litigantes, como bancos, seguradoras, empresas de telefonia, órgãos e entidades governamentais etc., atuam em milhares ou milhões de processos por ano e têm muito mais a ganhar com a padronização do que o cidadão comum. Quando os casos são tratados em bloco, as nuances individuais se perdem, e quem tem histórico, dados e capacidade de influenciar a formação do precedente sai em vantagem. O algoritmo, nesse cenário, não é neutro: ele reflete e amplifica assimetrias que já existiam antes de ele entrar em cena.


Isso não significa que a automação da triagem processual seja necessariamente ruim. Significa que ela precisa ser acompanhada de salvaguardas robustas: revisão humana obrigatória nos casos em que a classificação algorítmica for contestada, transparência sobre os critérios utilizados pelos sistemas, e mecanismos acessíveis para que qualquer cidadão possa questionar o enquadramento do seu processo sem depender de recursos que não tem.


A inteligência artificial pode tornar a Justiça mais rápida. Pode reduzir o acúmulo de processos, liberar juízes para casos mais complexos, e dar ao sistema uma capacidade de resposta que hoje ele claramente não tem. Mas velocidade sem precisão não é eficiência, é só pressa. E pressa, no Judiciário, tem um nome bastante conhecido: injustiça. O desafio não é escolher entre eficiência e justiça. É garantir que uma não venha às custas da outra.

 

*Marcus Seixas Souza é professor de Direito e Tecnologia na graduação em Direito, e de Inteligência Artificial e Gestão de Casos Repetitivos no programa de mestrado profissional da Faculdade Baiana de Direito.

 

*Os artigos reproduzidos neste espaço não representam, necessariamente, a opinião do Bahia Notícias

Compartilhar