Skip to main content

“Qualquer tecnologia suficientemente avançada é indistinguível da magia.” –

Arthur C. Clarke

 

Já conhecemos bem essa história. O novo assusta, não sendo raros os exemplos em que a sociedade apresentou dura resistência à inovação tecnológica. Como nos ensina a ciência, lutar ou fugir parece ser mesmo a resposta límbica natural do ser-humano frente àquilo que lhe assusta por ainda não ser completamente compreensível.

Na Revolução Industrial, essa reação, para alguns, incluiu a quebra deliberada das máquinas que ameaçavam os empregos, no que ficou conhecido como a Revolta dos Luditas. Agora, frente ao espanto global com o advento da chamada inteligência artificial generativa, capaz de interpretar e interagir em linguagem comum, sem a necessidade de códigos de programação, não surpreende que comecem a surgir propostas de uma interrupção abrupta no seu desenvolvimento ou de se restringir a sua adoção em setores-chave da sociedade, como no sistema judiciário. Contudo, mesmo frente aos avanços já obtidos com recentes reformas legislativas e com a consolidação – não sem resistência inicial, diga-se – do processo eletrônico e das audiências virtuais após a pandemia, a realidade judiciária brasileira não nos permite abdicar dos ganhos de eficiência produzidos pela adoção de ferramentas de inteligência artificial na distribuição da justiça.

Dados do último relatório Justiça em Números do Conselho Nacional de Justiça (CNJ) apontam que atualmente tramitam, no Brasil, cerca de 77 milhões de processos, distribuídos entre pouco mais de 18 mil juízes. Boa parte desses casos se refere a ações judiciais repetitivas, com alto potencial de endereçamento sistêmico. Outros, agulhas em meio a um imenso palheiro, envolvem temas extremamente complexos e intricados, que demandam a análise detalhada (ou o processamento, termo curiosamente adotado tanto pelo direito quanto pela tecnologia) de laudos técnicos, de numerosos volumes de dados e documentos, em lides com alta repercussão social. Tarefa para a qual a tecnologia igualmente pode ser um auxiliar muito útil.

De uma forma ou de outra, segundo o Anuário da Justiça, editado neste mês pelo ConJur, o tempo médio entre o início de um processo e a sua primeira baixa passa atualmente de 900 dias. Ou seja, não há como não se solidarizar com o drama de quem aguarda pela apreciação do seu direito, nem como não ser empático com quem tem a hercúlea tarefa de julgar tantas ou tão complexas lides.

Nesse contexto, o próprio Poder Judiciário brasileiro indica ter percebido que renunciar à utilização de ferramentas baseadas em inteligência artificial nas decisões judiciais não é uma opção aceitável. Na busca por maior eficiência, já operam, no país, aplicações dessa natureza que servem para a automação do exame de admissibilidade recursal (Athos, STJ); para a classificação e distribuição de processos (Toth, TJDFT); para minutar decisões com base em pareceres técnicos e do Ministério Público (Janus, TRE-BA); ou, ainda, para agrupar processos por similaridades e acelerar os julgamentos na Justiça do Trabalho (Gemini, CSJT). Na prática, o Projeto Justiça 4.0 do CNJ indica que a inteligência artificial já está presente na maioria dos tribunais brasileiros, com ganhos crescentes de produtividade.

Esse movimento é global e irrefreável. Na China, os juízes devem consultar a inteligência artificial antes de proferir sua decisão e, se discordarem da solução proposta pelo robô, precisam consignar a divergência por escrito, não apenas para fins de registro e auditoria, mas para contribuir com a aprendizagem da máquina. Ou seja, quanto mais rápido se investe na construção de bases sólidas e abrangentes, melhores e mais confiáveis resultados são obtidos.

De outro lado, é inegável que a inovação que traz eficiência também agrega novos riscos, que precisam ser adequadamente endereçados pelo sistema jurídico. Por exemplo, esses conjuntos de dados utilizados por ferramentas auxiliares de inteligência artificial podem conter vieses históricos, acabando por servir de base para decisões discriminatórias. Assim, assegurar a devida transparência acerca das bases adotadas parece ser um passo importante. As preocupações ainda envolvem questões de proteção de dados pessoais, segurança da informação ou mesmo como lidar com falhas técnicas (bugs) que produzem resultados equivocados. Urge, então, a construção de um referencial regulatório que traga mais estabilidade e segurança na adoção dessas ferramentas. Para tanto, mais do que o estabelecimento de parâmetros técnicos, o ponto crucial parece ser o estabelecimento de princípios éticos para o uso dessas ferramentas pelo judiciário, ponto de partida adotado pela União Europeia.

Ao que tudo indica estamos ainda distantes de podermos abrir mão de juízes seres-humanos, substituindo-os por algoritmos. A sensibilibilidade do magistrado experiente, fruto não apenas do análise e do cruzamento de dados provenientes de casos prévios ou da interpretação da legislação, mas da sua própria cultura, vivência social e emoções,  segue sendo essencial. Num mundo cada vez mais complexo, o ponderado escrutínio do magistrado, ciente do impacto social ou individual das suas decisões, segue essencial.

Contudo, a necessária preservação dessa condição – que, em alguns casos, seguirá se traduzindo em minuciosa dedicação individual e, talvez em muitos outros, numa supervisão dos encaminhamentos propostos pela máquina – em nada contrasta com possibilidade da adoção de inteligência artificial nas decisões judiciais. O momento atual recomenda a construção de um consenso regulatório mínimo no sistema jurídico brasileiro quanto a princípios éticos e padrões técnicos auditáveis para a aplicação dessas ferramentas, proporcionando não apenas o endereçamento gradual dos seus riscos, mas, em especial, a aceleração dos ganhos que a tecnologia pode representar para o país, aprimorando a eficiência e a qualidade da prestação jurisdicional.

Rodrigo Azevedo

Sócio, Silveiro Advogados

Artigo publicado na Folha de São Paulo.

https://www1.folha.uol.com.br/opiniao/2023/06/juizes-devem-usar-inteligencia-artificial-para-fundamentar-decisoes-nao.shtml.