Você está aqui: Página Inicial / NOTÍCIAS / IA acelera processos, mas não afeta nossa "cultura de litigiosidade"

IA acelera processos, mas não afeta nossa "cultura de litigiosidade"

por Breno Queiroz - publicado 07/12/2023 17:35 - última modificação 02/01/2024 08:56

Especialistas, pesquisadores e representantes do judiciário discutiram as mudanças nos processos legais sob influência das novas tecnologias de inteligência artificial.

Mesa 1 - 05/12/2023
Mesa ´´Usos da IA pela Justiça Brasileira: Estado da Arte´´

No final de novembro, o Conselho Nacional de Justiça (CNJ) abriu uma investigação contra um juiz federal do Tribunal Regional Federal da 1ª Região (TRF1) por suposto uso da inteligência artificial generativa, Chat GPT, na elaboração de uma decisão judicial. A suspeita foi levantada pelo advogado representante da parte derrotada na ação, que observou a citação de uma jurisprudência inexistente na sentença. Em sua defesa, o juiz responsabiliza um servidor do seu gabinete, que, segundo o magistrado, cometeu um “mero equívoco”, em razão da “sobrecarga de trabalho que recai sobre os ombros dos juízes”.

O episódio serviu como estudo de caso no encontro “Inteligência Artificial e seu Uso pela Justiça: Vantagens, Riscos e Desafios”, da última terça-feira (5), organizado pela Cátedra Oscar Sala do IEA, com apoio do Centro de Inteligência Artificial (Center for Artificial Intelligence - C4AI) da USP, e parceria do Comitê Gestor da Internet no Brasil (CGI.br) e do Núcleo de Informação e Coordenação do Ponto BR (NIC.br).

A partir da mediação do coordenador-adjunto da Cátedra Oscar Sala, Luiz Fernando Martins Castro, um time de pesquisadores e especialistas expuseram o estado atual do uso de tecnologia no judiciário brasileiro e as fronteiras éticas e políticas desse desenvolvimento.

Um fato que despertou debate foi a sinalização positiva do presidente do STF, ministro Roberto Barroso, para uso de inteligência artificial no sistema de justiça. Nesta semana, ele afirmou ter encomendado três programas a empresas de tecnologia que prometem “revolucionar” o Judiciário brasileiro.

Como lembrou o vice-presidente da secção paulista da Ordem dos Advogados do Brasil (OAB SP), Leonardo Sica, a maioria dos métodos de digitalização e automação nos trâmites judiciais “eclodiram” espontaneamente, longe das instâncias democráticas e da academia, sobretudo entre as contingências da pandemia. “As etapas processuais não foram repensadas para o meio digital, são uma mera transposição. Eu carimbo um papel no meio físico e, logo depois, aperto um botão para carimbar digitalmente”, explica Sica.

Leonardo Cica
Leonardo Sica (OAB SP) defende ampliar a discussão sobre tecnologia para o Congresso Nacional

A juíza de Direito do Tribunal de Justiça de São Paulo, Ana Rita Nery, expôs um relato que vai ao encontro dessa realidade. Segundo ela, alguns servidores do tribunal ganharam tempo de trabalho ao utilizar, por conta própria, processos de automação. Eles foram promovidos para a divisão de TI, a fim de sistematizar novos métodos.

Pela experiência do professor do Instituto de Computação da Universidade Federal do Amazonas (IComp/UFAM), Altigran Soares da Silva, a automação no sistema judiciário tem eficácia comprovada. Em parceria com o site JusBrasil, maior repositório de documentos legais do país, ele construiu modelos algorítmicos capazes de classificar e organizar, seguramente, em tópicos, um grande volume de documentos.

Como citado pelo professor, segundo a 19ª edição do Relatório Justiça em Números, do Departamento de Pesquisas Judiciárias do Conselho Nacional de Justiça (CNJ), até 2021, 80,8% dos processos tramitaram por meio eletrônico, com tempo médio de três anos e quatro meses, destoando dos nove anos e nove meses dos processos físicos.

Os processos decisórios auxiliados por máquinas, porém, não parecem tão bem-vindos entre os especialistas quanto as automações simples, checagem de duplicidade e auto preenchimento de cadastros. O exemplo mais patente foi trazido pelo titular da Cátedra Oscar Sala, professor Virgílio Almeida: na Bahia, o sistema de reconhecimento facial adquirido pela Secretaria de Segurança Pública por R$ 700 milhões, foi responsável pela prisão por 26 dias de um homem inocente. Segundo a SSP-BA, as câmeras constataram 95% de similaridade entre ele e a pessoa que deveria ser presa.

Outro exemplo citado por Almeida está no Instituto Nacional de Seguro Social (INSS). Uma auditoria recente, realizada pelo Tribunal de Contas da União (TCU), afirma que os algoritmos implantados pela autarquia passaram a emitir uma resposta-padrão negativa em 60% dos casos, sem explicações aos segurados sobre os motivos.

A explicabilidade é um conceito-chave para estabelecer princípios éticos básicos nas novas tecnologias. Em termos técnicos, como colocou o professor da Universidade Federal de Minas Gerais (UFMG), Wagner Meira, devemos esperar “localidade semântica”, ou seja, “entradas semelhantes devem ativar os mesmos neurônios e conexões”, afirma.

Essa ideia fica mais compreensível com um estudo citado pelo professor. De acordo com ele, cientistas estavam desenvolvendo um algoritmo capaz de identificar raças de cachorros, quando um detalhe chamou atenção: havia maior eficiência na identificação de huskies siberianos. Intrigados, os pesquisadores aperfeiçoaram os testes e descobriram que a máquina classificava os huskies não focando no cachorro, mas na neve ao fundo. Qualquer cachorro na neve, então, era classificado como husky. Quer dizer, entradas diferentes acionavam as mesmas conexões.

Existe ainda um problema anterior à fase de teste do algoritmo: o fornecimento de dados estruturados. “70% a 80% do trabalho é coletar, limpar, estruturar os dados”, revelou o professor do Instituto de Matemática e Estatística (IME) da USP, Marcelo Finger.

Diogo Cortiz, professor da PUC-SP, mostrou sua experiência estudando os conjuntos de dados utilizados para treinar as principais inteligências artificiais no mercado. O que é mais evidente é que a linguagem primária usada no treinamento das máquinas é o inglês, cabendo apenas uma tradução maquinal para o português, sem levar em conta a semântica. Quando tratamos do português usado no meio jurídico, o desempenho é ainda pior.

Fabio Esteves
Fabio Esteves, doutorando em direito pela USP, estuda digitalização do judiciário e acesso à Justiça

Na contramão de todo esse desenvolvimento, os rincões do Brasil, seja por meio digital ou físico, continuam distantes do acesso à justiça. “Nós temos tribunais que ainda não têm processo eletrônico, ainda têm papel. E a inteligência artificial pode acentuar ainda mais violações e questões de acesso”, lembra Fabio Francisco Esteves, juiz de Direito do Tribunal de Justiça do Distrito Federal e Territórios (TJDFT).

Esteves defende que para se pensar a adoção de inteligência artificial no Brasil, deve-se levar em conta uma perspectiva anti-discriminatória, guiada pelo CNJ, como “centro de controle de políticas judiciárias". Inclusive, dando atenção para áreas negligenciadas e que podem potencializar o acesso à justiça, como as defensorias públicas.

Fotos: Leonor de Calasans/IEA-USP