O PAPEL TRANSFORMADOR DA INTELIGÊNCIA ARTIFICIAL NA PRODUÇÃO DE SENTENÇAS NO JUDICIÁRIO

REGISTRO DOI: 10.69849/revistaft/pa10202412191325


José Célio de Lacerda Sá1


Resumo

Este artigo explora o impacto da inteligência artificial (IA) na produção de sentenças no âmbito judiciário. A crescente complexidade dos casos legais e o volume de processos demandam eficiência e precisão, desafios que a IA estão preparados para enfrentar. Abordaremos como as tecnologias de processamento de linguagem natural e aprendizado de máquina está sendo aplicada para aperfeiçoar a produção de sentenças judiciais, proporcionando uma análise mais rápida, precisa e eficiente.

Palavras-chave: Inteligência Artificial no Judiciário. Automação Judicial. Eficiência em Processos Judiciais. Tecnologias Jurídicas
IA e Direito. Inovação no Sistema Judiciário

Abstract

This article explores the impact of artificial intelligence (AI) on the production of judgments in the judiciary. The increasing complexity of legal cases and the volume of cases demand efficiency and accuracy, challenges that AI is prepared to address. We will cover how natural language processing and machine learning technologies are being applied to optimize the production of court judgments, providing faster, more accurate, and more efficient analysis.

Introdução

O judiciário e grande parte do setor jurídico, tradicionalmente resistente às mudanças que o mundo moderno vem apresentando através das inovações tecnológicas, que está passando o mundo o que podemos compreender como uma revolução tecnológica. A chamada Inteligência artificial (IA) tem sido motivo de muitos debates e preocupações, mas mais ainda é vista como o vetor das grandes soluções para muitos problemas que se avizinha com a modernidade. A utilização da inteligência artificial no processo judicial é uma resposta à necessidade de lidar com o aumento significativo do volume de informações e a complexidade crescente dos casos. Este artigo tem o propósito de examinar, especificamente, como a IA está transformando a produção de sentenças, proporcionando benefícios tanto para magistrados quanto para a sociedade.

1. Desafios Atuais na Produção de Sentenças

Os sistemas de Inteligência Artificial (IA) necessitam de dois insumos para que possam cumprir suas funcionalidades de maneira adequada, quais sejam, uma grande base de dados (o que comumente é chamado de big data) e uma programação matemática algorítmica (algoritmos),, que aplicada à base de dados fornecida garanta uma tomada de decisão a mais próxima possível – ou ainda, mais eficiente – do que seria alcançado pelo raciocínio humano. Importa esclarecer que, ainda que fosse possível determinar uma autonomia absoluta dos sistemas de Inteligência Artificial de interferências humanas – o que não se reconhece na atualidade –, num momento original de determinação dos objetivos do sistema, dados e fórmulas matemáticas foram selecionados por humanos para serem aplicados pelas máquinas. Não é verdade, portanto, que os resultados alcançados por sistemas de IA são neutros e isentos de vieses. Um sistema de IA será tão enviesado quanto forem os dados e os algoritmos utilizados por ele e que, por sua vez, foram selecionados por um humano, conforme já salientado.

Nas sociedades da informação, uma série de operações e decisões tem sido delegada a esses algoritmos. Escolhas que, em um passado não tão distante, sequer se cogitava a possibilidade de serem realizadas por outros que não os próprios seres humanos. Esses algoritmos têm a capacidade de aconselhamento, quando não de pronta decisão, sobre a forma com que as informações e dados deverão ser interpretados, além de poderem definir ações a serem tomadas como resultado. Em complemento, o grupo especializado em Inteligência Artificial formado pela Comissão Europeia, Grupo Independente de Peritos de Alto Nível sobre a Inteligência Artificial (GPAN IA) define IA como:

softwares (e possivelmente hardwares) desenhados por humanos que, dado um objetivo complexo, atuam na dimensão física ou digital percebendo o seu ambiente por meio da aquisição de dados, interpretando os dados estruturados e não estruturados coletados, raciocinando sobre o conhecimento ou processando a informação derivada desse dado e decidindo a(s) melhor(es) ação(ões) para alcançar aquele objetivo. Sistemas de IA podem usar regras simbólicas ou aprenderem com modelos numéricos, e também podem adaptar seu comportamento analisando como o ambiente é afetado por suas ações pretéritas (…).

Outra dificuldade na definição da IA é que o seu termo é como um guarda-chuva para abrigar diferentes áreas de estudo, como: aprendizado de máquina, processamento de linguagem natural, visão computacional, robótica, jogos, sistemas especialistas, pesquisa operacional e estatística. É comum que uma mesma aplicação de IA junte essas diferentes áreas, como é o caso de recentes aplicações: os carros autônomos, as assistentes convencionais (Siri, Alexa, Cortana), robôs marinhos ou sistemas que jogam xadrez. A história da IA tem demonstrado ser natural a eleição pela academia e pela indústria, em uma determinada época, de uma ou outra área da IA,, motivando o seu desenvolvimento e sua pesquisa. Atualmente, para os juristas, duas sub-áreas da IA têm chamado atenção: o aprendizado de máquina (machine learning – ML) e a robótica.

De acordo com Ryan Calo e Jack Balkin, estas são as áreas da IA que demandarão maior atenção do Direito, pois ambas possuem características próprias que trazem novos e diferentes desafios regulatórios. A área de aprendizado de máquina tem por objetivo criar algoritmos que evoluem seu comportamento à medida que aprendem com os dados que recebem, tal como descrito acima. Estes algoritmos são usados para tarefas onde é difícil criar um conjunto definido de instruções para resolvê-las, tais como o reconhecimento facial e a decodificação da linguagem. Como o próprio nome indica, ML visa ensinar à máquina a identificar e reconhecer padrões – que não são passíveis de reconhecimento a olhos humanos –, a partir do seu treinamento com um certo conjunto de dados (input). A partir desse treinamento, a máquina é apresentada a um novo conjunto de dados, nunca antes analisados por ela, para que sejam identificados padrões, “e, com base neles, gerar modelos que são usados para predição a respeitos dos dados tratados (output).”. O seu aprendizado vai evoluindo e se aperfeiçoando por meio de feedbacks e técnicas estatísticas, fazendo com que seu algoritmo vá se adaptando e melhorando. A grande vantagem desta técnica é que ela é capaz “retirar dos programadores a difícil tarefa de produzir instruções explícitas para os computadores”” além de ““aprender exemplos sutis entre dados que podem passar despercebidos para os humanos ou até mesmo não serem reconhecidos”.

Apesar dos benefícios gerados pelo ML, é verdade que o seu uso abrangente e em diferentes contextos (diagnóstico médico, decidir pela soltura de um acusado, ou direcionar oportunidades empregatícias), levantam desafios éticos e jurídicos. Estes questionamentos se justificam pelo modo opaco como estes sistemas tomam as suas decisões,, o que impede a avaliação da legitimidade e legalidade do código e a compreensão de como e por que uma determinada decisão foi alcançada. Além disso, a ausência de interferência humana no funcionamento e na tomada de decisão desses agentes inteligentes também geram dilemas envolvendo a sua imputabilidade e responsabilidade civil em caso de danos.

O judiciário enfrenta desafios consideráveis, como a sobrecarga de casos, a morosidade processual e a necessidade de decisões mais precisas. A produção manual de sentenças, muitas vezes sujeita a erros humanos, torna-se um gargalo para a justiça eficiente.

2. Contribuições da Inteligência Artificial

Análise de Dados Volumosos: A IA permite analisar grandes conjuntos de dados legais, identificando padrões e precedentes de forma mais rápida e eficiente do que métodos tradicionais.

Processamento de Linguagem Natural: Algoritmos avançados de processamento de linguagem natural capacitam sistemas a compreenderem e interpretarem documentos legais, agilizando a pesquisa jurisprudencial e a análise de textos legais complexos.

Aprendizado de Máquina na Tomada de Decisões: Sistemas de IA podem aprender com decisões passadas, refinando suas habilidades de tomada de decisões ao longo do tempo e proporcionando consistência nas interpretações legais.

Eficiência e Redução de Custo: A automação de tarefas rotineiras libera recursos humanos para atividades mais estratégicas, reduzindo custos operacionais e acelerando o tempo de resposta.

3. Desafios e Considerações Éticas

Na ausência de regulação jurídica sobre o assunto, a observação de princípios éticos pode ser importante para maximizar os benefícios da IA e diminuir seus riscos. A questão que se coloca é: quais princípios éticos? A utilização de princípios éticos como instrumento para a regulação da Inteligência Artificial, apesar de não conter uma natureza coercitiva e sancionatória típica da regulação jurídica, permite a criação de guias deontológicos que serão constituídos como a razão prima facie e o fundamento para o desenvolvimento e implementação da IA. Nesse caso, a governança da Inteligência Artificial será baseada em princípios que imporão uma regulação leve (soft law ou soft regulation), na medida em que servirão de limite para a expansão da IA, sem, contudo, prever uma penalidade específica em caso de desvio do padrão constituído. Tanto a União Europeia quanto outros organismos internacionais – – como, por exemplo, a OCDE e a Access Now – – e instituições privadas –- como, por exemplo, a IBM e a Microsoft – – instituíram guias de recomendação para a adoção de princípios éticos para a regulação de IA.

Os princípios éticos indicados pelos documentos consultados partem de um mesmo pressuposto, qual seja, a necessidade de fomentar o desenvolvimento de uma Inteligência Artificial confiável e que seja auditável, permitindo que seus processos sejam conhecidos e controlados – – ou controláveis – – pelo ser humano. Respaldado por estes pressupostos, os princípios-guias que foram primeiramente eleitos para iniciar a construção de uma “Ética para a IA”” foram importados da experiência da Bioética, considerada exemplar por promover, ao mesmo tempo, a proteção da pessoa humana e o desenvolvimento da ciência. Estes princípios beneficência; não- maleficência; autonomia e justiça – são a base para a constituição de outros três princípios – estes específicos da IA – – que servem de justificativa para a confiabilidade dos sistemas: (i) o princípio da justiça (fairness); (ii) o princípio da acurácia (accuracy); e (iii) o princípio da inteligibilidade (intelligibility). O reconhecimento desses princípios representa, resumidamente, a adoção de medidas que (i) impeçam a aplicação de sistemas de IA que violem o princípio da igualdade de tratamento; (ii) permitam reconhecer que os insumos utilizados pela IA e os resultados que advém de seu tratamento sejam precisos; e (iii) proporcionem à pessoa humana o conhecimento dos processos de decisão tomados pela IA.

Dentre os documentos analisados, os Princípios de Asilomar – – produto da Asilomar Conference on Beneficial AI, realizado em 2017 – – é dos mais relevantes, por se tratar de iniciativa multissetorial, reunindo em nível internacional acadêmicos, indústria, ONGs, entre outros atores, em busca de uma melhor compreensão dos limites para o desenvolvimento da IA. Dos 23 princípios reconhecidos, 13 princípios se referem à Ética e Valores (ethics and values). Não serão analisados todos os princípios, sendo destacados os seguintes: (i) princípio da segurança e precaução a danos; (ii) princípio da transparência sobre incidentes de segurança; (iii) princípio da responsabilidade pelas implicações morais do uso da IA; (iv) princípio da proteção e controle de dados pessoais; e (v) atendimento a valores humanos, dentre os quais se destacam os ideais de dignidade humana, liberdade e diversidade cultural.

Outro documento que deve servir de parâmetro para a adoção de princípios éticos, é o preparado pelo Grupo Independente de Peritos de Alto Nível sobre a Inteligência Artificial (GPAN IA) , da União Europeia, que, em 2019, elaborou um Guia Ético para o que denominou de IA de Confiança. De acordo com o grupo, uma IA de confiança “tem três componentes, que devem ser observadas ao longo de todo o ciclo de vida do sistema: a) deve ser Legal, cumprindo toda a legislação e regulamentação aplicáveis; b) deve ser Ética, garantindo a observância de princípios e valores éticos; c) deve ser Sólida, tanto do ponto de vista técnico como do ponto de vista social, uma vez que, mesmo com boas intenções, os sistemas de IA podem causar danos não intencionais”.

Dentre os princípios éticos arrolados pelo grupo, quatro se destacam, quais sejam, (i) o respeito da autonomia humana, (ii) a prevenção de danos, (iii) a equidade e (iv) a explicabilidade. De uma forma muito semelhante ao documento de Asilomar, o Guia Ético adota uma postura de promoção da tutela da pessoa humana por meio do respeito à sua autonomia e integridade, no que se refere à prevenção e precaução de danos.

A ideia geral por trás destes guias deontológicos é garantir que os processos em torno do desenvolvimento e utilização dos sistemas de IA cumpram determinados pressupostos, dentre os quais podemos destacar a obrigatoriedade de supervisão humana dos processos. Significa dizer que toda IA deve necessariamente ser centrada na pessoa humana, a ela direcionada e por ela supervisionada, engajando os sistemas para servir à coletividade, no sentido de amplificar não só a sua segurança, mas também garantir a autonomia e a capacidade de decidir das pessoas. Considerando essas premissas, os sistemas de IA devem, a um só tempo, potencializar os benefícios que geram para a humanidade, e prevenir os riscos que venham a causar à coletividade. A tarefa, à toda evidência, não é simples e requer um verdadeiro compromisso por parte não só dos desenvolvedores de sistemas de IA, mas também da sociedade como um todo, no sentido de apoiar a IA quando confiável ou denunciar a IA que foge aos escopos dos códigos de ética e valores constituídos.

Por outro lado, ao sustentar que a IA deve ser centrada no humano (human centered), pode-se inferir que a regulação do desenvolvimento e uso da IA extrapola aquela determinada pelos princípios éticos e encontra guarida na tutela jurídica dos direitos fundamentais, previstos tanto na Constituição Federal, quanto em outras normas de caráter universal, como declarações e tratados internacionais. Assim, a abordagem à ética da IA seria também baseada nos direitos fundamentais, no sentido de ser por eles apoiada. O princípio da dignidade humana, o direito à liberdade e à igualdade, seriam as fontes para a construção de uma IA ética, confiável e humano-centrada.

Daí concluir-se que a aplicação de tal tecnologia deve visar a tutela da pessoa e do princípio da igualdade, o que garantiria uma IA sensível a questões de gênero, por exemplo. Neste sentido, importa compreender que para alcançar e promover o princípio da igualdade é essencial acessar os dados pessoais que identificam a pessoa – especificamente quanto ao gênero – – para que seja possível atender ao princípio da não discriminação, princípio este previsto no artigo 6º, da Lei Geral de Proteção de Dados Pessoais, que será analisada a seguir.

Apesar dos benefícios, a implementação da IA no judiciário também levanta preocupações éticas. Questões como transparência nos algoritmos, viés algorítmico e a responsabilidade pela tomada de decisões continuam sendo tópicos importantes a serem considerados.

3.1 Cenário atual da inteligência artificial no poder judiciário

 Conforme matéria publicada pelo CNJ, intitulada Judiciário ganha agilidade com uso de inteligência artificial, em 03 de abril de 2019, […] investimentos em tecnologia e em soluções de Inteligência Artificial (IA) são alguns dos caminhos definidos pelo Poder Judiciário brasileiro para responder ao crescimento exponencial das demandas da sociedade por justiça (MELO, 2019). Nesse rastro, vários são os programas de IA identificados na referida matéria da Agência do Conselho Nacional de Justiça, que se passa a sintetizar. Sinapse, criado pelo Tribunal de Justiça de Rondônia (TJRO), trata-se de “[…] plataforma dotada de IA que otimiza a realização de tarefas repetitivas e, ao mesmo tempo, garante maior segurança jurídica e maior respaldo para se minutar um processo” (MELO, 2019). Poti, Clara e Jerimum são uma família de robôs do Tribunal de Justiça do Rio Grande do Norte (TJRN), desenvolvida com a Universidade Federal do Rio Grande do Norte (UFRN). Poti, que já vem sendo aplicado, “[…] executa tarefas de bloqueio, desbloqueio de contas e emissão de certidões relacionadas ao BACENJUD” (atualmente, SISBAJUD) (MELO, 2019). Por sua vez, Jerimum promove a classificação e rotula os processos, enquanto Clara lê, recomenda tarefas e decisões (MELO, 2019). O Tribunal de Justiça de Pernambuco (TJPE) programou a Elis, que analisa processos de execução fiscal, minutando decisões e Rev. Esc. Jud. TRT4, Porto Alegre, v. 3, n. 5, p. 117-141, jan./jun. 2021 129 assinando despachos. Radar é plataforma criada pelo Tribunal de Justiça de Minas Gerais (TJMG), que já lida com 5,5 milhões de feitos, tratando-se de ferramenta que agrupa os processos, identificando padrão decisório, sobretudo, quando se trata de mesmas causas e pedidos (MELO, 2019). Por sua vez, Victor é o projeto de IA utilizado pelo STF, para tornar mais eficiente e rápida a avaliação dos processos submetidos à análise da Corte. Com isso, opera-se a redução do retrabalho, a melhoria do processo e a aceleração da tramitação das ações (MELO, 2019). Diante da significativa presença da IA nas atividades jurisdicionais, o CNJ exarou a Resolução nº 332, de 21 de agosto de 2020, que trata sobre ética, transparência e governança na produção e no uso de IA no Poder Judiciário. Como objetivo, […] visa promover o bem-estar dos jurisdicionados e a prestação equitativa da jurisdição, bem como descobrir métodos e práticas que possibilitem a consecução desses objetivos (BRASIL, 2020b). Mais recentemente, o CNJ publicou a Portaria nº 271, de 4 dezembro de 2020, regulamentando o uso de IA no âmbito do Poder Judiciário, que “[…] se dará em plataforma comum, acessível por todos, que incentive a colaboração, a transparência, o aprimoramento e a divulgação dos projetos” (BRASIL, 2020d). Tal plataforma é o Sinapses, a ser disponibilizado pelo CNJ em parceria com o TJRO. A plataforma estará disponível 24 horas por dia, ininterruptamente (art. 8º) (BRASIL, 2020d). Algumas hipóteses passíveis de submissão à IA no Judiciário são elencadas pelo CNJ, tais como, “triagem de casos de grande massa”, com “classificação de petição inicial conforme temas previamente estabelecidos (energia, banco, cia. aérea, etc.” (BRASIL, 2019, p. 29); “movimento processual inteligente”, observando a tabela processual unificada do CNJ (p. 29); verificação de petições (em petição inicial, por exemplo); “análise de prevenção” em consonância com o Código de Processo Civil (CPC) (p. 30); “similaridade processual”, em que a IA “varre bases processuais 130 Rev. Esc. Jud. TRT4, Porto Alegre, v. 3, n. 5, p. 117-141, jan./jun. 2021 e identifica similaridade entre documentos, com aplicação em diversos momentos da atividades judiciária” (p. 31); “Acórdão Sessões”, em que a ferramenta “lê, identifica e possibilita extrair partes de um acórdão, como ementa, relatório e voto” (p. 31); “Gerador de texto magistrado”, que “produz automaticamente sugestões de textos (autocomplete) com base no que já foi escrito” (p. 32); “Sumarizador”, a fim de resumir grandes conjuntos de textos (p. 32), entre outros (BRASIL, 2019). Ou seja, a IA pode ser empregada desde antes da petição inicial até o arquivamento do processo. Não necessariamente para substituir a decisão judicial, que parece ser o grande receio da sociedade, inclusive da comunidade profissional e acadêmica, e que merece pesquisa aprofundada, mas visando a agregar maior eficiência e rapidez na prestação jurisdicional. Portanto, a aplicação da IA gera resultados, em razão da redução dos custos e do melhor direcionamento dos recursos humanos.

Conclusão

Essa conjuntura demonstra que os dilemas enfrentados pelo Direito com o advento do desenvolvimento tecnológico não são simples. A sociedade caminha cada vez mais, e com maior intensidade, para uma sociedade governada por dados: ao passo que se extrai dos indivíduos a potência de liberdade e equidade, esses mesmos bens jurídicos são acrescidos de valor no ato de sua exploração por empresas de tecnologia na forma de dados. Dessa forma, o Direito se apresenta como ponto nodal de proteção aos direitos e liberdades individuais à medida que oferece meios para que os usuários dessas ferramentas e plataformas preservem sua privacidade e autonomia, nos seus termos.

A utilização da inteligência artificial na produção de sentenças representa um avanço significativo para o sistema judiciário. Ao adotar essas tecnologias de forma ética e transparente, é possível alcançar maior eficiência, celeridade e precisão nas decisões legais. A integração da IA no judiciário não apenas moderniza processos, mas também promove uma justiça mais acessível e eficaz para todos os envolvidos. Este é um passo crucial em direção a um futuro jurídico mais ágil e justo.

REFERÊNCIAS

BALKIN, Jack M.. The Path of Robotics Law. California Law Review, v.ol 6, 2015. Disponível em: https://ssrn.com/abstract=2586570.

BAROCAS, Solon and SELBST, Andrew D., Big Data’’s Disparate Impact (2016). 104

California Law Review 671 (2016), INDisponível em: https://ssrn.com/abstract=2477899. http://dx.doi.org/10.2139/ssrn.2477899.

BIONI, Bruno Ricardo. Proteção de Dados Pessoais – A Função e os Limites do Consentimento. Forense, 2018.

BODIN DE MORAES, Maria Celina. Danos à pessoa humana: uma leitura civil constitucional dos danos morais. Rio de Janeiro: Renovar, 2003.

BURRI, Thomas. The Politics of Robot Autonomy. European Journal of Risk

Regulation, 2016, pp. 341-360. Disponível em: https://papers.ssrn.com/sol3/papers.cfm? abstract_id=2815082.

CALO, Ryan. Artificial Intelligence policy: a primer and roadmap. 51 U.C. Davis Law

Review 300, 2017, pp. 405. Disponível em: <https://lawreview.law.ucdavis.edu/issues/51/2/Symposium/51-2_Calo.pdf>.

FLORIDI, Luciano; MITTELSTADT, Brent Daniel; ALLO, Patrick; et al. The ethics of algorithms: mapping the debate. Oxford Internet Institute. Big Data and society: Londres, Jul.-Dec. 2016., p. 1-21

LEMLEY, Mark A; CASEY, Bryan. Remedies for Robots. 86 University of Chicago Law Review 1311, Stanford Law and Economics Olin Working Paper nNo. 523, 2019, p. 1325. 2019. Disponível em: https://lawreview.uchicago.edu/publication/remediesrobots.

MITTELSTADT, Brent, Principles Alone Cannot Guarantee Ethical AI (May 20, 2019).

Nature Machine Intelligence, November 2019., INDisponível em: https://ssrn.com/abstract=3391293 or http://dx.doi.org/10.2139/ssrn.3391293.

MULHOLLAND, Caitlin. A responsabilidade civil por presunção de causalidade. GZ Editora, 2009.

MULHOLLAND, Caitlin. Dados pessoais sensíveis e a tutela de direitos fundamentais: uma análise à luz da lei geral de proteção de dados (Lei 13.709/18). Revista de Direitos e Garantias Fundamentais , v. 19, p. 159-180, 2018.

MULHOLLAND, Caitlin; FRAJHOF, Isabella Z. Entre as leis da robótica e a ética: regulação para o adequado desenvolvimento da inteligência artificial. In: BARBOSA, Mafalda Miranda; NETTO, Felipe Braga; SILVA, Michael César; FALEIROS JÚNIOR, José Luiz de Moura Faleiros. Direito digital e inteligência artificial: diálogos entre Brasil e Europa. Indaiatuba: Editora Foco, 2021.

MULHOLLAND, Caitlin; FRAJHOF, Isabella. “Inteligência Artificial e a Lei Geral de Proteção de Dados Pessoais: breves anotações sobre o direito à explicação frente à tomada de decisões por meio de machine learning“., In: FRAZÃO, Ana; MULHOLLAND, Caitlin. Inteligência Artificial e Direito: ética, regulação e responsabilidade. 2. ed. Editora dos TribunaisSão Paulo: Ed. RT, 2021, 2ª edição, pp. 267-292.

MULHOLL


1 Possui graduação em Direito pela Universidade Federal da Paraíba(1993), especialização em Gestão Jurisdicional de meios e fins pelo Centro Universitário de João Pessoa(2007) e aperfeicoamento em MESTRADO – ALUNO ESPECIAL pela Universidade Católica de Pernambuco(2016). Atualmente é do CENTRO DE EDUCAÇÃO E PESQUISA ALMEIDA & AGUIAR. Tem experiência na área de Direito. Lattes iD http://lattes.cnpq.br/7444073297930250