CHALLENGES OF IMPLEMENTING ARTIFICIAL INTELLIGENCE IN THE BRAZILIAN JUDICIARY
REGISTRO DOI: 10.69849/revistaft/cl10202509301210
Raylla Thyele Sampaio Moura1
RESUMO
Este artigo trabalha os desafios da Implementação de Inteligência Artificial (IA) no judiciário brasileiro, como ferramenta tecnológica de excelência para impulsionar a prática jurídica. Neste sentido, o objetivo geral buscou analisar a evolução da utilização de IA no Poder Judiciário brasileiro, os principais benefícios, riscos e obstáculos quanto à utilização desta ferramenta. E como objetivos específicos: analisar conceito, origem, evolução e impactos da IA; identificar os principais benefícios trazidos pela Inteligência Artificial no Poder Judiciário; mapear os principais projetos de IA em desenvolvimento pelos tribunais; pontuar os obstáculos técnicos, operacionais ou éticos à implementação das soluções de IA e Apresentar as recomendações quanto à utilização de Inteligência Artificial. Justifica-se a escolha da temática pelo dinamismo e transformação constante do Direito à nova realidade social, por consequência das evoluções sociocomportamentais e tecnológicas. Trata-se de uma pesquisa de metodologia descritiva, explorando teorias, evolução histórica e dados coletados pela Biblioteca Digital do Conselho Nacional de Justiça (CNJ), através de pesquisa com profissionais de tribunais e conselhos de todos os ramos de Justiça e das cinco regiões geográficas para avaliar as percepções sobre a implementação e evolução da IA proporcionando uma visão complementar à pesquisa quantitativa. Ficou constatado, como resultados, crescimento significativo de projetos de IA pelos tribunais brasileiros, que buscam por eficiência, inovação e parcerias estratégicas para enfrentar os desafios judiciais.
Palavras-chave: Inteligência Artificial; Implementação de IA no Judiciário; Justiça 4.0.
ABSTRACT
This article addresses the challenges of implementing Artificial Intelligence (AI) in the Brazilian judiciary, as an excellent technological tool to boost legal practice. In this sense, the general objective sought to analyze the evolution of the use of AI in the Brazilian Judiciary, the main benefits, risks and obstacles regarding the use of this tool. And as specific objectives: analyze the concept, origin, evolution and impacts of AI; identify the main benefits brought by Artificial Intelligence in the Judiciary; map the main AI projects being developed by the courts; point out the technical, operational or ethical obstacles to the implementation of AI solutions and present recommendations regarding the use of Artificial Intelligence. The choice of the theme is justified by the dynamism and constant transformation of Law to the new social reality, as a result of socio-behavioral and technological development. This is a descriptive methodology research, exploring theories, historical evolution and data collected by the Digital Library of the National Council of Justice (CNJ), through research with court professionals and councils from all branches of Justice and the five geographic regions to assess perceptions about the implementation and evolution of AI providing a complementary view to quantitative research. As a result, there was a significant growth in AI projects by Brazilian courts, which seek efficiency, innovation and strategic partnerships to face judicial challenges.
Keywords: Artificial intelligence; Implementation of AI in the Judiciary; Justice 4.0.
1. INTRODUÇÃO
Acolhendo à hipótese da Inteligência Artificial como ferramenta tecnológica de excelência para impulsionar a prática jurídica. Pretende-se, no presente trabalho, responder à seguinte problemática: Como implementar o uso de Inteligência Artificial no judiciário brasileiro?
O objetivo geral sob o qual se estruturou e desenvolveu do estudo desta pesquisa, foi analisar a evolução da utilização de IA no Poder Judiciário brasileiro, identificar os principais benefícios, determinar os riscos e obstáculos quanto à utilização desta ferramenta nos tribunais.
Diante disto, para alcançar o objetivo central, foram traçados alguns objetivos específicos: Analisar conceito, origem, evolução e impactos da IA; identificar os principais benefícios trazidos pela Inteligência Artificial no Poder Judiciário; mapear os principais projetos de IA em desenvolvimento pelos tribunais; pontuar os obstáculos técnicos, operacionais ou éticos à implementação das soluções de IA e Apresentar as recomendações quanto à utilização de Inteligência Artificial.
A escolha do presente tema justifica-se pela importância de compreender o dinamismo e transformação constante do Direito à nova realidade social, por consequência das evoluções sociocomportamentais e tecnológicas. Destacando a necessidade de adaptação do aparelho jurídico à medida que o mundo se torna mais complexo.
Quanto aos aspectos metodológicos, o método utilizado foi a descritiva, explorando teorias, evolução histórica e dados coletados pela Biblioteca Digital do Conselho Nacional de Justiça (CNJ), através de pesquisa com profissionais de tribunais e conselhos de todos os ramos de Justiça e das cinco regiões geográficas para avaliar as percepções sobre a implementação e evolução da IA proporcionando uma visão complementar à pesquisa quantitativa.
Como fundamentação teórica, dialogamos com os seguintes autores: Marcos Vinicius Machado Ribeiro (2023) “Inteligência Artificial o Poder Judiciário. Ética e eficiência em debate” e pesquisas do Conselho Nacional de Justiça sobre o uso de inteligência artificial IA no Poder Judiciário.
Esta pesquisa desenvolveu-se nas seguintes seções, em primeiro momento uma análise sobre Inteligência Artificial em um contexto geral, desde a origem e conceito, pontuando os principais impactos e influências desta tecnologia conforme sua evolução. Na sequência, foram apresentados os principais benefícios do uso de IA pelos tribunais, desafios enfrentados e mapeamento de projetos.
2. INTELIGÊNCIA ARTIFICIAL: CONCEITO, ORIGEM, EVOLUÇÃO E IMPACTOS
Inteligência artificial (IA) é a capacidade de um computador digital ou robô controlado por computador de executar tarefas comumente associadas a seres inteligentes. Os psicólogos geralmente caracterizam a inteligência humana não apenas por uma característica, mas pela combinação de muitas habilidades diversas. A pesquisa em IA concentrou-se principalmente nos seguintes componentes da inteligência: aprendizagem, raciocínio, resolução de problemas, percepção e uso da linguagem.
O termo é frequentemente aplicado ao projeto de desenvolvimento de sistemas dotados de processos intelectuais que simulem a aprendizagem humana, como a capacidade de raciocinar, descobrir significado, generalizar, aprender com experiências passadas, a resolução de problemas, a tomada de decisões, a criatividade e a autonomia.
Em 1950, Alan Turing, chamado de pai da ciência da computação, publica o artigo Computing Machinery and Intelligence, com o seguinte questionamento: “As máquinas podem pensar?” E ofereceu um teste onde um interrogador humano tentaria distinguir entre uma resposta de texto de computador e humana, conhecido como Teste de Turing.
Logo depois, John McCarthy cunhou o termo “inteligência artificial” o conceito de IA começou a ser reconhecido e membros da comunidade científica da época formalizaram um termo na primeira conferência de IA no Dartmouth College. Mais tarde naquele ano, Allen Newell, JC Shaw e Herbert Simon criaram o Logic Theorist, o primeiro programa de computador de IA em execução.
O primeiro computador baseado em uma rede neural que “aprendeu” por tentativa e erro foi o Mark 1 Perceptron, construído por Frank Rosenblatt em 1967. As redes neurais tornaram-se amplamente utilizadas em aplicações de IA que usam um algoritmo de retropragramação para se treinar.
Um marco histórico na evolução da IA ocorreu em 1997, quando o Deep Blue, um software criado pela IBM, especializado em jogar xadrez derrotou o então campeão mundial de xadrez Garry Kasparov, o computador conseguia analisar e interpretar milhares de partidas jogadas.
Em 2022, com o aumento em grandes modelos de linguagem ou LLMs, como o ChatGPT da OpenAI, há uma mudança enorme no desempenho da IA e seu potencial de aprendizado profundo em grandes quantidades de dados. IA generativa (IAG), refere-se a modelos de aprendizado profundo que podem criar conteúdo original complexo como texto longo, imagens de alta qualidade, vídeo ou áudio realistas e muito mais em resposta a um prompt ou solicitação do usuário.
Os impactos da Inteligência Artificial são enormes, pois permite que sistemas e dispositivos façam coisas que antes só os seres humanos eram capazes de fazer, e em alguns casos, pode realizar melhor que o ser humano determinadas tarefas. Além disso, a sua alta capacidade de análise e processamento de dados pode ocorrer em qualquer lugar do mundo, a qualquer hora e de maneira muito mais eficiente.
3. PRINCIPAIS BENEFÍCIOS TRAZIDOS PELA INTELIGÊNCIA ARTIFICIAL NO PODER JUDICIÁRIO
A implementação de Inteligência Artificial é de interesse geral do Judiciário, confirmado pela pesquisa “O uso da Inteligência Artificial Generativa no Poder Judiciário”, realizada pelo Conselho Nacional de Justiça. Esta pesquisa faz um levantamento de percentual dos servidores ou assessores que informaram ter utilizado a IAG (Inteligência Artificial Generativa) como ferramenta e apoio no desenvolvimento de atividades profissionais.
Cerca de 80,7% dos magistrados e 72,5% dos servidores consideram que o uso de IAG pode auxiliar em suas atividades de rotina. Em resposta às perguntas sobre treinamento e capacitação para o uso da tecnologia este percentual supera os 90%.
O Presidente do CNJ através da Portaria nº 25 de 19/02/2019, instituiu o Laboratório de Inovação para o Processo Judicial em meio Eletrônico – Inova PJe e, como primeira linha de pesquisa, o Centro de Inteligência Artificial aplicada ao PJe. Sobre Inteligência Artificial no Poder Judiciário, conselheiro do CNJ Luiz Fernando Bandeira de Mello estabelece que “A IA é uma ferramenta que vai dar agilidade e eficiência no Judiciário, mas precisamos colocar regras claras para que as pessoas não sejam julgadas por robôs” (Audiência Pública – Inteligência Artificial no Poder Judiciário. Auditório do Conselho Nacional de Justiça. 25 a 27 de setembro de 2024).
O Sinapses é a primeira solução tecnológica colocada à disposição desse ambiente virtual, é uma plataforma para desenvolvimento e disponibilização em larga escala de modelos de IA, também comumente conhecido como “Fábrica de Modelos de IA”. Uma ferramenta que permite a pesquisa e a produção de serviços inteligentes para auxiliar na construção de módulos para o PJe e no seu aprimoramento.
A tecnologia possibilita a coleta e organização de informações, mapear processos, permitindo uma tomada de decisão com precisão e rapidez. Além disso, permite que mais indivíduos tenham acesso à Justiça, com suas aplicações sendo utilizadas para impulsionar os resultados, o aumento da produtividade com economia de recursos e de tempo.
Os chatbots são um bom exemplo de como a Inteligência Artificial pode impulsionar o potencial jurídico e maximizar os resultados, pois são verdadeiros facilitadores, capazes de realizar um atendimento mais humanizado e qualificado.
O Tribunal de Justiça do Piauí (TJ-PI) desenvolveu a JuLIA (Justiça AuxiLiada pela Inteligência Artificial) com mais de 2,2 milhões de dados, que possibilita que qualquer pessoa possa acessar informações sobre o Poder Judiciário do Piauí através do aplicativo de mensagens integrado ao WhatsApp, tornando a linguagem dos processos judiciais mais simples e acessível, pois exclui termos em latim e explica em que momento foi proferida a decisão.
Dentre suas principais tarefas, o usuário pode esclarecer dúvidas sobre os mais diversos assuntos, informar aos responsáveis pelos processos em cada setor quais estão na iminência de serem baixados; análise das petições iniciais (valor da causa, bens do processo, análise de pensão); consulta pública processual e consulta de informações diversas (telefones, diário, história, biografia, balcão virtual, endereços).
No dia 25 de novembro de 2024, celebrado o Dia Internacional para a Eliminação da Violência Contra as Mulheres, foi lançado o módulo Sentinela do sistema JuLIA. Esta ferramenta permite que vítimas de violência doméstica e familiar solicitem medidas protetivas de urgência diretamente a um juiz via WhatsApp, e será fornecido um passo a passo para o preenchimento do formulário de avaliação de risco.
Outro importante marco no Judiciário brasileiro é o Projeto Victor, desenvolvido pelo Supremo Tribunal Federal (STF) em parceria com a Universidade de Brasília (UnB), é uma solução tecnológica que possibilita que máquinas façam a pesquisa textual e leitura das peças dos processos, principalmente em classes recursais, recurso extraordinário e recurso extraordinário com agravo.
Recebe esse nome em homenagem a Victor Nunes Leal, falecido ministro do Supremo responsável pela sistematização da jurisprudência do STF em súmula, o que facilitou a aplicação dos precedentes judiciais aos recursos.
O Projeto Victor executa, principalmente, conversão de imagens em textos no processo digital ou eletrônico; separação do começo e do fim de um documento (peça processual, decisão etc.); separação e classificação das peças processuais mais utilizadas nas atividades do STF e; a identificação dos temas de repercussão geral de maior incidência.
No Tribunal de Justiça do Estado de Pernambuco, foi desenvolvida a ELIS, solução apoiada por IA capaz de automatizar atividades do Processos de Execuções Fiscais que tramitam no PJe. A IA é utilizada na triagem inicial dos processos e automação de fluxo no PJe. Além disso, fornece um dashboard para monitoramento das operações.
A Escola Nacional de Formação e Aperfeiçoamento de Magistrados – Enfam desenvolveu o CORPUS 927, um sistema de centralização e consolidação de jurisprudência, que tem por objetivo reunir as decisões vinculantes, os enunciados e as orientações, centralizar as jurisprudências do STF e do STJ e exibir posicionamentos similares, no intuito de identificar correntes jurisprudenciais.
Enquanto isso, no Tribunal de Justiça do Distrito Federal e dos Territórios – TJDFT, três grandes projetos foram desenvolvidos. HORUS é responsável pelo processamento Inteligente para inserção de dados digitalizados para os casos da Vara de Execução Fiscal; ÁMON pelo processamento de Imagens e Reconhecimento facial de indivíduos que acessem o tribunal sem a devida apresentação formal.; TOTH processamento da petição inicial, a fim de auxiliar a classificação das variáveis de assunto e classe do processo, contribuindo com a melhoria do relatório Justiça em Números.
Das 140 soluções tecnológicas mapeadas, 63 já estão em uso ou aptas a serem utilizadas. Por sua vez, 46 estão em fase final de desenvolvimento, 17, em fase inicial e três ainda não foram iniciadas. Além disso, 11 projetos já foram finalizados, porém ainda não foram implementados.
As ferramentas de IA têm sido fundamentais para o aumento da eficiência no tratamento dos processos dentro do Judiciário brasileiro. Por exemplo, Triagem de grande massa – efetua classificação de processos, para que possam ser agrupados em classes previamente definidas, facilitando o trabalho dos gabinetes dos magistrados; Movimento Processual Inteligente- adaptada para receber documentos e retornar uma predição do movimento provável (ex. gratuidade de justiça, mero expediente, concessão de medida liminar etc.)
O CNJ, através da pesquisa “Painel de Projetos de IA no Poder Judiciário”. No painel da pesquisa sobre Inteligência Artificial, as principais motivações para criar um projeto de IA é a eficiência e agilidade, seguida pelo aumento da precisão e consistência de tarefas repetitivas.
O Programa Justiça 4.0, iniciado em 2020, é fruto de um acordo de cooperação firmado entre o Conselho Nacional de Justiça (CNJ) e o Programa das Nações Unidas para o Desenvolvimento (PNUD), com apoio do Conselho da Justiça Federal (CJF), Superior Tribunal de Justiça (STJ), Tribunal Superior do Trabalho (TST), Conselho Superior da Justiça do Trabalho (CSJT) e Tribunal Superior Eleitoral (TSE).
Seu objetivo é desenvolver e aprimorar soluções tecnológicas para tornar os serviços oferecidos pela Justiça brasileira mais eficientes, eficazes e acessíveis à população, além de otimizar a gestão processual para magistrados, servidores, advogados e outros atores do sistema de Justiça.
No âmbito do Programa Justiça 4.0, foi realizado pesquisa envolvendo 94 órgãos do Poder Judiciário e identificou 140 projetos de IA desenvolvidos ou em desenvolvimento nos tribunais e conselhos de justiça. O levantamento anual do Conselho Nacional de Justiça, em 2023, aponta um crescimento expressivo de 26% com relação ao número de projetos na pesquisa de 2022.
Em resposta às crescentes demandas de modernização, visando contribuir com a capacitação dos servidores judiciais, o Programa de Justiça 4.0 desenvolveu o curso “Introdução à Inteligência para o Poder Judiciário”, online e autoinstrucional.
4. OBSTÁCULOS TÉCNICOS, OPERACIONAIS OU ÉTICOS À IMPLEMENTAÇÃO DAS SOLUÇÕES DE IA
A implementação de ferramentas de Inteligência Artificial no Judiciário aumenta a necessidade do controle sobre o poder de manuseio de um enorme volume de dados, que traz grandes responsabilidades.
As discussões para adoção da IA pelos tribunais foi tema para audiência pública no Conselho Nacional de Justiça. Durante três dias, 60 especialistas nacionais e internacionais participaram dos debates, profissionais de TI, operadores do direito, representantes da Academia, dos Executivos municipais, estaduais e federais.
Preocupado com os riscos associados à tecnologia e a necessidade de organização e transparência em sua aplicação e gestão nos tribunais, o CNJ mapeia os projetos de IA em desenvolvimento pelos tribunais e acompanha a evolução das soluções de IA no Judiciário brasileiro, em consonância com as diretrizes estabelecidas pela Resolução nº 332/2020 e pela Portaria 271/2020. Podendo assim, identificar os obstáculos técnicos, operacionais ou éticos à implementação de tais soluções.
A Resolução CNJ nº 332/2020 regulamenta a forma que os tribunais devem observar a compatibilidade da implementação e uso da Inteligência Artificial com os Direitos Fundamentais, orienta as cautelas necessárias quanto a dados pessoais sensíveis e ao segredo de justiça, além de garantir a segurança jurídica e a isonomia adjudicatória.
Por sua vez, a Portaria n. 271/2020 prevê as diretrizes para gestão, coordenação e funcionamento do Sinapses e estabelece o cumprimento das regras de governança constantes na Resolução n. 332/2020, sendo eles: governança de dados; controle de qualidade e treinamento.
Os principais riscos inerentes à tecnologia são: falta de transparência; privacidade e à proteção de dados; danos materiais ou morais, decorrentes do design equivocado ou de erros no treinamento ou na implementação, que resultem em falhas; e os riscos ligados à discriminação; infração a direitos autorais e cybersegurança.
É necessária adaptação gradual às inovações tecnológicas, para mitigação de riscos e preocupações éticas. Acredita-se na regulamentação do uso da IA para aumentar a eficiência e a qualidade do serviço jurisdicional.
4.1 Falta de Transparência
Quando questionados sobre transparência nas atividades judiciais, 83% dos servidores que responderam ao formulário da pesquisa realizada pelo CNJ – “O uso da Inteligência Artificial Generativa no Poder Judiciário”, admitiram não informar que utilizam a IA no trabalho, apesar de a reação dos magistrados ser positiva nesse sentido. Pouco mais de 62% afirmaram incentivar a adoção de IA nos gabinetes.
A disponibilização oficial de ferramenta de IA pela organização, em interfaces próprias, tende a trazer maior transparência entre os pares quanto ao uso, o que é valoroso dentro do uso responsável de IA
A transparência é um dos pilares do Estado Democrático de Direito. A utilização de um selo que indique o uso de IA reforça a transparência e permite um controle social mais efetivo sobre as práticas do Judiciário, pois, a IA emprega modelos complexos de aprendizado de máquina, que trazem correlações estatísticas entre milhares de parâmetros, nem sempre inteligíveis para o raciocínio humano.
Devem ser adotadas medidas de transparência e explicabilidade das ferramentas de Inteligência Artificial, havendo a divulgação responsável de informações, objetivos e resultados pretendidos, registro de identificação dos riscos e possíveis formas de mitigação, mecanismos de auditoria e esclarecimento referente às decisões de modelo, e determinação do motivo do dano.
Os usuários devem ser informados, de maneira clara e precisa, sobre a utilização de ferramentas IA nos serviços prestados, ressaltando que, deve explicar os passos que conduziram ao resultado. As soluções apresentadas não têm caráter vinculante, sendo assim, serão submetidas à análise de autoridade competente.
A documentação dos projetos e os modelos de inteligência artificial devem ser disponibilizados pelo órgão responsável na plataforma, indicando claramente as necessidades que ensejaram sua criação e os objetivos que se pretende.
Além disso, para garantir total transparência na prestação de contas, qualquer solução computacional do Poder Judiciário que utilize modelos de Inteligência Artificial deve conter: identificação dos responsáveis; custos envolvidos; existência de colaborações entre setores públicos, privados ou sociedade civil; resultados pretendidos e alcançados; e demonstração de publicidade quanto à natureza do serviço, às técnicas usadas, ao desempenho do sistema e aos riscos de erros.
4.2 Privacidade e Proteção de Dados
A ferramentas de IA utiliza grandes quantidades de dados no treinamento de modelos de IA, que deverão ser provenientes de fontes seguras, preferencialmente governamentais. A fim de garantir a preservação do sigilo e de segredos de justiça, são adotadas medidas de ocultação ou anonimização para dados sensíveis utilizados para treinamentos dos modelos.
Além disso, esses dados devem ser armazenados e executados em ambientes com padrões consolidados de segurança da informação, para que sejam protegidos contra riscos de destruição, modificação, extravio ou acesso e transmissões não autorizadas.
O Projeto de Lei 2.775/24 altera a Lei Geral de Proteção de Dados (LGPD) para estabelecer critérios sobre o uso desse tipo de informação no treinamento de sistemas de inteligência artificial (IA).
Um dos principais desafios é garantir que o uso da Inteligência Artificial não viole os direitos individuais, incluindo os dados pessoais dos indivíduos. Diz o autor do projeto, deputado João Daniel (PT-SE): “É imprescindível que o avanço tecnológico seja acompanhado de medidas que assegurem a proteção dos dados pessoais dos cidadãos, especialmente no contexto do desenvolvimento de sistemas de inteligência artificial”.
O objetivo é assegurar que os processos sejam seguros, transparentes e não extrapolem os limites impostos pela LGPD. Entre as exigências previstas no texto está o consentimento prévio e expresso do titular dos dados antes do início de qualquer atividade de treinamento de Inteligência Artificial.
O consentimento deve ser renovado a cada atualização significativa do sistema de IA, assegurando ao titular dos dados o direito de revogar o consentimento de maneira facilitada e acessível. O texto proíbe o uso de dados pessoais de menores de 16 anos.
A mitigação desses riscos dá-se por meio de treinamento dos usuários e centralização do uso pela disponibilização “oficial” da ferramenta pelo tribunal, que pode analisar os termos de uso e adotar as opções menos invasivas ou arriscadas do ponto de vista de proteção da confidencialidade e proteção de dados pessoais, em consonância com a estrutura e a política de governança de privacidade e proteção de dados do tribunal
4.3 Danos materiais ou morais, decorrentes do design equivocado ou de erros no treinamento ou na implementação, que resultem em falhas
O maior risco associado ao uso da Inteligência Artificial está relacionado à possibilidade de uma máquina falhar. Os chatbots de IA, por exemplo, é uma ferramenta incapaz de compreender os textos e realizar inferências lógicas sobre eles. A ferramenta apenas prevê a combinação mais provável a partir do texto formulado no prompt, com base em treinamento realizado a partir de enorme volume de textos.
O treinamento de ferramentas de IA demanda grandes bases genéricas de dados que são capazes de gerar conteúdo novo que, apesar de ser indistinguível do conteúdo humano, pode conter referências falsas e despregadas da realidade, chamadas de “alucinações”.
Essas “alucinações” são imprecisões e equívocos conceituais, chamados de “vazamentos semânticos”, quando a ambiguidade ou os múltiplos sentidos de uma palavra pode gerar sequências de texto impróprias, mesmo que a base de dados inclua textos contendo informações sólidas.
Assim, o uso dos chatbots ou outras ferramentas para elaboração de documentos jurídicos pode simular textos elaborados por humanos, mas trazer referências falsas ou citações de doutrina ou precedentes inexistentes. Tal risco ocasionou incidente noticiado envolvendo o Tribunal Regional da 1ª Região, onde sentença elaborada por ChatGPT fez referência a precedentes inexistentes.
IAs não fazem propriamente distinção entre fatos, contraposição de opiniões, deliberações ou exercício de juízo, compreensão ou análise, muito embora o resultado gerado pareça mimetizar esses processos do pensamento humano.
Por sua vez, para dirimir os riscos, faz-se necessário a adoção de medidas organizacionais de treinamento dos usuários e de instâncias de revisão para reduzir “alucinações” ou imprecisões e erros técnicos, a partir de treinamento específico em conjuntos de documentos de determinado domínio de aplicação. Para contribuir com a formação dos servidores judiciais no tema, o Programa Justiça 4.0 desenvolveu o curso “Introdução à Inteligência Artificial para o Poder Judiciário”.
Os modelos de inteligência artificial usados pelo Poder Judiciário para análises, sugestões ou conteúdo devem permitir o rastreamento e a auditoria das predições feitas durante sua aplicação. Além disso, os modelos de IA devem fornecer feedback quanto a eventual discordância quanto ao uso das predições, para assegurar sua auditoria e melhoria.
4.4 Riscos ligados à Discriminação.
Os riscos ligados à discriminação decorrem dos próprios dados usados para o treinamento do sistema, que podem reproduzir, direta ou indiretamente, vieses sociais e estruturais, além de vieses cognitivos dos próprios desenvolvedores na escolha dos dados relevantes para o treinamento na concepção do modelo.
O fato do modelo ser treinado com ampla base de dados e documentos disponíveis na internet e em redes sociais preocupa ainda mais, pela possibilidade dessas fontes apresentarem vieses e estereótipos quanto a grupos ou populações menorizadas. Sendo assim, é mais difícil administrar e eliminar tais tendências discriminatórias no desenvolvimento de aprendizado das ferramentas de Inteligência Artificial.
Esses grupos minoritários têm uma restrita participação na Internet devido a diversos fatores. Sem treinamento específico para detectar padrões ligados a determinadas minorias, é difícil para a ferramenta treinada com grande volume de dados capturar a diversidade.
Ademais, pode ocorrer erros na tradução do idioma, tendo em vista que, as ferramentas de IA em sua grande maioria, são programadas com base em documentos em língua inglesa traduzidos por IA, desdobramento do fenômeno chamado de colonialismo digital.
Além de possíveis imprecisões ou falhas decorrentes de tradução, estereótipos ligados à cultura e visão de mundo constante naqueles documentos podem trazer notas depreciativas para minorias (em função de raça, gênero, condição econômica de grupos ou regiões etc.
É recomendado se atentar para potenciais aspectos discriminatórios ao conteúdo gerado com auxílio dessas ferramentas, embora utilizados para domínios técnicos como a implementação nos tribunais, onde se espera cada vez mais a adoção de ferramentas de moderação e detecção de vieses ou discursos abusivos, tanto no conteúdo dos prompts quanto nos resultados das aquisições.
Nesse sentido, no que se refere às atividades de tratamento de dados pessoais, a Lei Geral de Proteção de Dados (LGPD), traz explicitamente o princípio da não discriminação em seu artigo 6º, inciso IX, o que deixa ainda mais evidente os cuidados a serem observados quando da adoção de tecnologias de IA.
A LGPD veda o processamento de dados para fins ilícitos e abusivos. Não é o ser humano quem serve a máquina, mas sim a máquina que deve ser usada a favor do ser humano. Por isso, os sistemas de IA adotam medidas de adequação e compatibilidade com o Princípio da Dignidade Humana.
4.5 Cybersegurança
Além dos grandes riscos inerentes à inteligência artificial, há o risco de cybersegurança, decorrente do fato de que muitos sistemas de IA sejam softwares embarcados em equipamentos, operarem de modo conectado e que podem trazer graves consequências. Por isso, é necessário fortalecer as defesas cibernéticas.
Criminosos digitais podem manipular os dados de treinamento de um modelo de Inteligência Artificial, inserindo informações falsas ou comprometidas com o intuito de enganar o sistema e facilitar a execução de ataques. Agentes maliciosos podem explorar o potencial da IA para aperfeiçoar suas estratégias de ataque.
Com o uso de IA, criminosos conseguem processar vastos volumes de dados rapidamente, identificando padrões que permitem reduzir combinações de senhas e elaborar mensagens de golpes mais persuasivas e personalizadas. Isso amplia consideravelmente seu poder de ataque, tornando as ofensivas mais sofisticadas, eficientes e difíceis de detectar pelas defesas tradicionais.
A maioria dos riscos de segurança de IA se resume à segurança e à qualidade dos dados. Se uma organização puder manter os dados de treinamento para seus modelos de IA protegidos contra exposição e puder garantir que os dados de treinamento estejam completos e corretos, os modelos treinados com base nesses dados deverão ser precisos.
O gerenciamento de vulnerabilidades é um problema complexo e crescente à medida que as vulnerabilidades de software se tornam mais numerosas. A IA pode realizar automaticamente varreduras de vulnerabilidade, triagem de resultados e desenvolver recomendações de correção para fechar a segurança de API identificada.
A capacidade da IA de identificar tendências e anomalias é adequada para detectar possíveis ameaças à segurança cibernética. Por exemplo, a IA pode monitorar o tráfego de rede e procurar picos de tráfego ou padrões de comunicação incomuns que possam indicar um ataque.
A IA também pode ser usada para realizar modelagem e detecção de anomalias no comportamento do usuário. Ao identificar atividades incomuns em contas de usuários, a IA pode ajudar a detectar contas comprometidas ou abuso dos privilégios de um usuário.
As ferramentas de segurança habilitadas para IA podem automatizar tarefas de segurança comuns e repetitivas com base em manuais. Isso permite uma resposta rápida a ataques cibernéticos em escala após a identificação de uma intrusão.
4.6 Infração a Direitos Autorais
A criação de conteúdo gerado por ferramentas de Inteligência Artificial é tema de debate com relação à autoria das peças. Questionamento que acarretou demandas de indenização autoral em tribunais estrangeiros.
A indagação principal que se discute é se a autoria caberia ao desenvolvedor do software ou se caberia ao autor dos prompts. A possibilidade de proteção autoral em relação aos dados protegidos usados para treinamento, se a reprodução de estilo de autor que possa ser mencionado no prompt seria objeto de proteção, se deveria ser obra de domínio público ou se a autoria seria a própria Inteligência Artificial.
Sobre o tema ainda não há definição clara na doutrina ou em precedentes judiciais, é fato que o questionamento quanto ao conteúdo gerado é imprescindível, tendo em vista que para o treinamento de grandes ferramentas de IA é necessário grande volume de documentos, possivelmente protegidos por direitos autorais.
Vários autores dirigiram seus questionamentos contra empresas que disponibilizam o software e, em menor grau, a obras resultantes de prompts que mencionem explicitamente o estilo de determinado autor com obras protegidas.
O Projeto de Lei 4025/23 exige autorização expressa das pessoas envolvidas para o uso de imagens e de obras por sistemas de inteligência artificial (IA). O texto altera o Código Civil e a Lei de Direitos Autorais. De acordo com o projeto, imagens de pessoas falecidas só poderão ser manipuladas por inteligência artificial mediante autorização de parentes próximos, como cônjuge, filhos e pais.
No caso das obras, o texto prevê que cabe ao autor autorizar previamente a utilização do conteúdo para treinamento de sistemas de inteligência artificial. E estabelece ainda que obras produzidas por inteligência artificial não geram direitos autorais.
Como tal prática não é semelhante aos documentos elaborados pelo Poder Judiciário, a proteção autoral não é significativa nesse campo. Mesmo assim, faz-se adequado verificar a política e os termos de uso dos fornecedores dos sistemas em relação à abordagem para direitos autorais e como é tratada a autoria do conteúdo gerado.
Por se tratar de tema em aberto, é recomendável postura conservadora, assumindo que o uso de materiais protegidos por direitos autorais, como artigos, livros, códigos, pinturas ou músicas, por fornecedores dos modelos de IA, pode infringir os direitos de propriedade intelectual.
5. RECOMENDAÇÕES QUANTO AO USO DE INTELIGÊNCIA ARTIFICIAL
É fato que a utilização de ferramentas de Inteligência Artificial já vem sendo utilizada na administração e nos tribunais brasileiros. Todavia, como explanado no capítulo anterior, há uma série de riscos inerentes à ferramenta que devem ser enfrentados e mitigados.
Consequentemente, são necessárias medidas de governança e regulação para que os benefícios da tecnologia sejam alcançados por meio de seu emprego confiável e responsável pelos tribunais.
Diante do crescente uso de ferramentas de Inteligência Artificial por cortes, incluindo a escrita de documentos legais, decisões judiciais e argumentos, a Unesco divulgou o documento “Guidelines for the Use of AI Systems in Courts and Tribunals”.
O texto menciona as orientações publicadas pela Austrália, Brasil, Canadá, Nova Zelândia e Reino Unido. No entanto, destaca a escassez de orientais formais disponíveis e aborda a necessidade de diretrizes adequadas para o uso de ferramentas de Inteligência Artificial (IA) no setor de Justiça.
Entre as recomendações de governança para organização do Judiciário ressalta a importância da conscientização sobre as funcionalidades, para que os magistrados e servidores do Poder Judiciário estejam cientes dos usos adequados, das limitações e dos riscos associados às ferramentas de IA.
Além de prezar pela autenticidade e pela integridade do conteúdo gerado por IA, incluindo rotulagem clara de documentos gerados por IA e implementação de sistemas para rastrear o desenvolvimento e modificações desses conteúdos.
O Poder Judiciário deve emitir diretrizes específicas para governar o uso de IAs prevenindo o uso indevido e protegendo a integridade do processo legal. Ser transparente quanto à aplicação de recursos de Inteligência Artificial e restringir aplicações a depender de seu impacto sobre direitos humanos.
Servidores e magistrados devem ter ciência de que o conteúdo gerado a partir de ferramentas de IA podem incluir informações imprecisas, fictícias ou incorretas, sobre questões factuais, jurídicas e técnicas, além dos riscos éticos envolvidos quanto a vieses ou violações à privacidade.
Desse modo, não incluir dados pessoais ou informações confidenciais em prompts ao usar ferramentas de IA externas, pois os termos de serviço da maioria das empresas de IA que fornecem acesso gratuito a esses sistemas indicam que as entradas serão usadas para treinar futuros modelos.
6. CONSIDERAÇÕES FINAIS OU CONCLUSÕES
Desde a origem da Inteligência Artificial, percebe-se seu potencial disruptivo. A sua evolução acelerada acompanhada de linguagem simplificada, permite agilidade e eficiência em atividades cada vez mais complexas, antes só realizada por humanos.
São inúmeros os benefícios e possibilidades de ferramentas desenvolvidas por Inteligência Artificial capazes de tornar a Justiça mais acessível, célere e eficaz. Partindo desses desejos, o Judiciário brasileiro tem uma crescente demanda de projetos concluídos e em andamento, que visam implementar e regular o uso de Inteligência Artificial.
No Brasil, as diretrizes gerais de controle e princípios a serem observados pelo Poder Judiciário quando da instalação de inteligências artificiais, são reguladas pela Resolução nº 332/2020 e a Portaria 271/2020, ambas instituídas pelo Conselho Nacional de Justiça. Mas, faz se necessário uma Lei que regulamente a Inteligência Artificial.
Embora a modernização do Judiciário frente às novas tecnologias seja inevitável, é imprescindível que esse processo seja gradual e cauteloso, prevendo os riscos inerentes ao sistema e estabelecendo normas para o uso consciente entre as organizações e usuários, para que sejam resguardados os Direitos Humanos e a segurança jurídica.
REFERÊNCIAS
Automação e eficiência: TJ-PI lança sistema de Inteligência Artificial JuLIA | Tribunal de Justiça do Piauí. Disponível em: <https://www.tjpi.jus.br/portaltjpi/tjpi/noticiastjpi/automacao-e-eficiencia-tj-pi-lanca-sistema-de-inteligencia-artificial-julia/>. Acesso em: 5 dez. 2024.
BARBOSA, L. P. A nova ordem executiva dos EUA sobre Inteligência Artificial segura e confiável. Disponível em: <https://www.jota.info/opiniao-e-analise/colunas/regulando-ainovacao/a-nova-ordem-executiva-dos-eua-sobre-inteligencia-artificial-segura-e-confiavel>. Acesso em: 5 dez. 2024.
COPELAND, B. J. artificial intelligence | Definition, Examples, and Applications, 2019. (Nota técnica).
Curso Introdução à Inteligência Artificial para o Poder Judiciário – Portal CNJ. Disponível em: <https://www.cnj.jus.br/sistemas/plataforma-sinapses/capacitacoes/cursointroducao-a-inteligencia-artificial-para-o-poder-judiciario/>. Acesso em: 5 dez. 2024.
Debates e propostas devem atualizar normas sobre o uso de IA no Judiciário | Justiça Federal – 2a Região. Disponível em: <https://www.trf2.jus.br/jf2/noticia-jf2/2024/debatespropostas-devem-atualizar-normas-sobre-uso-de-ia-no-judiciario>. Acesso em: 5 dez. 2024.
DEFINE, P. Projeto define regras para uso de dados pessoais no treinamento de inteligência artificial – Notícias. Disponível em: <https://www.camara.leg.br/noticias/1097433-projeto-define-regras-para-uso-de-dadospessoais-no-treinamento-de-inteligencia-artificial>. Acesso em: 5 dez. 2024.
FERNANDES, M. Consultor Jurídico. Disponível em: <https://www.conjur.com.br/2024out-23/inteligencia-artificial-e-poder-judiciario-riscos-e-beneficios-de-um-debateinevitavel/>. Acesso em: 5 dez. 2024.
GEYSA.BIGONHA. Inteligência Artificial no Judiciário: uso é pouco frequente, mas interesse pela ferramenta é elevado – Portal CNJ. Disponível em: <https://www.cnj.jus.br/iano-judiciario-uso-e-pouco-frequente-mas-interesse-pela-ferramenta-e-elevado/>. Acesso em: 5 dez. 2024.
IBM watsonx as a Service. Disponível em: <https://www.ibm.com/docs/en/watsonx/saas?topic=atlas-data-bias>. Acesso em: 5 dez. 2024.
Inteligência artificial (IA) na cibersegurança: desafios e oportunidades | Diazero Security. Disponível em: <https://www.diazerosecurity.com.br/pt/blog/inteligencia-artificial-ia-naciberseguranca-desafios-e-oportunidades>. Acesso em: 5 dez. 2024.
Inteligência Artificial no Poder Judiciário Brasileiro. Disponível em: <https://bibliotecadigital.cnj.jus.br/jspui/bitstream/123456789/98/1/Intelig%c3%aancia%20Artificial%20no%20Poder%20Judiciario%20Brasileiro.pdf>. Acesso em: 05 dez. 2024.
JuLIA já conta com atendimento via WhatsApp | Tribunal de Justiça do Piauí. Disponível em: <https://www.tjpi.jus.br/portaltjpi/tjpi/noticias-tjpi/julia-ja-conta-com-atendimento-viawhatsapp/>. Acesso em: 5 dez. 2024.
MAYRA975. LGPD 2024: Os desafios da LGPD frente à Inteligência Artificial. Disponível em: <https://www.diasteixeira.com.br/post/lgpd-2024-os-desafios-da-lgpd-frente-%C3%A0intelig%C3%AAncia-artificial>. Acesso em: 5 dez. 2024.
NETALIT. What is AI Security? Disponível em: <https://www.checkpoint.com/pt/cyberhub/cyber-security/what-is-ai-security/>. Acesso em: 5 dez. 2024.
NONATO, I. Consultor Jurídico. Disponível em: <https://www.conjur.com.br/2024-out22/o-selo-de-inteligencia-artificial-nas-decisoes-judiciais/>. Acesso em: 5 dez. 2024.
RELATÓRIO DE PESQUISA O uso da Inteligência Artificial Generativa no Poder Judiciário Brasileiro. Disponível em: <https://www.cnj.jus.br/wpcontent/uploads/2024/09/cnj-relatorio-de-pesquisa-iag-pj.pdf>. Acesso em: 05 dez.
SARAH.BARROS. Programa Justiça 4.0 divulga resultados de pesquisa sobre IA no Judiciário brasileiro – Portal CNJ. Disponível em: <https://www.cnj.jus.br/programa-justica4-0-divulga-resultados-de-pesquisa-sobre-ia-no-judiciario-brasileiro/>. Acesso em: 5 dez. 2024.
SARAH.BARROS. Uso de IA no Judiciário cresceu 26% em relação a 2022, aponta pesquisa. Disponível em: <https://www.cnj.jus.br/uso-de-ia-no-judiciario-cresceu-26-emrelacao-a-2022-aponta-pesquisa/>. Acesso em: 5 dez. 2024.
Single Object. Disponível em: <https://paineisanalytics.cnj.jus.br/single/?appid=43bd4f8a-3c8f-49e7-931f-52b789b933c4&sheet=53cb7211-d465-4ee7-ad18e57c7f50085b&theme=horizon&lang=pt-BR&opt=ctxmenu>. Acesso em: 5 dez. 2024.
THE ECONOMIST. AI needs regulation, but what kind, and how much? Disponível em: <https://www.economist.com/schools-brief/2024/08/20/ai-needs-regulation-but-what-kindand-how-much>. Acesso em: 5 dez. 2024.
TJ-PI lança novo módulo da JuLIA para que vítimas solicitem medidas protetivas via WhatsApp | Tribunal de Justiça do Piauí. Disponível em: <https://www.tjpi.jus.br/portaltjpi/tjpi/noticias-tjpi/tj-pi-lanca-novo-modulo-da-julia-paraque-vitimas-solicitem-medidas-protetivas-via-whatsapp/>. Acesso em: 5 dez. 2024.
VALLE, V. C. L. L.; FUENTES I GASÓ, J. R.; AJUS, A. M. Decisão judicial assistida por inteligência artificial e o Sistema Victor do Supremo Tribunal Federal. Revista de Investigações Constitucionais, v. 10, p. e252, 19 jan. 2024.
1Pós-Graduanda em Advocacia Cível pela ESA-PI. Expert em contratos. Analista de Compliance. Advogada. Bacharela em Direito pela Faculdade Estácio de Teresina. E-mail: rayllasampaio.adv@gmail.com