REGISTRO DOI: 10.69849/revistaft/cl10202505301610
Danielle de Vasconcelos Peixoto1
Danielle Santos Coêlho de Carvalho Rocha1
Orientadora: Profa. Dra. Suenya Talyta de Almeida2
Resumo: O presente artigo analisa a aplicação da Inteligência Artificial (IA) na jurisdição brasileira, com ênfase nos desafios éticos e jurídicos decorrentes da automação de decisões judiciais. Delimita-se o estudo à atuação do Poder Judiciário, considerando aspectos como a fundamentação das decisões, a opacidade algorítmica, a responsabilidade civil, a supervisão humana, a capacitação dos operadores do Direito e a necessidade de regulamentação específica. A pesquisa adota o método qualitativo, com base em revisão bibliográfica e abordagem dedutiva. Conclui-se que, para que a IA seja efetivamente incorporada ao Judiciário sem comprometer os direitos fundamentais, é indispensável um marco regulatório robusto, a manutenção da autonomia judicial e a promoção de uma cultura ética no uso de tecnologias.
Palavras-chave: Inteligência Artificial; Jurisdição Brasileira; Direitos Fundamentais; Regulação; Ética.
Abstract: This article analyzes the application of Artificial Intelligence (AI) in the Brazilian judiciary, with emphasis on the ethical and legal challenges arising from the automation of judicial decisions. The study focuses on the jurisdictional function, addressing aspects such as the reasoning of decisions, algorithmic opacity, civil liability, human oversight, professional training, and the need for specific regulation. The research follows a qualitative methodology based on bibliographic review and a deductive approach. It concludes that the effective and ethical integration of AI into the judiciary depends on a solid regulatory framework, the preservation of judicial autonomy, and the promotion of an ethical culture in technological use.
Keywords: Artificial Intelligence; Jurisdiction; Fundamental Rights; Regulation; Ethics.
1. Introdução
A integração da Inteligência Artificial (IA) ao Poder Judiciário brasileiro representa uma transformação paradigmática no exercício da jurisdição. A adoção de tecnologias automatizadas, algoritmos preditivos e sistemas de apoio à decisão judicial tem sido incentivada como resposta à morosidade, à sobrecarga processual e à busca por maior eficiência (FERREIRA; JÚNIOR, 2019; POLIDO, 2023). Contudo, essa integração levanta preocupações relevantes quanto à preservação da autonomia do julgador, à fundamentação individualizada das decisões e à proteção dos direitos fundamentais.
Delimita-se, portanto, este estudo à análise da aplicação da IA no âmbito da jurisdição brasileira, com foco nos aspectos éticos e jurídicos relacionados à substituição (ainda que parcial) da atuação humana por algoritmos, em especial no processo decisório judicial. A escolha desse recorte tem por finalidade aprofundar um único eixo temático e evitar generalizações excessivas sobre o uso da tecnologia no Direito.
O presente artigo parte da seguinte questão-problema: Como garantir a efetividade dos direitos fundamentais e o dever de fundamentação das decisões judiciais diante da utilização da IA no exercício da jurisdição brasileira? Justifica-se esta investigação pela urgência do debate sobre os limites da automação judicial, principalmente em face do disposto no art. 93, IX, da Constituição Federal, que exige a fundamentação das decisões, e da preocupação com a desumanização da justiça (PEREIRA; FONTENELLE, 2024).
O objetivo geral do artigo é analisar os desafios éticos e jurídicos da implementação da IA na jurisdição brasileira. Como objetivos específicos, pretende-se: (a) identificar os riscos da utilização de algoritmos na tomada de decisões judiciais; (b) examinar os limites da substituição do juiz por sistemas automatizados; e (c) propor diretrizes para assegurar a compatibilidade entre o uso de IA e os direitos fundamentais.
Para tanto, adota-se o método qualitativo, com abordagem dedutiva, por meio de pesquisa bibliográfica e documental. As principais referências utilizadas incluem autores como Bruce Buchanan (1994), Ferreira e Júnior (2019), Polido (2023), Roque e Santos (2019), além dos estudos recentes de Nathalia Lima Pereira e Léa Fontenelle (2024) sobre a evolução da jurisdição na era digital.
Nos tópicos seguintes, será desenvolvida uma reflexão crítica sobre os efeitos da IA no processo jurisdicional, abordando os fundamentos constitucionais da decisão judicial, os riscos da opacidade algorítmica, a necessária capacitação dos operadores do direito e os caminhos regulatórios para uma tecnologia a serviço da justiça e não em seu desfavor.
2. Desenvolvimento Teórico
2.1. A Inteligência Artificial na Jurisdição Brasileira: aperfeiçoamento e Riscos
A evolução da Inteligência Artificial no âmbito do Poder Judiciário brasileiro acompanha a tendência internacional de digitalização e automação de procedimentos jurisdicionais. Desde a década de 1990, o Judiciário brasileiro vem se modernizando com o uso de sistemas informatizados. No entanto, foi a partir da segunda década do século XXI que se intensificou o uso de tecnologias de IA, voltadas à análise de dados processuais e à predição de decisões judiciais (FERREIRA; JÚNIOR, 2019).
O marco mais expressivo dessa transformação tecnológica no Brasil foi o lançamento do Projeto Victor pelo Supremo Tribunal Federal (STF), em 2018. Desenvolvido em parceria com a Universidade de Brasília (UnB), o sistema utiliza técnicas de IA para filtrar e classificar recursos extraordinários, auxiliando os ministros na triagem de processos com repercussão geral. O projeto Victor representa uma tentativa de racionalizar a atuação do STF diante da excessiva judicialização (POLIDO, 2023).
Na sequência, outras ferramentas foram desenvolvidas pelo Conselho Nacional de Justiça (CNJ), como a plataforma Sinapses, que permite o compartilhamento de modelos de IA entre os tribunais, e o Codex, sistema que centraliza e organiza os dados processuais nacionais. Essas inovações visam a criação de uma base padronizada de dados judiciais para alimentar algoritmos com maior precisão e eficiência (ROQUE; SANTOS, 2019).
Segundo dados divulgados pelo próprio CNJ, até o ano de 2023 mais de 70 tribunais brasileiros já haviam implementado ao menos uma solução tecnológica com base em IA, abrangendo desde o reconhecimento de padrões em decisões repetitivas até a automação de tarefas administrativas. As metas estabelecidas pelo CNJ incluem o aumento da produtividade dos magistrados, a redução do acervo processual e a melhoria da previsibilidade das decisões (FERREIRA; JÚNIOR, 2019; POLIDO, 2023).
Contudo, como observa Nathalia Lima Pereira (2024), essa expansão da IA na jurisdição exige não apenas investimentos em tecnologia, mas também uma reflexão crítica sobre a compatibilidade desses sistemas com os princípios constitucionais. A mera eficiência estatística não pode se sobrepor aos fundamentos do devido processo legal, da ampla defesa e da fundamentação individualizada das decisões.
A consolidação da IA no Judiciário brasileiro, portanto, representa um avanço relevante, mas que demanda cuidados éticos, jurídicos e institucionais. O próximo tópico abordará os impactos dessa tecnologia sobre a obrigatoriedade de fundamentação das decisões judiciais, conforme exigência constitucional.
O princípio da fundamentação das decisões judiciais constitui uma das garantias centrais do processo justo no ordenamento jurídico brasileiro. Previsto no art. 93, inciso IX, da Constituição Federal de 1988, esse dispositivo exige que “todos os julgamentos dos órgãos do Poder Judiciário sejam públicos, e fundamentadas todas as decisões, sob pena de nulidade”. Trata-se de um imperativo constitucional que assegura a transparência, o controle social e a legitimidade das decisões jurisdicionais.
A introdução da Inteligência Artificial no processo decisório, no entanto, suscita preocupações quanto ao risco de enfraquecimento dessa garantia. Sistemas automatizados, por operarem com base em grandes volumes de dados e padrões estatísticos, tendem a produzir respostas padronizadas, sem necessariamente revelar os fundamentos jurídicos utilizados em cada decisão. Roque e Santos (2019) alertam que, ao serem adotados como instrumentos de apoio ao julgamento, tais sistemas devem ser capazes de justificar de forma compreensível e auditável os critérios que orientaram sua sugestão ou conclusão.
A preocupação com decisões automatizadas sem base jurídica clara é ainda mais intensa quando se considera o fenômeno da opacidade algorítmica. Como observado por Polido (2023), os algoritmos baseados em aprendizado de máquina funcionam por meio de processos estatísticos complexos que escapam à lógica jurídica tradicional. Assim, o risco de se ter decisões judiciais influenciadas por sistemas cujos critérios são indecifráveis à própria magistratura compromete a essência do devido processo legal.
Nathalia Lima Pereira e Léa Fontenelle (2024) também enfatizam que a fundamentação das decisões não pode ser dissociada da atuação humana. Segundo as autoras, a IA não possui capacidade de compreender o conteúdo normativo e axiológico das normas jurídicas. Ainda que seja capaz de identificar padrões jurisprudenciais, a IA não substitui a sensibilidade e o raciocínio jurídico que embasam a construção de uma decisão fundamentada, contextualizada e compatível com os direitos fundamentais.
Além disso, é necessário considerar que o cumprimento do art. 93, IX, da CF/88 não se limita à exposição de motivos formais ou genéricos. A fundamentação exige que o julgador demonstre, com clareza, a razão jurídica da decisão, inclusive em face dos argumentos apresentados pelas partes. Se a decisão estiver ancorada em sugestões fornecidas por sistemas de IA, o magistrado deverá explicitar essa influência e reavaliá-la criticamente à luz do ordenamento jurídico e das peculiaridades do caso concreto.
Portanto, a implementação da IA no Judiciário deve ocorrer sob a condição de que os sistemas adotados preservem e reforcem – e não esvaziem – o dever constitucional de fundamentação. Qualquer modelo que comprometa essa exigência não apenas viola preceito constitucional, mas também fragiliza a confiança da sociedade no sistema de justiça. O próximo item tratará das questões relacionadas à opacidade algorítmica e seus reflexos na transparência judicial.
A utilização da Inteligência Artificial no Poder Judiciário, embora traga promissoras perspectivas de eficiência, impõe um desafio crucial: a opacidade algorítmica. Esse fenômeno ocorre quando os critérios utilizados por sistemas baseados em IA não são compreensíveis nem mesmo por seus programadores, dificultando a verificação da racionalidade por trás das decisões sugeridas pelos algoritmos (POLIDO, 2023).
Em contraste com o modelo tradicional de fundamentação judicial, onde os argumentos jurídicos são expostos de forma clara e racional, os sistemas de IA baseados em aprendizado de máquina operam a partir da detecção de padrões estatísticos em grandes volumes de dados. Essa característica pode tornar inviável a reconstituição lógica do caminho que levou a determinado resultado, comprometendo o direito à transparência e à ampla defesa (FERREIRA; JÚNIOR, 2019).
O artigo 93, IX, da Constituição Federal de 1988 estabelece a exigência de decisões fundamentadas como condição de validade e legitimidade do ato jurisdicional. Diante disso, a opacidade algorítmica pode ser vista como uma afronta direta ao texto constitucional, na medida em que impede o controle social e recursal sobre a motivação das decisões judiciais (ROQUE; SANTOS, 2019).
Pereira e Fontenelle (2024) ressaltam que o uso da IA no Judiciário deve estar condicionado à adoção de sistemas dotados de “explicabilidade”, isto é, à capacidade de apresentar justificativas compreensíveis para os resultados fornecidos. Sem essa qualidade, o algoritmo se transforma em uma “caixa-preta”, o que enfraquece a confiança das partes no processo judicial e prejudica a possibilidade de impugnação de decisões injustas.
Além disso, a opacidade também compromete o princípio da imparcialidade, uma vez que decisões automatizadas podem reproduzir vieses implícitos nos dados de treinamento. Isso reforça a importância de se exigir transparência não apenas nos critérios de decisão, mas também nos dados utilizados e nos parâmetros adotados na programação dos sistemas (POLIDO, 2023).
Nesse cenário, é imprescindível que o Judiciário brasileiro estabeleça critérios rigorosos para a adoção de tecnologias baseadas em IA, exigindo mecanismos de auditabilidade e prestação de contas. A criação de comitês interdisciplinares, compostos por juristas, engenheiros da computação e especialistas em ética, pode representar um avanço na construção de um modelo de governança algorítmica transparente e responsável.
Portanto, a transparência algorítmica não é apenas uma exigência técnica, mas um imperativo constitucional e democrático. O próximo item analisará como a responsabilidade civil pode ser impactada por decisões judiciais influenciadas por sistemas de IA opacos ou falhos.
A introdução de sistemas de Inteligência Artificial no processo decisório judicial impõe novos desafios à responsabilização por eventuais danos decorrentes de decisões falhas ou injustas. Diante da complexidade dos algoritmos e da possível interferência de sistemas automatizados nas decisões judiciais, é necessário repensar a aplicação dos princípios tradicionais da responsabilidade civil no contexto da jurisdição automatizada.
Em um modelo convencional, a responsabilidade do magistrado é regida por critérios rigorosos e excepcionais, especialmente no que se refere a seus atos jurisdicionais. No entanto, quando uma decisão judicial é fortemente influenciada ou mesmo gerada com base em sugestões fornecidas por um sistema de IA, surgem questionamentos: quem será responsável por eventual erro judicial? O juiz que a homologou? O programador que desenvolveu o sistema? A instituição que o implementou? (POLIDO, 2023).
Roque e Santos (2019) observam que os sistemas de IA, ao operarem com grande autonomia e opacidade, dificultam a identificação da origem exata do erro. Isso coloca em xeque a efetividade do direito à reparação e demanda a construção de uma nova abordagem de responsabilização, que considere não apenas o agente direto da decisão, mas toda a cadeia técnica e institucional envolvida no desenvolvimento e aplicação da tecnologia.
Pereira e Fontenelle (2024) enfatizam que o magistrado deve manter o controle sobre a decisão final, assumindo a responsabilidade pela fundamentação e pelos efeitos do julgamento. A IA deve ser utilizada como ferramenta de apoio, e não como instância decisória autônoma. Qualquer delegação excessiva de funções ao algoritmo compromete não apenas a legitimidade da decisão, mas também a clareza sobre quem deve responder por seus impactos.
Ferreira e Júnior (2019) propõem que, diante das limitações normativas atuais, o Judiciário adote protocolos de validação técnica e jurídica dos sistemas utilizados, com exigência de auditorias periódicas, relatórios de desempenho e mecanismos de supervisão permanente. Tais medidas visam garantir a rastreabilidade da decisão e a identificação de eventuais falhas operacionais, estabelecendo vínculos objetivos de responsabilidade.
Além disso, é essencial que os órgãos responsáveis pela contratação e uso de tecnologias de IA no Judiciário assumam um dever institucional de zelo e diligência. A negligência na escolha, treinamento ou fiscalização dos sistemas utilizados poderá ensejar a responsabilização objetiva do Estado, com base na teoria do risco administrativo, sempre que se comprovar nexo entre a falha tecnológica e o dano causado à parte processual.
Portanto, a responsabilização por decisões judiciais automatizadas deve ser pensada de forma ampla e preventiva, contemplando não apenas a reparação, mas também a prevenção de riscos. A criação de marcos legais específicos sobre o uso da IA no Judiciário é medida urgente para garantir segurança jurídica e proteção efetiva dos direitos fundamentais dos jurisdicionados. O próximo item tratará da importância da supervisão humana como elemento essencial para assegurar a legitimidade do processo jurisdicional assistido por IA.
A adoção de Inteligência Artificial no âmbito jurisdicional exige a preservação da autonomia judicial como princípio basilar do Estado Democrático de Direito. A atuação do magistrado, dotado de independência funcional, deve ser exercida com base na interpretação da norma jurídica e na análise das especificidades do caso concreto, valores que não podem ser transferidos integralmente a sistemas automatizados (PEREIRA; FONTENELLE, 2024).
A supervisão humana sobre os sistemas de IA no Judiciário é condição indispensável para assegurar que a tecnologia cumpra seu papel de instrumento auxiliar e não de substituição do raciocínio jurídico. Como afirmam Roque e Santos (2019), a atividade jurisdicional envolve julgamentos morais, ponderações principiológicas e contextualizações socioculturais que escapam à lógica estatística dos algoritmos. A ausência do elemento humano na tomada de decisão comprometeria a legitimidade e a aceitabilidade das decisões judiciais.
Ferreira e Júnior (2019) ressaltam que a supervisão humana não se limita à mera validação formal do resultado sugerido pela IA, mas deve ser ativa e crítica, com avaliação da coerência jurídica, do respeito às garantias processuais e dos impactos sociais da decisão. O juiz deve manter o controle substancial da decisão e assumir responsabilidade ética e legal por ela, ainda que tenha se utilizado de suporte tecnológico.
Polido (2023) defende que a manutenção da autonomia judicial passa pela formação contínua dos magistrados, com o objetivo de capacitá-los a compreender o funcionamento dos sistemas de IA, suas limitações e riscos. A qualificação técnica é essencial para que o magistrado possa decidir com autonomia, mesmo diante de sugestões complexas e técnicas apresentadas por algoritmos.
A autonomia judicial também está vinculada à proteção dos direitos fundamentais das partes. A possibilidade de questionamento, revisão e contradita das decisões exige que estas sejam compreensíveis e rastreáveis, o que somente será possível se houver efetiva supervisão humana durante todas as etapas do processo decisório (PEREIRA; FONTENELLE, 2024).
Por fim, a presença ativa do juiz garante o equilíbrio entre inovação e justiça substancial. A tecnologia pode ser uma aliada valiosa para lidar com a sobrecarga processual, mas deve estar subordinada aos valores constitucionais e à função judicante. A próxima seção abordará a necessidade de capacitação e alfabetização digital dos operadores do direito como condição para uma implementação segura da IA no Judiciário.
A adequada implementação da Inteligência Artificial no Poder Judiciário brasileiro exige não apenas o desenvolvimento de ferramentas tecnológicas, mas também a capacitação contínua dos operadores do Direito. Juízes, servidores, advogados e demais profissionais envolvidos na atividade jurisdicional precisam estar preparados para compreender o funcionamento, os limites e os impactos das soluções baseadas em IA (FERREIRA; JÚNIOR, 2019).
A alfabetização digital dos atores jurídicos é um requisito fundamental para evitar a dependência cega de sistemas automatizados e garantir que seu uso se dê de forma crítica, ética e constitucionalmente adequada. Como destacam Roque e Santos (2019), a ausência de conhecimento técnico pode levar ao uso acrítico das tecnologias, comprometendo o exercício da jurisdição e a proteção de direitos fundamentais.
Polido (2023) defende a inclusão de disciplinas voltadas à ética digital, à ciência de dados e à lógica computacional nos cursos de graduação e pós-graduação em Direito, como forma de preparar os futuros juristas para os desafios da transformação digital do sistema de justiça. A formação jurídica tradicional, centrada apenas na dogmática normativa, mostra-se insuficiente para lidar com a complexidade das novas ferramentas tecnológicas.
Além disso, a capacitação deve ser estendida a magistrados e servidores já em exercício, por meio de programas institucionais de educação continuada. O Conselho Nacional de Justiça (CNJ), nesse sentido, desempenha papel estratégico ao fomentar iniciativas de qualificação, como o Programa Justiça 4.0, que visa promover a inovação e a integração tecnológica no Judiciário brasileiro (FERREIRA; JÚNIOR, 2019).
Pereira e Fontenelle (2024) ressaltam que a compreensão crítica dos instrumentos de IA é imprescindível para que os operadores do Direito possam identificar possíveis riscos, vícios ou falhas nos sistemas utilizados. Só assim será possível garantir que a tecnologia seja utilizada para potencializar o acesso à justiça, sem comprometer a autonomia judicial nem violar garantias fundamentais.
Por fim, é necessário fomentar uma cultura institucional que valorize o aprendizado interdisciplinar, envolvendo juristas, engenheiros, sociólogos e filósofos na construção de um Judiciário tecnologicamente avançado, mas também humano e reflexivo. A próxima seção abordará propostas concretas para a regulamentação ética da IA na jurisdição brasileira.
Diante da crescente inserção da Inteligência Artificial no Poder Judiciário, torna-se urgente a formulação de um marco regulatório que discipline o uso ético, transparente e responsável dessas tecnologias no exercício da jurisdição. A ausência de regras claras pode comprometer a segurança jurídica, a proteção de direitos fundamentais e a legitimidade das decisões judiciais automatizadas.
A Resolução CNJ nº 332/2020, que dispõe sobre a ética, a transparência e a governança no uso da IA no âmbito do Poder Judiciário, representa um avanço inicial, ao estabelecer princípios como a explicabilidade, a supervisão humana, a não discriminação e a segurança da informação. No entanto, como apontam Ferreira e Júnior (2019), essa norma ainda carece de complementações normativas que tratem de aspectos mais técnicos e procedimentais, além de mecanismos de fiscalização efetiva.
Polido (2023) propõe que a regulação da IA no Judiciário deve seguir uma abordagem multissetorial e interdisciplinar, com a participação ativa de juristas, engenheiros, especialistas em ética e representantes da sociedade civil. Essa participação ampliada é essencial para garantir que os sistemas desenvolvidos reflitam valores constitucionais e respeitem os limites normativos impostos pelo Estado Democrático de Direito.
Entre as diretrizes recomendadas pela doutrina, destacam-se: (a) a obrigatoriedade de supervisão humana contínua sobre os sistemas de IA utilizados na jurisdição; (b) a exigência de relatórios de impacto algorítmico antes da adoção de qualquer nova tecnologia; (c) a implementação de critérios de auditabilidade e de prestação de contas para os fornecedores de sistemas utilizados no Judiciário; e (d) a vedação expressa ao uso de IA em decisões finais sem revisão humana (ROQUE; SANTOS, 2019).
Pereira e Fontenelle (2024) ressaltam que a regulação também deve assegurar o direito à explicação, permitindo que os jurisdicionados compreendam como e por que determinada decisão foi influenciada por sistemas de IA. A opacidade algorítmica deve ser combatida com normas que garantam a transparência dos dados de treinamento, das lógicas de funcionamento e das métricas de validação empregadas.
Outro aspecto fundamental é a proteção de dados pessoais. A conformidade dos sistemas de IA com a Lei Geral de Proteção de Dados (LGPD) deve ser obrigatória, com regras específicas para o tratamento de dados sensíveis utilizados nos processos judiciais. A proteção da privacidade deve ser tratada como um valor estrutural na arquitetura tecnológica do Judiciário (FERREIRA; JÚNIOR, 2019).
Portanto, a construção de uma regulação ética da IA na jurisdição brasileira exige uma atuação coordenada entre os poderes públicos, a academia, os órgãos reguladores e a sociedade civil. O Judiciário deve liderar esse processo com protagonismo institucional e compromisso democrático, assegurando que a inovação tecnológica seja compatível com a dignidade da pessoa humana e os princípios constitucionais que regem a função jurisdicional.
3. Considerações Finais
A aplicação da Inteligência Artificial na jurisdição brasileira representa um marco importante na modernização do Poder Judiciário, com potencial para tornar a justiça mais eficiente, célere e acessível. No entanto, como evidenciado ao longo deste estudo, a adoção dessas tecnologias exige cuidados rigorosos quanto à ética, à transparência e à proteção dos direitos fundamentais.
Foi possível demonstrar que a IA, embora possa atuar como ferramenta de apoio à atividade jurisdicional, jamais deve substituir o julgamento humano, especialmente em decisões que envolvem ponderações complexas, princípios constitucionais e direitos fundamentais. O princípio da fundamentação das decisões, previsto no art. 93, IX, da CF/88, não pode ser relativizado por soluções automatizadas, sob pena de comprometimento da legitimidade do processo judicial.
Além disso, a opacidade algorítmica, os riscos de responsabilização difusa, a necessidade de supervisão humana constante e a urgência na capacitação técnica dos operadores do direito são elementos que reforçam a imprescindibilidade de uma regulação ética e responsável da IA na jurisdição. A Resolução CNJ nº 332/2020 constitui um avanço relevante, mas ainda incipiente diante da complexidade dos desafios.
É necessário que o Judiciário, em diálogo com a academia e a sociedade civil, assuma o protagonismo na construção de diretrizes normativas e estruturais que assegurem o uso da IA de forma compatível com os valores do Estado Democrático de Direito. A garantia de explicabilidade, auditabilidade, proteção de dados e controle jurisdicional são pilares que devem fundamentar qualquer iniciativa tecnológica no âmbito judicial.
Conclui-se, portanto, que o uso da Inteligência Artificial na jurisdição brasileira deve ser orientado por um compromisso inegociável com a dignidade da pessoa humana, com a legalidade e com a justiça substancial. A inovação tecnológica não deve ser vista como substituta da razão jurídica, mas como aliada estratégica do aperfeiçoamento da prestação jurisdicional.
4. Referência Bibliográfica
- BUCHANAN, Bruce G. A Historical Perspective on Artificial Intelligence. Artificial Intelligence, v. 70, n. 1-2, 1994, p. 1-18. Disponível em: <https://www.sciencedirect.com/science/article/abs/pii/S0738081X23002687>. Acesso em: 12 out. 2024.
- FERREIRA, A. L.; JÚNIOR, R. L. S. Direito, Tecnologia e Globalização. Disponível em: <https://www.direito.ufmg.br/wp-content/uploads/2019/12/direito_tecnologia_globalizacao.pdf>. Acesso em: 11 out. 2024.
- PEREIRA, Nathalia Lima; FONTENELLE, Léa Magalhães Barsi. Teoria do processo e inteligência artificial: a evolução da jurisdição na era digital. Revista Interagir, Fortaleza, v. 19, n. 127, p. 14-16, jul./set. 2024. Disponível em: [https://dx.doi.org/10.12662/1809-5771RI.127.5749.p14-16.2024](https://dx.doi.org/10.12662/1809-5771RI.127.5749.p14-16.2024). Acesso em: 2 abr. 2025.
- PEREIRA SIQUEIRA, Dirceu; MORAIS, Fausto Santos de; SANTOS, Marcel Ferreira dos. Inteligência artificial e jurisdição: dever analítico de fundamentação e os limites da substituição dos humanos por algoritmos no campo da tomada de decisão judicial. Revista Seqüência, v. 43, n. 91, 2022. Disponível em: https://openurl.ebsco.com/results?sid=ebsco:ocu:record&bquery=IS+0101-9562+AND+VI+43+AND+IP+91+AND+DT+2022. Acesso em: 15 maio 2025.
- POLIDO, Fabrício Bertini Pasquot. Temas avançados em direito, inovação & tecnologias: perspectivas jurídicas e comparadas. Coleção Sociedade, Direito e Justiça, v. 9. Belo Horizonte: Initia Via, 2023.
- ROQUE, V. A.; SANTOS, B. R. Inteligência artificial na tomada de decisões judiciais. Disponível em: <http://www.redp.uerj.br58>. Acesso em: 11 out. 2024.
1Mestranda em Ciências Jurídicas – Veni Creator Christian University – Disciplina: Teoria Geral do Direito
2Professora/Orientadora