INTELIGÊNCIA ARTIFICIAL NO DIREITO BRASILEIRO: ABORDAGENS JURÍDICAS, IMPLICAÇÕES INSTITUCIONAIS E LIMITES NORMATIVOS 

ARTIFICIAL INTELLIGENCE IN BRAZILIAN LAW: LEGAL APPROACHES, INSTITUTIONAL IMPLICATIONS AND REGULATORY LIMITS

REGISTRO DOI: 10.69849/revistaft/dt10202508152016


Gabriel Elias Minatti1


RESUMO

A inteligência artificial tem alterado de forma progressiva as dinâmicas  jurídicas, impactando tanto os procedimentos internos dos tribunais quanto a estrutura  argumentativa dos operadores do Direito. Este artigo teve como objetivo descrever as  abordagens interdisciplinares adotadas no campo jurídico brasileiro sobre a aplicação  da inteligência artificial, com foco nas implicações éticas, institucionais e processuais.  A pesquisa adotou metodologia qualitativa, com caráter descritivo, fundamentada em  revisão bibliográfica sistemática, respeitando critérios de seleção voltados à  atualidade, relevância temática e rigor acadêmico. Os resultados evidenciaram que  parte expressiva da produção nacional ainda apresenta divergências quanto à  compreensão técnica da IA, alternando entre discursos de adesão entusiástica e  posturas de cautela normativa. As principais preocupações concentram-se na  ausência de transparência dos algoritmos, no risco de violação de garantias  processuais e na carência de formação técnica por parte dos agentes jurídicos.  Constatou-se também que os esforços regulatórios ainda são incipientes, embora  exista uma crescente preocupação com princípios como supervisão humana,  motivação das decisões automatizadas e proteção de direitos fundamentais. Conclui-se que a incorporação da inteligência artificial no Direito brasileiro exige uma  articulação mais consistente entre o debate acadêmico, as instituições reguladoras e  os espaços de formação profissional, de modo a garantir que sua aplicação respeite  os limites constitucionais e preserve a legitimidade do sistema jurídico. 

Palavras-chave: Inteligência Artificial; Direito Brasileiro; Decisões Automatizadas. 

ABSTRACT

Artificial intelligence has progressively altered legal dynamics, impacting  both the internal procedures of courts and the argumentative structure of legal  practitioners. This article aimed to describe the interdisciplinary approaches adopted  in the Brazilian legal field regarding the application of artificial intelligence, focusing on  the ethical, institutional, and procedural implications. The research adopted a  qualitative, descriptive methodology, based on a systematic literature review,  respecting selection criteria focused on current affairs, thematic relevance, and  academic rigor. The results revealed that a significant portion of the national literature  still presents divergences regarding the technical understanding of AI, alternating  between discourses of enthusiastic support and positions of normative caution. The  main concerns center on the lack of transparency in algorithms, the risk of violating  procedural guarantees, and the lack of technical training on the part of legal agents. It  was also found that regulatory efforts are still incipient, although there is growing concern about principles such as human oversight, the motivation of automated  decisions, and the protection of fundamental rights. It is concluded that the  incorporation of artificial intelligence into Brazilian law requires a more consistent  articulation between academic debate, regulatory institutions, and professional training  spaces, in order to ensure that its application respects constitutional limits and  preserves the legitimacy of the legal system. 

Keywords: Artificial Intelligence; Brazilian Law; Automated Decisions.

1. INTRODUÇÃO 

A inserção de tecnologias autônomas nas estruturas jurídicas brasileiras já  não se apresenta como perspectiva futura, mas como prática em consolidação nos  ambientes institucionais. A exemplo disso, destacam-se os sistemas “Assistente  Digital do Magistrado”, “Assistente Digital do Promotor” e “Assistente Digital das  Procuradorias”, cujas funções automatizadas vão desde a elaboração de peças  processuais e o envio de documentos ao Poder Judiciário até a formulação de  contestações e pesquisas jurisprudenciais. Operando com base em inteligência  artificial (IA), essas soluções dispensam intervenção humana contínua, indicando um  novo arranjo funcional entre operadores do Direito e sistemas computacionais  (Pereira; Oliveira, 2024). 

A presença de sistemas computacionais inteligentes nas estruturas jurídicas  contemporâneas revela transformações profundas nas formas de produção normativa,  na interpretação das leis e na administração da justiça. Esse fenômeno não se limita  à automação de tarefas operacionais, mas alcança o núcleo da atividade jurídica,  especialmente nas decisões judiciais mediadas por algoritmos. A linguagem binária  aplicada a demandas humanas complexas exige reflexão sobre os limites éticos,  epistemológicos e institucionais da inteligência artificial no Direito, sobretudo em  contextos em que se esperam garantias como imparcialidade, contraditório e  fundamentação (Risse; Livingston, 2019, apud Chiarello; Garcia, 2021). 

Ao longo dos últimos anos, a literatura jurídica passou a registrar um interesse  sobre os impactos da IA em sistemas normativos, impulsionada pela expansão do  aprendizado de máquina e das tecnologias preditivas. Entretanto, esse crescimento  nem sempre veio acompanhado de análise crítica sobre os mecanismos de tomada  de decisão algorítmica, as relações entre dados e justiça social ou a compatibilidade  entre inteligência computacional e direitos fundamentais. Nesse cenário, torna-se  necessário investigar não apenas o que a IA realiza no campo jurídico, mas como, por  que e com que consequências (Crootof, 2019, apud Chiarello; Garcia, 2021; Pereira;  Oliveira, 2024). 

Este trabalho tem como intuito examinar o uso da inteligência artificial nas  práticas jurídicas a partir de uma revisão integrativa da literatura nacional recente,  delimitando-se à análise de produções acadêmicas entre 2018 e 2025. O problema de  pesquisa parte da seguinte indagação: como os autores da área do Direito têm  caracterizado e discutido a aplicação da inteligência artificial no campo jurídico  brasileiro? Com isso, pretende-se compreender as abordagens recorrentes, os pontos  de tensão entre técnica e legalidade, e os modelos interpretativos utilizados nos textos  acadêmicos. 

Entre as possíveis respostas para essa questão, considera-se a hipótese de  que os estudos jurídicos ainda oscilam entre uma abordagem instrumental, que  privilegia a automação e a eficiência, e outra crítica, que problematiza os riscos  normativos e institucionais da inteligência artificial. Supõe-se também que grande parte das análises dá ênfase a aspectos éticos ou funcionais, sem aprofundar os  fundamentos jurídicos da decisão algorítmica em contextos judiciais. Além disso,  observa-se que muitos trabalhos acompanham os marcos regulatórios internacionais,  alinhando-se a princípios como transparência, controle humano e responsabilidade  (Norte Filho et al., 2025; Pimentel; Orengo, 2021; Roque; Santos, 2021). 

A relevância deste estudo reside na necessidade de identificar, descrever e  qualificar os discursos jurídicos sobre a IA no Brasil, contribuindo para uma  entendimento melhor das tendências acadêmicas e suas implicações práticas. Essa  sistematização pode subsidiar o aprimoramento das normativas internas, a  formulação de políticas públicas baseadas em evidências e a ampliação do debate  interdisciplinar sobre regulação tecnológica. Além disso, trata-se de um campo em  constante mutação, em que o Direito precisa antecipar riscos, consolidar garantias e  resistir à opacidade algorítmica (Norte Filho et al., 2025; Siqueira; Lara, 2020). 

A presente pesquisa tem como objetivo geral descrever as abordagens  acadêmicas brasileiras sobre a inteligência artificial no Direito, no período entre 2018  e 2025. Como objetivos específicos, busca-se: a) caracterizar os temas centrais  abordados nos artigos analisados; b) identificar os principais argumentos e  posicionamentos adotados sobre os efeitos da IA no sistema jurídico; c) exemplificar  as propostas normativas, éticas e institucionais discutidas pelos autores. 

2. FUNDAMENTAÇÃO TEÓRICA 

2.1 As abordagens jurídicas brasileiras sobre a inteligência artificial 

A emergência da inteligência artificial no cenário jurídico brasileiro vem  produzindo uma variedade de respostas teóricas, nem sempre convergentes entre si.  De um lado, observa-se uma vertente pragmática, interessada em compreender as  aplicações tecnológicas no cotidiano forense, com foco na automação de tarefas  processuais e na racionalização do fluxo de trabalho. De outro, surgem  posicionamentos preocupados com a sustentabilidade institucional dessas práticas,  alertando para a ausência de critérios normativos que regulem os limites da atuação  algorítmica no campo decisório. Essas abordagens não apenas coexistem, mas  frequentemente se tensionam em função de suas matrizes conceituais distintas  (Roque; Santos, 2021; Freitas et al., 2024). 

Enquanto a primeira tendência valoriza a funcionalidade da IA no sistema de  justiça, buscando ilustrar seus efeitos sobre a produtividade jurisdicional, a segunda  propõe uma crítica das estruturas de decisão automatizada. Essa distinção reflete uma  polaridade metodológica entre uma leitura técnico-operacional, que prioriza ganhos  de rendimento, e uma leitura estrutural, que investiga os impactos sobre garantias  processuais, direitos fundamentais e controle institucional. A ausência de um marco  regulatório consolidado no país contribui para a expansão dessas divergências,  deixando à literatura a tarefa de preencher a indefinição conceitual e os parâmetros  de avaliação da legitimidade dessas práticas (Norte Filho et al., 2025; Pimentel;  Orengo, 2021). 

Não se trata, no entanto, de negar os ganhos objetivos propiciados pelos  sistemas inteligentes, mas de compreender como sua incorporação pode  comprometer pressupostos jurídicos estabelecidos. O uso de modelos algorítmicos  em processos judiciais ou administrativos demanda vigilância quanto ao grau de  opacidade, à rastreabilidade dos critérios adotados e à margem de controle humano  na supervisão das decisões. A jurisprudência brasileira ainda se mostra incipiente  nesse tema, o que reforça a necessidade de aprofundamento teórico das consequências normativas que decorrem da delegação de funções decisórias a  estruturas digitais (Peixoto; Silva, 2019; Madeira; Terron, 2024). 

A discussão também passa por uma disputa semântica sobre o que se  entende por “decisão” no contexto jurídico. Há autores que sustentam a  impossibilidade de atribuir sentido jurídico a escolhas produzidas por um sistema não  dotado de consciência normativa, reduzindo a função decisória a uma operação  estatística baseada em dados anteriores. Outros pesquisadores, contudo, consideram  que o processo de decisão jurídica não se esgota na vontade subjetiva do julgador,  podendo ser parcialmente orientado por padrões inferenciais extraídos de grandes  bases de dados. Essa tensão semântica marca boa parte da literatura jurídica  contemporânea sobre inteligência artificial (Roque; Santos, 2021; Chiarello; Garcia,  2021). 

Além das divergências terminológicas, há variações nos recortes temáticos  adotados pelos trabalhos jurídicos que tratam da IA. Em alguns casos, privilegiam-se  os efeitos da automação no Direito Processual; em outros, concentram-se os esforços  na análise da IA no Direito Penal ou na sua relação com os direitos da personalidade.  Essa diversidade de enfoques reflete não apenas o grau de maturidade do debate,  mas também a insuficiência de um tratamento sistemático, que integre as implicações  técnicas, normativas e políticas da inteligência computacional aplicada ao campo  jurídico (Pereira; Oliveira, 2024; Rocha; Waldman, 2020). 

No que diz respeito à compatibilidade entre os sistemas digitais e os princípios  do Estado Democrático de Direito, os estudos identificam riscos associados à  despersonalização das decisões, à dificuldade de revisão crítica e ao esvaziamento  do contraditório. Mesmo quando utilizados como apoio à atividade jurisdicional, os  sistemas de IA apresentam limites quanto à sua capacidade de captar os elementos  valorativos, contextuais e hermenêuticos próprios da argumentação jurídica. Essa  limitação reforça a ideia de que qualquer incorporação tecnológica exige filtros  institucionais capazes de preservar a coerência constitucional das práticas jurídicas  (Siqueira; Lara, 2020; Norte Filho et al., 2025). 

Há ainda pesquisas que procuram mapear a presença de vieses estatísticos  nos algoritmos utilizados por entes públicos, especialmente em procedimentos ligados  à segurança pública, política criminal ou gestão de dados judiciais. Tais estudos  revelam que decisões automatizadas podem reproduzir desigualdades já presentes  nas bases utilizadas para treinamento das máquinas, colocando em risco a isonomia  e a imparcialidade dos processos. A literatura brasileira, embora ainda incipiente,  começa a apontar caminhos para o desenvolvimento de modelos regulatórios  baseados na transparência, auditabilidade e supervisão pública das decisões  algorítmicas (Pereira; Oliveira, 2024; Potascheff; Gil, 2024). 

Mesmo com essas preocupações, parte da doutrina nacional insiste em um  discurso otimista quanto à integração da IA nos serviços jurídicos, tomando como  parâmetro o aumento da eficiência e da acessibilidade. A digitalização de  procedimentos, o uso de assistentes virtuais e a automação de documentos são  apresentados como avanços organizacionais, especialmente em um país com  elevado grau de litigiosidade e morosidade processual. No entanto, essa perspectiva  raramente é acompanhada de reflexão crítica sobre o redesenho institucional que  decorre da adoção dessas tecnologias, o que pode comprometer garantias  estruturantes do processo judicial (Peixoto; Silva, 2019; Chiarello; Garcia, 2021).

Dessa forma, a literatura jurídica brasileira ainda se encontra em fase de  consolidação teórica quanto ao fenômeno da inteligência artificial. As abordagens ora  enfatizam o rendimento técnico, ora alertam para os riscos normativos e institucionais.  O que se verifica é um campo de estudo em formação, marcado por assimetrias  conceituais, recortes fragmentados e diferentes graus de aderência aos princípios  constitucionais. Essa multiplicidade, embora rica em possibilidades, ainda carece de  sistematização analítica que permita estabelecer categorias comuns para análise e  comparação (Roque; Santos, 2021; Freitas et al., 2024). 

2.2 Princípios jurídicos, limites éticos e diretrizes aplicadas à inteligência artificial 

A incorporação da inteligência artificial em sistemas jurídicos brasileiros tem  gerado reflexões sobre os limites normativos que devem guiar seu uso. A natureza  estatística e automatizada dos processos algorítmicos desafia conceitos consolidados  no Direito, como imparcialidade, motivação e contraditório. A aplicação de soluções  computacionais em fases decisórias levanta dúvidas sobre a aderência desses  instrumentos aos princípios constitucionais. Nesse contexto, os debates sobre os  fundamentos éticos da IA convergem para a necessidade de parâmetros técnicos,  institucionais e jurídicos que orientem sua utilização nos processos judiciais e  administrativos (Chiarello; Garcia, 2021; Norte Filho et al., 2025). 

Entre os princípios mais discutidos nas publicações jurídicas está o da  dignidade da pessoa humana, constantemente citado como núcleo intransponível  para a legitimação de decisões automatizadas. Ainda que os sistemas de IA  apresentem resultados formalmente neutros, sua construção é guiada por seleções  humanas que, muitas vezes, carregam preconceitos e omissões. A ausência de  controle sobre os dados de treinamento, os critérios utilizados para análise e os  objetivos definidos por quem programa o sistema pode comprometer os direitos  fundamentais. Essas preocupações têm impulsionado propostas de regulação  voltadas à transparência e auditabilidade (Pereira; Oliveira, 2024; Siqueira; Lara,  2020). 

A literatura também destaca o princípio da legalidade como um dos elementos  mais sensíveis na incorporação de tecnologias no campo jurídico. O fato de um  algoritmo operar com base em probabilidades não garante que suas decisões estejam  em conformidade com os preceitos legais previstos no ordenamento. A autonomia  progressiva dessas máquinas pode gerar interpretações que escapam ao controle  hermenêutico tradicional, exigindo novas formas de supervisão normativa. Assim, a  legalidade deixa de ser apenas um critério de controle humano direto e passa a  demandar um conjunto de salvaguardas digitais que assegurem o cumprimento das  normas jurídicas (Roque; Santos, 2021; Pimentel; Orengo, 2021). 

A exigência de motivação das decisões judiciais é outro ponto recorrente na  crítica à adoção de sistemas automatizados. A opacidade algorítmica, aliada à  complexidade técnica dos modelos baseados em aprendizado de máquina, torna  difícil a reconstrução lógica do raciocínio que levou a determinado resultado. Isso  compromete a possibilidade de contraditório, uma vez que a parte interessada não  consegue compreender nem contestar os fundamentos utilizados pelo sistema. A  doutrina nacional tem apontado a importância de mecanismos de explicabilidade e  supervisão humana como forma de preservar o controle jurisdicional sobre os atos  decisórios (Freitas et al., 2024; Madeira; Terron, 2024). 

Outro aspecto abordado com frequência é o risco de reprodução de  desigualdades históricas por parte dos algoritmos. Como esses sistemas aprendem com grandes volumes de dados, muitas vezes retirados de decisões anteriores ou de  registros públicos, eles acabam absorvendo padrões que não foram previamente  depurados. O resultado pode ser a replicação de discriminações institucionais,  especialmente nos campos penal e trabalhista. O uso indiscriminado da IA, sem filtros  normativos adequados, tende a consolidar práticas que violam a igualdade de  tratamento prevista na Constituição Federal (Pereira; Oliveira, 2024; Potascheff; Gil,  2024). 

As diretrizes internacionais de governança algorítmica também têm sido  consideradas nas publicações nacionais, ainda que de maneira pontual. Princípios  como responsabilidade, controle humano, não discriminação e acesso à revisão estão  presentes em documentos internacionais, e parte da literatura jurídica brasileira  começa a dialogar com esses marcos. No entanto, a incorporação desses parâmetros  ainda não ocorre de forma uniforme. As análises oscilam entre adesões pontuais e  abordagens estruturadas, que propõem a adaptação desses princípios à realidade  institucional brasileira (Norte Filho et al., 2025; Chiarello; Garcia, 2021). 

Certos autores destacam a importância da governança pública e do controle  democrático sobre os sistemas automatizados. A ideia de que o Estado pode  terceirizar atividades sensíveis a soluções privadas, sem transparência suficiente,  gera preocupações sobre soberania informacional e proteção de dados. Quando  algoritmos determinam decisões judiciais ou administrativas, mesmo que  parcialmente, é necessário garantir que essas decisões possam ser revistas,  explicadas e auditadas por órgãos estatais. Essa lógica fortalece o argumento pela  institucionalização de órgãos reguladores autônomos, com competência técnica para  fiscalizar a aplicação da IA no setor público (Pimentel; Orengo, 2021; Peixoto; Silva,  2019). 

A questão da responsabilidade civil por decisões automatizadas também  surge como tópico relevante. Em casos de erro, discriminação ou omissão, discute-se  quem deve responder: o programador, a instituição pública que adota o sistema, ou a  empresa fornecedora da tecnologia. A complexidade técnica dos algoritmos dificulta  a atribuição de culpa e a reconstrução do nexo causal, elementos fundamentais no  Direito. Por isso, parte da doutrina defende a construção de marcos legais específicos,  que levem em conta a natureza sistêmica dos riscos tecnológicos e proponham  modelos de responsabilidade solidária ou objetiva (Chiarello; Garcia, 2021; Da Rosa,  2019). 

Ainda que existam divergências metodológicas e conceituais entre os autores,  o conjunto da literatura aponta para a urgência de estabelecer balizas ético normativas claras para o uso da inteligência artificial no sistema jurídico. A ausência  de uma estrutura normativa consolidada, aliada à crescente complexidade dos  modelos utilizados, amplia a distância entre inovação tecnológica e legitimidade  jurídica. A elaboração de diretrizes nacionais, informadas por experiências  internacionais e ajustadas às peculiaridades brasileiras, aparece como um caminho  possível para enfrentar os riscos da automatização e preservar os fundamentos do  Estado de Direito (Roque; Santos, 2021; Norte Filho et al., 2025). 

2.3 Propostas jurídicas e práticas para a regulamentação da inteligência artificial 

O aumento da presença da IA no campo jurídico brasileiro tem motivado a  elaboração de propostas normativas que visam disciplinar sua utilização. A ausência  de legislação específica e a velocidade da inovação tecnológica impõem desafios  regulatórios que exigem articulação entre técnica, Direito e política pública. Parte da literatura identifica a urgência de marcos regulatórios capazes de delimitar as  condições de desenvolvimento, aplicação e fiscalização da IA, evitando tanto a inércia  normativa quanto o risco de regulação excessiva que iniba a inovação (Chiarello;  Garcia, 2021; Da Rosa, 2019). 

Entre as medidas sugeridas está a instituição de órgãos de controle com  competência técnica para avaliar algoritmos utilizados por instituições públicas e  privadas. Essa estrutura teria a função de auditar modelos, supervisionar o tratamento  de dados e assegurar a conformidade com princípios jurídicos. Essa proposta parte  da ideia de que o controle judicial isolado não é suficiente para lidar com as  especificidades técnicas dos sistemas computacionais, sendo necessário um  mecanismo institucional próprio para acompanhamento contínuo e preventivo  (Pimentel; Orengo, 2021; Norte Filho et al., 2025). 

Alguns autores destacam a necessidade de estabelecer uma regulamentação  que atue desde a concepção do algoritmo, e não apenas após sua implementação.  Isso implica definir parâmetros legais para a fase de desenvolvimento, exigindo que  os modelos passem por testes de impacto jurídico e social antes de serem  incorporados a estruturas decisórias. A proposta se baseia na lógica da prevenção e  na noção de que a opacidade não é um traço inevitável da IA, mas um problema que  pode ser mitigado com regras claras de transparência, responsabilidade e acesso à  informação (Freitas et al., 2024; Peixoto; Silva, 2019). 

No campo penal, algumas publicações defendem limites rígidos à adoção de  inteligência artificial, especialmente em atividades de persecução criminal, como  vigilância, reconhecimento facial e predição de conduta. A proposta é restringir o uso  dessas tecnologias a contextos em que exista supervisão humana efetiva, com  justificativa normativa robusta e possibilidade de revisão das decisões. Essa postura  se sustenta na constatação de que o campo penal lida com restrições severas de  direitos, exigindo cautela redobrada diante da automatização (Madeira; Terron, 2024;  Pereira; Oliveira, 2024). 

Outras propostas sugerem a criação de repositórios públicos e obrigatórios  com os parâmetros utilizados por algoritmos que operem na administração pública.  Essa medida permitiria que pesquisadores, advogados e a sociedade civil pudessem  auditar de forma independente os critérios utilizados pelas máquinas, promovendo  maior controle democrático sobre decisões automatizadas. Essa prática já é adotada  em algumas experiências internacionais e tem sido adaptada às especificidades  brasileiras por estudiosos atentos ao princípio da publicidade administrativa (Norte  Filho et al., 2025; Roque; Santos, 2021). 

No campo acadêmico, algumas abordagens defendem a inclusão de  disciplinas sobre ética digital e raciocínio algorítmico nos cursos de Direito. A intenção  é formar profissionais aptos a lidar com problemas decorrentes da presença de IA no  cotidiano jurídico, estimulando a análise crítica e a capacidade técnica de  compreender decisões computacionais. Essa proposta visa não apenas a adaptação  do ensino jurídico à realidade tecnológica, mas também o fortalecimento de uma  cultura institucional que valorize a supervisão humana e a proteção dos direitos  fundamentais (Rocha; Waldman, 2020; Potascheff; Gil, 2024). 

A literatura também apresenta sugestões para a adaptação de códigos de  ética profissional que contemplem situações envolvendo a atuação com apoio de  algoritmos. O objetivo é garantir que advogados, juízes e membros do Ministério  Público tenham diretrizes claras quanto aos limites de delegação de atividades, ao  dever de verificação dos resultados gerados por sistemas e ao sigilo das informações  manipuladas por essas tecnologias. Essas adaptações visam preservar a integridade da função pública, mesmo diante de novos instrumentos operacionais (Siqueira; Lara,  2020; Soares; Kauffman; Chao, 2020). 

Além das propostas normativas, há registros de iniciativas já implementadas  por tribunais e órgãos administrativos no Brasil. Projetos como os assistentes digitais  do Judiciário, o monitoramento de execução penal por IA e a triagem automática de  processos demonstram que o uso dessas tecnologias é uma realidade. No entanto,  os trabalhos acadêmicos alertam para a necessidade de que essas práticas não  substituam o debate regulatório, pois sua consolidação sem critérios pode naturalizar  distorções e dificultar futuras correções institucionais (Chiarello; Garcia, 2021; Freitas  et al., 2024). 

Assim, observa-se que a maioria das propostas aponta para a articulação  entre governança pública, formação jurídica e regulação progressiva. Não se trata de  rejeitar o uso da inteligência artificial, mas de construir as condições para que sua  aplicação seja compatível com os fundamentos do Estado Democrático de Direito.  Isso demanda um esforço contínuo de atualização normativa, fiscalização técnica e  reflexão interdisciplinar, capaz de sustentar modelos institucionais que resistam à  opacidade, ao viés e à desumanização das decisões jurídicas (Norte Filho et al., 2025;  Pimentel; Orengo, 2021). 

3. PROCEDIMENTOS METODOLÓGICOS 

A pesquisa desenvolvida possui natureza qualitativa, com delineamento  descritivo, fundamentando-se em uma revisão integrativa da literatura. Essa  abordagem permite reunir, selecionar e interpretar publicações científicas que tratam  da aplicação da inteligência artificial no Direito, especialmente em textos brasileiros  divulgados entre os anos de 2018 e 2025. Foram definidos critérios de inclusão que  priorizaram artigos originais, livros acadêmicos e dissertações vinculadas a programas  de pós-graduação reconhecidos, com foco direto no tema, disponíveis na íntegra, em  português, e com publicação nos últimos cinco anos. Excluíram-se textos duplicados,  revisões narrativas genéricas ou que não guardavam correspondência direta com a  questão de pesquisa (Dourado; Ribeiro, 2023). 

As buscas foram realizadas entre os meses de junho e julho de 2025,  utilizando-se as bases Google Scholar, Scientific Electronic Library Online (SciELO) e  o Portal de Periódicos da Coordenação de Aperfeiçoamento de Pessoal de Nível  Superior (CAPES). Foram empregados descritores compatíveis com o tema da  pesquisa, como “inteligência artificial”, “direito”, “ética algorítmica”, “decisão judicial  automatizada” e “regulação tecnológica”. Para ampliar a precisão dos resultados,  também foram utilizadas combinações booleanas entre os termos, conforme a  estratégia PICO adaptada a estudos qualitativos. Ao final da triagem, obteve-se um  conjunto consistente de publicações que sustentam a análise proposta, respeitando  critérios metodológicos e técnicos (Dourado; Ribeiro, 2023). 

4. ANÁLISE DOS RESULTADOS 

A análise da produção acadêmica selecionada entre 2018 e 2025 permitiu  identificar diferentes abordagens jurídicas sobre a inteligência artificial, com destaque  para temas como decisões automatizadas, garantias fundamentais, princípios éticos  e regulamentações emergentes. Ao sistematizar as principais obras utilizadas na revisão bibliográfica, observa-se uma convergência progressiva de autores no sentido  de problematizar os limites do uso de algoritmos no sistema de justiça brasileiro. A  tabela a seguir organiza os estudos examinados, indicando o ano, os objetivos  centrais e os principais pontos debatidos em relação ao uso da IA no Direito.

 Tabela 1 – Sistematização das obras analisadas na revisão bibliográfica sobre inteligência artificial no  Direito (2018–2025)

Fonte: Autor, 2025.

A análise da produção científica jurídica brasileira entre 2018 e 2025 permite  observar um crescimento expressivo no interesse pelo tema da inteligência artificial,  especialmente após a consolidação de políticas públicas de transformação digital no  Judiciário. As fontes selecionadas evidenciam um esforço inicial de compreensão das  implicações técnicas da IA, ainda que sem uniformidade terminológica ou  metodológica. Parte dos estudos analisados apresenta concepções generalistas,  enquanto outros buscam especificar os limites da aplicação algorítmica em diferentes  ramos do Direito (Chiarello; Garcia, 2021; Da Rosa, 2019). 

Nos textos revisados, identificam-se três eixos predominantes de abordagem:  o primeiro voltado aos impactos da IA na jurisdição; o segundo direcionado aos riscos  éticos e às garantias processuais; e o terceiro dedicado à regulamentação e às  estratégias institucionais de controle. Essa organização temática revela uma tentativa  da comunidade jurídica de estruturar o debate em torno de problemas concretos,  superando a fase de encantamento inicial com a tecnologia e caminhando para formas críticas e articuladas de reflexão (Norte Filho et al., 2025; Peixoto; Silva, 2019). No que diz respeito às abordagens aplicadas ao Judiciário, os autores  demonstram preocupação com a introdução de ferramentas de triagem, predição e  elaboração automatizada de documentos jurídicos. Embora se reconheça o ganho  operacional envolvido, há críticas recorrentes à falta de transparência desses  sistemas e à dificuldade de verificação do raciocínio empregado pelas máquinas. A  exigência de fundamentação das decisões judiciais é frequentemente evocada como  um princípio que pode ser comprometido diante da opacidade dos algoritmos (Roque;  Santos, 2021; Freitas et al., 2024). 

Observa-se ainda que o uso da inteligência artificial em contextos penais  suscita maiores restrições e cuidado nos textos analisados. A literatura tende a  destacar que, em procedimentos de privação de liberdade ou imputação de conduta  criminosa, a presença de IA deve ser cercada de salvaguardas que garantam  supervisão humana, respeito à não discriminação e possibilidade de revisão das  decisões. O temor quanto à reprodução de padrões excludentes e ao fortalecimento  de vieses sistêmicos marca boa parte dos argumentos presentes nessas publicações  (Madeira; Terron, 2024; Pereira; Oliveira, 2024). 

As análises voltadas aos princípios constitucionais e aos direitos  fundamentais revelam um esforço contínuo de articulação entre fundamentos do  Estado de Direito e inovação tecnológica. O princípio da dignidade da pessoa humana  aparece como cláusula limite à adoção de sistemas que operem de forma  indiferenciada sobre indivíduos. O controle social sobre as tecnologias aplicadas à  justiça é defendido como condição indispensável para evitar que o poder decisório  seja deslocado para estruturas opacas e dificilmente auditáveis (Siqueira; Lara, 2020;  Potascheff; Gil, 2024). 

Ao comparar diferentes propostas de regulamentação, nota-se que a maioria  dos textos sugere uma combinação de normas gerais com regulamentos técnicos  específicos. Há consenso de que o ordenamento jurídico deve avançar para além das  cláusulas abertas, adotando critérios objetivos para o desenvolvimento, implantação  e monitoramento da IA. Termos como explicabilidade, revisão humana e  responsabilização recorrente aparecem em diversas publicações, reforçando a ideia  de que a construção de salvaguardas jurídicas depende de uma abordagem  multifacetada (Chiarello; Garcia, 2021; Pimentel; Orengo, 2021). 

Outro ponto frequente é o reconhecimento da insuficiência das normas já  existentes para lidar com os desafios impostos pela automação decisória. Ainda que  muitos princípios jurídicos possam ser aplicados à realidade tecnológica, há lacunas  na legislação ordinária que dificultam sua efetivação. Parte da literatura aponta que a  ausência de leis específicas favorece a consolidação de práticas que, na ausência de  fiscalização adequada, podem comprometer garantias individuais e o equilíbrio  institucional (Norte Filho et al., 2025; Rocha; Waldman, 2020). 

Em relação à responsabilização por danos causados por sistemas de IA, os  textos divergem quanto à atribuição da culpa. Alguns autores defendem a  responsabilização objetiva das instituições que utilizam esses sistemas, enquanto  outros propõem modelos híbridos que envolvam o desenvolvedor, o gestor e o  operador do algoritmo. O ponto comum é a dificuldade de rastrear o nexo causal em  decisões automatizadas, o que exige o aprimoramento das estruturas jurídicas para  garantir reparação efetiva e adequada (Roque; Santos, 2021; Da Rosa, 2019). 

A análise das propostas de governança revela uma ênfase crescente na  criação de estruturas autônomas e técnicas, voltadas ao controle preventivo da IA. O  modelo defendido por boa parte dos autores consiste na instalação de comissões, agências ou núcleos de acompanhamento algorítmico, com participação  interdisciplinar e poder regulador. Essa proposta busca superar a fragmentação  institucional atual, oferecendo meios para a avaliação contínua dos impactos sociais  e jurídicos das tecnologias aplicadas (Pimentel; Orengo, 2021; Peixoto; Silva, 2019). 

Além dos aspectos jurídicos e técnicos, os textos analisados chamam atenção  para o contexto político-institucional em que a inteligência artificial é implementada. A  adoção de ferramentas automatizadas não ocorre em ambiente neutro, mas em  sistemas judiciais marcados por desigualdades estruturais e sobrecarga processual.  A literatura sugere que, sem uma abordagem crítica, a IA pode reforçar padrões de  exclusão e priorizar interesses burocráticos em detrimento de garantias fundamentais.  Essa constatação reforça a necessidade de políticas públicas comprometidas com  justiça social, e não apenas com eficiência (Freitas et al., 2024; Siqueira; Lara, 2020). 

Nos trabalhos voltados ao ensino jurídico, há preocupação com a formação  técnica dos profissionais que atuarão nesse novo cenário. A maioria das publicações  recomenda a inserção de conteúdos sobre tecnologia, ética digital e lógica algorítmica  nos currículos de graduação. Essa proposta parte do entendimento de que a análise  jurídica tradicional não é mais suficiente para lidar com fenômenos mediados por  sistemas de decisão não humanos. Além disso, o domínio superficial sobre a IA pode  resultar na aceitação acrítica de suas respostas, com impacto direto sobre o exercício  do contraditório (Rocha; Waldman, 2020; Soares; Kauffman; Chao, 2020). 

Outro ponto relevante é a presença crescente de práticas institucionais que já  operam com inteligência artificial, especialmente no Poder Judiciário. Projetos como  o “Victor” do Supremo Tribunal Federal e os assistentes digitais do Ministério Público  são exemplos reais do uso de algoritmos na triagem de processos, formulação de  peças e organização de precedentes. A literatura analisa essas experiências com  ambivalência: reconhece a inovação, mas destaca a ausência de avaliação pública  dos impactos produzidos, especialmente no que se refere à imparcialidade e à  coerência das decisões (Chiarello; Garcia, 2021; Freitas et al., 2024). 

A análise dos dados também revela uma preocupação recorrente com o  conceito de explicabilidade, que aparece como um ponto de tensão entre a  complexidade técnica dos algoritmos e a exigência jurídica de motivação. Em vários  textos, questiona-se até que ponto é possível justificar uma decisão com base em  modelos opacos, cuja lógica interna escapa à compreensão de operadores jurídicos  e jurisdicionados. Esse impasse desafia diretamente o princípio da publicidade e a  legitimidade das decisões judiciais apoiadas em mecanismos computacionais  (Pereira; Oliveira, 2024; Roque; Santos, 2021). 

A partir das propostas normativas reunidas, observa-se a tentativa de  incorporar ao ordenamento jurídico instrumentos que garantam controle prévio e  posterior da IA. Alguns autores defendem a elaboração de relatórios de impacto  algorítmico, nos moldes dos pareceres ambientais, como condição para o uso  institucional desses sistemas. Outros sugerem a criação de um cadastro nacional de  algoritmos utilizados por órgãos públicos, permitindo que a sociedade civil tenha  acesso às regras e parâmetros empregados nas decisões automatizadas (Norte Filho  et al., 2025; Potascheff; Gil, 2024). 

Com relação à eficácia das regulações internacionais, parte da literatura  reconhece sua relevância como referência, mas aponta a necessidade de adaptação  ao contexto jurídico brasileiro. Documentos como o da OCDE e diretrizes da União  Europeia são frequentemente citados, mas sua transposição acrítica é questionada.  Os autores defendem que qualquer regulação nacional deve partir da realidade do  sistema judicial e das assimetrias que o atravessam, evitando importações legislativas que desconsiderem a estrutura e os valores locais (Chiarello; Garcia, 2021; Pimentel;  Orengo, 2021). 

A análise dos discursos presentes nos textos também revela um embate entre  posturas tecnofílicas2 e visões mais prudenciais. Enquanto parte dos autores enxerga  a IA como solução para gargalos operacionais e morosidade judicial, outra parcela  alerta para os riscos de automação sem responsabilidade. Esse contraste evidencia  a ausência de consenso na doutrina e reforça a ideia de que a inteligência artificial  não é neutra, mas moldada por interesses, valores e decisões políticas, que precisam  ser tematizados de forma explícita (Da Rosa, 2019; Freitas et al., 2024). 

De maneira geral, a revisão indica que a produção acadêmica sobre IA no  Direito brasileiro tem avançado em qualidade e diversificação. Contudo, ainda persiste  a necessidade de maior articulação entre os estudos, com construção de referenciais  teóricos comuns e aproximação entre as diferentes áreas jurídicas. A fragmentação  entre Direito Penal, Processual, Constitucional e Administrativo, por exemplo, dificulta  a consolidação de uma regulação coerente. Esse desafio é mencionado como um dos  obstáculos para o amadurecimento do campo (Peixoto; Silva, 2019; Madeira; Terron,  2024). 

Assim, os dados demonstram que a principal contribuição da literatura  revisada está na capacidade de levantar perguntas relevantes sobre o futuro da justiça  em tempos de automação. A ausência de respostas definitivas não compromete o  valor dos textos analisados, que, ao problematizar os usos da IA, contribuem para a  construção de um debate institucional mais qualificado. Nesse sentido, a pesquisa  confirma que o enfrentamento das novas tecnologias no Direito exige não apenas  inovação técnica, mas também compromisso ético e político com os fundamentos  democráticos (Norte Filho et al., 2025; Roque; Santos, 2021). 

5. CONSIDERAÇÕES FINAIS 

A consolidação das informações extraídas na revisão evidenciou que o debate  jurídico brasileiro sobre inteligência artificial vem se ampliando, ainda que com  desigualdade na profundidade dos enfoques e ausência de articulação entre áreas do  Direito. A presença de algoritmos no sistema de justiça já é constatável, mas a forma  como esse fenômeno vem sendo discutido ainda carece de amadurecimento  institucional e normativo. Os objetivos da pesquisa foram atendidos com a descrição  das abordagens existentes, a enumeração das diretrizes propostas e a exemplificação  dos impactos mais debatidos em relação ao uso da IA. 

Foi possível verificar que os discursos jurídicos se distribuem entre uma  postura aderente à tecnologia e uma perspectiva mais cautelosa, refletindo um  embate sobre os caminhos a serem seguidos. Essa polarização repercute diretamente  nas análises acadêmicas, revelando que a compreensão técnica e normativa da IA  ainda está em processo de construção. A principal contribuição deste estudo está na  organização crítica desses discursos, permitindo ao leitor identificar tendências,  pontos de tensão e propostas que buscam compatibilizar inovação e responsabilidade.

Dentre os aspectos positivos da pesquisa, destaca-se a diversidade de fontes  utilizadas e a delimitação temporal consistente, que viabilizou uma leitura integrada  da produção recente. A observância de critérios metodológicos claros e a utilização  de material rigorosamente identificado garantiram coesão à análise. Como limitação,  nota-se a escassez de estudos com dados empíricos, o que dificultou aferir como os  sistemas automatizados estão operando na prática cotidiana dos tribunais e órgãos  jurídicos. 

As obras analisadas demonstraram que os riscos associados à automação de  decisões são amplamente reconhecidos, mas ainda pouco enfrentados do ponto de  vista institucional. Falta transparência na divulgação dos parâmetros técnicos  utilizados, bem como instâncias permanentes de fiscalização e controle externo.  Também se observa uma distância entre o conhecimento técnico necessário e o  domínio prático por parte dos operadores do Direito, o que tende a fragilizar a  supervisão do uso dessas tecnologias por agentes públicos. 

Como encaminhamentos futuros, recomendam-se pesquisas com foco na  operação dos sistemas já implementados no Judiciário brasileiro, bem como estudos  comparativos com países que regulamentaram de modo mais sistemático o uso de  algoritmos em processos judiciais. Também seria oportuno investigar como os cursos  jurídicos estão tratando a questão da inteligência artificial, tanto na formação teórica  quanto na qualificação para o exercício profissional. 

Este trabalho reafirma a necessidade de que qualquer proposta envolvendo  inteligência artificial no Direito seja debatida com compromisso democrático, análise  normativa consistente e atenção contínua às garantias constitucionais. A presença de  algoritmos nas instituições jurídicas não pode prescindir de controle público,  motivação acessível e responsabilidade institucional. Em vez de adaptar o sistema  jurídico às ferramentas digitais, é preciso avaliar se essas ferramentas respeitam os  fundamentos do próprio Direito. 


2Tecnofilia corresponde a uma postura marcada por entusiasmo intenso diante das inovações tecnológicas, especialmente  quando acompanhada por uma confiança acrítica em seus benefícios. O termo resulta da junção de “tecno”, referente à  tecnologia, e “filia”, que expressa inclinação ou afinidade. No campo jurídico, essa orientação manifesta-se quando operadores  e instituições adotam soluções automatizadas com otimismo desproporcional, desconsiderando possíveis implicações éticas,  jurídicas ou sociais. Tal atitude pode dificultar o debate aprofundado sobre os riscos da inteligência artificial, particularmente em  contextos que exigem imparcialidade, responsabilidade decisória e proteção de direitos fundamentais. Fonte: DEMO, Pedro. Tecnofilia” &” Tecnofobia. Boletim técnico do Senac, v. 35, n. 1, p. 4-17, 2009.

REFERÊNCIAS 

CHIARELLO, Felipe; GARCIA, Lara Rocha. Desafios internacionais da aplicação da  inteligência artificial no Direito. Justiça do Direito (UPF), v. 35, p. 15, 2021. 

DA ROSA, Alexandre Morais. A questão digital: o impacto da inteligência artificial no  Direito. Revista de Direito da Faculdade Guanambi, v. 6, n. 2, p. 1-18, 2019. 

DOURADO, Simone; RIBEIRO, Ednaldo. Metodologia qualitativa e quantitativa.  Editora chefe Profª Drª Antonella Carvalho de Oliveira Editora executiva Natalia  Oliveira Assistente editorial, p. 12, 2023. 

FELIPE, Bruno Farage da Costa; PERROTA, Raquel Pinto Coelho. Inteligência  Artificial no Direito–uma realidade a ser desbravada. Revista de Direito,  Governança e Novas Tecnologias, v. 4, n. 1, p. 1-16, 2018. 

FREITAS, Áderson Nicolas Lima et al. Inteligência Artificial no direito: percepções e  desafios éticos na microrregião tocantina. Caderno Pedagógico, v. 21, n. 12, p.  e11235-e11235, 2024.

MADEIRA, Heloisa Bogaz; TERRON, Leticia Lourenço Sangaleto. Inteligência  Artificial No Direito Penal. Revista Contemporânea, v. 4, n. 9, p. e5802-e5802,  2024. DOI: 10.56083/RCV4N9-130. Disponível em: https://ojs.revistacontemporanea.com/ojs/index.php/home/article/view/5802. Acesso  em: 22 jul. 2025. 

NORTE FILHO, A. F. do; et al.. Inteligência Artificial no direito: ética, limites e  princípios. Contribuciones A Las Ciencias Sociales, [S. l.], v. 18, n. 4, p. e17417,  2025. DOI: 10.55905/revconv.18n.4-334. Disponível em: https://ojs.revistacontribuciones.com/ojs/index.php/clcs/article/view/17417. Acesso  em: 23 jul. 2025. 

PEIXOTO, Fabiano Hartmann; SILVA, Roberta Zumblick Martins da. Inteligência  artificial e direito. Curitiba: Alteridade, v. 1, 2019. 

PEREIRA, Sara Matias Ferrari; OLIVEIRA, Tarsis Barreto. O uso da inteligência  artificial no direito penal e seus reflexos sobre os direitos fundamentais da não  discriminação e da privacidade. Revista do Instituto de Direito Constitucional e  Cidadania, v. 9, n. 1, p. e099-e099, 2024. 

PIMENTEL, Alexandre Freire; ORENGO, Beatriz Souto. Perspectivas de aplicação  da inteligência artificial no direito processual: análise sobre as diretrizes éticas e  eficiência jurisdicional. Revista brasileira de sociologia do direito, v. 8, n. 3, p.  305-325, 2021. 

POTASCHEFF, Eliana Sgarbi de Carvalho; GIL, Mauro Cesar Cantarino. A  relevância da inteligência artificial no Direito Penal: O uso da Lógica Fuzzy no  incremento do controle social formal na gestão pública dos resíduos industriais.  Research, Society and Development, v. 13, n. 1, p. e5313144766-e5313144766,  2024. 

ROCHA, Bruno Augusto Barros; WALDMAN, Ricardo Libel. Os reflexos da  inteligência artificial no direito e os novos desafios da carreira jurídica. Revista do  Direito do Trabalho e Meio Ambiente do Trabalho, v. 6, n. 1, p. 131-150, 2020. 

ROQUE, Andre; DOS SANTOS, Lucas Braz Rodrigues. Inteligência artificial na  tomada de decisões judiciais: três premissas básicas. Revista Eletrônica de Direito  Processual, v. 22, n. 1, 2021. 

SIQUEIRA, Dirceu Pereira; LARA, Fernanda Corrêa Pavesi. Quarta revolução  industrial, inteligência artificial e a proteção do homem no direito brasileiro. Meritum,  Revista de Direito da Universidade FUMEC, 2020.

SOARES, Marcelo Negri; KAUFFMAN, Marcos Eduardo; CHAO, Kuo-Ming.  Inteligência artificial: impactos no direito e na advocacia. Direito Público, v. 17, n.  93, 2020.


1Acadêmico do curso de Direito da UNIFEBE. E-mail: fulanodetal@email.com.br