ARTIFICIAL INTELLIGENCE IN BRAZILIAN LAW: LEGAL APPROACHES, INSTITUTIONAL IMPLICATIONS AND REGULATORY LIMITS
REGISTRO DOI: 10.69849/revistaft/dt10202508152016
Gabriel Elias Minatti1
RESUMO
A inteligência artificial tem alterado de forma progressiva as dinâmicas jurídicas, impactando tanto os procedimentos internos dos tribunais quanto a estrutura argumentativa dos operadores do Direito. Este artigo teve como objetivo descrever as abordagens interdisciplinares adotadas no campo jurídico brasileiro sobre a aplicação da inteligência artificial, com foco nas implicações éticas, institucionais e processuais. A pesquisa adotou metodologia qualitativa, com caráter descritivo, fundamentada em revisão bibliográfica sistemática, respeitando critérios de seleção voltados à atualidade, relevância temática e rigor acadêmico. Os resultados evidenciaram que parte expressiva da produção nacional ainda apresenta divergências quanto à compreensão técnica da IA, alternando entre discursos de adesão entusiástica e posturas de cautela normativa. As principais preocupações concentram-se na ausência de transparência dos algoritmos, no risco de violação de garantias processuais e na carência de formação técnica por parte dos agentes jurídicos. Constatou-se também que os esforços regulatórios ainda são incipientes, embora exista uma crescente preocupação com princípios como supervisão humana, motivação das decisões automatizadas e proteção de direitos fundamentais. Conclui-se que a incorporação da inteligência artificial no Direito brasileiro exige uma articulação mais consistente entre o debate acadêmico, as instituições reguladoras e os espaços de formação profissional, de modo a garantir que sua aplicação respeite os limites constitucionais e preserve a legitimidade do sistema jurídico.
Palavras-chave: Inteligência Artificial; Direito Brasileiro; Decisões Automatizadas.
ABSTRACT
Artificial intelligence has progressively altered legal dynamics, impacting both the internal procedures of courts and the argumentative structure of legal practitioners. This article aimed to describe the interdisciplinary approaches adopted in the Brazilian legal field regarding the application of artificial intelligence, focusing on the ethical, institutional, and procedural implications. The research adopted a qualitative, descriptive methodology, based on a systematic literature review, respecting selection criteria focused on current affairs, thematic relevance, and academic rigor. The results revealed that a significant portion of the national literature still presents divergences regarding the technical understanding of AI, alternating between discourses of enthusiastic support and positions of normative caution. The main concerns center on the lack of transparency in algorithms, the risk of violating procedural guarantees, and the lack of technical training on the part of legal agents. It was also found that regulatory efforts are still incipient, although there is growing concern about principles such as human oversight, the motivation of automated decisions, and the protection of fundamental rights. It is concluded that the incorporation of artificial intelligence into Brazilian law requires a more consistent articulation between academic debate, regulatory institutions, and professional training spaces, in order to ensure that its application respects constitutional limits and preserves the legitimacy of the legal system.
Keywords: Artificial Intelligence; Brazilian Law; Automated Decisions.
1. INTRODUÇÃO
A inserção de tecnologias autônomas nas estruturas jurídicas brasileiras já não se apresenta como perspectiva futura, mas como prática em consolidação nos ambientes institucionais. A exemplo disso, destacam-se os sistemas “Assistente Digital do Magistrado”, “Assistente Digital do Promotor” e “Assistente Digital das Procuradorias”, cujas funções automatizadas vão desde a elaboração de peças processuais e o envio de documentos ao Poder Judiciário até a formulação de contestações e pesquisas jurisprudenciais. Operando com base em inteligência artificial (IA), essas soluções dispensam intervenção humana contínua, indicando um novo arranjo funcional entre operadores do Direito e sistemas computacionais (Pereira; Oliveira, 2024).
A presença de sistemas computacionais inteligentes nas estruturas jurídicas contemporâneas revela transformações profundas nas formas de produção normativa, na interpretação das leis e na administração da justiça. Esse fenômeno não se limita à automação de tarefas operacionais, mas alcança o núcleo da atividade jurídica, especialmente nas decisões judiciais mediadas por algoritmos. A linguagem binária aplicada a demandas humanas complexas exige reflexão sobre os limites éticos, epistemológicos e institucionais da inteligência artificial no Direito, sobretudo em contextos em que se esperam garantias como imparcialidade, contraditório e fundamentação (Risse; Livingston, 2019, apud Chiarello; Garcia, 2021).
Ao longo dos últimos anos, a literatura jurídica passou a registrar um interesse sobre os impactos da IA em sistemas normativos, impulsionada pela expansão do aprendizado de máquina e das tecnologias preditivas. Entretanto, esse crescimento nem sempre veio acompanhado de análise crítica sobre os mecanismos de tomada de decisão algorítmica, as relações entre dados e justiça social ou a compatibilidade entre inteligência computacional e direitos fundamentais. Nesse cenário, torna-se necessário investigar não apenas o que a IA realiza no campo jurídico, mas como, por que e com que consequências (Crootof, 2019, apud Chiarello; Garcia, 2021; Pereira; Oliveira, 2024).
Este trabalho tem como intuito examinar o uso da inteligência artificial nas práticas jurídicas a partir de uma revisão integrativa da literatura nacional recente, delimitando-se à análise de produções acadêmicas entre 2018 e 2025. O problema de pesquisa parte da seguinte indagação: como os autores da área do Direito têm caracterizado e discutido a aplicação da inteligência artificial no campo jurídico brasileiro? Com isso, pretende-se compreender as abordagens recorrentes, os pontos de tensão entre técnica e legalidade, e os modelos interpretativos utilizados nos textos acadêmicos.
Entre as possíveis respostas para essa questão, considera-se a hipótese de que os estudos jurídicos ainda oscilam entre uma abordagem instrumental, que privilegia a automação e a eficiência, e outra crítica, que problematiza os riscos normativos e institucionais da inteligência artificial. Supõe-se também que grande parte das análises dá ênfase a aspectos éticos ou funcionais, sem aprofundar os fundamentos jurídicos da decisão algorítmica em contextos judiciais. Além disso, observa-se que muitos trabalhos acompanham os marcos regulatórios internacionais, alinhando-se a princípios como transparência, controle humano e responsabilidade (Norte Filho et al., 2025; Pimentel; Orengo, 2021; Roque; Santos, 2021).
A relevância deste estudo reside na necessidade de identificar, descrever e qualificar os discursos jurídicos sobre a IA no Brasil, contribuindo para uma entendimento melhor das tendências acadêmicas e suas implicações práticas. Essa sistematização pode subsidiar o aprimoramento das normativas internas, a formulação de políticas públicas baseadas em evidências e a ampliação do debate interdisciplinar sobre regulação tecnológica. Além disso, trata-se de um campo em constante mutação, em que o Direito precisa antecipar riscos, consolidar garantias e resistir à opacidade algorítmica (Norte Filho et al., 2025; Siqueira; Lara, 2020).
A presente pesquisa tem como objetivo geral descrever as abordagens acadêmicas brasileiras sobre a inteligência artificial no Direito, no período entre 2018 e 2025. Como objetivos específicos, busca-se: a) caracterizar os temas centrais abordados nos artigos analisados; b) identificar os principais argumentos e posicionamentos adotados sobre os efeitos da IA no sistema jurídico; c) exemplificar as propostas normativas, éticas e institucionais discutidas pelos autores.
2. FUNDAMENTAÇÃO TEÓRICA
2.1 As abordagens jurídicas brasileiras sobre a inteligência artificial
A emergência da inteligência artificial no cenário jurídico brasileiro vem produzindo uma variedade de respostas teóricas, nem sempre convergentes entre si. De um lado, observa-se uma vertente pragmática, interessada em compreender as aplicações tecnológicas no cotidiano forense, com foco na automação de tarefas processuais e na racionalização do fluxo de trabalho. De outro, surgem posicionamentos preocupados com a sustentabilidade institucional dessas práticas, alertando para a ausência de critérios normativos que regulem os limites da atuação algorítmica no campo decisório. Essas abordagens não apenas coexistem, mas frequentemente se tensionam em função de suas matrizes conceituais distintas (Roque; Santos, 2021; Freitas et al., 2024).
Enquanto a primeira tendência valoriza a funcionalidade da IA no sistema de justiça, buscando ilustrar seus efeitos sobre a produtividade jurisdicional, a segunda propõe uma crítica das estruturas de decisão automatizada. Essa distinção reflete uma polaridade metodológica entre uma leitura técnico-operacional, que prioriza ganhos de rendimento, e uma leitura estrutural, que investiga os impactos sobre garantias processuais, direitos fundamentais e controle institucional. A ausência de um marco regulatório consolidado no país contribui para a expansão dessas divergências, deixando à literatura a tarefa de preencher a indefinição conceitual e os parâmetros de avaliação da legitimidade dessas práticas (Norte Filho et al., 2025; Pimentel; Orengo, 2021).
Não se trata, no entanto, de negar os ganhos objetivos propiciados pelos sistemas inteligentes, mas de compreender como sua incorporação pode comprometer pressupostos jurídicos estabelecidos. O uso de modelos algorítmicos em processos judiciais ou administrativos demanda vigilância quanto ao grau de opacidade, à rastreabilidade dos critérios adotados e à margem de controle humano na supervisão das decisões. A jurisprudência brasileira ainda se mostra incipiente nesse tema, o que reforça a necessidade de aprofundamento teórico das consequências normativas que decorrem da delegação de funções decisórias a estruturas digitais (Peixoto; Silva, 2019; Madeira; Terron, 2024).
A discussão também passa por uma disputa semântica sobre o que se entende por “decisão” no contexto jurídico. Há autores que sustentam a impossibilidade de atribuir sentido jurídico a escolhas produzidas por um sistema não dotado de consciência normativa, reduzindo a função decisória a uma operação estatística baseada em dados anteriores. Outros pesquisadores, contudo, consideram que o processo de decisão jurídica não se esgota na vontade subjetiva do julgador, podendo ser parcialmente orientado por padrões inferenciais extraídos de grandes bases de dados. Essa tensão semântica marca boa parte da literatura jurídica contemporânea sobre inteligência artificial (Roque; Santos, 2021; Chiarello; Garcia, 2021).
Além das divergências terminológicas, há variações nos recortes temáticos adotados pelos trabalhos jurídicos que tratam da IA. Em alguns casos, privilegiam-se os efeitos da automação no Direito Processual; em outros, concentram-se os esforços na análise da IA no Direito Penal ou na sua relação com os direitos da personalidade. Essa diversidade de enfoques reflete não apenas o grau de maturidade do debate, mas também a insuficiência de um tratamento sistemático, que integre as implicações técnicas, normativas e políticas da inteligência computacional aplicada ao campo jurídico (Pereira; Oliveira, 2024; Rocha; Waldman, 2020).
No que diz respeito à compatibilidade entre os sistemas digitais e os princípios do Estado Democrático de Direito, os estudos identificam riscos associados à despersonalização das decisões, à dificuldade de revisão crítica e ao esvaziamento do contraditório. Mesmo quando utilizados como apoio à atividade jurisdicional, os sistemas de IA apresentam limites quanto à sua capacidade de captar os elementos valorativos, contextuais e hermenêuticos próprios da argumentação jurídica. Essa limitação reforça a ideia de que qualquer incorporação tecnológica exige filtros institucionais capazes de preservar a coerência constitucional das práticas jurídicas (Siqueira; Lara, 2020; Norte Filho et al., 2025).
Há ainda pesquisas que procuram mapear a presença de vieses estatísticos nos algoritmos utilizados por entes públicos, especialmente em procedimentos ligados à segurança pública, política criminal ou gestão de dados judiciais. Tais estudos revelam que decisões automatizadas podem reproduzir desigualdades já presentes nas bases utilizadas para treinamento das máquinas, colocando em risco a isonomia e a imparcialidade dos processos. A literatura brasileira, embora ainda incipiente, começa a apontar caminhos para o desenvolvimento de modelos regulatórios baseados na transparência, auditabilidade e supervisão pública das decisões algorítmicas (Pereira; Oliveira, 2024; Potascheff; Gil, 2024).
Mesmo com essas preocupações, parte da doutrina nacional insiste em um discurso otimista quanto à integração da IA nos serviços jurídicos, tomando como parâmetro o aumento da eficiência e da acessibilidade. A digitalização de procedimentos, o uso de assistentes virtuais e a automação de documentos são apresentados como avanços organizacionais, especialmente em um país com elevado grau de litigiosidade e morosidade processual. No entanto, essa perspectiva raramente é acompanhada de reflexão crítica sobre o redesenho institucional que decorre da adoção dessas tecnologias, o que pode comprometer garantias estruturantes do processo judicial (Peixoto; Silva, 2019; Chiarello; Garcia, 2021).
Dessa forma, a literatura jurídica brasileira ainda se encontra em fase de consolidação teórica quanto ao fenômeno da inteligência artificial. As abordagens ora enfatizam o rendimento técnico, ora alertam para os riscos normativos e institucionais. O que se verifica é um campo de estudo em formação, marcado por assimetrias conceituais, recortes fragmentados e diferentes graus de aderência aos princípios constitucionais. Essa multiplicidade, embora rica em possibilidades, ainda carece de sistematização analítica que permita estabelecer categorias comuns para análise e comparação (Roque; Santos, 2021; Freitas et al., 2024).
2.2 Princípios jurídicos, limites éticos e diretrizes aplicadas à inteligência artificial
A incorporação da inteligência artificial em sistemas jurídicos brasileiros tem gerado reflexões sobre os limites normativos que devem guiar seu uso. A natureza estatística e automatizada dos processos algorítmicos desafia conceitos consolidados no Direito, como imparcialidade, motivação e contraditório. A aplicação de soluções computacionais em fases decisórias levanta dúvidas sobre a aderência desses instrumentos aos princípios constitucionais. Nesse contexto, os debates sobre os fundamentos éticos da IA convergem para a necessidade de parâmetros técnicos, institucionais e jurídicos que orientem sua utilização nos processos judiciais e administrativos (Chiarello; Garcia, 2021; Norte Filho et al., 2025).
Entre os princípios mais discutidos nas publicações jurídicas está o da dignidade da pessoa humana, constantemente citado como núcleo intransponível para a legitimação de decisões automatizadas. Ainda que os sistemas de IA apresentem resultados formalmente neutros, sua construção é guiada por seleções humanas que, muitas vezes, carregam preconceitos e omissões. A ausência de controle sobre os dados de treinamento, os critérios utilizados para análise e os objetivos definidos por quem programa o sistema pode comprometer os direitos fundamentais. Essas preocupações têm impulsionado propostas de regulação voltadas à transparência e auditabilidade (Pereira; Oliveira, 2024; Siqueira; Lara, 2020).
A literatura também destaca o princípio da legalidade como um dos elementos mais sensíveis na incorporação de tecnologias no campo jurídico. O fato de um algoritmo operar com base em probabilidades não garante que suas decisões estejam em conformidade com os preceitos legais previstos no ordenamento. A autonomia progressiva dessas máquinas pode gerar interpretações que escapam ao controle hermenêutico tradicional, exigindo novas formas de supervisão normativa. Assim, a legalidade deixa de ser apenas um critério de controle humano direto e passa a demandar um conjunto de salvaguardas digitais que assegurem o cumprimento das normas jurídicas (Roque; Santos, 2021; Pimentel; Orengo, 2021).
A exigência de motivação das decisões judiciais é outro ponto recorrente na crítica à adoção de sistemas automatizados. A opacidade algorítmica, aliada à complexidade técnica dos modelos baseados em aprendizado de máquina, torna difícil a reconstrução lógica do raciocínio que levou a determinado resultado. Isso compromete a possibilidade de contraditório, uma vez que a parte interessada não consegue compreender nem contestar os fundamentos utilizados pelo sistema. A doutrina nacional tem apontado a importância de mecanismos de explicabilidade e supervisão humana como forma de preservar o controle jurisdicional sobre os atos decisórios (Freitas et al., 2024; Madeira; Terron, 2024).
Outro aspecto abordado com frequência é o risco de reprodução de desigualdades históricas por parte dos algoritmos. Como esses sistemas aprendem com grandes volumes de dados, muitas vezes retirados de decisões anteriores ou de registros públicos, eles acabam absorvendo padrões que não foram previamente depurados. O resultado pode ser a replicação de discriminações institucionais, especialmente nos campos penal e trabalhista. O uso indiscriminado da IA, sem filtros normativos adequados, tende a consolidar práticas que violam a igualdade de tratamento prevista na Constituição Federal (Pereira; Oliveira, 2024; Potascheff; Gil, 2024).
As diretrizes internacionais de governança algorítmica também têm sido consideradas nas publicações nacionais, ainda que de maneira pontual. Princípios como responsabilidade, controle humano, não discriminação e acesso à revisão estão presentes em documentos internacionais, e parte da literatura jurídica brasileira começa a dialogar com esses marcos. No entanto, a incorporação desses parâmetros ainda não ocorre de forma uniforme. As análises oscilam entre adesões pontuais e abordagens estruturadas, que propõem a adaptação desses princípios à realidade institucional brasileira (Norte Filho et al., 2025; Chiarello; Garcia, 2021).
Certos autores destacam a importância da governança pública e do controle democrático sobre os sistemas automatizados. A ideia de que o Estado pode terceirizar atividades sensíveis a soluções privadas, sem transparência suficiente, gera preocupações sobre soberania informacional e proteção de dados. Quando algoritmos determinam decisões judiciais ou administrativas, mesmo que parcialmente, é necessário garantir que essas decisões possam ser revistas, explicadas e auditadas por órgãos estatais. Essa lógica fortalece o argumento pela institucionalização de órgãos reguladores autônomos, com competência técnica para fiscalizar a aplicação da IA no setor público (Pimentel; Orengo, 2021; Peixoto; Silva, 2019).
A questão da responsabilidade civil por decisões automatizadas também surge como tópico relevante. Em casos de erro, discriminação ou omissão, discute-se quem deve responder: o programador, a instituição pública que adota o sistema, ou a empresa fornecedora da tecnologia. A complexidade técnica dos algoritmos dificulta a atribuição de culpa e a reconstrução do nexo causal, elementos fundamentais no Direito. Por isso, parte da doutrina defende a construção de marcos legais específicos, que levem em conta a natureza sistêmica dos riscos tecnológicos e proponham modelos de responsabilidade solidária ou objetiva (Chiarello; Garcia, 2021; Da Rosa, 2019).
Ainda que existam divergências metodológicas e conceituais entre os autores, o conjunto da literatura aponta para a urgência de estabelecer balizas ético normativas claras para o uso da inteligência artificial no sistema jurídico. A ausência de uma estrutura normativa consolidada, aliada à crescente complexidade dos modelos utilizados, amplia a distância entre inovação tecnológica e legitimidade jurídica. A elaboração de diretrizes nacionais, informadas por experiências internacionais e ajustadas às peculiaridades brasileiras, aparece como um caminho possível para enfrentar os riscos da automatização e preservar os fundamentos do Estado de Direito (Roque; Santos, 2021; Norte Filho et al., 2025).
2.3 Propostas jurídicas e práticas para a regulamentação da inteligência artificial
O aumento da presença da IA no campo jurídico brasileiro tem motivado a elaboração de propostas normativas que visam disciplinar sua utilização. A ausência de legislação específica e a velocidade da inovação tecnológica impõem desafios regulatórios que exigem articulação entre técnica, Direito e política pública. Parte da literatura identifica a urgência de marcos regulatórios capazes de delimitar as condições de desenvolvimento, aplicação e fiscalização da IA, evitando tanto a inércia normativa quanto o risco de regulação excessiva que iniba a inovação (Chiarello; Garcia, 2021; Da Rosa, 2019).
Entre as medidas sugeridas está a instituição de órgãos de controle com competência técnica para avaliar algoritmos utilizados por instituições públicas e privadas. Essa estrutura teria a função de auditar modelos, supervisionar o tratamento de dados e assegurar a conformidade com princípios jurídicos. Essa proposta parte da ideia de que o controle judicial isolado não é suficiente para lidar com as especificidades técnicas dos sistemas computacionais, sendo necessário um mecanismo institucional próprio para acompanhamento contínuo e preventivo (Pimentel; Orengo, 2021; Norte Filho et al., 2025).
Alguns autores destacam a necessidade de estabelecer uma regulamentação que atue desde a concepção do algoritmo, e não apenas após sua implementação. Isso implica definir parâmetros legais para a fase de desenvolvimento, exigindo que os modelos passem por testes de impacto jurídico e social antes de serem incorporados a estruturas decisórias. A proposta se baseia na lógica da prevenção e na noção de que a opacidade não é um traço inevitável da IA, mas um problema que pode ser mitigado com regras claras de transparência, responsabilidade e acesso à informação (Freitas et al., 2024; Peixoto; Silva, 2019).
No campo penal, algumas publicações defendem limites rígidos à adoção de inteligência artificial, especialmente em atividades de persecução criminal, como vigilância, reconhecimento facial e predição de conduta. A proposta é restringir o uso dessas tecnologias a contextos em que exista supervisão humana efetiva, com justificativa normativa robusta e possibilidade de revisão das decisões. Essa postura se sustenta na constatação de que o campo penal lida com restrições severas de direitos, exigindo cautela redobrada diante da automatização (Madeira; Terron, 2024; Pereira; Oliveira, 2024).
Outras propostas sugerem a criação de repositórios públicos e obrigatórios com os parâmetros utilizados por algoritmos que operem na administração pública. Essa medida permitiria que pesquisadores, advogados e a sociedade civil pudessem auditar de forma independente os critérios utilizados pelas máquinas, promovendo maior controle democrático sobre decisões automatizadas. Essa prática já é adotada em algumas experiências internacionais e tem sido adaptada às especificidades brasileiras por estudiosos atentos ao princípio da publicidade administrativa (Norte Filho et al., 2025; Roque; Santos, 2021).
No campo acadêmico, algumas abordagens defendem a inclusão de disciplinas sobre ética digital e raciocínio algorítmico nos cursos de Direito. A intenção é formar profissionais aptos a lidar com problemas decorrentes da presença de IA no cotidiano jurídico, estimulando a análise crítica e a capacidade técnica de compreender decisões computacionais. Essa proposta visa não apenas a adaptação do ensino jurídico à realidade tecnológica, mas também o fortalecimento de uma cultura institucional que valorize a supervisão humana e a proteção dos direitos fundamentais (Rocha; Waldman, 2020; Potascheff; Gil, 2024).
A literatura também apresenta sugestões para a adaptação de códigos de ética profissional que contemplem situações envolvendo a atuação com apoio de algoritmos. O objetivo é garantir que advogados, juízes e membros do Ministério Público tenham diretrizes claras quanto aos limites de delegação de atividades, ao dever de verificação dos resultados gerados por sistemas e ao sigilo das informações manipuladas por essas tecnologias. Essas adaptações visam preservar a integridade da função pública, mesmo diante de novos instrumentos operacionais (Siqueira; Lara, 2020; Soares; Kauffman; Chao, 2020).
Além das propostas normativas, há registros de iniciativas já implementadas por tribunais e órgãos administrativos no Brasil. Projetos como os assistentes digitais do Judiciário, o monitoramento de execução penal por IA e a triagem automática de processos demonstram que o uso dessas tecnologias é uma realidade. No entanto, os trabalhos acadêmicos alertam para a necessidade de que essas práticas não substituam o debate regulatório, pois sua consolidação sem critérios pode naturalizar distorções e dificultar futuras correções institucionais (Chiarello; Garcia, 2021; Freitas et al., 2024).
Assim, observa-se que a maioria das propostas aponta para a articulação entre governança pública, formação jurídica e regulação progressiva. Não se trata de rejeitar o uso da inteligência artificial, mas de construir as condições para que sua aplicação seja compatível com os fundamentos do Estado Democrático de Direito. Isso demanda um esforço contínuo de atualização normativa, fiscalização técnica e reflexão interdisciplinar, capaz de sustentar modelos institucionais que resistam à opacidade, ao viés e à desumanização das decisões jurídicas (Norte Filho et al., 2025; Pimentel; Orengo, 2021).
3. PROCEDIMENTOS METODOLÓGICOS
A pesquisa desenvolvida possui natureza qualitativa, com delineamento descritivo, fundamentando-se em uma revisão integrativa da literatura. Essa abordagem permite reunir, selecionar e interpretar publicações científicas que tratam da aplicação da inteligência artificial no Direito, especialmente em textos brasileiros divulgados entre os anos de 2018 e 2025. Foram definidos critérios de inclusão que priorizaram artigos originais, livros acadêmicos e dissertações vinculadas a programas de pós-graduação reconhecidos, com foco direto no tema, disponíveis na íntegra, em português, e com publicação nos últimos cinco anos. Excluíram-se textos duplicados, revisões narrativas genéricas ou que não guardavam correspondência direta com a questão de pesquisa (Dourado; Ribeiro, 2023).
As buscas foram realizadas entre os meses de junho e julho de 2025, utilizando-se as bases Google Scholar, Scientific Electronic Library Online (SciELO) e o Portal de Periódicos da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). Foram empregados descritores compatíveis com o tema da pesquisa, como “inteligência artificial”, “direito”, “ética algorítmica”, “decisão judicial automatizada” e “regulação tecnológica”. Para ampliar a precisão dos resultados, também foram utilizadas combinações booleanas entre os termos, conforme a estratégia PICO adaptada a estudos qualitativos. Ao final da triagem, obteve-se um conjunto consistente de publicações que sustentam a análise proposta, respeitando critérios metodológicos e técnicos (Dourado; Ribeiro, 2023).
4. ANÁLISE DOS RESULTADOS
A análise da produção acadêmica selecionada entre 2018 e 2025 permitiu identificar diferentes abordagens jurídicas sobre a inteligência artificial, com destaque para temas como decisões automatizadas, garantias fundamentais, princípios éticos e regulamentações emergentes. Ao sistematizar as principais obras utilizadas na revisão bibliográfica, observa-se uma convergência progressiva de autores no sentido de problematizar os limites do uso de algoritmos no sistema de justiça brasileiro. A tabela a seguir organiza os estudos examinados, indicando o ano, os objetivos centrais e os principais pontos debatidos em relação ao uso da IA no Direito.
Tabela 1 – Sistematização das obras analisadas na revisão bibliográfica sobre inteligência artificial no Direito (2018–2025)




A análise da produção científica jurídica brasileira entre 2018 e 2025 permite observar um crescimento expressivo no interesse pelo tema da inteligência artificial, especialmente após a consolidação de políticas públicas de transformação digital no Judiciário. As fontes selecionadas evidenciam um esforço inicial de compreensão das implicações técnicas da IA, ainda que sem uniformidade terminológica ou metodológica. Parte dos estudos analisados apresenta concepções generalistas, enquanto outros buscam especificar os limites da aplicação algorítmica em diferentes ramos do Direito (Chiarello; Garcia, 2021; Da Rosa, 2019).
Nos textos revisados, identificam-se três eixos predominantes de abordagem: o primeiro voltado aos impactos da IA na jurisdição; o segundo direcionado aos riscos éticos e às garantias processuais; e o terceiro dedicado à regulamentação e às estratégias institucionais de controle. Essa organização temática revela uma tentativa da comunidade jurídica de estruturar o debate em torno de problemas concretos, superando a fase de encantamento inicial com a tecnologia e caminhando para formas críticas e articuladas de reflexão (Norte Filho et al., 2025; Peixoto; Silva, 2019). No que diz respeito às abordagens aplicadas ao Judiciário, os autores demonstram preocupação com a introdução de ferramentas de triagem, predição e elaboração automatizada de documentos jurídicos. Embora se reconheça o ganho operacional envolvido, há críticas recorrentes à falta de transparência desses sistemas e à dificuldade de verificação do raciocínio empregado pelas máquinas. A exigência de fundamentação das decisões judiciais é frequentemente evocada como um princípio que pode ser comprometido diante da opacidade dos algoritmos (Roque; Santos, 2021; Freitas et al., 2024).
Observa-se ainda que o uso da inteligência artificial em contextos penais suscita maiores restrições e cuidado nos textos analisados. A literatura tende a destacar que, em procedimentos de privação de liberdade ou imputação de conduta criminosa, a presença de IA deve ser cercada de salvaguardas que garantam supervisão humana, respeito à não discriminação e possibilidade de revisão das decisões. O temor quanto à reprodução de padrões excludentes e ao fortalecimento de vieses sistêmicos marca boa parte dos argumentos presentes nessas publicações (Madeira; Terron, 2024; Pereira; Oliveira, 2024).
As análises voltadas aos princípios constitucionais e aos direitos fundamentais revelam um esforço contínuo de articulação entre fundamentos do Estado de Direito e inovação tecnológica. O princípio da dignidade da pessoa humana aparece como cláusula limite à adoção de sistemas que operem de forma indiferenciada sobre indivíduos. O controle social sobre as tecnologias aplicadas à justiça é defendido como condição indispensável para evitar que o poder decisório seja deslocado para estruturas opacas e dificilmente auditáveis (Siqueira; Lara, 2020; Potascheff; Gil, 2024).
Ao comparar diferentes propostas de regulamentação, nota-se que a maioria dos textos sugere uma combinação de normas gerais com regulamentos técnicos específicos. Há consenso de que o ordenamento jurídico deve avançar para além das cláusulas abertas, adotando critérios objetivos para o desenvolvimento, implantação e monitoramento da IA. Termos como explicabilidade, revisão humana e responsabilização recorrente aparecem em diversas publicações, reforçando a ideia de que a construção de salvaguardas jurídicas depende de uma abordagem multifacetada (Chiarello; Garcia, 2021; Pimentel; Orengo, 2021).
Outro ponto frequente é o reconhecimento da insuficiência das normas já existentes para lidar com os desafios impostos pela automação decisória. Ainda que muitos princípios jurídicos possam ser aplicados à realidade tecnológica, há lacunas na legislação ordinária que dificultam sua efetivação. Parte da literatura aponta que a ausência de leis específicas favorece a consolidação de práticas que, na ausência de fiscalização adequada, podem comprometer garantias individuais e o equilíbrio institucional (Norte Filho et al., 2025; Rocha; Waldman, 2020).
Em relação à responsabilização por danos causados por sistemas de IA, os textos divergem quanto à atribuição da culpa. Alguns autores defendem a responsabilização objetiva das instituições que utilizam esses sistemas, enquanto outros propõem modelos híbridos que envolvam o desenvolvedor, o gestor e o operador do algoritmo. O ponto comum é a dificuldade de rastrear o nexo causal em decisões automatizadas, o que exige o aprimoramento das estruturas jurídicas para garantir reparação efetiva e adequada (Roque; Santos, 2021; Da Rosa, 2019).
A análise das propostas de governança revela uma ênfase crescente na criação de estruturas autônomas e técnicas, voltadas ao controle preventivo da IA. O modelo defendido por boa parte dos autores consiste na instalação de comissões, agências ou núcleos de acompanhamento algorítmico, com participação interdisciplinar e poder regulador. Essa proposta busca superar a fragmentação institucional atual, oferecendo meios para a avaliação contínua dos impactos sociais e jurídicos das tecnologias aplicadas (Pimentel; Orengo, 2021; Peixoto; Silva, 2019).
Além dos aspectos jurídicos e técnicos, os textos analisados chamam atenção para o contexto político-institucional em que a inteligência artificial é implementada. A adoção de ferramentas automatizadas não ocorre em ambiente neutro, mas em sistemas judiciais marcados por desigualdades estruturais e sobrecarga processual. A literatura sugere que, sem uma abordagem crítica, a IA pode reforçar padrões de exclusão e priorizar interesses burocráticos em detrimento de garantias fundamentais. Essa constatação reforça a necessidade de políticas públicas comprometidas com justiça social, e não apenas com eficiência (Freitas et al., 2024; Siqueira; Lara, 2020).
Nos trabalhos voltados ao ensino jurídico, há preocupação com a formação técnica dos profissionais que atuarão nesse novo cenário. A maioria das publicações recomenda a inserção de conteúdos sobre tecnologia, ética digital e lógica algorítmica nos currículos de graduação. Essa proposta parte do entendimento de que a análise jurídica tradicional não é mais suficiente para lidar com fenômenos mediados por sistemas de decisão não humanos. Além disso, o domínio superficial sobre a IA pode resultar na aceitação acrítica de suas respostas, com impacto direto sobre o exercício do contraditório (Rocha; Waldman, 2020; Soares; Kauffman; Chao, 2020).
Outro ponto relevante é a presença crescente de práticas institucionais que já operam com inteligência artificial, especialmente no Poder Judiciário. Projetos como o “Victor” do Supremo Tribunal Federal e os assistentes digitais do Ministério Público são exemplos reais do uso de algoritmos na triagem de processos, formulação de peças e organização de precedentes. A literatura analisa essas experiências com ambivalência: reconhece a inovação, mas destaca a ausência de avaliação pública dos impactos produzidos, especialmente no que se refere à imparcialidade e à coerência das decisões (Chiarello; Garcia, 2021; Freitas et al., 2024).
A análise dos dados também revela uma preocupação recorrente com o conceito de explicabilidade, que aparece como um ponto de tensão entre a complexidade técnica dos algoritmos e a exigência jurídica de motivação. Em vários textos, questiona-se até que ponto é possível justificar uma decisão com base em modelos opacos, cuja lógica interna escapa à compreensão de operadores jurídicos e jurisdicionados. Esse impasse desafia diretamente o princípio da publicidade e a legitimidade das decisões judiciais apoiadas em mecanismos computacionais (Pereira; Oliveira, 2024; Roque; Santos, 2021).
A partir das propostas normativas reunidas, observa-se a tentativa de incorporar ao ordenamento jurídico instrumentos que garantam controle prévio e posterior da IA. Alguns autores defendem a elaboração de relatórios de impacto algorítmico, nos moldes dos pareceres ambientais, como condição para o uso institucional desses sistemas. Outros sugerem a criação de um cadastro nacional de algoritmos utilizados por órgãos públicos, permitindo que a sociedade civil tenha acesso às regras e parâmetros empregados nas decisões automatizadas (Norte Filho et al., 2025; Potascheff; Gil, 2024).
Com relação à eficácia das regulações internacionais, parte da literatura reconhece sua relevância como referência, mas aponta a necessidade de adaptação ao contexto jurídico brasileiro. Documentos como o da OCDE e diretrizes da União Europeia são frequentemente citados, mas sua transposição acrítica é questionada. Os autores defendem que qualquer regulação nacional deve partir da realidade do sistema judicial e das assimetrias que o atravessam, evitando importações legislativas que desconsiderem a estrutura e os valores locais (Chiarello; Garcia, 2021; Pimentel; Orengo, 2021).
A análise dos discursos presentes nos textos também revela um embate entre posturas tecnofílicas2 e visões mais prudenciais. Enquanto parte dos autores enxerga a IA como solução para gargalos operacionais e morosidade judicial, outra parcela alerta para os riscos de automação sem responsabilidade. Esse contraste evidencia a ausência de consenso na doutrina e reforça a ideia de que a inteligência artificial não é neutra, mas moldada por interesses, valores e decisões políticas, que precisam ser tematizados de forma explícita (Da Rosa, 2019; Freitas et al., 2024).
De maneira geral, a revisão indica que a produção acadêmica sobre IA no Direito brasileiro tem avançado em qualidade e diversificação. Contudo, ainda persiste a necessidade de maior articulação entre os estudos, com construção de referenciais teóricos comuns e aproximação entre as diferentes áreas jurídicas. A fragmentação entre Direito Penal, Processual, Constitucional e Administrativo, por exemplo, dificulta a consolidação de uma regulação coerente. Esse desafio é mencionado como um dos obstáculos para o amadurecimento do campo (Peixoto; Silva, 2019; Madeira; Terron, 2024).
Assim, os dados demonstram que a principal contribuição da literatura revisada está na capacidade de levantar perguntas relevantes sobre o futuro da justiça em tempos de automação. A ausência de respostas definitivas não compromete o valor dos textos analisados, que, ao problematizar os usos da IA, contribuem para a construção de um debate institucional mais qualificado. Nesse sentido, a pesquisa confirma que o enfrentamento das novas tecnologias no Direito exige não apenas inovação técnica, mas também compromisso ético e político com os fundamentos democráticos (Norte Filho et al., 2025; Roque; Santos, 2021).
5. CONSIDERAÇÕES FINAIS
A consolidação das informações extraídas na revisão evidenciou que o debate jurídico brasileiro sobre inteligência artificial vem se ampliando, ainda que com desigualdade na profundidade dos enfoques e ausência de articulação entre áreas do Direito. A presença de algoritmos no sistema de justiça já é constatável, mas a forma como esse fenômeno vem sendo discutido ainda carece de amadurecimento institucional e normativo. Os objetivos da pesquisa foram atendidos com a descrição das abordagens existentes, a enumeração das diretrizes propostas e a exemplificação dos impactos mais debatidos em relação ao uso da IA.
Foi possível verificar que os discursos jurídicos se distribuem entre uma postura aderente à tecnologia e uma perspectiva mais cautelosa, refletindo um embate sobre os caminhos a serem seguidos. Essa polarização repercute diretamente nas análises acadêmicas, revelando que a compreensão técnica e normativa da IA ainda está em processo de construção. A principal contribuição deste estudo está na organização crítica desses discursos, permitindo ao leitor identificar tendências, pontos de tensão e propostas que buscam compatibilizar inovação e responsabilidade.
Dentre os aspectos positivos da pesquisa, destaca-se a diversidade de fontes utilizadas e a delimitação temporal consistente, que viabilizou uma leitura integrada da produção recente. A observância de critérios metodológicos claros e a utilização de material rigorosamente identificado garantiram coesão à análise. Como limitação, nota-se a escassez de estudos com dados empíricos, o que dificultou aferir como os sistemas automatizados estão operando na prática cotidiana dos tribunais e órgãos jurídicos.
As obras analisadas demonstraram que os riscos associados à automação de decisões são amplamente reconhecidos, mas ainda pouco enfrentados do ponto de vista institucional. Falta transparência na divulgação dos parâmetros técnicos utilizados, bem como instâncias permanentes de fiscalização e controle externo. Também se observa uma distância entre o conhecimento técnico necessário e o domínio prático por parte dos operadores do Direito, o que tende a fragilizar a supervisão do uso dessas tecnologias por agentes públicos.
Como encaminhamentos futuros, recomendam-se pesquisas com foco na operação dos sistemas já implementados no Judiciário brasileiro, bem como estudos comparativos com países que regulamentaram de modo mais sistemático o uso de algoritmos em processos judiciais. Também seria oportuno investigar como os cursos jurídicos estão tratando a questão da inteligência artificial, tanto na formação teórica quanto na qualificação para o exercício profissional.
Este trabalho reafirma a necessidade de que qualquer proposta envolvendo inteligência artificial no Direito seja debatida com compromisso democrático, análise normativa consistente e atenção contínua às garantias constitucionais. A presença de algoritmos nas instituições jurídicas não pode prescindir de controle público, motivação acessível e responsabilidade institucional. Em vez de adaptar o sistema jurídico às ferramentas digitais, é preciso avaliar se essas ferramentas respeitam os fundamentos do próprio Direito.
2Tecnofilia corresponde a uma postura marcada por entusiasmo intenso diante das inovações tecnológicas, especialmente quando acompanhada por uma confiança acrítica em seus benefícios. O termo resulta da junção de “tecno”, referente à tecnologia, e “filia”, que expressa inclinação ou afinidade. No campo jurídico, essa orientação manifesta-se quando operadores e instituições adotam soluções automatizadas com otimismo desproporcional, desconsiderando possíveis implicações éticas, jurídicas ou sociais. Tal atitude pode dificultar o debate aprofundado sobre os riscos da inteligência artificial, particularmente em contextos que exigem imparcialidade, responsabilidade decisória e proteção de direitos fundamentais. Fonte: DEMO, Pedro. Tecnofilia” &” Tecnofobia. Boletim técnico do Senac, v. 35, n. 1, p. 4-17, 2009.
REFERÊNCIAS
CHIARELLO, Felipe; GARCIA, Lara Rocha. Desafios internacionais da aplicação da inteligência artificial no Direito. Justiça do Direito (UPF), v. 35, p. 15, 2021.
DA ROSA, Alexandre Morais. A questão digital: o impacto da inteligência artificial no Direito. Revista de Direito da Faculdade Guanambi, v. 6, n. 2, p. 1-18, 2019.
DOURADO, Simone; RIBEIRO, Ednaldo. Metodologia qualitativa e quantitativa. Editora chefe Profª Drª Antonella Carvalho de Oliveira Editora executiva Natalia Oliveira Assistente editorial, p. 12, 2023.
FELIPE, Bruno Farage da Costa; PERROTA, Raquel Pinto Coelho. Inteligência Artificial no Direito–uma realidade a ser desbravada. Revista de Direito, Governança e Novas Tecnologias, v. 4, n. 1, p. 1-16, 2018.
FREITAS, Áderson Nicolas Lima et al. Inteligência Artificial no direito: percepções e desafios éticos na microrregião tocantina. Caderno Pedagógico, v. 21, n. 12, p. e11235-e11235, 2024.
MADEIRA, Heloisa Bogaz; TERRON, Leticia Lourenço Sangaleto. Inteligência Artificial No Direito Penal. Revista Contemporânea, v. 4, n. 9, p. e5802-e5802, 2024. DOI: 10.56083/RCV4N9-130. Disponível em: https://ojs.revistacontemporanea.com/ojs/index.php/home/article/view/5802. Acesso em: 22 jul. 2025.
NORTE FILHO, A. F. do; et al.. Inteligência Artificial no direito: ética, limites e princípios. Contribuciones A Las Ciencias Sociales, [S. l.], v. 18, n. 4, p. e17417, 2025. DOI: 10.55905/revconv.18n.4-334. Disponível em: https://ojs.revistacontribuciones.com/ojs/index.php/clcs/article/view/17417. Acesso em: 23 jul. 2025.
PEIXOTO, Fabiano Hartmann; SILVA, Roberta Zumblick Martins da. Inteligência artificial e direito. Curitiba: Alteridade, v. 1, 2019.
PEREIRA, Sara Matias Ferrari; OLIVEIRA, Tarsis Barreto. O uso da inteligência artificial no direito penal e seus reflexos sobre os direitos fundamentais da não discriminação e da privacidade. Revista do Instituto de Direito Constitucional e Cidadania, v. 9, n. 1, p. e099-e099, 2024.
PIMENTEL, Alexandre Freire; ORENGO, Beatriz Souto. Perspectivas de aplicação da inteligência artificial no direito processual: análise sobre as diretrizes éticas e eficiência jurisdicional. Revista brasileira de sociologia do direito, v. 8, n. 3, p. 305-325, 2021.
POTASCHEFF, Eliana Sgarbi de Carvalho; GIL, Mauro Cesar Cantarino. A relevância da inteligência artificial no Direito Penal: O uso da Lógica Fuzzy no incremento do controle social formal na gestão pública dos resíduos industriais. Research, Society and Development, v. 13, n. 1, p. e5313144766-e5313144766, 2024.
ROCHA, Bruno Augusto Barros; WALDMAN, Ricardo Libel. Os reflexos da inteligência artificial no direito e os novos desafios da carreira jurídica. Revista do Direito do Trabalho e Meio Ambiente do Trabalho, v. 6, n. 1, p. 131-150, 2020.
ROQUE, Andre; DOS SANTOS, Lucas Braz Rodrigues. Inteligência artificial na tomada de decisões judiciais: três premissas básicas. Revista Eletrônica de Direito Processual, v. 22, n. 1, 2021.
SIQUEIRA, Dirceu Pereira; LARA, Fernanda Corrêa Pavesi. Quarta revolução industrial, inteligência artificial e a proteção do homem no direito brasileiro. Meritum, Revista de Direito da Universidade FUMEC, 2020.
SOARES, Marcelo Negri; KAUFFMAN, Marcos Eduardo; CHAO, Kuo-Ming. Inteligência artificial: impactos no direito e na advocacia. Direito Público, v. 17, n. 93, 2020.
1Acadêmico do curso de Direito da UNIFEBE. E-mail: fulanodetal@email.com.br
