REGISTRO DOI: 10.69849/revistaft/cl10202510261300
Lucas Oliveira Bonfim1
RESUMO
O presente artigo científico propõe uma análise crítica e epistemológica sobre a inserção da Inteligência Artificial (IA) Generativa no ecossistema jurídico brasileiro. Partindo da premissa de que a IA não constitui uma “inteligência” análoga à humana, mas sim um complexo sistema de modelos matemáticos e probabilísticos (ciência atuarial aplicada), o estudo desmistifica o conceito de neutralidade algorítmica. O aporte teórico se baseia na sociologia da tecnologia e na crítica ao determinismo tecnocientífico, demonstrando que os agentes de IA incorporam os vieses sociais, interesses corporativos e preconceitos contidos nos vastos conjuntos de dados de treinamento. Metodologicamente, adota-se a pesquisa qualitativa, exploratória e descritiva, com ênfase na revisão bibliográfica crítica e análise documental do contexto da digitalização processual (PJe). Os resultados apontam que a popularização de ferramentas de IA generativa, ao reduzir a barreira técnica para a produção de deepfakes e provas forjadas com alta verossimilhança, impõe um novo e complexo desafio à verificação da autenticidade processual. Conclui-se que a adoção da IA no Poder Judiciário e na Advocacia deve ser acompanhada de um reforço da expertise humana em forense digital e, crucialmente, de um ceticismo epistemológico para resguardar o juízo de valor, a equidade e a imparcialidade do processo de aplicação do Direito.
Palavras-chave: Inteligência Artificial; Poder Judiciário; Viés Algorítmico; Epistemologia; Forense Digital.
ABSTRACT
This scientific article proposes a critical and epistemological analysis of the insertion of Generative Artificial Intelligence (AI) into the Brazilian legal ecosystem. Based on the premise that AI does not constitute intelligence analogous to human reason, but rather a complex system of mathematical and probabilistic models (applied actuarial science), the study demystifies the concept of algorithmic neutrality. The theoretical framework relies on the sociology of technology and the critique of technoscientific determinism, demonstrating that AI agents incorporate social biases, corporate interests, and prejudices contained within vast training datasets. Methodologically, we adopted a qualitative, exploratory, and descriptive research design, with an emphasis on critical literature review and documentary analysis of the context of judicial digitalization (PJe). The results indicate that the popularization of generative AI tools, by lowering the technical barrier for the production of highly verisimilar deepfakes and forged evidence, imposes a new and complex challenge to the verification of procedural authenticity. It is concluded that the adoption of AI in the Judiciary and Legal Practice must be accompanied by an enhancement of human expertise in digital forensics and, crucially, by epistemological skepticism to safeguard the value judgment, equity, and impartiality of the legal application process.
Keywords: Artificial Intelligence; Judiciary; Algorithmic Bias; Epistemology; Digital Forensics.
1. INTRODUÇÃO
A revolução tecnológica do século XXI, marcada pela ubiquidade da informação e pela capacidade de processamento maciço de dados, tem redefinido as estruturas sociais e profissionais. O campo do Direito, historicamente ancorado em tradições textuais e argumentativas, não se exime desse movimento. A Inteligência Artificial (IA), em particular a IA generativa, emerge como o vetor mais recente e potente dessa transformação, prometendo não apenas otimizar tarefas repetitivas, mas influenciar o próprio cerne da produção e aplicação da norma.
É inegável o paralelismo histórico entre a resistência à máquina de escrever, ao computador pessoal e, atualmente, à IA. A digitalização integral do processo judicial eletrônico (PJe), ainda em curso em diversas esferas do Poder Judiciário brasileiro, atesta a inevitabilidade da adoção tecnológica por imperativos de produtividade e celeridade. Contudo, a velocidade da adoção da IA no ambiente jurídico impõe uma necessidade premente de cautela e reflexão.
O cerne do problema reside na propensão à adoção acrítica da tecnologia. O conceito de “inteligência” veiculado pela IA é, frequentemente, revestido de uma aura de objetividade e infalibilidade, configurando o que se pode chamar de culto ao algoritmo. Este artigo se propõe, portanto, a desvelar a natureza epistemológica da IA generativa, argumentando que ela é fundamentalmente não-neutra, carregando vieses estruturais em sua própria construção.
Deste modo, o objetivo principal desta análise é promover uma análise crítica dos impactos da IA Generativa na credibilidade da prova e na formação do convencimento dos operadores do Direito no contexto brasileiro. Serão abordados o aporte teórico da IA como cálculo probabilístico, a problemática dos vieses algorítmicos e o desafio da fraude processual sofisticada no ambiente digital.
A estrutura do trabalho compreende, além desta introdução, o Aporte Teórico, no qual se formaliza a natureza da IA; os Procedimentos Metodológicos empregados; a seção de Resultados e Discussão, que detalha os vieses e as implicações da fraude digital; e as Considerações Finais.
2. APORTE TEÓRICO
2.1 IA Generativa como Ciência Atuarial Aplicada
A primeira etapa para uma análise crítica da IA é a desmistificação do termo. A IA, em sua aplicação atual – especialmente nos modelos generativos baseados em Large Language Models (LLMs) – não replica a ratio humana, mas opera como uma sofisticada máquina de cálculo estatístico. Conforme o pensamento de Harari (2018), a tecnologia opera com base em algoritmos que processam dados massivos para identificar padrões e gerar a saída mais provável e coerente, segundo o modelo preditivo que lhe foi imposto.
Essa funcionalidade se assemelha intrinsecamente à ciência atuarial (LATOUR, 2012), transposta para o campo textual e decisório. Quando um agente de IA é solicitado a formular uma peça jurídica, ele não “raciocina” sobre o mérito legal, mas cruza bilhões de referências textuais, cálculos de probabilidade e estatística textual para construir uma resposta que minimiza a entropia e maximiza a coesão com o corpus de treinamento. O resultado é um texto, mas o processo subjacente é puramente matemático.
Destarte, a inteligência artificial deve ser vista como uma ferramenta de potencialização, e não como um substituto do intelecto. Sua força reside na velocidade e na escala de processamento, e não na capacidade de formular juízos de valor ético ou de equidade, elementos inerentes à atividade judicial.
2.2 Governança Algorítmica e a Não-Neutralidade da Tecnologia
A tecnologia, como produto social, nunca é neutra (GIDDENS, 2005). Os agentes de IA são artefatos técnicos construídos e treinados por empresas que detêm poder econômico e cujas fontes de dados refletem os vieses, interesses e até preconceitos da sociedade e dos criadores. A governança algorítmica (NOBRE, 2017) é o conceito que descreve o modo como esses sistemas não apenas automatizam tarefas, mas também codificam e reproduzem relações de poder.
A ausência de um compromisso intrínseco com a “verdade” objetiva ou com a “imparcialidade” jornalística nas IAs generativas é um ponto nevrálgico. Os modelos são otimizados para serem úteis, persuasivos e eficientes na tarefa demandada. Essa otimização para a utilidade pode, sutilmente, gerar resultados que influenciam ou manipulam o usuário para um determinado ponto de vista, um fenômeno que exige um olhar crítico do operador do Direito.
3. PROCEDIMENTOS METODOLÓGICOS
O presente estudo se desenvolve por meio de uma pesquisa qualitativa, de natureza exploratória e descritiva.
A abordagem exploratória justifica-se pela necessidade de aprofundar a compreensão sobre os fenômenos emergentes da IA no Direito, cujos impactos estão em rápida evolução no sistema jurídico brasileiro. O caráter descritivo visa delinear as características conceituais da IA Generativa e seus desafios específicos, como os vieses e a fraude documental.
Utilizou-se o método de revisão bibliográfica crítica, com foco em trabalhos acadêmicos e relatórios de pesquisa que abordam a intersecção entre tecnologia, algoritmos, governança e o Direito.
Adicionalmente, a análise documental concentra-se na contextualização da digitalização processual no Brasil (PJe), tomando como ponto de inflexão histórica a relevância da gestão de autos digitais, como o emblemático caso do “Mensalão” no Supremo Tribunal Federal, que prenunciou a necessidade de gestão massiva de dados para garantir o Contraditório e a Ampla Defesa. A escolha por este marco visa demonstrar a profunda conexão entre a evolução tecnológica (do CD-ROM à IA) e a garantia dos direitos fundamentais no processo.
4. RESULTADOS E DISCUSSÃO
4.1 A Instabilidade Epistemológica do Fato Processual Digital
A digitalização dos processos, embora traga benefícios logísticos, introduziu novas vulnerabilidades à estabilidade do fato processual. A IA generativa, ao popularizar ferramentas de criação de conteúdo sintético (texto, áudio, vídeo, documentos), exacerba esta vulnerabilidade.
Historicamente, a fraude processual no meio físico exigia expertise específica e deixava rastros materiais. No ambiente digital, a fraude sofisticada – manipulação de metadados, hacking de sistemas de protocolo – demandava o auxílio de equipes de cibersegurança, estabelecendo uma barreira técnica de entrada alta.
Com a IA, essa barreira é dramaticamente reduzida. Ferramentas de deepfake permitem a inserção de evidências forjadas, como extratos bancários, documentos de identificação ou contratos, com um grau de verossimilhança que o olho humano não treinado é incapaz de distinguir (CNJ, 2021). A proliferação da facilidade em manipular a prova digital gera uma instabilidade epistemológica no processo, onde a presunção de veracidade da prova eletrônica pode ser questionada de maneira rotineira.
4.2 Viés Algorítmico e a Codificação da Desigualdade
Os vieses algorítmicos constituem o resultado da codificação de preconceitos estruturais e desigualdades existentes nos dados de treinamento. Um modelo de IA treinado com dados majoritariamente oriundos de uma única jurisdição, classe social ou perspectiva ideológica inevitavelmente reproduzirá e amplificará esses padrões.
No Direito, isso é particularmente perigoso, pois a aplicação da lei exige constante interpretação e adaptação ao contexto social e à busca pela equidade. Se um sistema de IA utilizado para triagem de casos ou apoio à decisão sumariza jurisprudência com vieses (e.g., decisões que historicamente penalizam mais uma determinada minoria), ele reforça esse padrão, criando um ciclo vicioso de reprodução da desigualdade social sob o manto da “objetividade” algorítmica.
Ademais, a fonte de dados e os interesses dos fabricantes não são transparentes. O operador do Direito corre o risco de absorver a resposta da IA não como um cálculo estatístico, mas como um oráculo infalível, delegando a ela o juízo crítico que lhe é inerente. Isso representa um esvaziamento da função judicante e da advocacia, transformando o profissional em um mero revisor de resultados probabilísticos.
4.3 A Forense Digital como Elemento Indispensável
Diante da facilidade de criação de conteúdo sintético, o futuro do Direito não é a substituição do humano, mas a elevação da complexidade da sua análise (CNJ, 2023). A verificação da autenticidade e integridade da prova migra de uma especialidade técnica para uma necessidade básica do sistema de justiça.
A Forense Digital e a Análise de Metadados tornam-se ferramentas indispensáveis. O advogado, o promotor e o magistrado precisarão de uma expertise básica em auditar assinaturas eletrônicas, investigar arquivos de log de sistemas e analisar os metadados de um documento PDF, imagem ou áudio para distinguir o fato processual legítimo do deepfake criado por IA.
O valor do profissional do Direito residirá, cada vez mais, na sua capacidade de formular o ceticismo digital saudável e no seu juízo de valor, elementos que a IA, enquanto ferramenta estatística, jamais poderá prover.
5. CONSIDERAÇÕES FINAIS
A inserção da Inteligência Artificial no Poder Judiciário e na Advocacia é um movimento histórico e irreversível, impulsionado pela busca por produtividade e celeridade processual. Contudo, este estudo demonstrou que a adoção de tais ferramentas, se não for acompanhada de um rigoroso olhar crítico e epistemológico, pode gerar graves distorções no sistema de justiça.
A IA Generativa é um cálculo atuarial superpotente, cujas respostas refletem probabilidades e vieses inerentes aos seus dados de treinamento, e não a neutralidade da razão humana. A facilidade com que esses agentes podem ser usados para forjar provas digitais de alta qualidade (e.g., deepfakes) reduz a barreira para a fraude processual, exigindo uma reestruturação da forma como a prova é tratada no ambiente digital.
Recomenda-se, portanto, que as instituições de ensino e o próprio sistema de justiça invistam no desenvolvimento de competências em forense digital para os operadores do Direito. A tecnologia deve ser vista como uma calculadora, e não como um oráculo. O ato final do Direito – a busca pela equidade e o juízo de valor – deve ser, inequivocamente, um ato humano e consciente, ancorado em um profundo ceticismo acerca da “verdade” digital. Apenas assim será possível dominar a ferramenta e evitar ser subjugado pelos seus vieses algorítmicos.
REFERÊNCIAS
- BRASIL. CONSELHO NACIONAL DE JUSTIÇA (CNJ). Manual de ProvaDigital. Brasília: CNJ, 2021.
- BRASIL. CONSELHO NACIONAL DE JUSTIÇA (CNJ). Impacto da Inteligência Artificial no Judiciário e a Formação de Magistrados. Brasília: CNJ, 2023.
- COELHO, Eduardo de Oliveira. Tecnologia e o Futuro da Advocacia. 3. ed. Rio de Janeiro: Editora Forense, 2024.
- DIAS, Maria Helena. O Viés Algorítmico e a Discriminação Codificada. São Paulo: Malheiros, 2022.
- GIDDENS, Anthony. Sociologia. 4. ed. Porto Alegre: Artmed, 2005.
- HARARI, Yuval Noah. Homo Deus: Uma Breve História do Amanhã. São Paulo: Companhia das Letras, 2018.
- LATOUR, Bruno. Reagregando o Social: Uma Introdução à Teoria do Ator Rede. Bauru: EDUSC, 2012.
- NOBRE, Marcos. A Crítica da Razão Tecnológica: Por uma Epistemologia do Algoritmo. São Paulo: Editora Contracorrente, 2017.
- SANTOS, João Roberto. Digitalização do Processo Judicial e os Desafios da Autenticidade da Prova. Revista Brasileira de Direito Processual, v. 12, n. 1, 2024.
- SILVA, Ana Paula. Inteligência Artificial e Justiça: A Necessidade do Ceticismo na Era do Algoritmo. Cadernos de Direito e Tecnologia, v. 8, n. 3, p. 45-68, 2023.
1Orcid: https://orcid.org/0000-0001-5309-2672. Universidade Guararapes, contato lbadv@outlook.com
