DESAFIOS DO SÉCULO XXI NOS TRIBUNAIS BRASILEIROS: COMO A INTELIGÊNCIA ARTIFICIAL ESTÁ MOLDANDO E PROTEGENDO A AUTENTICIDADE DAS EVIDÊNCIAS JURÍDICAS

REGISTRO DOI: 10.69849/revistaft/ch10202510241401


  FONSECA, Isadora Marinho


Resumo

O presente estudo científico objetiva analisar o potencial da Inteligência Artificial (IA) como ferramenta estratégica para aprimorar a análise e a proteção da prova no âmbito jurídico, visando à promoção da integridade e confiabilidade das evidências submetidas aos processos judiciais. A pesquisa busca identificar soluções tecnológicas inovadoras, aplicáveis ao sistema de justiça, em face do crescente aumento de ameaças digitais, tais como deepfakes, falsificações e manipulação de dados. Nesse contexto, aborda-se, de forma detalhada, metodologias como o uso de blockchain e autenticação forense, demonstrando a contribuição dessas ferramentas para a segurança jurídica. O trabalho enfatiza, ademais, os desafios regulatórios e práticos inerentes à implementação da IA no sistema de justiça brasileiro, ressaltando a importância de uma abordagem interdisciplinar e da capacitação dos profissionais do Direito para lidar com as inovações tecnológicas.

Palavras-chave: Inteligência Artificial; Provas Digitais; Direito no Brasil; Segurança Jurídica; Blockchain; Autenticação Forense;

Abstract

This objective scientific study analyzes the potential of Artificial Intelligence (AI) as a strategic tool to improve the analysis and protection of evidence in the legal sphere, aiming to promote the integrity and reliability of evidence submitted to legal proceedings. The research seeks to identify innovative technological solutions, applicable to the justice system, in the face of the growing increase in digital threats, such as deepfakes, forgeries and data manipulation. In this context, methodologies such as the use of blockchain and forensic authentication are discussed in detail, demonstrating the contribution of these tools to legal security. The work also emphasizes the regulatory and practical challenges inherent to the implementation of AI in the Brazilian justice system, highlighting the importance of an interdisciplinary approach and the training of legal professionals to deal with technological innovations.

Keywords: Artificial intelligence; digital evidence; law in Brazil; legal security; blockchain; forensic authentication; Brazil.

1. INTRODUÇÃO

O presente estudo se propõe a analisar a função da Inteligência Artificial (IA) no judiciário,͏ com ͏especial atenção à sua capacidade de mudar as formas d͏e lidar com as ͏provas ͏e ͏garantir a confiabilidade das evidências apresentadas em juízo. A escolha do tema se justifica pela relevância crescente das tecnologias digitais no mundo atual e pelo efeito que inovações como deepfakes, falsificações digitais e manipulação de dados exercem sobre a proteção dos direitos fundamentais e o funcionamento do sistema judiciário.

O objetivo deste trabalho é entender como a IA pode ser utilizada para melhorar a análise e preservação de provas, identificar os desafios e riscos ligados a essas tecnologias e debater soluções que garantam a confiabilidade das evidências em processos judiciais. Para isso, o estudo emprega uma abordagem interdisciplinar, combinando conhecimentos de Direito Digital, Direito Processual e Ciência da Computação, além de utilizar métodos de análise de casos reais, revisão bibliográfica e avaliação de novas tecnologias, como blockchain e ferramentas de autenticação forense.

Assim, a pesquisa fornece uma visão completa do papel da IA no Poder Judiciário brasileiro, enfatizando tanto seu potencial inovador quanto os efeitos sociais e jurídicos resultantes de sua implementação, destacando a importância da capacitação dos profissionais do direito para essas mudanças.

2. A INTELIGÊNCIA ARTIFICIAL E A PRODUÇÃO DE PROVAS JUDICIAIS

2.1. CONCEITO DE PROVAS DIGITAIS E SUA ADMISSIBILIDADE

Para Silva (2020), a evolução das provas reflete uma transição significativa da materialidade física para a digitalização. Historicamente, as provas eram predominantemente tangíveis, como documentos em papel, objetos físicos e testemunhos. Com o surgimento da tecnologia, especialmente a digitalização, as provas passaram a incluir uma grande diversidade de informações eletrônicas, que podem ser armazenadas e transmitidas de maneira mais eficiente. Essa mudança não apenas facilitou o acesso à informação, mas também trouxe novos desafios em termos de autenticidade e integridade de provas.

É evidente o quanto a tecnologia tem avançado, beneficiado a sociedade moderna. Ela reduz distâncias, simplifica a comunicação, melhora protocolos e economiza tempo, tornando-se uma ferramenta essencial para qualquer pessoa integrada socialmente. Assim, seus efeitos no campo do direito penal são bastante conhecidos, tanto positivos quanto negativos (Cintra, 2009). 

A inteligência artificial pode ser empregada na análise de grandes volumes de dados, na identificação de padrões e até na previsão de comportamentos, o que a torna extremamente valiosa para as evidências. Contudo, sua utilização gera dúvidas éticas e jurídicas, principalmente no que se refere à clareza dos algoritmos e à possibilidade de aversão nas decisões automatizadas (Martins, 2022).

Os documentos digitais podem ser divididos em várias categorias, cada uma apresentando suas particularidades e consequências jurídicas. Documentos eletrônicos, por exemplo, são arquivos digitais que podem ser usados como prova em processos judiciais. 

Os metadados, definidos como dados sobre dados, oferecem informações contextuais essenciais para validar a autenticidade de um documento eletrônico. Por outro lado, os logs, que documentam atividades em sistemas digitais, podem ajudar na reconstrução de eventos e na criação de cronologias (Almeida, 2021).

A tecnologia blockchain, que proporciona um método seguro e imutável para o armazenamento de dados, é outra forma de registro que vem ganhando destaque. O uso do blockchain como prova digital pode reforçar a confiança na integridade dos dados, pois qualquer modificação nos registros é facilmente identificável.

No entanto, a aceitação legal dessas novas formas de prova ainda está em desenvolvimento, o que exige que os profissionais do direito se mantenham continuamente atualizados sobre as inovações tecnológicas.

2.2. RISCOS DAS PROVAS MANIPULADAS POR IA

A utilização da IA está se expandindo para várias áreas do conhecimento humano e das relações profissionais, tornando sua presença uma realidade inevitável. Sem esquecer dos benefícios que essa tecnologia traz para a sociedade, principalmente no setor jurídico, onde a inteligência artificial tem contribuído para a avaliação de elevado volume de processos, no reconhecimento de precedentes legais e na validação de documentos e evidências digitais, é importante reconhecer que seu uso indevido pode prejudicar instituições e ameaçar direitos. 

Uma das possíveis consequências negativas é a utilização de ferramentas para criar evidências e provas falsas, conhecido pelo termo em inglês “Deepfakes”.

Para Nakanishi (2023, p.3) Deepfakes são: […] vídeos, áudios e imagens criadas por meio da Inteligência Artificial-IA e que parecem extremamente reais, mas não passam de materiais fabricados de forma fraudulenta, gerando uma confusão e uma insegurança ao tentar diferir o que foi manipulado e a realidade […].

Vale destacar que já existem precedentes na jurisprudência, ou seja, casos reais envolvendo à manipulação de evidências, o que possibilita a análise dos critérios empregados pelos tribunais. O Superior Tribunal de Justiça, por exemplo, apresenta a ideia de que existem requisitos para a confiabilidade dessas provas digitais:

Assim, pode-se dizer que a auditabilidade, a repetibilidade, a reprodutibilidade e a justificabilidade são quatro aspectos essenciais das evidências digitais, as quais buscam ser garantidas pela utilização da metodologia da ABNT. A ausência de quaisquer deles redunda em um elemento epistemologicamente frágil e deficiente, e, portanto, de valor probatório reduzido ou nulo.” (BRASIL. Superior Tribunal de Justiça. AgRg no Habeas Corpus n. 828054 – RN. Relator: Ministro Joel Ilan Paciornik. Quinta Turma. Diário da Justiça Eletrônico, 2 maio 2024).

A alteração dessas evidências pode levar a erros judiciais, afetando a confiabilidade das evidências e comprometendo o devido processo legal. É fundamental entender que esses riscos não estão restritos à tecnologia em si, mas à fragilidade do sistema jurídico frente a fraudes digitais complexas.

2.3. ATUAÇÃO DOS TRIBUNAIS NA VALIDAÇÃO DAS PROVAS DIGITAIS

Na análise e proteção da autenticidade de provas digitais, os tribunais brasileiros têm adotado critérios cada vez mais rigorosos. Uma progressão significativa no marco regulatório é representada por diretrizes como a Resolução CNJ n.º 615/2025, estabelecida pelo Conselho Nacional de Justiça. Ela determina que os sistemas de inteligência artificial empregados no Poder Judiciário devem garantir aspectos fundamentais como transparência, auditabilidade e supervisão humana sobre as decisões realizadas, evitando, dessa forma, que os algoritmos substituam o raciocínio jurídico.

De acordo com o artigo 9º, §3º da resolução do CNJ n.º 615/2025:

Art. 9º Os tribunais deverão realizar a avaliação das soluções que utilizem técnicas de inteligência artificial, com a finalidade de definir o seu grau de risco, baseando-se na categorização e nos critérios previstos neste Capítulo e no Anexo de Classificação de Riscos, com base em fatores como o potencial impacto nos direitos fundamentais, a complexidade do modelo, a sustentabilidade financeira, os usos pretendidos e potenciais e a quantidade de dados sensíveis utilizados.

§ 3º O Comitê Nacional de Inteligência Artificial do Judiciário poderá, de ofício ou mediante provocação fundamentada, determinar a reclassificação do grau de risco de determinada solução, bem como determinar, de forma justificada, a realização de avaliação de impacto algorítmico, quando tal medida se demonstrar proporcional, respeitada tanto quanto possível a autonomia dos tribunais.

Paralelamente, o Projeto de Lei nº 2338/2023, que visa regulamentar o uso da IA no Brasil, incorpora dispositivos voltados para transparência e segurança, afetando diretamente a validação das provas digitais em processos judiciais, contribuindo para o fortalecimento da governança e da supervisão das tecnologias utilizadas. Entre seus dispositivos, destaca-se o artigo 3º, inciso VI, que estabelece:

Art. 3º O desenvolvimento, a implementação e o uso de sistemas de inteligência artificial observarão a boa-fé e os seguintes princípios: 
VI – transparência, explicabilidade, inteligibilidade e auditabilidade; 

 Embora essas normas e decisões representem avanços importantes, é preciso levar em conta como a aplicação prática afeta operadores do Direito e cidadãos. Por exemplo, a complexidade técnica necessária para validar evidências digitais pode criar desequilíbrios entre as partes que possuem diferentes recursos tecnológicos, afetando a validade do princípio do devido processo legal. Essa desigualdade é intensificada pelo fato de que milhões de brasileiros ainda não possuem acesso adequado a internet. De acordo com dados do IBGE, mais de 20 (vinte) milhões de pessoas permanecem desconectadas (CNN BRASIL, 2024). Isso limita o exercício pleno de seus direitos em um sistema judicial cada vez mais digital. Fábio Senne (2020) destaca que a exclusão digital no Brasil vai além da falta de conexão, inclui também as dificuldades de uso e apropriação das tecnologias, o que perpetua as desigualdades no acesso à informação e a justiça.

2.4. O QUE SÃO DEEPFAKES 

Deepfakes são conteúdos digitais manipulados por IA, capazes de imitar rostos, vozes e comportamentos humanos de forma realista. Para Maras e Alexandrou (2019) o termo é uma combinação de “deep learning” e “fake”, referindo-se especificamente à aplicação de técnicas de aprendizado profundo para criar conteúdos falsificados. 

O principal desafio está em sua complexidade: à medida que mais dados de alta qualidade são incorporados aos modelos de IA, mais convincente se torna o conteúdo produzido.

As deepfakes, embora tenham sido inicialmente usadas em contextos de entretenimento, logo começaram a ser empregadas em áreas de alto risco, incluindo manipulação política, chantagem, desinformação e até mesmo na fabricação de provas judiciais falsas (Westerlund, 2019). Um exemplo recente no Brasil envolve uma organização criminosa que usava deepfakes da modelo Gisele Bundchen para divulgar produtos falsificados em vídeos, levando as vítimas a pagarem taxas de frete por itens que não existiam. A operação chamada  “Modo Selva”, iniciada pela Polícia Civil do Rio Grande do Sul, levou a detenção de quatro indivíduos e ao congelamento de ativos, que podem totalizar até R$210 milhões (CNN Brasil, 2024).

O crescimento das deepfakes pode ser atribuído a vários softwares disponíveis gratuitamente para qualquer usuário com acesso à internet. Como resultado, qualquer pessoa pode criar áudios, vídeos e imagens falsas, tornando a regulamentação e o controle cada vez mais desafiadores.

2.4.1. DEEPFAKES E O DESAFIO DA MANIPULAÇÃO AVANÇADA

Como já foi demonstrado, a manipulação de deepfakes em vídeos, áudios e imagens representa riscos para a validade processual das evidências judiciais. Esse aumento tem gerado novos desafios para a Justiça e para a proteção da imagem pessoal. Um exemplo notável foi o da atriz Giovanna Antonelli, que ingressou com um processo pelo uso não autorizado de sua imagem em deepfakes para fins publicitários (O Antagonista, 2024).

Para reduzir esses riscos, é necessário investigar a disponibilidade de métodos de gestão e ferramentas essenciais para a verificação de dados manipulados, gerados e inseridos em processos judiciais eletrônicos.

O uso de deepfakes não se limita apenas a processos judiciais, há uma preocupação global devido ao seu potencial de afetar a imagem e a privacidade de qualquer pessoa com acesso à internet. Por essa razão, empresas de internet, como redes sociais, procuram combater o aumento de conteúdo falso (fake news), que é altamente realista e pode enganar o público em geral.

Se o controle dessas informações por entidades governamentais já apresenta perigos, a ausência de controle sobre o conteúdo dessas informações também pode acarretar sérios riscos para a sociedade. Notadamente quando o Estado os emprega em suas políticas públicas.

Dito isso, o combate às deepfakes nos processos judiciais não deve ser feito apenas por meio de leis e regulamentações, mas também por meio de políticas de cooperação, capacitação e desenvolvimento de tecnologias para a detecção desses conteúdos falsos.

3. A INTELIGÊNCIA ARTIFICIAL NO PODER JUDICIÁRIO BRASILEIRO

3.1.  FERRAMENTAS TECNOLÓGICAS APLICADAS AO JUDICIÁRIO

A inclusão da IA no Poder Judiciário brasileiro tem registrado avanços notáveis nos últimos anos, redefinindo práticas como a análise de processos, elaboração de sentenças e gestão do fluxo processual. 

O Conselho Nacional de Justiça (CNJ) tem estimulado a adoção de ferramentas baseadas em IA para otimizar diversas etapas do trabalho judiciário, priorizando eficiência, transparência e segurança.

 Entre suas aplicações destacam-se a análise e triagem de processos, onde algoritmos identificam demandas por natureza, priorizando temas urgentes e detectando temas repetitivos. A utilização dessas ferramentas possibilita a redução do tempo de tramitação, acelera as decisões e assegura uma maior uniformidade na aplicação do direito. 

Em diversos contextos, já é possível notar a aplicação prática desses progressos. Conforme uma reportagem publicada no portal Estratégia (CJ Estratégia, 2024), juízes têm recorrido a soluções fundamentadas em tecnologias como o Chat GPT para acelerar a redação de sentenças, revisão de documentos e análise de recursos em varas com elevado volume de processos.

 Paralelamente, o Instituto Nacional do Seguro Social (INSS) adotou uma abordagem inovadora ao introduzir robôs equipados com inteligência artificial, capazes de processar aproximadamente 40% dos pedidos de aposentadoria. Essa medida resultou em uma redução significativa nos prazos de espera e aliviou o acúmulo de processos administrativos (UOL Tilt, 2023). 

O projeto Victor, usado pelo Supremo Tribunal Federal, é outro destaque.  Ele se concentra na análise da admissibilidade de recursos, por meio de uma sinalização que é capaz de identificar temas repetitivos (SUPREMO TRIBUNAL FEDERAL, 2021).

Nesse sentido, o propósito da inteligência artificial no Poder Judiciário brasileiro demonstra progressos consideráveis na melhoria da gestão processual e na estruturação do trabalho jurisdicional. As implementações de IAs em andamento demonstram que a tecnologia pode contribuir para aumentar a eficácia e reduzir a sobrecarga dos tribunais, sem, no entanto, eliminar a necessidade de monitorar continuamente seus impactos.

3.2.  BLOCKCHAIN, IA FORENSE E METADADOS

A tecnologia blockchain é vista como uma alternativa inovadora para proteger e compartilhar evidências forenses no ambiente digital, segundo a IEEE Public Safety Technology (2025). Sua utilização se sobressai ao garantir a imutabilidade e autenticidade de documentos eletrônicos, pois possibilita o armazenamento de informações de forma descentralizada e criptografada. Esse modelo assegura um registro público, íntegro e inviolável, aumentando a confiabilidade das evidências empregadas em processos judiciais.

A inteligência artificial forense, utilizada na análise de elementos digitais como áudios, vídeos e imagens, é outro recurso que vem ganhando cada vez mais importância. A IA forense contribui para a autenticação de evidências ao reconhecer padrões e identificar possíveis adulterações, tornando o trabalho pericial mais eficiente e preciso.

O uso de metadados também é essencial. Esses dados são incorporados a arquivos digitais e incluem informações como data de criação, autoria, localização e histórico de alterações. A análise técnica desses elementos possibilita a confirmação ou refutação de alegações de falsificação, sendo uma prática comum em perícias criminais e cíveis.

Apesar do potencial, o uso dessas ferramentas ainda encontra desafios, como a exigência de regulamentação específica, padronização de métodos periciais e garantia da proteção de dados pessoais, a fim de garantir sua total legitimidade como meios de prova no processo judicial.

3.3. PANORAMA E IMPACTOS DA REVOLUÇÃO 4.0 NO JUDICIÁRIO

Fernanda Bragança e Laurinda Fátima da FPG Bragança ressaltam que a implementação da inteligência artificial no Judiciário brasileiro é parte da “Revolução 4.0”, que está revolucionando os tribunais por meio do uso de tecnologias para aprimorar a análise e a tomada de decisões em processos. 

Fábio Formiga do Amaral (2024) enfatiza que a tecnologia, incluindo a inteligência artificial, deve ser vista como uma ferramenta para garantir a celeridade, transparência e acesso à Justiça, mas com a necessária atenção para proteger os direitos fundamentais e os princípios processuais:

A implementação da Justiça Digital requer atenção à ética, à segurança da informação e à capacitação dos operadores do Direito, para que a tecnologia não se torne um instrumento de exclusão ou injustiça.

Embora tenha havido progressos, existem riscos ligados ao funcionamento dos algoritmos, pois os dados que alimentam os sistemas se espelham em decisões humanas, o que pode levar à reprodução de padrões discriminatórios. Bragança e Bragança (2019, p. 69) alertam que:

A máquina não é inteiramente isenta, uma vez que depende de uma atividade humana preliminar de seleção de informações; o que gera uma preocupação quanto a esses desvios cognitivos.

Portanto, a implementação da Revolução 4.0 demonstra não apenas os progressos tecnológicos, mas também os obstáculos na incorporação da IA aos procedimentos judiciais, enfatizando a importância de uma regulamentação apropriada e de uma supervisão contínua.

3.4. PROJETOS DE IA E SISTEMA DE APOIO À DECISÃO

Várias iniciativas de IA já estão em funcionamento nos tribunais brasileiros, com foco principalmente na pesquisa de jurisprudência, identificação de padrões e previsão de resultados. Apesar de representarem avanços significativos, essas ferramentas ainda precisam de diretrizes técnicas padronizadas e devem ser vistas como instrumentos de suporte à atividade jurisdicional, sem substituir a fundamentação das decisões.

De acordo com Janine Vilas Boas Gonçalves Ramos (2022, p. 120), Analista Judiciária do STJ e mestra em Direito, Regulação e Políticas Públicas pela UnB, essas iniciativas em curso nos tribunais brasileiros evidenciam a capacidade da IA em apoiar o processo decisório, auxiliando na identificação de precedentes significativos, na análise de padrões e na previsão de resultados potenciais. No entanto, a pesquisadora enfatiza que a aplicação da tecnologia no Judiciário requer um equilíbrio entre inovação, direito e ética, além da demanda por uma regulamentação específica para garantir transparência e  responsabilidade.

Dentre as experiências mais recentes, ressalta-se a apresentação do motor de inteligência artificial generativa STJ Logos, criado internamente pelo Superior Tribunal de Justiça (STJ). Seu principal objetivo é aumentar a eficiência ao otimizar tarefas repetitivas e ajudar a reduzir o acervo processual. Segundo o presidente da Corte, ministro Herman Benjamin, os benefícios práticos envolvem aumento da produtividade e otimização da tramitação processual.

Segundo o ministro, era imprescindível contar com uma ferramenta que não só processasse informações, mas também interpretasse contextos jurídicos complexos, produzisse conteúdos originais, resumisse dados de maneira precisa e oferecesse suporte à análise processual com maior profundidade. 

Benjamin ressalta que, apesar de sua sofisticação, o STJ Logos possui um caráter apenas auxiliar, contribuindo na identificação de informações relevantes e fornecendo insumos para a análise das controvérsias. A autonomia dos julgadores é preservada, e eles continuam sendo responsáveis pela elaboração e fundamentação das decisões (Supremo Tribunal de Justiça, 2025).

Em síntese, a implementação de ferramentas de inteligência artificial no Judiciário demonstra progressos significativos em eficiência e suporte ao processo decisório. No entanto, destaca a importância de regulamentação, transparência e manutenção da autonomia judicial, assegurando que a tecnologia seja um instrumento complementar, e não substitutivo, da atividade jurisdicional.

4. RESPONSABILIDADE CIVIL E PROVAS DIGITAIS

4.1. BANCOS E FRAUDES EM CONTAS DIGITAIS

Para prevenir fraudes em contas digitais, os bancos utilizam sofisticados sistemas de segurança, incluindo autenticação em múltiplas etapas e monitoramento por meio de inteligência artificial. Entretanto, a responsabilidade por eventuais prejuízos pode ser objetiva ou subjetiva, dependendo da comprovação de falha na prestação do serviço.

A jurisprudência brasileira tem determinado que os bancos devem oferecer um alto nível de segurança aos seus clientes, reembolsando aqueles que foram vítimas de fraudes quando há comprovação de negligência ou ausência de suporte técnico. Conforme a Súmula n.º 479 do STJ: 

As instituições financeiras respondem objetivamente pelos danos gerados por fortuito interno relativo a fraudes e delitos praticados por terceiros no âmbito de operações bancárias.

Assim, os bancos têm a obrigação de implementar mecanismos de proteção eficazes e são responsáveis pelos prejuízos resultantes de falhas em seus sistemas de segurança. A adoção da responsabilidade objetiva, estabelecida na jurisprudência e na Súmula n.º 479 do STJ, fortalece a segurança dos clientes, assegurando compensação em situações de fraudes e golpes.

4.2. SITES FALSOS E GOLPES VIRTUAIS

A criação excessiva de sites falsos que imitam plataformas legítimas de bancos, instituições públicas e lojas online, é um dos problemas mais sérios da atualidade no que diz respeito à segurança digital. Em diversas circunstâncias, os consumidores agem com cautela, mas acabam sendo vítimas de golpistas extremamente habilidosos.

Para identificar sites falsos, é necessário combinar tecnologia, como certificados digitais e análise de URL, com a educação digital dos usuários. O Código de Defesa do Consumidor (CDC) é empregado para responsabilizar fornecedores que falham em adotar medidas de segurança apropriadas no âmbito da relação de consumo.

O artigo 6º do Código de Defesa do Consumidor assegura ao consumidor o direito de receber informações claras, precisas e adequadas. Quando esse direito é violado por terceiros, especialmente em casos de vulnerabilidade tecnológica, o consumidor não deve ser punido por agir de boa-fé. Nesse cenário, a implementação da inversão do ônus da prova, prevista no art. 6º, VIII, do CDC, é essencial para equilibrar o processo e resguardar os consumidores que foram vítimas de fraudes digitais.

É responsabilidade dos fornecedores de produtos e serviços implementar medidas de segurança para prevenir fraudes, como a criação de boletos falsos e sites fraudulentos (JUSBRASIL, 2021). Essa responsabilidade objetiva dos fornecedores, prevista no artigo 14 do Código de Defesa do Consumidor, implica que, em casos de problemas na prestação do serviço, como a divulgação de sites falsos, o consumidor não precisa comprovar culpa, apenas demonstrar o defeito ou a falha do serviço.

Desta forma, a adoção da inversão do ônus da prova é essencial para equilibrar a relação entre consumidores e fornecedores, principalmente quando o consumidor é hipossuficiente ou está em condição de vulnerabilidade.

Embora o CDC preveja a inversão do ônus da prova a favor do consumidor em casos de hipossuficiência ou quando a  alegação é verossímil (art. 6º, VIII), muitos juízes ainda hesitam em adotá-la em situações de fraudes digitais. Isso se deve, em parte, devido a dificuldade de identificar e rastrear os responsáveis por sites fraudulentos, que geralmente funcionam por meio de empresas “fantasmas”, sem informações de contato ou ativos que possam ser penhorados.

O ministro Marco Buzzi, do STJ, explicou que a inversão do ônus da prova é uma prerrogativa do juiz e, quando aplicável deve ser feita antes da sentença, garantindo a parte onerada o direito pleno de produzir a prova. Segundo Buzzi:

A inversão do ônus da prova não é regra estática de julgamento, mas regra dinâmica de procedimento/instrução. Por ser regra de instrução, e não de julgamento, acaso aplicada a inversão do ônus da elaboração das provas, esta deve ser comunicada às partes antes da etapa instrutória, sob pena de absoluto cerceamento de defesa.

Essa interpretação demonstra que a aplicação da inversão do ônus da prova não é automática e exige discricionariedade judicial, o que pode limitar a eficiência da proteção ao consumidor em situações de fraude digital.

5. CONSIDERAÇÕES SOBRE O FUTURO E POTENCIAIS DESAFIOS

A automação e digitalização já estão presentes no sistema judiciário e em órgãos administrativos como o INSS por exemplo, onde a inteligência artificial desenvolvida pela Dataprev avalia os pedidos de benefícios por incapacidade temporária, de acordo com uma reportagem do GOV.BR (2024). 

Embora tenha havido avanços, a verificação da autenticidade das provas digitais ainda enfrenta obstáculos, especialmente devido ao rápido avanço das técnicas de manipulação pela inteligência artificial. O combate a deepfakes, a padronização da análise de metadados e o uso da tecnologia blockchain para garantir a integridade das provas estão entre os maiores desafios.

A formação contínua de magistrados, advogados, servidores e estagiários é essencial, pois, na ausência dessa capacitação, até as tecnologias mais avançadas podem se tornar ineficientes ou até mesmo prejudiciais ao processo. A ética, a regulação equilibrada e a capacitação adequada dos profissionais do Direito são fundamentais para garantir o uso responsável dessas ferramentas. 

O Brasil está adotando diversas iniciativas normativas e legislativas para enfrentar esses desafios. A Resolução CNJ n.º 615/2025 determina que o uso da IA deve ser regulamentado com base em padrões técnicos e jurídicos. Trata-se de um marco necessário, porém, sem uma implementação e fiscalização adequadas, torna-se ineficaz. Os tribunais devem dar prioridade à proteção das vítimas de fraudes digitais, especialmente os consumidores de boa-fé, implementando de forma rigorosa os preceitos do Código de Defesa do Consumidor e da Constituição Federal. 

Por outro lado, a Resolução n.º 332/2020 do CNJ estabelece princípios éticos para o uso da IA, destacando a importância de algoritmos que sejam auditáveis e imparciais. 

No cenário legislativo, o Projeto de Lei n.º 2338/2023, que está em tramitação no Senado Federal, visa criar um marco legal moderno para a IA, classificando os sistemas conforme o grau de risco e estabelecendo exigências específicas de segurança, explicabilidade e supervisão.

 Além disso, leis em vigor, como a Lei n.º 13.709/2018 (LGPD) e Lei n.º 12.965/2014 (Marco Civil da Internet), fornecem fundamentos sólidos para garantias, direitos e responsabilidades no uso da internet no Brasil, fomentando a liberdade de expressão, a proteção da privacidade e a neutralidade da rede.

A crescente incidência de deepfakes e o aprimoramento das falsificações exigem uma atualização constante das metodologias de verificação. Apesar do progresso na regulação, a supervisão humana continua sendo essencial para garantir que a IA atue como um instrumento de suporte à decisão judicial, sem substituir o pensamento jurídico humano. Confiar excessivamente em sistemas de IA não supervisionados pode gerar desigualdades no acesso à Justiça, favorecendo aqueles que têm maior conhecimento tecnológico ou recursos para auditar algoritmos. Essa questão requer não apenas diretrizes técnicas, mas também políticas de inclusão digital no âmbito jurídico.

Além dos progressos tecnológicos, deve-se levar em conta as diferenças regionais e institucionais no acesso à IA no Judiciário. Enquanto as comarcas menores podem ter dificuldades na implementação e supervisão desses sistemas, os tribunais em grandes centros urbanos geralmente possuem mais recursos e pessoal qualificado. Essa possível desigualdade destaca a importância de implementar políticas de inclusão tecnológica e formação contínua, assegurando que a inteligência artificial promova a justiça de maneira justa.

Ademais, revela-se necessário garantir a supervisão humana em todas as fases da utilização da IA. Embora os algoritmos possam reconhecer padrões e automatizar tarefas repetitivas, decisões complexas que afetam direitos fundamentais ainda necessitam de uma análise crítica e ética por parte dos profissionais do Direito. A integração de tecnologia de ponta com discernimento humano aumenta a confiabilidade das decisões judiciais, evitando falhas ou preconceitos originados de vieses nos sistemas automatizados.

6. CONSIDERAÇÕES FINAIS

A pesquisa mostrou como o Brasil protege e avança com o desenvolvimento das IAs. A digitalização e a aplicação da inteligência artificial no sistema jurídico brasileiro oferecem benefícios inegáveis, como agilidade e automação. Contudo, eles também apresentam riscos complexos, principalmente no que diz respeito à autenticidade das provas e à responsabilidade por fraudes na internet. 

O Judiciário brasileiro enfrenta o desafio de se ajustar às transformações tecnológicas sem abrir mão da proteção dos direitos fundamentais, assegurando que evidências, como documentos, vídeos e contratos, sejam minuciosamente examinadas quanto à sua autenticidade.

A harmonia entre tecnologia e justiça é fundamental para um processo confiável, eficiente e humanizado. O principal desafio do Judiciário brasileiro no século XXI é equilibrar o avanço tecnológico com a manutenção de uma justiça humanizada, assegurando que a inteligência artificial seja utilizada como ferramenta de suporte, e não como substituta, no processo decisório e na proteção dos direitos dos cidadãos.

Embora seja promissor, o avanço da IA no Judiciário não elimina a necessidade de formação contínua e de políticas que garantam a igualdade no acesso à Justiça. Ademais, a aplicação responsável da IA deve levar em conta não só os aspectos técnicos e jurídicos, mas também os efeitos sociais e éticos de suas escolhas, reforçando a confiança pública no sistema de Justiça e prevenindo que a tecnologia amplie disparidades ou cause exclusão. 

Portanto, nota-se que, apesar de os projetos de IA já proporcionarem melhorias na eficiência, conforme demonstrado nos estudos, a cautela ainda é essencial. Isso ocorre porque a tecnologia deve ser usada como uma ferramenta de apoio, garantindo maior agilidade sem comprometer a imparcialidade e a legitimidade das decisões.

Por fim, a vigilância contínua e a atualização das técnicas de verificação de provas digitais, como deepfakes e blockchain, devem ser consideradas componentes essenciais da política de segurança jurídica. Essa estratégia assegura que a tecnologia continue sendo uma ferramenta de apoio, sem substituir o pensamento e a responsabilidade humanos, preservando a integridade do processo judicial e a confiança dos cidadãos.

Em suma, o desafio futuro é equilibrar a inovação tecnológica, eficiência e rapidez com os valores humanos que sustentam o sistema jurídico, assegurando que a Inteligência Artificial seja um recurso que fortaleça a justiça para todos os cidadãos, em vez de diminuí-la.

REFERÊNCIAS

ALMEIDA, Pedro. Classificação e validade das provas digitais: documentos eletrônicos, metadados, logs e blockchain. Revista de Direito Digital, v. 16, n. 2, p. 33-48, 2021.

BRAGANÇA, Fernanda; BRAGANÇA, Laurinda Fátima da FPG. A implementação da Inteligência Artificial no Judiciário: análise da Revolução 4.0. 2019.

BRASIL. Lei nº 8.078, de 11 de setembro de 1990. Código de Defesa do Consumidor. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l8078.htm. Acesso em: 03 set. 2025.

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Marco Civil da Internet. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 03 set. 2025.

BRASIL. Lei nº 13.105, de 16 de março de 2015. Código de Processo Civil. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2015/lei/l13105.htm. Acesso em: 03 set. 2025.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 03 set. 2025.

BRASIL, Fernando Gonçalves de Oliveira; SILVA, João Victor Barbosa da. A cadeia de custódia da prova digital: desafios e perspectivas. Revista Ibero-Americana de Humanidades, Ciências e Educação – REASE, v. 11, n. 6, p. 1-20, jun. 2025. Disponível em: https://periodicorease.pro.br/rease/article/download/19588/11876/53107. Acesso em: 16 set. 2025.

BRASIL. Projeto de Lei nº 2338/2023. Regulamenta o uso da inteligência artificial no Brasil. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/154526. Acesso em: 03 set. 2025.

BRASIL. Superior Tribunal de Justiça. AgRg no Habeas Corpus nº 828054 – RN. Relator: Min. Joel Ilan Paciornik. Quinta Turma. Julgado em 23 abr. 2024. DJe 2 maio 2024.

BRASIL. Superior Tribunal de Justiça. Para Quarta Turma, inversão do ônus da prova no julgamento da apelação viola direito de defesa. Notícias do STJ, 26 ago. 2021. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/26082021-Para-Quarta-Turma–inversao-do-onus-da-prova-no-julgamento-da-apelacao-viola-direito-de-defesa-.aspx. Acesso em: 6 out. 2025. 

BRASIL. Tribunal de Justiça de Minas Gerais. Apelação Cível nº 1.0363.19.000083-8/001. Relator: Desembargador Amauri Pinto Ferreira. Comarca de João Pinheiro. Julgamento em 25 jan. 2017. Disponível em: https://tj-mg.jusbrasil.com.br/jurisprudencia/930836010/apelacao-civel-ac-10363190000838001-mg/inteiro-teor-930836134. Acesso em:  12 ago. 2025.

CINTRA, Erickson Brener de Carvalho. A Informatização do Processo Judicial e seus Reflexos no Poder Judiciário, no Superior Tribunal de Justiça e na Sociedade Brasileira. Monografia de conclusão de especialização em Gestão Judiciária. 138 f. Universidade de Brasília – UNB, Brasília, 2009.

CJ ESTRATÉGIA. Magistrados utilizam ChatGPT para agilizar decisões judiciais. 2024. Disponível em: https://www.cjestrategia.com.br/. Acesso em: 03 set. 2025.

CNN Brasil. Grupo usava deepfake de Gisele Bündchen para aplicar golpes milionários. CNN Brasil, 1 out. 2025. Disponível em: https://www.cnnbrasil.com.br/nacional/sul/rs/golpe-usava-deepfake-de-gisele-bundchen-para-aplicar-golpes-milionarios/. Acesso em: 5 out. 2025. 

CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução nº 332, de 2020. Princípios éticos para utilização de IA no Judiciário. Disponível em: https://www.cnj.jus.br/. Acesso em: 03 set. 2025.

CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução nº 615, de 2025. Critérios para utilização de sistemas de inteligência artificial no Poder Judiciário. Disponível em: https://www.cnj.jus.br/. Acesso em: 03 set. 2025.

DO AMARAL, Fábio Formiga. Inteligência Artificial e Justiça Digital: ética, segurança e acesso à justiça. 2024.

GOV.BR. Dataprev e análise de benefícios por IA. 2024. Disponível em: https://www.gov.br/. Acesso em: 03 set. 2025.

IEEE Public Safety Technology. Blockchain-based Systems for Securing and Sharing Forensic Evidence. IEEE; 2025. Disponível em: https://publicsafety.ieee.org/topics/blockchain-based-systems-for-securing-and-sharing-forensic-evidence/. Acesso em: 06 set. 2025.

MARAS, Marie-Helen; ALEXANDROU, Alex. Determining authenticity of video evidence in the age of artificial intelligence and in the wake of Deepfake videos. The International Journal of Evidence & Proof, New York, v. 23, n. 3, p. 255-262, 01 jul. 2019. doi: 10.1177/1365712718807226. Disponível em: https://journals.sagepub.com/doi/abs/10.1177/1365712718807226? journalCode=epja. Acesso em: 06 set. 2025.

MARTINS, Lucas. Inteligência artificial e produção probatória no processo penal: questões éticas e legais. Revista de Direito Penal e Processual, v. 20, n. 4, p. 75-90, 2022.

O ANTAGONISTA. Caso Giovanna Antonelli: deepfake de imagem para publicidade. 2024. Disponível em: https://www.oantagonista.com/. Acesso em: 03 set. 2025.

RAMOS, Janine Vilas Boas Gonçalves. Sistemas de Inteligência Artificial no Judiciário Brasileiro: suporte à decisão e desafios regulatórios. 2022.

SILVA, João. A evolução das provas no processo penal: da materialidade física à digitalização. Revista de Direito Digital, v. 15, n. 3, p. 45-60, 2020.

SENNE, Fábio et al. Inclusão desigual: uma análise da trajetória das desigualdades de acesso, uso e apropriação da internet no Brasil. Law, State & Telecommunications Review/Revista de Direito, Estado e Telecomunicações, v. 12, n. 2, 2020. 

SOUZA, Fernanda. Blockchain como prova digital: avanços e desafios na aceitação legal. Revista de Direito e Inovação, v. 12, n. 4, p. 98-115, 2022.

SUPERIOR TRIBUNAL DE JUSTIÇA (STJ). STJ lança novo motor de inteligência artificial generativa para aumentar eficiência na produção de decisões. Brasília: STJ, 12 fev. 2025. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/2025/11022025-STJ-lanca-novo-motor-de-inteligencia-artificial-generativa-para-aumentar-eficiencia-na-producao-de-decisoes.aspx. Acesso em: 06 set. 2025.

SUPREMO TRIBUNAL FEDERAL (STF). STF realiza 1ª sessão virtual temática sobre racismo, com participação de instâncias estaduais de justiça. Brasília: STF, s.d. Disponível em: Portal STF, https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=471331&ori=1. Acesso em: 30 ago. 2025.

Supremo Tribunal Federal. STF rejeita ação que discutia publicidade legal na internet. Brasília: STF, 2025. Disponível em: https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=471331&ori. Acesso em: 18 set. 2025.

UOL TILT. Robôs de IA no INSS resolvem pedidos de aposentadoria. 2023. Disponível em: https://www.uol.com.br/tilt/. Acesso em: 30 ago. 2025.

WESTERLUND, Mika. The Emergence of Deepfake Technology: A Review. Technology Innovation Management Review, Ottawa, v. 9, n. 11, p. 39-52, nov. 2019. Disponível em: https://timreview.ca/article/1282. Acesso em: 30 ago. 2025