DESAFIO REGULATÓRIO DA IA NO DIREITO BRASILEIRO: LACUNAS LEGISLATIVAS E A FRAGILIDADE NA PROTEÇÃO DE BENS JURÍDICOS

REGULATORY CHALLENGES OF AI IN BRAZILIAN LAW: LEGISLATIVE GAPS AND THE FRAGILITY IN THE PROTECTION OF LEGAL ASSETS

REGISTRO DOI: 10.69849/revistaft/ni10202512071501


Émilly Alves Jesser1
Igor Batista Coimbra2


RESUMO 

Objetivo: Abordar como o uso nocivo da inteligência artificial pode afetar diretamente as relações interpessoais e gerar insegurança jurídica, repercutindo no ordenamento jurídico brasileiro, que atualmente carece de legislação específica sobre essa tecnologia. O artigo expõe a crescente inserção da inteligência artificial na sociedade contemporânea, destacando sua origem e rápida expansão nas últimas décadas, com foco no uso da IA no território brasileiro.

Método: A pesquisa adota abordagem qualitativa narrativa, com análise de bibliografia e da legislação relacionada ao Direito brasileiro e à inteligência artificial, destacando lacunas normativas existentes quanto à sua regulação. Nos resultados, o artigo discute a necessidade de normatização específica para o uso da IA, citando projetos de lei em tramitação e em vias de sanção, além de enfatizar riscos de fraudes e golpes facilitados pelo emprego indiscriminado dessa tecnologia. O estudo evidencia, por fim, que tal insuficiência regulatória desafia áreas do Direito responsáveis por reger a matéria.

Resultados: Conclui-se que o ordenamento jurídico brasileiro se encontra diante de um cenário desafiador, demandando regulamentação capaz de acompanhar o avanço tecnológico e, ao mesmo tempo, preservar a proteção legal, de modo a assegurar tanto os benefícios da IA quanto a mitigação dos danos decorrentes de seu uso inadequado.

Descritores: Inteligência artificial; direito; marco civil da internet.

ABSTRACT 

Objective: This study examines how the harmful use of artificial intelligence (AI) can directly influence interpersonal relations and generate legal uncertainty, producing significant effects within the Brazilian legal system, which currently lacks a specific regulatory framework for this technology. The article contextualizes the growing presence of AI in contemporary society, outlining its origins and rapid expansion over recent decades, with particular emphasis on its application in the Brazilian context.

Method: A qualitative, narrative-based research design was employed, grounded in the analysis of academic literature and Brazilian legislation applicable to artificial intelligence, with special attention to existing regulatory gaps. The results section discusses the need for a specific regulatory framework for AI, referencing bills currently in advanced stages of the legislative process and highlighting the risks of fraud and other illicit practices facilitated by the indiscriminate use of this technology. Ultimately, the study identifies a specific regulatory insufficiency that challenges the branches of law responsible for governing the matter.

Results: The findings indicate that the Brazilian legal system faces a challenging scenario, requiring regulatory measures capable of keeping pace with technological development while safeguarding legal protection, in order to secure the benefits of AI and reduce harms associated with its improper use.

Descriptors: Artificial intelligence; legal regulation; Brazilian law; civil liability.

INTRODUÇÃO

A revolução tecnológica tem se intensificado nas últimas décadas e passou a integrar o cotidiano de forma tão profunda que é quase impossível desvinculá-la da vida social. Com o passar dos anos, os recursos digitais se aperfeiçoam, e um dos mais recentes é a inteligência artificial, que, conforme conceitualização de Elaine Rich, “é o estudo de como fazer os computadores realizarem coisas que, hoje em dia, são feitas melhor pelas pessoas”.

Com promessas de alto desempenho, reúne grande volume de dados coletados ao longo do tempo e fornece respostas quase instantâneas, desde comandos simples até tarefas complexas, influenciando o imaginário coletivo e repercutindo na literatura, no cinema, na música, nas ciências e, consequentemente, no mundo jurídico, no Brasil e no exterior.

As inquietações relacionadas ao emprego de sistemas computacionais no tratamento de informações pessoais remontam a várias décadas. Já na década de 1960, juristas estadunidenses chamavam a atenção para os riscos de violação da privacidade individual decorrentes do armazenamento e do processamento de dados em bancos governamentais nos Estados Unidos. 

A inteligência artificial, embora pareça recente, surgiu conceitualmente na década de 1950, tendo o termo sido cunhado na Conferência de Dartmouth em 1956. Entretanto, foi por volta de 2018 que começou a ganhar espaço no uso cotidiano. Nesse mesmo ano, destacaram-se marcos normativos importantes na proteção de dados pessoais. No Brasil, foi sancionada a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), que 

dispõe sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado, com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural. (Cozman, 2021)

A possibilidade de criar e manipular imagens, vídeos, textos e trabalhos que antes dependiam inteiramente da ação humana hoje é executada por sistemas inteligentes que, com o aperfeiçoamento contínuo, podem se tornar indetectáveis para pessoas leigas. Além disso, utilizam um vasto conjunto de dados, combinando informações e permitindo aplicações em diversos contextos, tanto por pessoas físicas quanto jurídicas.

Diante desse cenário, nota-se que a inteligência artificial se instalou na sociedade e tende a não desaparecer tão cedo. Nesse contexto, surgem questionamentos acerca do impacto da evolução digital no universo jurídico brasileiro, refletindo inevitavelmente na necessidade de regulamentar o uso dessa tecnologia para que crimes cometidos por trás das telas não fiquem impunes e para que os danos causados por eles não sejam irreversíveis. 

Esse projeto, portanto, busca apresentar os efeitos práticos da inteligência artificial e de outras tecnologias no universo jurídico brasileiro e como o ordenamento lida com a constante evolução digital, que cria situações ainda não contempladas pela legislação. O objetivo é demonstrar como o Estado de Direito protege os bens jurídicos envolvidos. Para Adriano Ferreira, em sua obra A inteligência artificial e Sociedade, o papel do Direito não é impedir o avanço dessa nova força produtiva, mas regular e mediar os conflitos que dela surgem, mantendo a tensão social em níveis compatíveis com a continuidade do sistema. Ao definir normas sobre responsabilidade, propriedade e uso de dados, o ordenamento busca direcionar o potencial disruptivo da IA. 

A problemática consiste em demonstrar o desafio do ordenamento jurídico brasileiro em lidar com atos ilícitos recentes e potenciais, bem como os reflexos desse cenário na insegurança jurídica que afeta os direitos da personalidade, as relações de consumo, a responsabilidade civil, a ética profissional e demais áreas correlatas. 

Inteligência Artificial e Direito Civil: avanços tecnológicos, impactos e desafios à tutela jurídica

O acelerado desenvolvimento da inteligência artificial (IA) tem provocado alterações relevantes nas relações sociais, econômicas e jurídicas, exigindo do Direito Civil a revisão de institutos tradicionais diante das novas dinâmicas digitais. A crescente autonomia dos sistemas, somada à capacidade de coletar e processar grandes volumes de dados, repercute sobre a proteção dos direitos da personalidade, a responsabilidade civil e a liberdade de autodeterminação privada.

Os sistemas de IA possuem grande potencial para aprimorar a eficiência e a segurança das relações jurídicas. Algoritmos capazes de realizar análises complexas com elevado grau de precisão contribuem para reduzir falhas humanas, especialmente em áreas sensíveis como a medicina diagnóstica, o transporte automatizado e a gestão empresarial. No campo jurídico, a IA tem favorecido a celeridade e a previsibilidade na pesquisa jurisprudencial, na elaboração de contratos e na triagem processual, auxiliando profissionais e instituições na tomada de decisões. Além disso, a automação de serviços facilita o acesso da população a informações e orientações iniciais, ampliando a democratização do conhecimento jurídico e reduzindo barreiras estruturais.

Exemplo desse uso é o Projeto Victor, desenvolvido por meio de parceria entre o Supremo Tribunal Federal (STF) e a Universidade de Brasília (UnB), que se tornou marco no emprego de IA no Judiciário brasileiro. Desde 2018, auxilia na classificação de recursos extraordinários e evoluiu para versões mais sofisticadas, como a VitórIA, inspirando iniciativas semelhantes em diversos tribunais, entre eles o Sócrates (TJSP) e o Synapsis (TJRJ).

Por outro lado, os riscos decorrentes do uso sem controle de sistemas inteligentes também são expressivos. A responsabilidade civil torna-se mais complexa quando o dano resulta do funcionamento do próprio sistema, pois se torna difícil identificar se a falha decorre de erro humano, defeito de desenvolvimento ou comportamento inesperado do algoritmo. Essa dificuldade afeta a eficácia dos mecanismos tradicionais de reparação no Direito Civil.

A presença da IA tem provocado transformações perceptíveis no Direito Civil brasileiro. A primeira refere-se ao uso da tecnologia como ferramenta de apoio ao trabalho jurídico. O Judiciário utiliza sistemas automatizados para lidar com o excesso de processos e reduzir a morosidade, o que contribui para ampliar o acesso à Justiça. No setor privado, escritórios e departamentos jurídicos adotam soluções de IA para análise preditiva de jurisprudência e revisão automática de contratos, reduzindo o tempo de trabalho e aumentando a eficiência na prestação dos serviços jurídicos.

A segunda forma de impacto da IA no Direito Civil envolve a discussão sobre sua posição como possível sujeito — ou quase sujeito — de direitos e deveres. A produção de contratos, obras artísticas e diagnósticos por sistemas generativos coloca em xeque estruturas tradicionais do Código Civil de 2002. Os tribunais já têm enfrentado questões relativas à autoria de criações geradas por algoritmos, e a tendência, ainda não consolidada pelo STJ, é reconhecer no usuário que fornece o prompt o ato criativo necessário para caracterizar a autoria. Outro debate crescente diz respeito à eventual concessão de personalidade jurídica a sistemas de IA. Embora a doutrina majoritária rejeite essa possibilidade e continue classificando tais sistemas como bens móveis infungíveis, correntes minoritárias defendem a existência de uma “personalidade eletrônica” limitada para fins de responsabilização.

“A existência de responsabilidade jurídica da inteligência artificial é um tema em constante discussão, especialmente porque o avanço da tecnologia tem possibilitado o desenvolvimento de sistemas cada vez mais autônomos, capazes de tomar decisões por si mesmos.” (Cardoso, 2024)

Entre as diversas áreas do Direito Civil, os direitos da personalidade figuram entre os mais vulneráveis ao impacto das novas tecnologias. Deepfakes e sistemas de manipulação de imagem e voz tornaram-se instrumentos particularmente recorrentes de lesão. As vítimas contam com diferentes mecanismos jurídicos de proteção, como pedidos de indenização por danos morais, medidas inibitórias para retirada imediata do conteúdo e, em algumas situações, ações penais por crimes contra a honra. O principal desafio reside na velocidade de disseminação desse material, que dificulta a contenção dos danos. Decisões recentes, proferidas entre 2024 e 2025, têm determinado que plataformas como YouTube, TikTok e X removam vídeos adulterados em até 24 horas, sob pena de multas elevadas.

O Supremo Tribunal Federal redefiniu a forma como plataformas digitais respondem por conteúdos publicados no Brasil. Ao declarar parcialmente inconstitucional o art. 19, do Marco Civil da Internet, abandonou-se a regra única que dependia exclusivamente de ordem judicial e adotou-se modelo flexível, conforme a natureza do conteúdo. A decisão estabeleceu quatro regimes distintos: nos crimes contra a honra, admite-se remoção por ordem judicial ou notificação extrajudicial; nos ilícitos menos graves, há responsabilização se a plataforma, após notificação, permanecer inerte; em conteúdos de extrema gravidade — como terrorismo, discurso de ódio, incentivo ao suicídio ou pornografia infantil — o dever de cuidado é reforçado; já em anúncios pagos, conteúdos impulsionados ou disseminados por bots, presumese responsabilidade da plataforma, afastada apenas mediante prova de diligência adequada. 

Outro ponto sensível diz respeito às violações post mortem, especialmente no uso de imagem e voz de pessoas falecidas em anúncios e produções audiovisuais. O Código Civil, em seu art. 12, parágrafo único, confere legitimidade ao cônjuge sobrevivente, aos parentes em linha reta e aos colaterais até o quarto grau para defender os direitos da personalidade do falecido. Projetos de lei recentes, como o PL nº 3.608/2023, buscam regulamentar essas situações. Também se destacam os impactos de vieses algorítmicos em sistemas de reconhecimento facial, que têm produzido erros graves, afetando desproporcionalmente pessoas negras e mulheres. Essas falhas afrontam princípios constitucionais, como a dignidade da pessoa humana, e já motivam ações coletivas contra empresas responsáveis.

Enquanto os desenvolvedores são responsáveis por criar a IA e programá-la para tomar decisões, os usuários também podem ser responsabilizados pela aplicação abusiva, inadequada ou ilícita dos sistemas de inteligência artificial. Na responsabilidade civil, os desenvolvedores e usuários de inteligência artificial podem, em tese, ser responsabilizados por danos causados por essas tecnologias. Por exemplo, um sistema de reconhecimento facial mal programado pode gerar discriminação e violar direitos fundamentais dos cidadãos. Nesse caso, tanto os desenvolvedores do sistema quanto os usuários responsáveis por sua utilização podem ser responsabilizados pelos danos causados. (Cardoso,2024) 

O tema da responsabilidade civil é um dos mais complexos do debate. Quando sistemas de IA causam danos, aplica-se a legislação vigente. Em algumas hipóteses, predomina a responsabilidade subjetiva, exigindo prova de culpa; em outras, especialmente em atividades de risco, aplica-se a objetiva. Teorias como risco criado ou risco-proveito também são utilizadas para responsabilizar fornecedores e desenvolvedores independentemente de culpa. Na prática, a cadeia de responsabilidade tende a incluir diversos agentes: usuário final, plataforma operadora, desenvolvedores do modelo e quem treinou o sistema, sendo comum que a vítima acione a parte com maior capacidade econômica.

O futuro Marco Legal da IA, previsto no PL nº 2.338/2023, promete alterar esse cenário. A tramitação, até novembro de 2025, prossegue na Câmara após aprovação no Senado. A proposta estabelece categorias de risco para definir diferentes graus de responsabilidade. Sistemas de risco excessivo — como o “scoring social” — podem ser proibidos ou fortemente regulados. Os de alto risco, especialmente nas áreas de saúde, crédito e reconhecimento facial, tendem a seguir responsabilidade objetiva. Nas demais aplicações, mantém-se a responsabilidade subjetiva, com possibilidade de inversão do ônus da prova. Caso aprovado, esse marco aproximará o Brasil de modelos internacionais como o AI Act europeu.

No amadurecimento normativo impulsionado pelas demandas virtuais, o legislador tem demonstrado maior atenção às transformações digitais, e encontra-se em tramitação na Casa Legislativa o Projeto de Lei nº 4/2025, que propõe a inclusão do Livro VI – “Do Direito Civil Digital” – no Código Civil. A iniciativa sistematiza temas fundamentais, como patrimônio digital, contratos celebrados por meios eletrônicos, prestação de serviços e acesso a conteúdos digitais, além de disciplinar a identidade e a presença de crianças e adolescentes no ambiente digital.

Em seu Capítulo VII, dedicado à inteligência artificial, o PL nº 4/2025 estabelece parâmetros para o desenvolvimento e o uso responsável de sistemas de IA, impondo deveres de transparência, explicabilidade, auditabilidade, não discriminação e supervisão humana, além de prever a responsabilização civil integral por danos decorrentes de sua operação. Ao disciplinar a criação de imagens de pessoas vivas ou falecidas mediante consentimento expresso e com respeito à dignidade, à reputação e ao legado pessoal, o projeto reforça a tutela dos direitos da personalidade diante de deepfakes e outras manipulações digitais. Assim, busca suprir lacunas históricas do Código Civil e alinhar a disciplina das relações privadas aos desafios emergentes do ambiente digital, fortalecendo a segurança jurídica nas interações mediadas por tecnologia.

MÉTODO

Trata-se de uma narrativa da literatura, de natureza qualitativa, voltada à compreensão aprofundada de fenômenos sociais, à interpretação de significados e à análise da realidade jurídica contemporânea. As buscas foram realizadas em bases como SciElo, Biblioteca Virtual Pearson, Google Acadêmico, Revista da Faculdade de Direito da Universidade de São Paulo (USP) e no site do Planalto, utilizando termos como “Direito e Inteligência Artificial”. A partir das análises, selecionaram-se quatro obras relevantes, entre livros e periódicos sobre o tema. Os critérios de inclusão privilegiaram estudos que abordassem a temática de forma clara, evidenciando os efeitos da inteligência artificial no universo jurídico, com ênfase no Direito Civil.

RESULTADOS / DISCUSSÃO

A análise das fontes selecionadas permitiu identificar três eixos centrais recorrentes na literatura examinada: (1) relevância e aplicabilidade da inteligência artificial no Direito, especialmente no Judiciário brasileiro; (2) desafios de regulação e ética; e (3) responsabilidade civil e personalidade jurídica. Autores como Ferreira (2025), Cardoso (2024) e Barbosa (2021) destacam o uso da IA em pesquisas e no apoio à tomada de decisões judiciais, além de discutirem a responsabilidade civil atribuída a sistemas autônomos e os prejuízos decorrentes de seu funcionamento.

Observa-se também que o debate sobre o tema tem se intensificado, sendo frequente a realização de eventos institucionais, como o videocast promovido pela Comissão Especial sobre inteligência artificial da Câmara dos Deputados, dedicado à análise do PL nº 2.338/2023, que estabelece diretrizes regulatórias para o uso da tecnologia no Brasil. Ressalta-se, igualmente, o Projeto de Lei nº 2.630/2020, conhecido como “PL das Fake News”, destinado a instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Com o objetivo de coibir a produção de deepfakes e práticas fraudulentas, surgiram outras proposições legislativas relacionadas, a exemplo dos Projetos de Lei nº 145/2024 e nº 146/2024, que tratam, respectivamente, da utilização de IA em publicidade e do agravamento de penas para crimes praticados com o uso de tecnologias de manipulação de imagem ou som. Soma-se a esses o Projeto de Lei nº 1.884/2025, que dispõe sobre a regulação de deepfakes, estabelecendo penalidades para usos prejudiciais e incentivando o desenvolvimento ético da tecnologia. Em conjunto, tais iniciativas refletem esforços para regular o uso de ferramentas de IA em contextos publicitários, prevenir golpes e conter a disseminação de conteúdo enganoso.

Outro aspecto observado na literatura refere-se aos congressos e debates públicos que ampliam a discussão sobre o tema, como o Etos.IA, realizado em novembro de 2025 em Goiânia. Organizado pelo Governo de Goiás e pelo Instituto Campus Party, o evento abordou impactos sociais, éticos e políticos da IA. Sua relevância para o Direito decorre do enfoque nas dificuldades éticas e regulatórias decorrentes do avanço tecnológico.

Paralelamente a esses debates públicos, percebe-se a preocupação do legislador em prever, na atualização do Código Civil de 2002, tópico específico destinado a contemplar as dinâmicas jurídicas do ambiente digital. Esse esforço revela que, para além de respostas pontuais a problemas emergentes — como deepfakes, publicidade enganosa e crimes praticados com IA — há a intenção de construir uma disciplina jurídica estruturada para as relações privadas mediadas por tecnologia, reforçando a necessidade de um marco civil mais adequado às inovações contemporâneas.

Os achados da análise bibliográfica apontam para um consenso quanto à ausência de normas específicas para regular o uso de IA no território nacional. Por se tratar de tema recente, as decisões judiciais têm sido construídas caso a caso, com tendência a ampliar a proteção da pessoa humana e adotar regimes mais rigorosos de responsabilização para agentes econômicos que se beneficiam da tecnologia. A literatura destaca a necessidade de cautela diante de algoritmos treinados sem considerar a diversidade cultural e fenotípica brasileira, o que pode reproduzir discriminações existentes na sociedade. Destaca-se, ainda, a exigência de que desenvolvedores, treinadores e operadores de sistemas de IA adotem práticas de governança, auditoria e transparência, sob pena de enfrentarem consequências jurídicas mais severas.

Verifica-se também que, apesar dos avanços no debate e na elaboração de propostas legislativas, persistem lacunas que evidenciam a necessidade de ampliar as pesquisas e diversificar as amostras analisadas. A literatura ainda carece de estudos que explorem com maior profundidade a complexidade dos fenômenos jurídicos envolvidos.

Por fim, esta análise crítica contribui para orientar revisões futuras e pesquisas empíricas, ressaltando a importância do equilíbrio entre rigor metodológico e flexibilidade interpretativa, característica inerente às pesquisas qualitativas em contextos dinâmicos.

CONSIDERAÇÕES FINAIS

O avanço da inteligência artificial evidencia desafios que pressionam o ordenamento jurídico brasileiro, especialmente diante da ausência de normas capazes de acompanhar a velocidade das transformações tecnológicas. A análise realizada demonstra que a regulamentação do uso da IA exige atenção urgente, buscando equilibrar liberdade tecnológica e proteção de direitos fundamentais, de modo a prevenir violações e mitigar danos antes que se tornem irreversíveis.

A pesquisa mostra que a IA apresenta potencial significativo para tornar o sistema jurídico mais eficiente, acessível e célere, ao mesmo tempo em que revela novas problemáticas que precisam ser consideradas pelo legislador, especialmente quanto à responsabilidade civil e às violações de direitos da personalidade. A necessidade de definir critérios claros sobre quem responde por danos e em quais circunstâncias permanece entre os pontos centrais do debate.

Em síntese, a inteligência artificial constitui ferramenta poderosa, capaz de aperfeiçoar procedimentos e ampliar o acesso à justiça, mas também introduz riscos inéditos — desde a manipulação indevida de imagens e dados até decisões automatizadas que podem afetar direitos de maneira desproporcional. O desafio está em construir respostas normativas que preservem a segurança jurídica, reforcem a proteção da pessoa humana e permitam que o avanço tecnológico ocorra de maneira ética e responsável.

REFERÊNCIAS

CARDOSO, Oscar Valente. Inteligência artificial, direito e processo. Belo Horizonte: Dialética, 2024. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 23 nov. 2025a.

CARDOSO, Oscar Valente. Inteligência artificial, direito e processo. Belo Horizonte: Dialética, 2024. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 23 nov. 2025b.

COZMAN, Fabio; PLONSKI, Guilherme; NERI, Henrique. Inteligência artificial: avanços e tendências. São Paulo: Instituto de Estudos Avançados da USP, 2021. Disponível em: https://doi.org/10.11606/9786587773131. Acesso em: 17 nov. 2025.

FERREIRA, Adriano.Inteligência artificial e sociedade. 1. ed. Cotia: Foco, 2025. Ebook. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 05 dez 2025.

TOMASEVICIUS, Eduardo Filho.Inteligência artificial e direitos da personalidade: uma contradição em termos? Revista da Faculdade de Direito da Universidade de São Paulo, São Paulo, v. 113, p. 133–149, 21 dez. 2018. Disponível em: https://revistas.usp.br/rfdusp/article/view/156553. Acesso em: 17 nov. 2025.

RICH, Elaine. Inteligência artificial. São Paulo: McGraw-Hill, 1988.


1Graduanda em Direito. Faculdade Evangélica de Valparaiso, Valparaiso de Goiás, Brasil.
Orcid: https://orcid.org/0000-0002-0460-0703
Lattes: http://lattes.cnpq.br/5531032543436442
Faculdade Evangélica de Valparaiso , Valparaíso de
Goiás, Brasil  E-mail:jesseremilly@gmail.com 

2Especialista em Gestão Empresarial, Tributação e Contabilidade (UFF) e Mestrando em Direito das Relações Sociais e Trabalhistas (UDF)
Orcid: https://orcid.org/0009-0007-4620-1114
Lattes: https://lattes.cnpq.br/9539845276109879
Faculdade Evangélica de Valparaiso, Valparaíso de Goiás, Brasil
E-mail: professorigorcoimbra@gmail.com