BETWEEN FABRICATED REALITY AND THE SILENCE OF THE LAW: THE (IN)EFFECTIVENESS IN THE FACE OF DEEPFAKES GENERATED BY ARTIFICIAL INTELLIGENCE
REGISTRO DOI: 10.69849/revistaft/dt10202512221530
Maria Luísa Gonçalves Oliveira Antunes¹
Laíse de Oliveira Cardoso²
RESUMO
As deepfakes, tecnologias de síntese de imagem por IA, desafiam o ordenamento jurídico brasileiro ao violar direitos fundamentais do art. 5º, X da Constituição, especialmente o direito à imagem e à dignidade, agravado pela rápida viralização digital. Este estudo analisa as lacunas do sistema penal e iniciativas legislativas, como o PL 2338/2023, focando no uso não consensual em conteúdos pornográficos, que afeta principalmente mulheres, e sua influência na desinformação eleitoral. Com base em análise doutrinária, propõe diretrizes regulatórias para proteger direitos fundamentais e equilibrar inovação tecnológica.
Palavras-chave: Deepfakes. Inteligência artificial. Direito de imagem. Tecnologia. Direito à imagem.
ABSTRACT
Deepfakes, AI-powered image synthesis technologies, challenge the Brazilian legal system by violating fundamental rights under Article 5, X of the Constitution, especially the right to image and dignity, a situation exacerbated by rapid digital viral spread. This study analyzes the gaps in the penal system and legislative initiatives, such as Bill 2338/2023, focusing on non-consensual use in pornographic content, which primarily affects women, and its influence on electoral disinformation. Based on doctrinal analysis, it proposes regulatory guidelines to protect fundamental rights and balance technological innovation.
Keywords: Deepfakes. Artificial intelligence. Image rights. Technology. Right to image.
INTRODUÇÃO
O avanço das tecnologias digitais, especialmente da inteligência artificial, transformou profundamente as interações sociais e comunicacionais. Entre essas inovações, destacam-se as deepfakes, capazes de produzir conteúdos audiovisuais hiper-realistas que imitam imagens e vozes humanas. Inicialmente criativas, essas ferramentas passaram a ser usadas de forma nociva, violando direitos fundamentais, como imagem, honra e privacidade, previstos no artigo 5º da Constituição Federal, tornando-se foco de crescente preocupação acadêmica, jurídica e social.
A relevância do tema decorre de seu impacto estrutural na sociedade. O uso indevido das deepfakes, em contextos como pornografia não consensual ou manipulação eleitoral, revela consequências que extrapolam a esfera privada, ameaçando valores democráticos e institucionais. Paralelamente, as respostas legislativas permanecem fragmentadas, ora tentando enquadrar condutas inovadoras em tipos penais tradicionais, ora propondo leis que não abarcam a complexidade técnica do fenômeno. Assim, o estudo se justifica pela necessidade de soluções normativas que protejam direitos fundamentais sem frear a inovação tecnológica.
Diante desse cenário, formulou-se a questão de pesquisa: como o ordenamento jurídico brasileiro pode enfrentar os desafios das deepfakes, garantindo direitos fundamentais sem inviabilizar o desenvolvimento da inteligência artificial? Essa indagação evidencia a lacuna normativa e a dificuldade de conciliar dignidade humana e progresso tecnológico, orientando a análise crítica e a proposição de medidas compatíveis com o contexto nacional.
O objetivo geral do estudo foi avaliar a eficácia do ordenamento jurídico frente às deepfakes, identificando limitações e propondo diretrizes de aprimoramento. Para isso, a pesquisa estruturou-se em capítulos: o primeiro abordou fundamentos históricos, o segundo analisou inteligência artificial e regulação jurídica, o terceiro tratou lacunas legislativas e propostas de aperfeiçoamento, o quarto examinou deepfakes pornográficas e soluções jurídicas, e o quinto analisou o uso em processos eleitorais, destacando riscos à integridade democrática e medidas do Tribunal Superior Eleitoral.
Por fim, a metodologia consistiu em revisão bibliográfica e documental, incluindo doutrina especializada, legislação nacional e decisões judiciais sobre manipulação digital por inteligência artificial. Autores que discutem aspectos técnicos, jurídicos, sociais e políticos das deepfakes fundamentaram a análise, possibilitando um panorama crítico e interdisciplinar, capaz de identificar limites do ordenamento vigente e alternativas regulatórias, contribuindo para debates acadêmicos e para a formulação de políticas públicas e normas adequadas ao contexto brasileiro.
1. Referencial teórico e análise jurídica das deepfakes no ordenamento brasileiro
A proteção jurídica da imagem humana emerge como resposta às transformações tecnológicas que ampliaram as possibilidades de exposição não consentida. O marco inaugural remonta ao artigo “The Right to Privacy” de Samuel Warren e Louis Brandeis (1890), que reagiram aos avanços da fotografia instantânea formulando o conceito de privacy como direito autônomo, estabelecendo os alicerces para o posterior reconhecimento do direito de imagem como bem jurídico independente.
Diferentemente dessa trajetória pioneira, o percurso brasileiro seguiu caminho mais tardio. O Código Civil de 1916 não disciplinava expressamente o direito de imagem, obrigando a jurisprudência a soluções analógicas. A ruptura veio com a Constituição Federal de 1988, que elevou o direito de imagem a direito fundamental autônomo (art. 5º, X), consolidado posteriormente pelo Código Civil de 2002 (arts. 20 e 21).
Essa evolução normativa insere-se no movimento de constitucionalização dos direitos da personalidade, identificado por Carlos Alberto Bittar (2015) e Ingo Wolfgang Sarlet (2015a), refletindo a centralidade da dignidade humana. A doutrina clássica caracteriza esses direitos como inalienáveis, imprescritíveis e irrenunciáveis. Bittar (2015) propõe classificação tripartida: integridade física, intelectual e moral, inserindo o direito de imagem nesta última, reforçando sua conexão com a dignidade pessoal.
Entretanto, a doutrina não apresenta consenso quanto à natureza jurídica desse direito. Adriano De Cupis (1982) representa a corrente personalista, segundo a qual a imagem constitui projeção direta da individualidade humana. Em contraposição, José de Oliveira Ascensão (2012) alinha-se à teoria patrimonialista, inspirada no right of publicity norte-americano, reconhecendo a exploração econômica da imagem. Esse contraste projeta consequências práticas em litígios envolvendo uso comercial não autorizado.
Nesse contexto, a tensão entre as dimensões personalista e patrimonialista torna-se especialmente relevante nas deepfakes, tecnologia que viola tanto a esfera íntima quanto apropria indevidamente o valor econômico da imagem. A teoria dos direitos fundamentais de Robert Alexy (2008), com sua técnica de ponderação de princípios, oferece o instrumental metodológico para avaliar racionalmente tensões entre dignidade, imagem, liberdade de expressão e inovação tecnológica. Alexy concebe a dignidade como direito fundamental supremo, irradiando efeitos sobre todo o sistema jurídico.
Partindo dessa concepção de ponderação, a teoria alexyana harmoniza-se com a tradição kantiana: o indivíduo deve ser tratado como fim em si mesmo, jamais como mero meio. A manipulação não consensual mediante deepfakes viola esse imperativo categórico, reduzindo a pessoa a objeto de manipulação tecnológica. A dignidade humana, sustenta Sarlet (2015b), estabelece parâmetro inegociável para regular tecnologias de síntese de imagem.
Diante desse cenário teórico, os fundamentos históricos e conceituais dos direitos da personalidade revelam que a proteção da imagem constitui conquista gradual acompanhando as transformações tecnológicas. Desde Warren e Brandeis em resposta à fotografia até o reconhecimento constitucional brasileiro, o ordenamento demonstra capacidade de adaptação. As teorias personalista e patrimonialista convergem no reconhecimento de que a imagem integra o núcleo essencial da personalidade. A teoria alexyana e o imperativo kantiano fornecem o instrumental filosófico-jurídico para resolver conflitos sem comprometer a dignidade.
No entanto, é crucial observar que esses alicerces teóricos foram construídos em contextos tecnológicos substancialmente diversos da realidade contemporânea, na qual a inteligência artificial tornou possível a manipulação de imagens em escala e com realismo historicamente inéditos. Portanto, a compreensão adequada dos desafios jurídicos impostos pelas deepfakes exige que se examine não apenas os fundamentos tradicionais dos direitos da personalidade, mas também as características técnicas e as implicações regulatórias específicas de tecnologias de síntese de imagem, conforme se analisará na seção subsequente.
2. Inteligência artificial, deepfakes e desafios à regulação jurídica
A inteligência artificial (IA), consolidada como campo científico na Conferência de Dartmouth (1956), percorreu uma notável evolução — dos sistemas simbólicos aos modelos de deep learning. Stuart Russell e Peter Norvig (2021) destacam que as redes neurais profundas impulsionaram um salto qualitativo na capacidade de síntese audiovisual, transformando radicalmente a produção e manipulação de conteúdos digitais. No Brasil, o PL 2338/2023 conceitua a IA como um sistema apto a gerar previsões, conteúdos e decisões com impacto em ambientes físicos ou virtuais, refletindo o esforço legislativo de harmonizar o direito com as inovações tecnológicas.
Entre as aplicações mais controversas dessa tecnologia, destacam-se os deepfakes, técnica que combina deep learning e redes neurais adversárias generativas (GANs) para criar conteúdo sintético de aparência real. O termo surgiu em 2017 no Reddit, associado a vídeos pornográficos não consensuais com substituição facial. Ian Goodfellow (2014), criador das GANs, não previu o potencial uso danoso de sua criação, o que evidencia como o avanço tecnológico pode ultrapassar as intenções originais de seus desenvolvedores.
Nesse sentido, Lessa e Spencer (2019) definem deepfakes como identidades falsas produzidas por síntese de imagem com IA, capazes de sobrepor rostos e vozes em materiais fictícios, simulando ações ou falas inexistentes. Chesney e Citron (2019) classificam-nos em quatro modalidades — face swap, face reenactment, síntese de voz e manipulação corporal integral —, cada uma impondo desafios jurídicos distintos. Contudo, a maior parte dos deepfakes tem caráter pornográfico e não consensual, vitimando majoritariamente mulheres, o que revela uma apropriação tecnológica voltada à violação de direitos fundamentais.
A vitimização feminina, como observam Brenda Caires Matos e Ana Paula da Silva Sotero, demonstra que o problema ultrapassa o campo técnico-jurídico e reflete estruturas persistentes de violência de gênero. Ferramentas de IA têm sido empregadas para “remover roupas” de fotos femininas e criar nudes falsos, práticas que geram constrangimento, assédio e até extorsão. Diante desse cenário, torna-se indispensável uma resposta normativa célere e eficaz, que uma proteção jurídica e conscientização social.
Para enfrentar esses riscos, a regulação deve assumir caráter flexível e adaptativo. Lawrence Lessig (2006) propõe quatro modalidades de regulação no ciberespaço — direito, normas sociais, mercado e código —, destacando que “o código é lei”, pois a arquitetura técnica define os comportamentos possíveis. Assim, políticas públicas eficazes precisam ir além da mera criminalização, incorporando transparência algorítmica, rastreabilidade e salvaguardas técnicas que limitem os usos abusivos da IA.
Seguindo essa linha, Ian Ayres e John Braithwaite (1992) defendem a regulação responsiva, modelo que ajusta a atuação estatal conforme o comportamento dos agentes, mediante uma pirâmide de sanções progressivas. Essa abordagem mostra-se especialmente adequada diante de tecnologias em constante transformação. Danilo Doneda (2019) observa, contudo, que a Lei Geral de Proteção de Dados (LGPD) ainda não alcança plenamente os dados biométricos sintéticos, o que evidencia lacunas significativas na tutela jurídica contra manipulações hiper-realistas.
No campo penal, Rogério Greco (2019) enfatiza que o direito penal deve atuar de forma subsidiária, apenas quando os demais ramos se mostram insuficientes. Cleber Masson (2021) complementa ao notar que os crimes contra a honra (arts. 138 a 140 do CP) não contemplam as especificidades dos deepfakes, sobretudo a amplitude dos danos e a velocidade da difusão. Já Claus Roxin (2006), ao desenvolver a teoria do bem jurídico, defende a criação de tipos penais autônomos quando há lesão múltipla — como ocorre nos deepfakes, que afetam simultaneamente a honra, a privacidade, a imagem e a integridade psíquica, inclusive com repercussões eleitorais.
Por outro lado, a responsabilidade civil apresenta maior flexibilidade na reparação dos danos. Anderson Schreiber (2018) aponta uma “erosão dos filtros” da responsabilidade civil, com ampliação das hipóteses de indenização. José Monteiro Filho (2020) propõe o conceito de “responsabilidade algorítmica”, que leva em conta a opacidade decisória das máquinas. Para Bittar (2015), a violação dos direitos da personalidade gera presunção de dano moral, reforçando a necessidade de tutela ampla das vítimas em ambiente digital.
Dessa forma, a interrelação entre direitos fundamentais, regulação tecnológica, direito penal e responsabilidade civil demonstra que respostas eficazes à problemática dos deepfakes devem ser interdisciplinares e integradas. As teorias de Lessig e Braithwaite evidenciam que a criminalização isolada é insuficiente, demandando políticas complementares e uma regulação dinâmica capaz de acompanhar o ritmo das inovações tecnológicas.
Assim, embora a doutrina reconheça a dignidade humana como núcleo axiológico inegociável, as soluções normativas ainda se encontram em construção. Essa constatação conduz, de modo natural, à próxima seção, que examinará como as lacunas estruturais do ordenamento jurídico brasileiro comprometem a efetiva tutela dos direitos fundamentais na era digital.
3. Insuficiências do Marco Normativo ante a IA
A análise dos direitos da personalidade face à inteligência artificial consolida a dignidade humana como parâmetro inegociável perante as manipulações tecnológicas. Não obstante, quando confrontados com o ordenamento jurídico brasileiro, os fundamentos kantianos, alexyanos, personalistas e patrimonialistas revelam lacunas estruturais que comprometem a tutela efetiva dos direitos fundamentais na era digital.
Sob esse viés, a ausência de tipificação penal específica para condutas com IA é fragilidade evidente. O Projeto de Lei nº 2338/2023, de Rodrigo Pacheco, embora reconheça a necessidade regulatória, limita-se a princípios de transparência e segurança, sem instituir tipos penais autônomos para deepfakes. Analogamente, o projeto não define com precisão as responsabilidades de desenvolvedores, operadores e plataformas, gerando insegurança jurídica.
Nesse ínterim, a LGPD mostra-se insuficiente ante os deepfakes. Danilo Doneda (2019) salienta a carência de normativas sobre “síntese hiper-realista de imagens e uso não consentido de dados biométricos faciais”. Ademais, a lei, estruturada para dados reais, não abrange adequadamente os sintéticos, permitindo brechas como o uso de fotos públicas para treinar algoritmos sem configurar formalmente “coleta”. A efetividade da norma é ainda prejudicada pela frágil integração entre ANPD e Ministério Público, fragmentando a resposta estatal. A esse respeito, Melo Júnior (2023, p. 101) observa que:
a necessidade de legislação a respeito da IA se relaciona intrinsecamente com a noção de garantia de segurança jurídica e digital, a minimização dos riscos a todos os envolvidos, a exigência de transparência, ética e respeito aos direitos humanos e fundamentais.
Por outro lado, os crimes contra a honra (arts. 138 a 140 do CP), concebidos em 1940, mostram-se anacrônicos. Deepfakes podem devastar reputações e infligir danos psicológicos severos, mas penas brandas e prescrição célere favorecem a impunidade. Cleber Masson (2021) e Claus Roxin (2006) advogam, portanto, pela criminalização autônoma dessas condutas, que violam simultaneamente bens jurídicos como honra, imagem, privacidade e o próprio processo democrático.
Igualmente deficitário, o Marco Civil da Internet restringe-se à responsabilidade civil dos provedores, dependendo de morosas decisões judiciais para remoção de conteúdo, sem penalizar o criador original. Agravando o cenário, a opacidade algorítmica inviabiliza perícias eficazes e dificulta a accountability. Ronaldo Lemos (2017) sustenta que compreender os processos automatizados é requisito para responsabilização, mas a “caixa-preta” dos algoritmos persiste.
Outrossim, a discriminação algorítmica representa risco concreto. Virginia Eubanks (2018) adverte que algoritmos podem reproduzir preconceitos e intensificar desigualdades, afetando grupos vulneráveis – uma questão ignorada pelo PL nº 2338/2023, que omite auditorias de viés e mecanismos preventivos. Carine Regina Serachi (2024) reforça que a intervenção humana qualificada é essencial para assegurar justiça e equidade.
Em síntese, o sistema jurídico pátrio exibe uma convergência de vulnerabilidades: tipos penais inespecíficos, LGPD inapta para dados sintéticos, sanções desproporcionais, remoção ineficaz de conteúdo e carência de transparência e salvaguardas antidiscriminatórias. Tal panorama justifica que a próxima seção proponha medidas integradas de aprimoramento nas esferas penal, administrativa e preventiva.
3.1 Propostas de aperfeiçoamento legislativo e institucional
Diante das lacunas normativas, impõe-se adotar propostas que assegurem proteção efetiva aos direitos da personalidade sem inviabilizar a inovação. O enfrentamento dos deepfakes requer soluções integradas — penais, administrativas, preventivas e tecnológicas —, pois intervenções isoladas não bastam.
3.1.1 Dimensão Penal: Criminalização Autônoma e Graduação Sancionatória
Dada a insuficiência dos tipos penais atuais, propõe-se a criação de tipo autônomo no Código Penal, inspirado no Deepfake Act alemão (2021), para punir a produção e disseminação de conteúdo sintético não autorizado. O tipo deve descrever precisamente a conduta — criação e difusão de conteúdo com características biométricas identificáveis sem consentimento —, exigir dolo (consciência da falsidade e vontade de manipular) e prever pena de dois a cinco anos, reduzida quando houver remoção imediata ou circulação restrita.
Prevê-se ainda agravamento das penas: um terço até metade se a vítima integrar grupos vulneráveis; até o dobro se houver dano econômico; metade a dois terços em casos de conteúdo sexual; e até o triplo em contexto eleitoral. Essa gradação garante resposta proporcional aos diversos graus de lesividade. Conforme Lawrence Lessig (2006), a regulação tecnológica eficaz deve combinar instrumentos jurídicos, técnicos e sociais, pois o “código” digital tem efeito normativo análogo à lei. Assim, a criminalização específica é apenas um pilar de um sistema mais amplo que uma repressão, prevenção e governança institucional.
3.1.2 Dimensões Administrativa e Preventiva da Regulação
Para assegurar efetividade penal, é imprescindível aparato institucional especializado. Propõe-se a criação de órgão regulador de crimes cibernéticos ligados à IA, vinculado ao Ministério da Justiça, encarregado de padronizar investigações, orientar perícias, capacitar autoridades e promover cooperação internacional. Sua estrutura deve integrar saberes técnicos, jurídicos e sociais, pautando-se pela transparência, proporcionalidade e articulação com órgãos como a Polícia Federal e a ANPD.
Além disso, plataformas com mais de um milhão de usuários devem ser obrigadas a manter canais de denúncia e sistemas automáticos de detecção facial e de metadados, removendo deepfakes em até 24 horas. O descumprimento acarretaria sanções graduais aplicadas pela ANPD — advertência, multas progressivas de até 2% do faturamento e, em reincidência, suspensão temporária.
Paralelamente, propõe-se o direito universal de exclusão, permitindo que qualquer cidadão proíba preventivamente o uso de sua imagem ou voz por IA. O cadastro seria administrado pela ANPD, e a violação configuraria agravante penal e infração administrativa. Soma-se a isso a necessidade de programas educacionais sobre riscos e identificação de deepfakes, promovendo alfabetização midiática, ética digital e segurança nas redes, em parceria com o Ministério da Educação e organizações civis.
Em síntese, a conjugação entre criminalização específica, regulação institucional, responsabilização das plataformas, direito de exclusão e educação digital forma um sistema coerente de proteção. Todavia, essa estrutura revela especial urgência diante da manifestação mais nociva da tecnologia: os deepfakes pornográficos não consensuais, tema abordado na seção seguinte.
4. Violação do Direito de Imagem mediante Deepfakes Pornográficos e Perspectivas de Solução Jurídica
As lacunas legislativas tornam-se evidentes diante da crescente produção de deepfakes pornográficos não consensuais. Críticas ao PL 2338/2023, limitações da LGPD, inadequação dos tipos penais contra a honra e insuficiências do Marco Civil revelam fragilidades jurídicas que geram consequências graves para as vítimas, majoritariamente mulheres.
Outrossim, essa modalidade configura uma forma intensa de violência digital, causando danos psicológicos, sociais e profissionais. A situação evidencia a interseção entre violência de gênero estrutural e inovação tecnológica. Ferramentas sofisticadas de IA ampliam padrões históricos de objetificação e violação sexual feminina, como ilustram casos de Gal Gadot e Emma Watson. De forma complementar, estudo da Sensity (2019) indica que 96% dos deepfakes online são pornografia não consensual, majoritariamente contra mulheres, confirmando o caráter estruturado da violência.
Considerando tais elementos, aplicativos de “nude deepfake” democratizaram a criação de nudes falsos, facilitando exposição, assédio e extorsão. Matos e Sotero destacam que essa circulação exige normatização específica, pois viola direitos da personalidade e a dignidade da vítima. Embora o Código Penal, pelo artigo 218-C, criminalize a divulgação de cenas sexuais reais, ele não contempla deepfakes, deixando uma lacuna grave: a vítima nunca participou da cena, mas sofre efeitos equivalentes ou superiores.
Igualmente, a interpretação literal do artigo exclui os deepfakes, e a sofisticação tecnológica dificulta a identificação, exigindo perícia avançada. Essa dificuldade retarda a persecução criminal e a reparação civil, perpetuando a impunidade.
Em vista disso, o Congresso brasileiro propõe medidas legislativas. O PL 2.338/2023 regula o uso de IA e protege direitos fundamentais, estabelecendo princípios que podem fundamentar jurisprudência e sanções administrativas, embora sem criar tipos penais específicos. Já o PL 146/2024 aumenta penas de crimes contra a honra praticados via deepfake, mantendo vínculo a tipos tradicionais sem tipificação autônoma. Outras propostas preveem reclusão para criação de conteúdo falso com atribuição de identidade ou conduta.
Face a tal situação, especialistas sugerem estender o artigo 218-C para abranger deepfakes pornográficos, diferenciando divulgação de material real de criação artificial, com penas mais severas para esta última. Recomenda-se remoção imediata do conteúdo em até 12 horas e reparação automática, considerando o impacto direto sobre dignidade, privacidade e imagem. Tecnologias de detecção são essenciais, embora enfrentem uma corrida tecnológica constante.
Simultaneamente, educação digital e campanhas de conscientização sobre consentimento e riscos dos deepfakes surgem como estratégias preventivas cruciais. A cooperação internacional é igualmente importante para a persecução extraterritorial. Curzi (2022) alerta que a criminalização isolada é insuficiente; é necessário regular plataformas para equilibrar liberdade de expressão e combate a abusos graves.
Assim, o enfrentamento eficaz exige integração entre legislação, tecnologia, conscientização social e cooperação internacional. O Brasil pode se tornar referência no combate a abusos tecnológicos, respeitando dignidade, privacidade e autonomia. A perspectiva de gênero é central, considerando que mulheres constituem a maioria das vítimas, refletindo estruturas patriarcais históricas. Respostas jurídicas devem incorporar essa dimensão, capacitar operadores do direito e orientar políticas públicas de prevenção e assistência.
Como conclusão, a manipulação de imagens em contexto eleitoral ameaça à democracia ao comprometer informações confiáveis e a legitimidade das instituições, evidenciando que os deepfakes impactam tanto a esfera individual quanto a coletiva, exigindo regulamentação específica da Justiça Eleitoral.
5. Manipulação de Imagens no Contexto Eleitoral e Ameaças à Integridade Democrática
A manipulação de imagens por inteligência artificial em campanhas políticas tornou-se um fenômeno central nos últimos anos, impulsionado pelo avanço e pela democratização das tecnologias de deepfake. Tais inovações permitem criar conteúdo altamente realista que distorcem a realidade, simulando pessoas em contextos inexistentes, o que compromete a confiança pública nas instituições e a integridade dos processos eleitorais. José Eduardo Faria (2020, p.12) observa que:
à medida que novas mídias foram aparecendo e se expandindo, houve um aumento no mesmo ritmo do nível de polarização, da virulência e da desqualificação recíproca entre partidos políticos […] levando à proliferação de acusações infundadas, informações distorcidas e mentiras — chamadas de fake news.
Os deepfakes representam uma escalada qualitativa nesse cenário, pois não apenas deturpam informações, mas fabricam realidades com aparência de veracidade inquestionável. No Brasil, a preocupação com o uso dessas tecnologias levou o Tribunal Superior Eleitoral (TSE) a editar a Resolução nº 23.610/2019, posteriormente aprimorada pela nº 23.732/2024, que proibiu expressamente o uso de IA para criar ou disseminar conteúdo falso, estabelecendo regras rigorosas de transparência e rotulagem.
A centralidade da imagem na política contemporânea torna essa manipulação especialmente perigosa. Segundo Luiz Gustavo de Andrade (2024), advogado e mestre em Direito pelo Centro Universitário Curitiba, a personalização da imagem é instrumento decisivo do marketing político, podendo ser explorada para criar percepções artificiais sobre candidatos. Assim, as deepfakes afetam não apenas a dimensão informacional, mas também o vínculo emocional entre eleitor e candidato, comprometendo a autenticidade da escolha democrática.
Sob um viés epistemológico, Felipe Muanis (2023), em sua obra Imagens, inteligência artificial e a incontornabilidade da metacrítica, explica que a IA rompeu com o “referente real” da imagem técnica, instaurando uma “desconfiança generalizada do real”. Em sua análise, essa ruptura gera dois efeitos perversos: permite que falsidades pareçam verdadeiras e que verdades sejam desacreditadas sob alegação de manipulação — fenômeno chamado de “dividendo do mentiroso”. Tal ambiguidade reforça a vulnerabilidade do eleitor diante da desinformação digital.
Para conter esses riscos, o TSE determinou que todo conteúdo gerado por IA fosse identificado de modo claro e visível, além de prever sanções para uso indevido de símbolos ou imagens públicas e instituir canais céleres de denúncia e remoção de conteúdo manipulado. A experiência das eleições de 2024 comprovou a importância dessa resposta rápida, embora a fiscalização ainda enfrente limitações em ambientes privados de mensagens e na capacidade técnica do eleitor em detectar falsificações complexas.
Em síntese, a manipulação de imagens com IA constitui desafio multidimensional à democracia. As reflexões de Andrade e Muanis demonstram que os deepfakes não se restringem a um problema tecnológico, mas ameaçam a própria deliberação pública. O relativo sucesso das medidas do TSE mostra que uma regulação técnica e ágil pode reduzir danos sem restringir a liberdade política.
Enquanto os deepfakes pornográficos violam direitos individuais, os eleitorais atingem um bem coletivo: a legitimidade democrática. A resposta a essa ameaça requer não só criminalização e remoção de conteúdos falsos, mas também políticas institucionais que garantam integridade informacional nas eleições. Assim, a experiência eleitoral brasileira oferece um modelo relevante para a regulação de deepfakes em outras esferas sociais, conectando o debate eleitoral à próxima seção, que examina a necessidade de mecanismos permanentes de proteção contra manipulações algorítmicas sem sufocar a inovação tecnológica.
ALEGAÇÕES FINAIS
Esta pesquisa analisou as relações entre direito de imagem, inteligência artificial e deepfakes, evidenciando desafios éticos, legais e sociais. Constatou-se que o ordenamento jurídico brasileiro é insuficiente para lidar com tecnologias de manipulação de imagem, exigindo avanços regulatórios para proteger a dignidade e a privacidade.
O estudo mostrou os riscos dos deepfakes não consensuais em pornografia, política e redes sociais, destacando a necessidade de responsabilização jurídica eficaz. A LGPD e o direito penal foram apontados como instrumentos essenciais para mitigar danos e punir infratores.
Propõe-se um marco legal específico que criminalize a produção e circulação de deepfakes sem consentimento, com penas agravadas em casos de pornografia, lucro ou desinformação eleitoral. Isso garantiria maior segurança jurídica às vítimas e operadores do direito.
Defende-se também a reforma da LGPD para tratar dados biométricos faciais e vocais como sensíveis de natureza especial, exigindo consentimento expresso. Sugere-se ampliar o direito ao esquecimento digital e exigir marcação técnica em conteúdos gerados por IA fortalecendo a proteção contra abusos.
É urgente regulamentar plataformas digitais, principais vetores de disseminação de deepfakes. Elas devem adotar sistemas automáticos de detecção, remoção rápida de conteúdos denunciados e transparência nos algoritmos, assumindo responsabilidade subsidiária por danos.
Recomenda-se criar uma autoridade especializada em crimes digitais e IA, com atribuições para fiscalizar leis, emitir diretrizes técnicas, cooperar internacionalmente e capacitar agentes públicos, promovendo maior eficiência na repressão.
Sugere-se modernizar o Código Penal, incluindo o meio digital como agravante em crimes contra a honra e tipificando a “violação de intimidade por meio sintético”, além de ampliar a ação penal pública e criar varas especializadas.
No campo educacional, propõe-se uma Política Nacional de Educação Digital com ensino crítico sobre manipulação de imagem, campanhas públicas, capacitação jornalística e centros de apoio às vítimas, fortalecendo a resistência social às manipulações.
Internacionalmente, o Brasil deve aderir a tratados sobre crimes cibernéticos, criar protocolos de cooperação jurídica e participar de fóruns sobre ética em IA, alinhando-se às melhores práticas globais.
Por fim, é essencial incentivar a inovação responsável com certificações éticas, benefícios fiscais, sandboxes regulatórios e avaliação de impacto social em projetos de IA promovendo progresso tecnológico sem comprometer direitos fundamentais.
Este trabalho visa fomentar a conscientização sobre os riscos das tecnologias emergentes e propõe soluções que conciliem inovação com proteção jurídica. A superação dos desafios impostos pelos deepfakes exige ação coordenada, interdisciplinar e ética, capaz de preservar direitos e potencial transformador da inteligência artificial.
REFERÊNCIAS
ALEMANHA. Deepfake Act. Berlim: Parlamento Alemão, 2021.
ALEXY, Robert. Teoria dos direitos fundamentais. São Paulo: Malheiros, 2008.
ANDRADE, Luiz Gustavo de. O uso da imagem na propaganda eleitoral: breves noções sobre seu tratamento legal e jurisprudencial. s.l.: s.n., 2024.
ASCENSÃO, José de Oliveira. Direitos da personalidade. Coimbra: Almedina, 2012.
AYRES, Ian; BRAITHWAITE, John. Responsive regulation: transcending the deregulation debate. Oxford: Oxford University Press, 1992.
BITTAR, Carlos Alberto. Os direitos da personalidade. 5. ed. São Paulo: Forense, 2015.
BRASIL. Constituição (1988). Constituição da República Federativa do Brasil. Brasília, DF: Senado Federal, 1988.
BRASIL. Decreto-Lei nº 2.848, de 7 de dezembro de 1940. Código Penal. Diário Oficial da União, Rio de Janeiro, 31 dez. 1940.
BRASIL. Lei nº 12.965, de 23 de abril de 2014. Marco Civil da Internet. Diário Oficial da União, Brasília, DF, 24 abr. 2014.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União, Brasília, DF, 15 ago. 2018.
BRASIL. Projeto de Lei nº 146, de 2024. Agrava a pena dos crimes de calúnia, difamação e injúria quando cometidos com uso de tecnologia deepfake. Brasília, DF: Congresso Nacional, 2024.
BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o uso da inteligência artificial no Brasil. Brasília, DF: Congresso Nacional, 2023.
BRASIL. Tribunal Superior Eleitoral. Resolução nº 23.610, de 18 de dezembro de 2019. Brasília, DF: TSE, 2019.
BRASIL. Tribunal Superior Eleitoral. Resolução nº 23.732, de 27 de fevereiro de 2024. Brasília, DF: TSE, 2024.
CAIRES MATOS, Brenda; SOTERO, Ana Paula da Silva. Violência digital e deepfakes: desafios contemporâneos. s.l.: s.n., 2019.
CHESNEY, Robert; CITRON, Danielle. Deep fakes: a looming challenge for privacy, democracy, and national security. Washington, DC: Brookings Institution, 2019. Disponível em: https://www.brookings.edu. Acesso em: 25 set. 2025.
CUPIS, Adriano de. Os direitos da personalidade. Rio de Janeiro: Forense, 1982.
CURZI, Barbara. Regulating deepfakes: international perspectives. s.l.: s.n., 2022.
DONEDA, Danilo. Da privacidade à proteção de dados pessoais. Rio de Janeiro: Renovar, 2019.
EUBANKS, Virginia. Automating inequality: how high-tech tools profile, police, and punish the poor. New York: St. Martin’s Press, 2018.
FARIA, José Eduardo. Mídia, polarização e desinformação na política contemporânea. s.l.: s.n., 2020.
FRANCIULLI NETTO, Domingos. A proteção ao direito à imagem e a Constituição Federal. Palestra apresentada na II Semana de Direito de Blumenau – XXII Semana de Estudos Jurídicos, Blumenau: FURB, 28 out. 2004.
GOODFELLOW, Ian et al. Generative adversarial networks. s.l.: s.n., 2014. Disponível em: https://arxiv.org/abs/1406.2661. Acesso em: 25 set. 2025.
GRECO, Rogério. Curso de direito penal: parte geral. 17. ed. Niterói: Impetus, 2019.
LEMOS, Ronaldo. Algoritmos e democracia: desafios contemporâneos. s.l.: s.n., 2017.
LESSA, Rafael; SPENCER, Lucas. Críticas ao uso abusivo da tecnologia. Revistas Jurídicas e Acadêmicas, s.l., 2019.
LESSIG, Lawrence. Code 2.0. New York: Basic Books, 2006.
MASSON, Cleber. Limites da tutela penal frente à manipulação digital. Revista TJPR – Gralha Azul, 2021.
Disponível em: https://revista.tjpr.jus.br/gralhaazul/article/download/184/142/515. Acesso em: 25 set. 2025.
MELO, Júnior. Inteligência artificial e segurança jurídica. s.l.: s.n., 2023.
MONTEIRO FILHO, José. Responsabilidade algorítmica, personalidade eletrônica e democracia. Revista EPTIC, v. 22, n. 2, 2020. Disponível em: https://periodicos.ufs.br/index.php/eptic/article/view/12021. Acesso em: 25 set. 2025.
MUANIS, Felipe. Imagens, inteligência artificial e a incontornabilidade da metacrítica. s.l.: s.n., 2023.
ROXIN, Claus. Estudos de direito penal. s.l.: s.n., 2006. Disponível em: https://www.academia.edu/7327721. Acesso em: 25 set. 2025.
RUSSELL, Stuart; NORVIG, Peter. Artificial intelligence: a modern approach. 4. ed. Hoboken: Pearson, 2021.
SARLET, Ingo Wolfgang. A eficácia dos direitos fundamentais. 11. ed. Porto Alegre: Livraria do Advogado, 2015.
SERACHI, Carine Regina. Inteligência artificial, viés algorítmico e justiça social. s.l.: s.n., 2024.
1Bacharelada no curso de Direito da Faculdade AGES de Senhor do Bonfim-BA. E-mail: marialuisaantunes.isa@gmail.com
2Mestre em direito. Advogada, professora e coordenadora de curso. laiseoc.adv@gmail.com
