DEEPFAKES E O DIREITO À IMAGEM: DESAFIOS À TUTELA DOS DIREITOS DA PERSONALIDADE NO CONTEXTO DA MANIPULAÇÃO AUDIOVISUAL

REGISTRO DOI: 10.69849/revistaft/cl10202510031332


Francisco Weslley de Oliveira Albuquerque


RESUMO 

O avanço das tecnologias de inteligência artificial generativa tem impulsionado a criação de deepfakes, manipulações audiovisuais capazes de reproduzir de forma hiper-realista a imagem e a voz de pessoas, colocando em xeque a efetividade da tutela jurídica dos direitos da personalidade. No Brasil, a difusão dessas práticas desafia a proteção constitucional do direito à imagem, da honra e da privacidade, ampliando os riscos de violação em contextos que vão da desinformação política à exploração sexual não consentida. O objetivo deste estudo é analisar criticamente as repercussões jurídicas dos deepfakes sobre o direito à imagem, problematizando os limites da responsabilidade civil, as dificuldades probatórias e a necessidade de instrumentos processuais céleres e preventivos. Com abordagem teórico-crítica e método dedutivo, o artigo mobiliza as contribuições de Gustavo Tepedino, Ingo Wolfgang Sarlet, Anderson Schreiber, Stefano Rodotà e Daniel Sarmento para discutir os fundamentos da tutela da personalidade, os impactos da manipulação digital e os desafios da regulação tecnológica no ambiente democrático. A análise indica que a proteção contra deepfakes não pode se limitar à reparação ex post, mas exige a construção de um modelo normativo e processual que combine tutela preventiva, responsabilização efetiva e cooperação das plataformas digitais, em consonância com os princípios da dignidade da pessoa humana e da liberdade informacional. 

Palavras-chave: Deepfakes; direito à imagem; direitos da personalidade; inteligência artificial; tutela preventiva. 

ABSTRACT  

The advancement of generative artificial intelligence technologies has driven the creation of deepfakes, audiovisual manipulations capable of hyper-realistically reproducing people’s images and voices, challenging the effectiveness of legal protection of personality rights. In Brazil, the spread of these practices challenges the constitutional protection of the right to image, honor, and privacy, increasing the risk of violations in contexts ranging from political disinformation to non-consensual sexual exploitation. The objective of this study is to critically analyze the legal repercussions of deepfakes on the right to image, problematizing the limits of civil liability, evidentiary difficulties, and the need for swift and preventative procedural instruments. Using a critical-theoretical approach and a deductive method, the article mobilizes the contributions of Gustavo Tepedino, Ingo Wolfgang Sarlet, Anderson Schreiber, Stefano Rodotà, and Daniel Sarmento to discuss the foundations of personality protection, the impacts of digital manipulation, and the challenges of technological regulation in a democratic environment. The analysis indicates that protection against deepfakes cannot be limited to ex post redress, but requires the development of a regulatory and procedural model that combines preventive protection, effective accountability, and cooperation from digital platforms, in line with the principles of human dignity and freedom of information. 

Keywords: Deepfakes; right to image; personality rights; artificial intelligence; preventive protection. 

1. INTRODUÇÃO 

A revolução tecnológica impulsionada pela inteligência artificial e pela aprendizagem profunda (deep learning) trouxe avanços significativos na manipulação de imagens e vídeos, dando origem ao fenômeno dos deepfakes. Essa tecnologia, capaz de simular rostos, vozes e expressões humanas com alto grau de realismo, tornou-se um dos maiores desafios contemporâneos para a proteção dos direitos da personalidade. Mais do que simples evolução das técnicas de edição, os deepfakes inauguram uma nova etapa da manipulação audiovisual, em que a linha entre o real e o artificial se torna tênue e de difícil identificação. 

No contexto brasileiro, a difusão dos deepfakes tem especial relevância em razão da proteção ampla conferida pela Constituição Federal de 1988 aos direitos da personalidade, como imagem, honra, vida privada e intimidade. A inserção desses direitos no rol dos direitos fundamentais reforça a necessidade de tutela eficaz diante de ameaças tecnológicas emergentes. Contudo, a velocidade de disseminação dos conteúdos falsificados e a dificuldade de aferição da autenticidade das provas colocam em xeque os mecanismos tradicionais de proteção civil e penal, gerando situações de vulnerabilidade jurídica para as vítimas. 

Esse fenômeno suscita um paradoxo normativo e institucional. De um lado, a tecnologia pode ser utilizada em contextos legítimos – como na indústria cinematográfica, na acessibilidade comunicacional e na preservação digital de patrimônios culturais. De outro, amplia sobremaneira os riscos de violações de imagem e dignidade, seja em casos de difamação, exploração sexual não consentida ou manipulação política e eleitoral. A questão que se impõe, portanto, é como assegurar a efetividade dos direitos da personalidade em um ambiente marcado pela circulação massiva de conteúdos falsificados e pela fragilidade dos instrumentos de controle preventivo. 

A reflexão acadêmica sobre o tema tem mobilizado distintas perspectivas. Enquanto autores como Gustavo Tepedino, Anderson Schreiber e Ingo Sarlet destacam a centralidade dos direitos da personalidade na ordem constitucional, pensadores como Stefano Rodotà e Mireille Delmas-Marty alertam para os riscos da insuficiência normativa frente às novas tecnologias digitais, apontando a necessidade de uma governança jurídica global. O debate situa-se, assim, entre a defesa de uma tutela robusta da dignidade humana e as tensões decorrentes da liberdade de expressão, da inovação tecnológica e da autorregulação das plataformas digitais. 

Diante desse quadro, o presente artigo tem como problema de pesquisa a seguinte indagação: quais são os desafios jurídicos que os deepfakes impõem à tutela do direito à imagem no Brasil, e de que forma o ordenamento jurídico pode responder a essa ameaça à proteção dos direitos da personalidade? Parte-se da hipótese de que a simples responsabilização civil e penal ex post é insuficiente para enfrentar os danos decorrentes da manipulação audiovisual, sendo necessária uma abordagem que privilegie mecanismos preventivos, probatórios e estruturais de proteção. 

Para responder a essa problemática, são formuladas três questões subsidiárias: (i) quais os fundamentos teóricos e normativos do direito à imagem como expressão dos direitos da personalidade? (ii) De que modo a tecnologia dos deepfakes impacta a eficácia da proteção civil e penal no contexto brasileiro? (iii) quais os caminhos normativos, jurisprudenciais e regulatórios que podem contribuir para uma tutela preventiva e eficaz no ambiente digital? 

O objetivo geral da pesquisa é analisar criticamente os impactos dos deepfakes sobre o direito à imagem no Brasil. Como objetivos específicos, pretende-se: (a) investigar os fundamentos constitucionais e civis da proteção da imagem no âmbito dos direitos da personalidade; (b) examinar os riscos e implicações jurídicas da manipulação audiovisual; (c) discutir os limites e potencialidades da responsabilidade civil, penal e administrativa frente aos deepfakes; e (d) indicar alternativas normativas e processuais para a construção de uma tutela preventiva e eficaz. 

Metodologicamente, a investigação adota uma abordagem qualitativa e teórico-crítica, com método dedutivo e revisão bibliográfica especializada. O percurso analítico parte da teoria geral dos direitos da personalidade, articulando-a com os desafios tecnológicos da manipulação digital e com experiências regulatórias nacionais e estrangeiras, a fim de problematizar os limites e as potencialidades do ordenamento jurídico brasileiro diante dos deepfakes. 

O artigo está organizado em quatro seções, além desta introdução e das considerações finais. Na primeira, apresentam-se os fundamentos teóricos e normativos do direito à imagem como direito da personalidade. Em seguida, são discutidos os aspectos tecnológicos e jurídicos dos deepfakes, destacando seus riscos e implicações. Na terceira, examinam-se os desafios da tutela civil, penal e processual frente à manipulação audiovisual. Por fim, analisam-se as perspectivas regulatórias e as propostas de fortalecimento da proteção dos direitos da personalidade no ambiente digital. 

2. DIREITOS DA PERSONALIDADE E O DIREITO À IMAGEM 

A dogmática dos direitos da personalidade, edificada sob o primado da dignidade da pessoa humana (art. 1º, III, CF/88), funciona como cláusula de contenção e de projeção da autonomia existencial do indivíduo, compreendendo atributos físicos, psíquicos e morais que o definem e singularizam, entre os quais avulta o direito à imagem; no plano constitucional, a centralidade dessa tutela é explicitada no art. 5º, X, ao dispor, em citação direta, que “são invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas, assegurado o direito a indenização pelo dano material ou moral decorrente de sua violação”, de modo que, como tem sustentado a doutrina civil-constitucional (Tepedino; Sarlet; Schreiber), a proteção da personalidade não se reduz a interditos negativos contra intromissões, mas se estende a dimensões positivas de autodeterminação informativa, gestão de atributos identitários e controle sobre fluxos comunicacionais que impactam a esfera existencial do sujeito. 

No direito privado brasileiro, o Código Civil de 2002 consolidou um microssistema aberto de proteção (arts. 11 a 21), cuja estrutura principiológica permite, por interpretação conforme a Constituição, acompanhar a mutabilidade tecnológica e social; nessa chave, o art. 11, em citação direta estrita, estabelece que os direitos da personalidade “[…] são intransmissíveis e irrenunciáveis”, “não podendo o seu exercício sofrer limitação voluntária”, sinalizando que o núcleo essencial da pessoa não é disponível como mercadoria jurídica e que a disponibilidade eventual (v.g., consentimentos pontuais) opera em raio estrito e controlado, como há muito indica a doutrina ao tratar da indisponibilidade relativa da personalidade.  

É nesse horizonte que o direito à imagem se apresenta como espécie qualificada de direito da personalidade, dotado de dupla dimensão – negativa (poder de excluir usos não consentidos) e positiva (poder de autorizar e gerir usos legítimos) – e cuja disciplina civil dialoga com o art. 20 do Código Civil, que, em citação direta, prevê que, “[…] salvo se autorizadas, ou se necessárias à administração da justiça ou à manutenção da ordem pública, a divulgação de escritos, a transmissão da palavra, ou a publicação, a exposição ou a utilização da imagem de uma pessoa poderão ser proibidas, a seu requerimento […] se lhe atingirem a honra, a boa fama ou a respeitabilidade, ou se se destinarem a fins comerciais”; de modo correlato, a literatura contemporânea, inspirada em Rodotà, enfatiza que a imagem no ecossistema digital é dado identitário circulante, exigindo técnicas de tutela que combinem responsabilidade, prevenção e governança informacional. 

2.1 Conceito e fundamentos dos direitos da personalidade no ordenamento jurídico brasileiro 

A concepção de direitos da personalidade no direito brasileiro decorre da necessidade de conferir proteção ampla e efetiva aos atributos essenciais da condição humana, vinculando-se diretamente ao princípio da dignidade da pessoa humana, erigido como fundamento da República Federativa do Brasil pela Constituição de 1988 (art. 1º, III). Trata-se de direitos inerentes ao ser humano, que não dependem de reconhecimento prévio do ordenamento, pois decorrem de sua simples existência. Nesse contexto, Gustavo Tepedino observa que “[…] os direitos da personalidade representam uma das mais relevantes manifestações da cláusula geral de proteção da dignidade humana” (Tepedino, 2004, p. 57), de modo que o conteúdo desses direitos não se esgota na enumeração legislativa, mas se expande em sintonia com os avanços sociais e tecnológicos. 

No plano constitucional, a Carta de 1988 garante a inviolabilidade da intimidade, da vida privada, da honra e da imagem, assegurando o direito à indenização pelo dano material ou moral resultante de sua violação (art. 5º, X). Nesse sentido, a Constituição brasileira constitui “[…] um verdadeiro estatuto jurídico da dignidade da pessoa humana, no qual os direitos da personalidade ocupam posição central” (Sarlet, 2015, p. 92). Assim, a proteção não se limita à função defensiva contra agressões, mas também busca promover condições para o pleno desenvolvimento da identidade, da autonomia e da integridade moral do indivíduo, consolidando uma visão ativa e expansiva da tutela constitucional. 

Já no direito privado, o Código Civil de 2002 trouxe expressa disciplina sobre os direitos da personalidade nos artigos 11 a 21, estabelecendo um microssistema protetivo que, diferentemente da codificação de 1916, desloca o foco do patrimônio para a pessoa. O art. 11 dispõe, em citação literal, que os direitos da personalidade “são intransmissíveis e irrenunciáveis, não podendo o seu exercício sofrer limitação voluntária”, sinalizando o caráter absoluto e extrapatrimonial desses direitos. Nesse ponto, “[..] a positivação dos direitos da personalidade no Código Civil de 2002 representa marco importante na constitucionalização do direito privado brasileiro” (Moraes, 2003, p. 84), enfatizando que a proteção da pessoa deve prevalecer sobre interesses puramente econômicos e patrimoniais. 

Por sua vez, Anderson Schreiber chama a atenção para a característica da indisponibilidade relativa dos direitos da personalidade. Embora sejam, em regra, inalienáveis e irrenunciáveis, esses direitos admitem restrições voluntárias em situações específicas, desde que não comprometam seu núcleo essencial. É o que ocorre, por exemplo, quando alguém consente na utilização de sua imagem em publicidade, sem que isso configure renúncia definitiva. Como afirma o autor, “[…] a indisponibilidade relativa dos direitos da personalidade decorre da necessidade de compatibilizar a autonomia privada com a proteção da dignidade, permitindo ajustes pontuais sem abdicação definitiva” (Schreiber, 2016, p. 133). Assim, a tensão entre autonomia e proteção da dignidade é solucionada por meio de um regime de limitações que prestigia a autodeterminação, mas impede abusos. 

Ademais, é relevante destacar a característica da imprescritibilidade, que distingue os direitos da personalidade dos direitos patrimoniais. Orlando Gomes, ao tratar do tema, pontua que “os direitos da personalidade não se extinguem pelo não exercício, porque não nascem da vontade, mas da própria condição humana” (Gomes, 1984, p. 134). Dessa forma, mesmo diante da ausência de uso ou manifestação formal do titular, a proteção desses direitos é permanente e independe de prazo prescricional. Essa peculiaridade demonstra que a tutela jurídica da personalidade se ancora em valores essenciais da pessoa, que permanecem intocados pela passagem do tempo ou pela inércia de seu titular. 

Convém enfatizar que a compreensão contemporânea dos direitos da personalidade deve dialogar constantemente com os riscos trazidos pela sociedade tecnológica e digital. Assim, “[…] os direitos ligados à identidade pessoal são fronteiras móveis, constantemente ameaçadas pelos avanços tecnológicos e pelas novas formas de manipulação da informação” (Rodotà, 2008, p. 212). Essa advertência é particularmente relevante em tempos de inteligência artificial e manipulações audiovisuais, como os deepfakes, que criam novas modalidades de violação à integridade pessoal. Desse modo, os fundamentos dos direitos da personalidade não podem ser interpretados de forma estática, mas precisam assumir um caráter evolutivo, apto a garantir uma tutela não apenas reparatória, mas também preventiva e estrutural, preservando a dignidade humana diante dos desafios emergentes do ambiente digital. 

2.2 O direito à imagem: tutela constitucional e civil 

O direito à imagem, como expressão dos direitos da personalidade, constitui atributo essencial da individualidade, representando tanto a projeção física da pessoa quanto sua identidade social e simbólica. No plano constitucional, a imagem é expressamente tutelada pelo art. 5º, X, da Constituição de 1988, que garante a inviolabilidade da honra, da vida privada e da imagem, assegurando indenização pelo dano material ou moral decorrente de sua violação. Nesse sentido, “[…] a proteção da imagem, no contexto constitucional, não se restringe à dimensão física, mas alcança a dimensão moral e simbólica do indivíduo, como manifestação da dignidade da pessoa humana” (Sarlet, 2015, p. 97). Assim, a tutela da imagem não se limita ao corpo ou ao retrato, mas abrange toda forma de representação que permita a identificação e a associação de uma pessoa no espaço social. 

No âmbito civil, o Código Civil de 2002 disciplina de forma específica a proteção da imagem no art. 20, ao estabelecer que “salvo se autorizadas, ou se necessárias à administração da justiça ou à manutenção da ordem pública, a divulgação de escritos, a transmissão da palavra, ou a publicação, a exposição ou a utilização da imagem de uma pessoa poderão ser proibidas, a seu requerimento, sem prejuízo da indenização que couber, se lhe atingirem a honra, a boa fama ou a respeitabilidade, ou se se destinarem a fins comerciais”.  

Tal dispositivo evidencia a dupla dimensão do direito à imagem: de um lado, a faculdade de impedir usos não consentidos; de outro, o poder de autorizar utilizações legítimas, normalmente vinculadas a contratos de natureza econômica. Trata-se de um “[…] direito de estrutura bifronte, que confere ao indivíduo tanto uma prerrogativa negativa, de exclusão, quanto positiva, de disposição controlada” (Tepedino, 2004, p. 61). 

Já Maria Celina Bodin de Moraes, analisando o tema, sustenta que a disciplina do art. 20 do Código Civil revela uma abertura normativa que exige interpretação conforme a Constituição, pois “[…] a imagem não se resume ao aspecto físico, mas envolve a identidade pessoal como projeção no espaço social, vinculando-se à proteção da dignidade” (Moraes, 2003, p. 95). Assim, a jurisprudência brasileira tem ampliado a noção de imagem para alcançar situações em que a representação digital ou audiovisual – como avatares, caricaturas e manipulações gráficas – também configuram violação. Esse alargamento interpretativo mostra-se essencial em tempos de tecnologias disruptivas, em que a manipulação de dados visuais ultrapassa a simples fotografia e alcança formas hiper-realistas de simulação, como no caso dos deepfakes. 

Por sua vez, Anderson Schreiber ressalta que o direito à imagem, embora seja direito absoluto, não pode ser compreendido como ilimitado. Para o autor, “a imagem é expressão da personalidade, mas seu exercício deve compatibilizar-se com a liberdade de informação e de expressão, sob pena de se converter em obstáculo ao debate público” (Schreiber, 2016, p. 142). Nesse sentido, a doutrina e a jurisprudência vêm reconhecendo que a divulgação de imagens em contextos jornalísticos ou de interesse público pode ser legítima mesmo sem autorização prévia do retratado, desde que respeitados os limites da proporcionalidade e da veracidade informativa. Essa tensão entre privacidade e interesse público revela a necessidade de constante ponderação de valores constitucionais, especialmente em uma sociedade midiática e digital. 

Ademais, a tutela da imagem no direito brasileiro encontra reforço na jurisprudência do Superior Tribunal de Justiça (STJ), que consolidou o entendimento de que a utilização indevida da imagem enseja dano moral in re ipsa, ou seja, prescinde de prova do prejuízo. Nesse ponto, é paradigmática a Súmula 403 do STJ, segundo a qual “independe de prova do prejuízo a indenização pela publicação não autorizada da imagem de pessoa com fins econômicos ou comerciais”. De acordo com esse enunciado, basta a comprovação do uso não autorizado e da finalidade lucrativa para se reconhecer a ofensa e a obrigação de indenizar. Tal orientação reforça a ideia de que a imagem, enquanto atributo existencial, não pode ser transformada em mercadoria sem consentimento do titular, sob pena de violar sua dignidade. 

A proteção da imagem no Brasil está em constante processo de ressignificação, acompanhando os desafios impostos pelas novas tecnologias. Conforme adverte Stefano Rodotà, “[…] os direitos ligados à identidade pessoal devem ser interpretados em chave dinâmica, sob pena de se tornarem incapazes de enfrentar as novas ameaças derivadas do uso de tecnologias digitais” (Rodotà, 2008, p. 213). No caso dos deepfakes, por exemplo, a manipulação audiovisual ultrapassa o simples uso comercial ou midiático, atingindo diretamente a integridade moral e a autodeterminação informacional da pessoa. Isso evidencia que a tutela constitucional e civil do direito à imagem precisa ser interpretada de forma evolutiva, de modo a contemplar não apenas reparação ex post, mas também instrumentos preventivos e inibitórios que respondam com eficiência à rapidez e ao alcance da circulação digital. 

2.3 Limites, exceções e colisões com outros direitos fundamentais 

A tutela do direito à imagem, embora ampla e robusta, não é absoluta, encontrando limites no próprio sistema constitucional, especialmente na necessária harmonização com outros direitos fundamentais, como a liberdade de expressão e o direito à informação. A Constituição de 1988, ao mesmo tempo em que garante a inviolabilidade da imagem (art. 5º, X), também assegura a livre manifestação do pensamento (art. 5º, IV) e a liberdade de comunicação e informação (art. 5º, IX e XIV).  

Nesse sentido, para Barroso (2009, p. 112), “[…] os direitos fundamentais não existem de forma isolada, mas em um sistema de coordenação e equilíbrio, no qual cada direito deve ser exercido até o ponto em que não comprometa a eficácia dos demais”. Assim, em situações de colisão, impõe-se a aplicação da técnica da ponderação, de modo a assegurar a máxima efetividade possível a cada direito em conflito. 

De acordo com a doutrina, a exceção mais recorrente à proteção da imagem ocorre no contexto de fatos de interesse público ou de relevância jornalística. A divulgação de imagens sem autorização pode ser legítima quando vinculada à liberdade de informação e ao direito da coletividade de acesso à verdade dos fatos, desde que respeitados os limites da proporcionalidade e da necessidade” (Schreiber, 2016, p. 147). A jurisprudência do Supremo Tribunal Federal tem caminhado na mesma direção, reconhecendo que a proteção à imagem não pode servir de escudo para impedir a divulgação de informações relevantes ao debate público. Esse entendimento evita que o direito à imagem se converta em instrumento de censura privada, devendo prevalecer o interesse coletivo sempre que houver justa causa e ausência de abuso. 

Nesse horizonte, a colisão entre imagem e liberdade de expressão exige avaliação contextualizada, não se resolvendo por fórmulas abstratas. A solução das colisões entre direitos fundamentais depende da ponderação no caso concreto, de acordo com os princípios da proporcionalidade e da razoabilidade (Sarmento, 2010). Isso significa que não basta invocar genericamente o interesse público para justificar a utilização de imagens sem consentimento; é necessário demonstrar a pertinência, a relevância social da divulgação e o respeito à veracidade dos fatos. Ou seja, a ponderação funciona como mecanismo de balanceamento, impedindo tanto o abuso da liberdade de expressão quanto a proteção desmedida da imagem. 

A doutrina também reconhece hipóteses específicas em que a utilização da imagem sem autorização do titular encontra respaldo no próprio ordenamento, como ocorre nas situações de administração da justiça ou manutenção da ordem pública, previstas expressamente no art. 20 do Código Civil. Nesses casos, a utilização da imagem é legítima porque atende a finalidades institucionais relevantes, não se vinculando ao proveito econômico ou à exploração midiática. 

Como ensina Maria Celina Bodin de Moraes, “[…] a restrição voluntária ou legal ao direito da personalidade deve sempre preservar o núcleo essencial da dignidade humana, que não pode ser sacrificado mesmo em nome de interesses coletivos” (Moraes, 2003, p. 101). Desse modo, as exceções são interpretadas de forma restritiva, assegurando que o direito à imagem não seja esvaziado por usos indevidos sob a aparência de interesse público. 

É necessário ressaltar que a colisão entre imagem e liberdade de expressão ganha novos contornos na era digital, em razão da velocidade da circulação de conteúdos e da facilidade de manipulação de imagens. O desafio contemporâneo não é apenas equilibrar direitos fundamentais, mas garantir que o exercício de um direito não se converta em mecanismo de exclusão ou de destruição do próprio espaço democrático (Rodotà, 2008). Essa advertência é crucial no caso dos deepfakes, em que a manipulação audiovisual pode ser justificada sob a aparência de humor, sátira ou expressão artística, mas, na prática, ocasiona danos irreparáveis à dignidade e à reputação da vítima. Assim, a ponderação deve considerar não apenas os direitos em colisão, mas também os efeitos sociais da circulação massiva de conteúdos falsificados. 

A solução das colisões entre imagem, liberdade de expressão e direito à informação demanda uma postura interpretativa sensível às transformações tecnológicas e sociais. Conforme aponta Jürgen Habermas, “[…] a legitimidade dos direitos fundamentais em sociedades complexas decorre de processos discursivos que buscam equilibrar autonomia privada e pública” (Habermas, 1997, p. 154). Isso significa que a ponderação deve ser orientada por uma lógica democrática, garantindo espaço para o debate público, mas sem permitir que a dignidade da pessoa seja instrumentalizada em nome de um suposto interesse coletivo. No caso brasileiro, o desafio consiste em conciliar a tradição protetiva dos direitos da personalidade com a necessidade de preservar a liberdade comunicativa em uma sociedade marcada pela instantaneidade digital e pelo risco de manipulações tecnológicas como os deepfakes. 

3. DEEPFAKES: TECNOLOGIA, RISCOS E IMPACTOS JURÍDICOS 

O fenômeno dos deepfakes se insere no contexto mais amplo da revolução digital promovida pela inteligência artificial e pelo aprendizado profundo (deep learning), alterando profundamente a forma como as sociedades contemporâneas lidam com a informação, a autenticidade e a confiança nos registros audiovisuais. Diferentemente de simples montagens ou edições, os deepfakes utilizam redes neurais artificiais capazes de reproduzir com elevado grau de realismo a imagem e a voz de indivíduos, tornando difícil, quando não impossível, distinguir o falso do verdadeiro.  

Nesse sentido, Chesney e Citron (2019) afirmam que “[…] a proliferação dos deepfakes ameaça a confiança social nos conteúdos audiovisuais e mina a credibilidade das evidências digitais”, o que significa uma ruptura estrutural na noção tradicional de prova e de circulação de informações. Ao mesmo tempo em que representam um marco tecnológico, os deepfakes também evidenciam a vulnerabilidade da esfera privada e da integridade pessoal frente a novos instrumentos de manipulação digital.  

Os direitos ligados à identidade pessoal são fronteiras móveis, constantemente ameaçadas pelas novas formas de manipulação da informação (Rodotà, 2008). A advertência é particularmente atual quando se observa que as tecnologias de síntese de voz e imagem estão cada vez mais acessíveis, inclusive em aplicativos de uso cotidiano, o que facilita sua utilização não apenas por grandes corporações, mas também por indivíduos comuns, muitas vezes com propósitos ilícitos ou abusivos. 

Por outro lado, o debate jurídico não pode ignorar que os deepfakes possuem uma dimensão ambivalente, marcada tanto por potenciais usos legítimos quanto por aplicações ilícitas e danosas. Em setores como o entretenimento e a educação, a tecnologia pode ser empregada para fins criativos e inovadores, gerando benefícios sociais e econômicos. Entretanto, na esfera ilícita, a manipulação de rostos e vozes abre espaço para condutas graves como pornografia não consentida, fraudes financeiras, ataques políticos e destruição de reputações. A disponibilidade de tecnologias de manipulação sem filtros jurídicos adequados amplia sobremaneira a vulnerabilidade da esfera privada e a exposição indevida da personalidade (Schreiber, 2020). 

Diante desse panorama, a análise dos deepfakes exige abordagem interdisciplinar, que envolva não apenas a descrição de seu funcionamento tecnológico, mas também a investigação de seus impactos jurídicos e sociais. Trata-se de um desafio que demanda a conjugação de saberes da ciência da computação, do direito constitucional, do direito civil e do direito digital, com vistas a compreender como esse fenômeno altera os contornos da tutela dos direitos da personalidade. A presente seção, portanto, estrutura-se em duas dimensões complementares: a primeira, relativa aos fundamentos tecnológicos e aos usos sociais dos deepfakes; e a segunda, voltada para os riscos jurídicos, os exemplos práticos e os desafios regulatórios que se colocam à proteção da honra, da privacidade e da imagem da pessoa. 

3.1 Fundamentos tecnológicos e usos sociais dos deepfakes 

A gênese dos deepfakes remonta às pesquisas em deep learning e, particularmente, ao desenvolvimento das Redes Gerativas Adversariais (GANs), criadas em 2014 por Ian Goodfellow e outros pesquisadores da área de inteligência artificial. Essas redes funcionam a partir da interação entre dois algoritmos: o generator, responsável por criar imagens falsas, e o discriminator, que avalia se a imagem gerada é real ou não. Por meio desse processo competitivo e iterativo, o sistema é capaz de produzir representações cada vez mais realistas, reduzindo progressivamente a diferença entre a imagem gerada e a realidade. Conforme explica Floridi (2019), “[…] a capacidade das GANs de aprender padrões complexos a partir de grandes bancos de dados de imagens e vídeos tornam os deepfakes praticamente indistinguíveis do material original”. 

Essa sofisticação técnica traduz-se em uma série de implicações sociais. Inicialmente, a tecnologia foi utilizada em ambientes acadêmicos e de pesquisa, mas rapidamente se disseminou em fóruns digitais, redes sociais e aplicativos de edição, o que ampliou sua acessibilidade. Hoje, qualquer usuário com conhecimento mediano em tecnologia consegue produzir conteúdos falsificados com relativo realismo, muitas vezes com softwares gratuitos disponíveis na internet. Essa democratização do acesso, embora represente avanço na difusão de conhecimento, também aumenta o potencial de usos nocivos, pois coloca nas mãos de indivíduos comuns ferramentas poderosas de manipulação audiovisual. 

No plano dos usos lícitos, os deepfakes vêm sendo explorados principalmente pela indústria do entretenimento. Estúdios de cinema têm utilizado a tecnologia para recriar atores falecidos em produções audiovisuais ou para rejuvenescê-los digitalmente, evitando a necessidade de substituição por dublês. Além disso, há experiências positivas no campo da acessibilidade, como projetos que permitem recriar a voz de pessoas que perderam a capacidade de falar, possibilitando-lhes manter uma identidade vocal. Esses exemplos revelam que a tecnologia, em si mesma, não é intrinsecamente negativa, devendo sua avaliação estar condicionada ao contexto de utilização e à finalidade a que se destina. 

Não obstante, os usos ilícitos constituem preocupação crescente. A pornografia não consentida com deepfakes, na qual o rosto de uma pessoa é inserido em um corpo alheio em cenas de teor sexual, é um dos problemas mais relatados mundialmente. Estudos recentes indicam que mais de 90% dos vídeos deepfakes disponíveis na internet possuem conteúdo pornográfico, majoritariamente contra mulheres. Além disso, há registros de manipulações com finalidades políticas, especialmente em períodos eleitorais, em que candidatos ou autoridades públicas são retratados em situações falsas, com potencial de desinformação em massa. Como adverte Chesney e Citron (2019), “[…] o uso malicioso dos deepfakes em processos eleitorais ameaça a própria integridade da democracia, ao corroer a confiança dos cidadãos na informação”. 

Outro campo de risco está relacionado a fraudes financeiras, em que vozes sintetizadas de executivos ou autoridades são utilizadas para induzir transferências bancárias ou autorizações de pagamentos. Tais práticas já foram registradas em países como Reino Unido e Alemanha, gerando prejuízos milionários a empresas. Esse aspecto evidencia que os deepfakes não são apenas uma questão de privacidade individual, mas também de segurança econômica e patrimonial. A tecnologia, portanto, transcende os limites da esfera privada, impactando também interesses coletivos e institucionais. 

A doutrina civil-constitucional brasileira tem começado a refletir sobre esses novos cenários. A identidade da pessoa, enquanto expressão da personalidade, deve ser protegida não apenas contra usos tradicionais da imagem, mas também frente às novas formas de manipulação tecnológica, sob pena de esvaziamento do princípio da dignidade (Moraes, 2003, p. 103). Isso implica reconhecer que a disciplina civil clássica sobre o direito à imagem, centrada no art. 20 do Código Civil, precisa ser interpretada à luz das transformações digitais, a fim de acompanhar os novos riscos da sociedade informacional. 

Nesse mesmo sentido, Anderson Schreiber observa que “[…] a plasticidade dos direitos da personalidade é condição indispensável para que se possa responder a violações emergentes, como as produzidas pelas tecnologias de inteligência artificial” (Schreiber, 2016, p. 131). O autor destaca que a dogmática civil não pode se engessar em categorias fixas, devendo ser capaz de oferecer soluções inovadoras para cenários de violação inéditos, como os promovidos pelos deepfakes. Isso reforça a necessidade de leitura constitucionalizada e evolutiva do direito à imagem. 

Apesar de todos os riscos, os deepfakes não podem ser reduzidos a um problema meramente jurídico. Eles constituem, antes de tudo, um desafio social e cultural, que demanda também estratégias de alfabetização midiática e desenvolvimento de tecnologias de detecção. Conforme lembra Floridi (2019), “[…] a luta contra a manipulação digital deve ser compreendida como esforço coletivo, que envolve não apenas legislações nacionais, mas também cooperação internacional, ética tecnológica e políticas educacionais”. Desse modo, os fundamentos tecnológicos e usos sociais dos deepfakes devem ser avaliados de forma equilibrada, reconhecendo suas potencialidades, mas também mapeando os riscos que exigem atenção regulatória. 

3.2 Riscos jurídicos, exemplos práticos e desafios regulatórios 

Os riscos jurídicos decorrentes dos deepfakes são múltiplos e atingem especialmente os direitos da personalidade, como honra, imagem e privacidade. Em sua dimensão mais imediata, a manipulação audiovisual pode produzir danos irreparáveis à reputação de indivíduos, sobretudo quando veiculada em larga escala nas redes sociais. Nesse sentido, a circulação descontrolada de informações manipuladas compromete a própria possibilidade de o indivíduo manter controle sobre sua identidade (Rodotà, 2008). A perda do controle sobre a própria imagem, em sociedades altamente conectadas, torna-se fonte de vulnerabilidade existencial e jurídica. 

Exemplos práticos já ilustram a gravidade do problema. Nos Estados Unidos, casos de pornografia de vingança com deepfakes têm levado estados como Virgínia e Califórnia a aprovarem leis específicas criminalizando a prática. Na União Europeia, o debate vem sendo incorporado ao Regulamento de Serviços Digitais (DSA), que prevê obrigações de rastreabilidade e transparência para plataformas online. Já no Brasil, embora ainda não haja legislação específica, tribunais estaduais têm reconhecido o dever de indenizar em hipóteses de manipulação digital, aplicando analogicamente o art. 20 do Código Civil e a Súmula 403 do STJ, que prevê indenização independentemente de prova do prejuízo quando a imagem é utilizada para fins econômicos sem autorização. 

Outro desafio central está relacionado à prova. A utilização de deepfakes fragiliza a confiança nos meios de prova tradicionais, pois a distinção entre conteúdo verdadeiro e manipulado se torna cada vez mais difícil. Como advertem Chesney e Citron (2019), “os deepfakes criam uma ‘defesa perfeita’ para agressores, que podem sempre alegar manipulação em vídeos comprometedores, e, ao mesmo tempo, tornam frágeis as vítimas, que terão de provar a falsidade em um ambiente de desinformação generalizada”. Essa chamada “defesa do mentiroso” (liar’s dividend) representa um dos maiores riscos institucionais trazidos pelos deepfakes, pois mina a credibilidade das evidências digitais no processo judicial. 

Do ponto de vista regulatório, experiências estrangeiras têm apontado caminhos. Nos Estados Unidos, alguns estados tipificaram a produção e divulgação de deepfakes maliciosos; na União Europeia, discute-se a criação de mecanismos obrigatórios de autenticação digital para diferenciar conteúdos originais de manipulados. Já na China, uma regulamentação recente exige que todos os conteúdos sintéticos sejam identificados por marcas d’água digitais, sob pena de responsabilização das plataformas que os hospedam. Essas iniciativas revelam que o combate aos deepfakes exige um mix regulatório, que combine normas jurídicas, deveres de conduta para plataformas e inovações técnicas. 

No Brasil, a ausência de legislação específica não significa lacuna normativa absoluta. 

A conjugação entre Constituição Federal, Código Civil, Marco Civil da Internet e Lei Geral de Proteção de Dados já fornece instrumentos de tutela, embora de forma fragmentada. Nesse ponto, Gustavo Tepedino observa que “[…] a proteção dos direitos da personalidade no Brasil deve ser interpretada em chave aberta, de modo a permitir respostas a novas formas de violação não previstas expressamente pelo legislador” (Tepedino, 2004, p. 62). Assim, ainda que não haja tipificação penal autônoma, é possível responsabilizar civilmente produtores e divulgadores de deepfakes, além de impor ordens de remoção de conteúdo. 

Outro aspecto relevante é o papel das plataformas digitais, que se tornaram os principais veículos de circulação dos conteúdos manipulados. Conforme defende Daniel Sarmento, “a eficácia da proteção dos direitos fundamentais na era digital depende, em grande medida, da corresponsabilização de atores privados que controlam os fluxos de informação” (SARMENTO, 2010, p. 83). Isso implica reconhecer que empresas como Meta, Google e TikTok possuem deveres positivos de vigilância e remoção de conteúdos ilícitos, devendo atuar preventivamente na identificação de deepfakes maliciosos. 

Conforme propõem Chesney e Citron (2019), o enfrentamento desse fenômeno exige uma estratégia multifacetada, baseada em três eixos: prevenção, responsabilização e educação midiática. No plano preventivo, é essencial a criação de mecanismos céleres de remoção e de medidas inibitórias; na dimensão da responsabilização, é necessário estabelecer critérios claros de responsabilidade para autores, divulgadores e plataformas; e, no plano educacional, é fundamental capacitar os cidadãos para identificar manipulações digitais e compreender os riscos que elas trazem para a democracia e para os direitos fundamentais. 

4. DESAFIOS À TUTELA JURÍDICA NO CONTEXTO DA MANIPULAÇÃO AUDIOVISUAL 

A emergência dos deepfakes desafia a estrutura tradicional de proteção dos direitos da personalidade, evidenciando a insuficiência dos mecanismos clássicos de responsabilização civil diante da velocidade e do alcance das violações digitais. Enquanto o direito civil brasileiro se consolidou a partir de categorias centradas em agressões tangíveis e individualizadas, a manipulação audiovisual contemporânea apresenta características próprias, como a viralização em rede, a dificuldade probatória e a irreversibilidade dos danos. Os instrumentos de tutela pensados para um mundo analógico mostram-se limitados para conter os riscos de um ecossistema comunicacional em rede (Schreiber, 2020). 

A responsabilização civil, embora seja pilar do sistema jurídico, enfrenta dificuldades para atender às peculiaridades do ambiente digital. Isso ocorre porque os efeitos da violação se projetam não apenas no indivíduo, mas também no espaço público, desafiando a lógica tradicional de reparação meramente individual. A proteção da personalidade exige mecanismos de tutela não apenas compensatórios, mas também preventivos e inibitórios, capazes de neutralizar riscos coletivos (Tepedino, 2004). A questão, portanto, não é negar a importância da reparação, mas reconhecer que ela se revela insuficiente quando os danos se multiplicam e se espalham de maneira instantânea. 

Ademais, os desafios não se restringem à responsabilização. A questão probatória é um dos pontos mais críticos na tutela contra deepfakes. O processo judicial, estruturado em torno da busca da verdade dos fatos, depende da produção de provas confiáveis; entretanto, os conteúdos digitais manipulados tornam cada vez mais difícil distinguir entre verdadeiro e falso. Nesse cenário, Chesney e Citron (2019, p. 83) alertam para o risco do chamado liar’s dividend, segundo o qual “[…] a simples existência dos deepfakes permite que culpados se defendam alegando falsidade, e que inocentes tenham dificuldade em demonstrar a manipulação sofrida”. Isso fragiliza a credibilidade das provas audiovisuais e ameaça a própria função jurisdicional de reconstrução da verdade processual. 

Diferentemente do dano físico ou patrimonial tradicional, o dano digital ocorre de forma quase instantânea e, em muitos casos, irreversível. A circulação em rede amplia exponencialmente a intensidade das violações, criando um cenário em que o tempo do direito não acompanha o tempo da tecnologia (Rodotà, 2008). Isso significa que a reparação tardia, ainda que concedida em termos pecuniários, dificilmente será capaz de recompor integralmente a dignidade e a reputação da vítima. 

4.1 Limites da responsabilização civil e desafios probatórios 

O primeiro grande desafio diz respeito aos limites do modelo clássico de responsabilização civil frente às violações causadas pelos deepfakes. Tradicionalmente, a responsabilidade por violação de imagem era estruturada a partir da identificação do agente ofensor e da demonstração do nexo causal entre a conduta e o dano. No entanto, em ambientes digitais, muitas vezes não é possível identificar o autor da manipulação, já que softwares de edição são utilizados de forma anônima, e os conteúdos são compartilhados em escala global. Ou seja, a fragmentação das cadeias de responsabilidade no ambiente digital dificulta a identificação do agente causador e fragiliza a eficácia da reparação (Moraes, 2003). 

Nesse contexto, surge a discussão sobre a corresponsabilização das plataformas digitais. O Marco Civil da Internet (Lei 12.965/2014), em seu art. 19, condiciona a responsabilização civil de provedores à existência de ordem judicial específica. No entanto, diante da velocidade de propagação dos deepfakes, essa exigência tem se mostrado ineficaz, pois o dano já está consumado quando a ordem chega a ser cumprida. Anderson Schreiber critica essa limitação ao afirmar que “[…] a neutralidade das plataformas é insustentável em contextos de graves violações de direitos da personalidade, exigindo-se a imposição de deveres positivos de prevenção e cooperação” (Schreiber, 2016, p. 144). 

Além da responsabilização das plataformas, a questão probatória constitui outro entrave. O processo civil brasileiro confere grande valor às provas documentais e audiovisuais, mas a existência dos deepfakes mina a confiança nesses meios. A perícia técnica surge como instrumento fundamental, mas sua efetividade depende de recursos tecnológicos e de prazos compatíveis com a velocidade do ambiente digital. Ingo Wolfgang Sarlet salienta que a tutela efetiva dos direitos fundamentais exige não apenas normas protetivas, mas também instrumentos processuais céleres e tecnicamente adequados à realidade digital (Sarlet, 2015. 

A dificuldade probatória também gera reflexos na distribuição do ônus da prova. Em casos de manipulação digital, exigir da vítima a demonstração cabal da falsidade pode representar ônus excessivo e inviabilizar a proteção. Nesse sentido, a doutrina vem defendendo a aplicação do art. 373, §1º, do CPC, que permite a inversão do ônus da prova quando a exigência do encargo probatório se mostra inviável. Tal orientação estaria em consonância com a lógica protetiva dos direitos da personalidade, que não podem ser esvaziados por barreiras processuais desproporcionais. 

Nos casos de deepfakes, a reparação em dinheiro, embora necessária, é incapaz de recompor integralmente a dignidade violada, já que a exposição da vítima muitas vezes se perpetua em arquivos replicados indefinidamente. Como observa Gustavo Tepedino, “a reparação pecuniária deve ser acompanhada de medidas inibitórias e de remoção, sob pena de se reduzir a tutela a mero cálculo econômico da dignidade” (TEPEDINO, 2004, p. 66). Isso reforça a necessidade de pensar a responsabilidade civil em termos mais amplos, voltados à recomposição da esfera existencial. 

Enquanto indivíduos mal-intencionados dispõem de ferramentas de fácil acesso para criar deepfakes, as vítimas enfrentam enormes dificuldades para provar a manipulação e obter a reparação. Essa disparidade reforça a vulnerabilidade das pessoas comuns diante das novas formas de violação, exigindo que o direito civil adote uma postura mais ativa e protetiva. Como sublinha Sarlet, “[…] a vulnerabilidade estrutural das vítimas em ambientes digitais impõe ao Estado o dever de adotar medidas reforçadas de proteção” (Sarlet, 2015, p. 106). 

Dessa forma, a responsabilização civil deve ser interpretada em chave evolutiva, superando a lógica reparatória clássica para incorporar dimensões preventivas e estruturais. Isso implica reconhecer que os deepfakes não podem ser tratados apenas como casos isolados de dano individual, mas como um fenômeno sistêmico, que exige soluções coletivas e regulatórias (Rodotà, 2008). 

A dificuldade probatória e a fragmentação das cadeias de responsabilidade geram risco de impunidade, o que compromete a eficácia geral da tutela. Sem mecanismos claros de responsabilização e sem instrumentos processuais ágeis, o ordenamento corre o risco de transformar a proteção da imagem em promessa vazia. É nesse ponto que se torna fundamental articular a responsabilidade civil com deveres de vigilância das plataformas, medidas inibitórias céleres e soluções probatórias tecnológicas, sob pena de o direito ficar aquém dos desafios impostos pela manipulação digital. 

4.2 Tutela preventiva, danos e a velocidade da viralização 

A segunda dimensão dos desafios jurídicos diz respeito à velocidade da circulação dos conteúdos digitais e à necessidade de repensar a tutela jurisdicional em termos preventivos. A viralização massiva de deepfakes faz com que, em poucas horas, um vídeo manipulado seja compartilhado milhares de vezes, tornando irreversível o dano à reputação da vítima. Nesse cenário, a tutela reparatória tradicional perde efetividade, pois chega tarde demais. Como sintetiza Rodotà, “[…] a eficácia da proteção depende de sua tempestividade: um direito tardio equivale a um não-direito” (Rodotà, 2008, p. 224). 

Medidas como ordens judiciais de remoção imediata, tutela inibitória e bloqueio de conteúdos são mecanismos indispensáveis para reduzir os efeitos da viralização. O Código de Processo Civil de 2015, ao ampliar a tutela de urgência e a tutela da evidência, fornece instrumentos processuais que podem ser aplicados nesse contexto, mas sua efetividade depende da capacidade de os tribunais compreenderem a especificidade dos danos digitais. O tempo do processo precisa ser compatibilizado com o tempo da lesão, sob pena de frustração da garantia constitucional dos direitos da personalidade (Sarlet, 2015). 

Os deepfakes não geram apenas danos morais, ligados à honra e à dignidade, mas também danos materiais e coletivos. Danos materiais podem ocorrer, por exemplo, em fraudes financeiras ou em prejuízos contratuais decorrentes da utilização indevida da imagem em contextos publicitários. Já os danos coletivos emergem quando a manipulação digital afeta a confiança social em informações públicas, como em processos eleitorais ou em ataques a instituições.  

A reparação pecuniária, embora necessária, deve ser acompanhada de medidas que busquem reduzir a permanência do conteúdo ilícito no ambiente digital. Isso envolve a cooperação entre Poder Judiciário, plataformas digitais e órgãos administrativos de regulação, de modo a criar mecanismos ágeis de remoção e de responsabilização compartilhada. Anderson Schreiber destaca que “[…] a resposta ao risco digital exige corresponsabilidade, na qual o 

Estado, as plataformas e os indivíduos compartilhem deveres de proteção” (Schreiber, 2016, p. 150). 

Nessa lógica, é imprescindível discutir a possibilidade de adoção de ordens estruturais em matéria digital. Inspiradas na processualística democrática, tais ordens poderiam impor às plataformas obrigações contínuas de monitoramento e de transparência na detecção de deepfakes, evitando a judicialização atomizada e ineficaz. A tutela da personalidade demanda medidas estruturais quando os danos são difusos e coletivos, sob pena de perpetuação da vulnerabilidade (Tepedino, 2004, p. 69). Essa abordagem inovadora poderia se revelar mais adequada à complexidade do ambiente digital. 

A prevenção não deve ser entendida apenas em termos judiciais, mas também em termos sociais. Políticas públicas de educação midiática são fundamentais para capacitar os cidadãos a identificar conteúdos manipulados e a compreender os riscos da desinformação digital. Como destacam Chesney e Citron (2019), “a luta contra os deepfakes deve combinar regulação, tecnologia e educação, em uma estratégia multifacetada”. Essa perspectiva demonstra que a proteção jurídica precisa dialogar com estratégias não jurídicas, numa abordagem integrada de defesa da dignidade. 

O modelo clássico, baseado apenas em indenização pecuniária posterior, mostra-se insuficiente frente à rapidez da viralização e à multiplicidade dos danos. É necessário construir um regime normativo e processual que privilegie a tutela preventiva e estrutural, impondo deveres positivos às plataformas e criando mecanismos céleres de reação judicial. Somente assim será possível assegurar que a dignidade da pessoa humana não seja reduzida a retórica diante dos novos riscos da manipulação digital. 

5. PERSPECTIVAS REGULATÓRIAS E SOLUÇÕES NORMATIVAS 

A discussão sobre os deepfakes não pode se restringir a análises de caráter técnico ou probatório, exigindo também uma reflexão sobre as respostas regulatórias disponíveis em nível nacional e internacional. O fenômeno desafia as fronteiras do direito positivo, evidenciando lacunas legislativas e a necessidade de adaptações normativas para lidar com violações em escala digital. A tutela dos direitos fundamentais na sociedade tecnológica deve ser pensada em chave dinâmica, sob pena de se converter em mera retórica (Rodotà, 2008). Assim, torna-se imprescindível mapear experiências estrangeiras, avaliar o marco normativo brasileiro e propor caminhos para o futuro da regulação. 

A experiência comparada mostra que diferentes países vêm adotando soluções regulatórias diversas, ora enfatizando a criminalização, ora impondo deveres positivos às plataformas digitais, ora estimulando mecanismos de transparência tecnológica. Essa heterogeneidade revela que não existe modelo único de enfrentamento dos deepfakes, mas múltiplas possibilidades que podem dialogar com as peculiaridades de cada ordenamento. Conforme aponta Mireille Delmas-Marty, “[…] a globalização das ameaças exige também uma globalização dos instrumentos de proteção, sem que isso implique uniformização cega, mas sim convergência regulatória” (Delmas-Marty, 2012, p. 118). 

No Brasil, a questão ainda se encontra em estágio inicial de debate. O ordenamento jurídico dispõe de normas constitucionais, civis e digitais que permitem uma tutela mínima, mas carece de regulação específica voltada ao fenômeno dos conteúdos sintéticos hiperrealistas. A Constituição de 1988, ao garantir a inviolabilidade da imagem e da privacidade, fornece base principiológica robusta, complementada pelo Código Civil (arts. 11 a 21), pelo Marco Civil da Internet e pela Lei Geral de Proteção de Dados (LGPD). Contudo, tais instrumentos se mostram fragmentados e insuficientes diante da complexidade das manipulações digitais. 

Nesse horizonte, a tarefa do direito não se limita à repressão, mas deve incluir estratégias preventivas, regulatórias e estruturais. É preciso compreender que os deepfakes não são apenas um problema individual, mas uma ameaça coletiva à integridade das relações sociais, políticas e institucionais. A construção de soluções normativas adequadas exige, portanto, diálogo interdisciplinar e sensibilidade para a natureza transnacional da tecnologia. A proteção da personalidade na sociedade digital depende da combinação de normas estatais, mecanismos privados de autorregulação e instrumentos internacionais de cooperação (Schreiber, 2020, p. 

217). 

5.1 Experiências estrangeiras e o marco normativo brasileiro 

Nos Estados Unidos, a abordagem regulatória em relação aos deepfakes tem se dado majoritariamente em nível estadual, com legislações específicas voltadas sobretudo à pornografia não consentida e à manipulação eleitoral. A Califórnia, por exemplo, aprovou em 2019 lei criminalizando o uso de deepfakes em campanhas políticas e prevendo sanções severas para a divulgação de conteúdos falsificados com fins difamatórios. Já a Virgínia tipificou penalmente a produção e a divulgação de deepfakes pornográficos sem consentimento. Essas experiências mostram que a regulação norte-americana privilegia a resposta repressiva, vinculando a tecnologia a ilícitos já tipificados, mas adaptando-os ao novo contexto digital. 

Na União Europeia, o debate é mais estruturado e integrado a políticas de governança digital. O Digital Services Act (DSA), aprovado em 2022, estabelece obrigações de transparência e rastreabilidade para plataformas digitais, impondo deveres de remoção rápida de conteúdos ilícitos, inclusive deepfakes. Além disso, discute-se a criação de mecanismos obrigatórios de marca d’água digital em conteúdos sintéticos, com vistas a garantir a autenticidade da informação. Como aponta Floridi (2020), “[…] a União Europeia tem buscado construir uma regulação baseada em direitos fundamentais, equilibrando inovação tecnológica e proteção da personalidade”. 

Na China, a legislação de 2020 determinou que todos os conteúdos gerados por inteligência artificial, incluindo deepfakes, devem ser identificados de forma clara e transparente. A norma impõe sanções tanto ao autor do conteúdo quanto às plataformas que não cumprirem os deveres de monitoramento. Essa abordagem evidencia uma postura mais intervencionista do Estado, que assume papel ativo na supervisão dos fluxos digitais, embora acompanhada de críticas quanto aos riscos de controle excessivo da comunicação. 

O Brasil, por sua vez, ainda não possui legislação específica sobre deepfakes, mas conta com um conjunto de normas aplicáveis. A Constituição garante a proteção da honra, da vida privada e da imagem (art. 5º, X); o Código Civil disciplina os direitos da personalidade (arts. 11 a 21) e prevê a indenização por danos morais e materiais; o Marco Civil da Internet (Lei 12.965/2014) regula a responsabilidade dos provedores de aplicação e a guarda de registros; e a LGPD (Lei 13.709/2018) dispõe sobre o tratamento de dados pessoais, aplicável também a conteúdos manipulados que envolvam dados sensíveis. 

A legislação brasileira não trata de forma direta dos conteúdos sintéticos hiper-realistas, tampouco impõe deveres específicos às plataformas quanto à detecção e remoção de deepfakes. Desse modo, o marco normativo nacional assegura a proteção da dignidade em termos gerais, mas ainda carece de dispositivos voltados às particularidades do ambiente digital contemporâneo (Tepedino, 2004). Isso reforça a necessidade de atualização legislativa e de interpretação constitucional evolutiva para que a tutela seja efetiva. 

Nesse cenário, a jurisprudência brasileira tem recorrido à aplicação analógica das normas existentes. O Superior Tribunal de Justiça já consolidou entendimento de que a utilização indevida da imagem gera dano moral in re ipsa (Súmula 403), entendimento que pode ser estendido aos casos de manipulação digital. Tribunais estaduais também têm concedido indenizações por violação da imagem em ambientes virtuais, ainda que sem referência explícita aos deepfakes. Isso revela que o Judiciário tem buscado preencher a lacuna legislativa, mas de forma casuística e sem uniformidade. 

É importante reconhecer que o marco normativo brasileiro precisa dialogar com experiências estrangeiras, absorvendo boas práticas e adaptando-as ao contexto nacional. A conjugação entre regulação repressiva, como nos Estados Unidos, e regulação preventiva, como na União Europeia, pode inspirar soluções híbridas. Ao mesmo tempo, deve-se evitar excessos de controle estatal, preservando a liberdade de expressão e de comunicação. Essa tarefa exige equilíbrio entre inovação, dignidade e democracia, em consonância com os princípios constitucionais de 1988. 

5.2 Propostas de aprimoramento legislativo e o papel das plataformas digitais 

A insuficiência do marco normativo brasileiro abre espaço para propostas de aprimoramento legislativo. Diversos projetos em tramitação no Congresso Nacional tratam de regulação de conteúdos digitais, como o Projeto de Lei das Fake News (PL 2630/2020), que busca estabelecer obrigações para as plataformas de redes sociais no combate à desinformação. Ainda que não trate especificamente dos deepfakes, o projeto pode ser interpretado como passo inicial para criar mecanismos de rastreabilidade e responsabilização aplicáveis também a conteúdos sintéticos. 

Uma das propostas recorrentes na doutrina é a criação de dispositivo específico sobre deepfakes no Código Penal ou em legislação própria, criminalizando sua produção e divulgação quando houver violação à dignidade da pessoa ou à integridade das instituições democráticas. 

Nesse sentido, Anderson Schreiber sustenta que “[…] a criminalização seletiva dos deepfakes maliciosos, sobretudo na pornografia não consentida e na manipulação eleitoral, constitui medida necessária de proteção da personalidade e da democracia” (Schreiber, 2020, p. 220). A resposta penal, no entanto, deve ser acompanhada de salvaguardas para evitar restrições desproporcionais à liberdade de expressão. 

Outro ponto central é a responsabilização das plataformas digitais. O modelo atual, previsto no art. 19 do Marco Civil da Internet, tem se mostrado insuficiente, pois condiciona a responsabilização à ordem judicial. Diante da velocidade da viralização, muitos juristas defendem a revisão desse dispositivo, impondo às plataformas deveres de remoção proativa em casos de violações flagrantes. A eficácia dos direitos fundamentais na era digital depende da corresponsabilização de atores privados que controlam os fluxos de informação (Sarmento, 2010). Assim, o papel das plataformas deve ser repensado em chave de deveres positivos de cooperação. 

Nesse horizonte, a autorregulação das plataformas também pode desempenhar papel relevante. Muitas empresas já desenvolvem sistemas de detecção automática de deepfakes e implementam políticas internas de remoção. Contudo, tais iniciativas são insuficientes sem fiscalização e transparência. A autorregulação só é eficaz quando acompanhada de mecanismos públicos de controle e de prestação de contas à sociedade. Isso sugere a necessidade de um modelo regulatório misto, que combine regulação estatal e autorregulação supervisionada. 

Ademais, propostas de ordem processual também têm sido aventadas. O fortalecimento das tutelas de urgência e a criação de procedimentos céleres para remoção de conteúdos ilícitos são medidas indispensáveis para compatibilizar o tempo do processo com o tempo da lesão digital. Como ressalta Sarlet, “[…] a efetividade da tutela jurisdicional em matéria digital exige instrumentos ágeis, sob pena de a proteção constitucional se converter em promessa ilusória” (Sarlet, 2015, p. 111). 

Políticas públicas de alfabetização midiática e de conscientização sobre os riscos dos deepfakes são fundamentais para reduzir a vulnerabilidade social. Chesney e Citron (2019) defendem que “[…] a regulação dos deepfakes deve ser compreendida como estratégia multifacetada, baseada em prevenção, responsabilização e educação”. Assim, não basta legislar; é preciso também promover cultura digital crítica e cidadã. 

A construção de soluções normativas deve se orientar pelo equilíbrio entre dignidade humana, inovação tecnológica e liberdade de expressão. O risco de excesso regulatório não pode ser ignorado, pois, como adverte Barroso, “a proteção dos direitos fundamentais não pode se transformar em instrumento de censura, sob pena de comprometer a própria democracia” (BARROSO, 2009, p. 120). O desafio é, portanto, formular um modelo normativo que seja ao mesmo tempo eficaz na proteção da personalidade e respeitoso dos valores democráticos, capaz de enfrentar os deepfakes sem sufocar a liberdade comunicativa. 

6. ORDENS ESTRUTURAIS E TUTELA PROATIVA DOS DIREITOS DA PERSONALIDADE 

A emergência dos deepfakes e sua capacidade de produzir violações em massa contra os direitos da personalidade demonstram que as categorias clássicas de tutela judicial não são suficientes para oferecer respostas adequadas. O modelo tradicional de responsabilização civil, baseado na reparação pecuniária posterior, não consegue acompanhar a velocidade da circulação digital e tampouco consegue recompor integralmente os danos existenciais sofridos pelas vítimas. Nesse contexto, impõe-se a necessidade de repensar os instrumentos processuais, especialmente a partir da noção de ordens estruturais. 

As ordens estruturais constituem modalidade de decisão judicial voltada à solução de litígios complexos, nos quais há violação de direitos fundamentais em escala coletiva ou estrutural, exigindo medidas contínuas e coordenadas. A ordem estrutural não se limita a resolver uma disputa entre partes, mas busca reconfigurar práticas institucionais para assegurar a efetividade de direitos constitucionais (Fiss, 1979). Essa concepção rompe com a lógica tradicional da sentença pontual e impõe ao Judiciário papel mais ativo na construção de soluções, em diálogo com outros poderes e atores sociais. 

No Brasil, a doutrina processual tem identificado a pertinência das ordens estruturais em contextos como políticas públicas de saúde, educação e proteção ambiental. Fredie Didier Jr. e Hermes Zaneti Júnior destacam que “[…] a processualística democrática exige soluções dialogadas, capazes de articular múltiplos atores em torno da implementação de direitos fundamentais” (Didier; Zaneti, 2019, p. 211). Essa abordagem permite compreender que a jurisdição não pode se limitar a proclamar direitos, mas deve viabilizar sua concretização, sobretudo em cenários de violações massivas e reiteradas. 

A aplicação desse modelo ao tema dos deepfakes mostra-se particularmente promissora. A manipulação audiovisual afeta não apenas indivíduos isolados, mas também o funcionamento do espaço público democrático, minando a confiança social na informação. Isso significa que o enfrentamento jurídico não pode ser reduzido a demandas individuais de indenização, mas precisa assumir caráter estrutural, impondo medidas permanentes de prevenção, monitoramento e remoção. As novas formas de violação dos direitos fundamentais no ambiente digital exigem respostas que transcendam o caso concreto, sob pena de perpetuação da vulnerabilidade coletiva (Sarmento, 2010). 

6.1 A processualística democrática e a tutela estrutural dos deepfakes 

Um primeiro aspecto a considerar é que os deepfakes geram danos de natureza difusa e coletiva, exigindo que a resposta jurisdicional seja desenhada em chave estrutural. Em lugar de sentenças voltadas apenas ao pagamento de indenizações, o Judiciário poderia impor às plataformas digitais deveres permanentes de monitoramento, de transparência e de adoção de tecnologias de detecção. Essa técnica decisória já encontra paralelo em ordens estruturais proferidas pelo Supremo Tribunal Federal em casos de políticas públicas, demonstrando que o modelo pode ser expandido para o campo digital. 

Além disso, as ordens estruturais favorecem o diálogo institucional. Em vez de soluções unilaterais, elas pressupõem articulação entre Judiciário, Executivo, Legislativo e sociedade civil, permitindo que a proteção dos direitos da personalidade em ambiente digital seja compartilhada. Como defende Roberto Gargarella, “[…] os litígios estruturais demandam arranjos institucionais que promovam a cooperação entre poderes, evitando a hipertrofia judicial” (Gargarella, 2014, p. 142). Isso mostra que a tutela estrutural não implica substituição da política pelo Judiciário, mas sim sua coordenação para garantir a efetividade de direitos. 

Outro ponto relevante é a possibilidade de utilização das tutelas inibitórias e preventivas como parte da arquitetura estrutural. A tutela inibitória, prevista no art. 497 do CPC, permite ao juiz impor obrigações de não fazer para prevenir violações iminentes, o que se ajusta perfeitamente ao caso dos deepfakes. Ao lado disso, medidas como a antecipação de provas e a inversão do ônus probatório podem ser incorporadas às ordens estruturais, reduzindo a vulnerabilidade das vítimas diante da dificuldade de comprovar a manipulação. 

Nesse horizonte, a processualística democrática reforça que a jurisdição deve atuar não apenas no plano repressivo, mas também no plano transformador. Isso significa que as decisões judiciais precisam contribuir para a criação de um ambiente digital mais seguro, no qual a circulação de conteúdos falsificados seja progressivamente reduzida. A defesa da identidade pessoal na sociedade da informação requer soluções estruturais, sob pena de se converter em retórica incapaz de enfrentar os riscos coletivos (Rodotà, 2008). Essa advertência evidencia a urgência de repensar os modelos tradicionais de tutela. 

Ademais, as ordens estruturais podem contribuir para superar o dilema da ineficiência reparatória. Como os danos causados por deepfakes são de difícil reversão, a reparação pecuniária isolada tende a ser insuficiente. Com a adoção de medidas estruturais, o Judiciário pode determinar a criação de protocolos de prevenção, a capacitação de equipes técnicas e a implementação de sistemas de verificação digital, medidas que, somadas, reduzem a ocorrência de violações. Trata-se de ir além do ressarcimento, em direção a uma verdadeira proteção proativa da personalidade. 

Outro elemento fundamental é a legitimidade democrática das ordens estruturais. Para evitar críticas de ativismo excessivo, tais decisões devem ser tomadas em diálogo com órgãos técnicos e instituições representativas, garantindo que a construção das soluções seja participativa. Jürgen Habermas adverte que “[…] a legitimidade das decisões em sociedades complexas decorre do processo discursivo de formação da vontade, e não apenas da autoridade formal do julgador” (Habermas, 1997, p. 156). Assim, o modelo estrutural deve ser compreendido como espaço de deliberação plural, e não como imposição verticalizada. 

Por sua vez, a doutrina brasileira já aponta para a pertinência de aplicar as ordens estruturais em casos de violações digitais. Os litígios que envolvem fluxos informacionais e redes digitais apresentam a mesma complexidade das políticas públicas, exigindo decisões estruturais que não se esgotam no caso concreto (Didier, 2019). Essa concepção amplia o horizonte de aplicação da processualística democrática, reconhecendo que a proteção dos direitos da personalidade na sociedade informacional requer respostas institucionais inovadoras. 

A adoção de ordens estruturais no enfrentamento dos deepfakes representa não apenas uma inovação processual, mas também um compromisso ético com a dignidade humana. Ao articular medidas preventivas, inibitórias e estruturais, o Judiciário assume papel de garantidor efetivo dos direitos da personalidade, adaptando-se às novas ameaças da era digital. O desafio consiste em equilibrar proteção e democracia, assegurando que a tutela seja proativa sem comprometer a legitimidade institucional. Essa é, em última análise, a promessa das ordens estruturais no contexto da manipulação audiovisual. 

7. CONSIDERAÇÕES FINAIS 

O fenômeno dos deepfakes reafirmou os desafios contemporâneos da tutela dos direitos da personalidade no Brasil, especialmente quanto ao direito à imagem. A manipulação audiovisual hiper-realista, viabilizada por técnicas de inteligência artificial, revelou-se instrumento ambivalente: de um lado, uma ferramenta inovadora com usos legítimos e criativos; de outro, um mecanismo de violação massiva da dignidade humana, com graves impactos para a honra, a privacidade e a identidade pessoal. A circulação desses conteúdos em redes sociais amplia o alcance da violação, convertendo o direito à imagem em categoria vulnerável diante da velocidade digital. Esse cenário evidencia que os mecanismos tradicionais de proteção, como a responsabilidade civil e a reparação pecuniária, embora importantes, são insuficientes para responder à complexidade dos danos causados. 

Essa constatação, contudo, apresenta caráter ambivalente. De um lado, confirma a força normativa da Constituição de 1988, que, ao consagrar a inviolabilidade da intimidade, da vida privada, da honra e da imagem, fornece base robusta para a defesa da dignidade humana em tempos digitais. De outro, expõe as fragilidades do marco regulatório nacional, que ainda carece de instrumentos específicos para lidar com os riscos derivados de manipulações audiovisuais de alta sofisticação. O Brasil dispõe de um arcabouço jurídico relevante – Constituição, Código Civil, Marco Civil da Internet e LGPD –, mas que se revela fragmentado diante das peculiaridades do fenômeno. A lacuna legislativa e a ausência de protocolos processuais céleres ampliam a vulnerabilidade das vítimas e dificultam a atuação jurisdicional tempestiva. 

É importante reconhecer que a insuficiência não decorre apenas de falhas legislativas, mas também da incapacidade dos instrumentos tradicionais de acompanhar a velocidade e a escala das violações digitais. A viralização instantânea de conteúdos falsificados mina a eficácia da tutela reparatória tardia e exige a construção de soluções preventivas e estruturais. Como se demonstrou, a dificuldade probatória e a “defesa do mentiroso” (liar’s dividend) reduzem a credibilidade da prova digital e comprometem a efetividade da jurisdição. Nesse contexto, a regulação de deepfakes não pode ser reduzida à repressão pontual, mas deve ser pensada como estratégia multifacetada, combinando prevenção, responsabilização e educação midiática. 

Por essa razão, impõe-se a necessidade de parâmetros normativos e processuais que reforcem a tutela preventiva. Isso inclui o fortalecimento das tutelas inibitórias, a adoção de medidas céleres de remoção de conteúdo e a imposição de deveres positivos às plataformas digitais. A prevenção não pode ser confundida com censura, mas deve ser entendida como virtude institucional que preserva a dignidade da pessoa humana em face da velocidade da tecnologia. A eficácia da proteção depende da capacidade de o direito adequar seu tempo ao tempo da lesão digital. Somente com instrumentos preventivos será possível reduzir o hiato entre a promessa constitucional de inviolabilidade da imagem e a realidade concreta das violações massivas. 

Além disso, o fortalecimento do diálogo institucional e da cooperação regulatória é indispensável. Experiências estrangeiras, como o Digital Services Act na União Europeia e legislações estaduais nos Estados Unidos, demonstram que a regulação dos deepfakes exige combinação de respostas repressivas e preventivas, além da corresponsabilização das plataformas digitais. No Brasil, a ausência de legislação específica reforça o caráter fragmentado das soluções judiciais, impondo aos tribunais papel de protagonismo na criação de parâmetros casuísticos. O desafio consiste em construir um modelo regulatório que una normas estatais, autorregulação das plataformas e educação midiática, reduzindo os custos sociais da manipulação audiovisual. 

Assim, os deepfakes devem ser compreendidos como fenômeno estrutural e inevitável da sociedade informacional, que coloca em xeque a proteção dos direitos da personalidade. O direito à imagem continuará sendo um dos mais afetados, mas sua tutela dependerá da capacidade de o ordenamento jurídico equilibrar prevenção e reparação, inovação tecnológica e proteção da dignidade humana. Apenas por meio da combinação entre instrumentos normativos específicos, ordens estruturais e cooperação institucional será possível preservar o duplo compromisso que sustenta o constitucionalismo democrático brasileiro: a efetividade dos direitos fundamentais e a preservação da liberdade comunicativa em um ambiente digital cada vez mais complexo. 

REFERÊNCIAS 

BARROSO, Luís Roberto. O Novo Direito Constitucional Brasileiro: Contribuições para a construção teórica e prática da jurisdição constitucional no Brasil. 6. ed. São Paulo: Saraiva, 2012. 

BARROSO, Luís Roberto. Curso de Direito Constitucional Contemporâneo: os conceitos fundamentais e a construção do novo modelo. 6. ed. São Paulo: Saraiva, 2021. 

CHESNEY, Robert; CITRON, Danielle. Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review, v. 107, n. 6, p. 1753-1819, 2019. 

FLORIDI, Luciano. The Logic of Information: A Theory of Philosophy as Conceptual Design. Oxford: Oxford University Press, 2019. 

GOMES, Orlando. Direitos da Personalidade. Rio de Janeiro: Forense, 1984. 

HABERMAS, Jürgen. Direito e Democracia: entre facticidade e validade. 2. ed. Rio de Janeiro: Tempo Brasileiro, 2003. 2 v. 

MORAES, Maria Celina Bodin de. A Caminho de um Direito Civil Constitucional. Rio de Janeiro: Renovar, 2003. 

RODOTÀ, Stefano. A Vida na Sociedade da Vigilância: a privacidade hoje. Rio de Janeiro: Renovar, 2008. 

SARLET, Ingo Wolfgang. A Eficácia dos Direitos Fundamentais. 13. ed. Porto Alegre: Livraria do Advogado, 2021. 

SARMENTO, Daniel. Direitos Fundamentais e Relações Privadas. 2. ed. Rio de Janeiro: Lumen Juris, 2010. 

SCHREIBER, Anderson. Direitos da Personalidade. 3. ed. São Paulo: Atlas, 2016. 

SCHREIBER, Anderson. Direito Civil Contemporâneo: novos problemas à luz da Constituição. 3. ed. São Paulo: Atlas, 2020.

TEPEDINO, Gustavo. Temas de Direito Civil. Rio de Janeiro: Renovar, 2004.