DEEPFAKES E PRÁTICAS DE CONSUMO: INTEGRIDADE INFORMACIONAL, PROTEÇÃO DE DADOS E DIREITOS DE PERSONALIDADE NA ORDEM ECONÔMICA DIGITAL

REGISTRO DOI: 10.69849/revistaft/cl10202509041142


Francisca Sílvia da Silva Reis


RESUMO

O fenômeno dos deepfakes representa uma das expressões mais desafiadoras da inteligência artificial na economia digital contemporânea, caracterizado pela manipulação sofisticada de imagens, áudios e vídeos com alto grau de realismo. Embora possa ser empregado em contextos criativos e comerciais legítimos, o uso indiscriminado dessa tecnologia suscita preocupações centrais quanto à integridade informacional, à proteção de dados pessoais e à salvaguarda dos direitos de personalidade. Neste artigo, examina-se a interseção entre deepfakes e práticas de consumo sob a ótica do direito brasileiro, em diálogo com experiências internacionais, considerando o impacto sobre a confiança nas relações de mercado e a vulnerabilidade do consumidor diante da desinformação digital. A partir de pesquisa bibliográfica e análise jurídico-normativa, investigam-se os limites da responsabilidade civil e consumerista, os riscos de violação da privacidade, honra e imagem, bem como os desafios regulatórios para a governança da ordem econômica digital. Conclui-se que a regulação dos deepfakes deve se orientar por princípios de transparência, segurança informacional e efetividade dos direitos fundamentais, de modo a equilibrar inovação tecnológica e proteção do consumidor na sociedade digital.

Palavras-chave: deepfakes; ordem econômica digital; integridade informacional; proteção de dados; direitos de personalidade.

ABSTRACT

The deepfake phenomenon represents one of the most challenging expressions of artificial intelligence in the contemporary digital economy, characterized by the sophisticated manipulation of images, audio, and videos with a high degree of realism. Although it can be employed in legitimate creative and commercial contexts, the indiscriminate use of this technology raises central concerns regarding information integrity, the protection of personal data, and the safeguarding of personality rights. This article examines the intersection between deepfakes and consumer practices from the perspective of Brazilian law, in dialogue with international experiences, considering the impact on trust in market relations and consumer vulnerability to digital disinformation. Based on bibliographic research and legal-normative analysis, the article investigates the limits of civil and consumer liability, the risks of violations of privacy, honor, and image, as well as the regulatory challenges for the governance of the digital economic order. It concludes that the regulation of deepfakes should be guided by principles of transparency, information security, and the effectiveness of fundamental rights, in order to balance technological innovation and consumer protection in the digital society.

Keywords: deepfakes; digital economic order; information integrity; data protection; personality rights.

1. INTRODUÇÃO

As práticas de consumo na sociedade digital têm se tornado cada vez mais dependentes da circulação de informações confiáveis. Nesse cenário, o surgimento dos deepfakes – conteúdos audiovisuais manipulados por técnicas de inteligência artificial capazes de replicar imagens, vozes e movimentos com alto grau de realismo – inaugura novos dilemas para a ordem econômica digital. Se, por um lado, essa tecnologia pode ser explorada em contextos criativos e comerciais legítimos, por outro, sua utilização abusiva desafia a integridade informacional, fragiliza a proteção de dados pessoais e ameaça os direitos da personalidade, em especial a honra, a privacidade e a imagem.

A confiança, fundamento das relações de consumo, é diretamente impactada quando o consumidor não consegue distinguir conteúdos autênticos de representações artificiais. A difusão de deepfakes pode gerar desde publicidade enganosa e manipulação de preferências até a exploração indevida da identidade digital de indivíduos. O ordenamento jurídico brasileiro, estruturado pelo Código de Defesa do Consumidor (CDC), pela Lei Geral de Proteção de Dados (LGPD) e pelo Marco Civil da Internet, ainda revela insuficiências para enfrentar os dilemas da economia da atenção e da desinformação digital, marcados pela velocidade da inovação tecnológica e pela assimetria entre usuários e grandes plataformas.

Nesse contexto, a circulação massiva de conteúdos sintéticos não apenas desafia a autenticidade da informação, mas também compromete a confiança que sustenta as relações de mercado e a própria autonomia do consumidor diante de escolhas influenciadas por manipulações digitais. A utilização abusiva de deepfakes amplia riscos de fraude, publicidade enganosa, difamação e exploração indevida da identidade pessoal, colocando em xeque tanto a efetividade dos direitos fundamentais quanto a estabilidade da ordem econômica digital. É diante desse quadro que se formula a questão central deste estudo: como a regulação institucional e a tutela dos direitos da personalidade podem responder aos desafios impostos pelos deepfakes nas práticas de consumo, equilibrando inovação tecnológica, proteção de dados e salvaguarda da dignidade humana?

Assim, este artigo tem como objetivo analisar os deepfakes sob a ótica jurídico-institucional, discutindo sua compatibilidade com os princípios da integridade informacional, da autodeterminação dos dados e da tutela dos direitos da personalidade. Busca-se compreender as tensões entre inovação tecnológica e regulação normativa, avaliando riscos e oportunidades para a efetividade dos direitos do consumidor na ordem econômica digital.

A metodologia adotada é qualitativa, estruturada a partir de pesquisa bibliográfica e análise jurídico-normativa. O estudo parte da interpretação sistemática dos marcos normativos nacionais – notadamente o CDC, a LGPD e o Marco Civil da Internet – em diálogo com referenciais estrangeiros sobre governança digital e regulação da inteligência artificial. Essa análise é complementada pela literatura especializada em direitos da personalidade, proteção de dados e ética da informação, de modo a construir uma visão crítica sobre os impactos jurídicos e econômicos dos deepfakes. Além disso, a investigação confronta os dispositivos normativos com práticas concretas do mercado digital, especialmente na circulação de conteúdos sintéticos, buscando evidenciar os dilemas impostos pela economia da atenção e pela disseminação massiva de desinformação.

O referencial teórico contempla contribuições contemporâneas. No campo dos direitos fundamentais, Ingo Sarlet (2018) e Gustavo Tepedino (2019) exploram a relação entre dignidade da pessoa humana e tutela dos direitos da personalidade em chave constitucional. No debate sobre proteção de dados, Danilo Doneda (2019) e Bruno Bioni (2021) fornecem bases para compreender a autodeterminação informativa como núcleo da LGPD. A análise crítica da ordem econômica digital apoia-se nas reflexões de Shoshana Zuboff (2019) acerca do capitalismo de vigilância e de Luciano Floridi (2013; 2021) sobre a ética da informação. Ademais, Mireille Hildebrandt (2015) oferece aportes para problematizar as interações entre tecnologias inteligentes e direito, especialmente em matéria de governança digital.

A discussão aqui empreendida será desenvolvida em seis eixos analíticos, que percorrem desde a contextualização da ordem econômica digital até a análise das violações de direitos e dos impactos regulatórios, culminando em reflexões conclusivas sobre como compatibilizar inovação tecnológica, proteção de dados e tutela dos direitos fundamentais.

2. A ORDEM ECONÔMICA DIGITAL E OS NOVOS DESAFIOS DA INFORMAÇÃO

A transição para a ordem econômica digital redefiniu os parâmetros de produção, circulação e consumo de bens e serviços. Se no passado a materialidade dos produtos era o núcleo das relações de mercado, na contemporaneidade é a informação que desempenha papel central, funcionando como insumo, mercadoria e instrumento de poder. Nesse contexto, “[…] fenômenos como big data, inteligência artificial e plataformas digitais remodelam o espaço econômico, criando novas formas de dependência e vulnerabilidade para os consumidores” (Zuboff, 2019, p. 53). Com isso, a dinâmica informacional tornou-se, assim, uma variável estratégica para compreender tanto as oportunidades quanto os riscos que caracterizam a economia digital.

Ao mesmo tempo em que a informação sustenta processos de inovação e dinamiza mercados, ela também gera tensões normativas. A coleta massiva de dados, o tratamento algorítmico e a criação de conteúdos sintéticos ampliam os desafios de regulação, na medida em que os instrumentos jurídicos clássicos – como contratos e regras de responsabilidade civil – mostram-se insuficientes diante da velocidade e da escala das transformações tecnológicas (Floridi, 2021). A economia digital, ao fundar-se na manipulação de fluxos informacionais, evidencia que a proteção jurídica deve transcender fronteiras tradicionais, incorporando princípios de integridade, transparência e segurança.

Os deepfakes se inserem nesse cenário como um caso paradigmático. Essa tecnologia, ao permitir a criação de imagens e vídeos falsificados com alto grau de realismo, coloca em xeque os fundamentos da confiança informacional, elemento indispensável às relações de consumo. Conforme Hildebrandt (2015, p. 88), “[…] a economia digital depende da previsibilidade e da autenticidade para funcionar, e qualquer distorção desses elementos pode comprometer a própria ordem de mercado”. É justamente a partir dessa perspectiva que se torna necessário analisar a centralidade da informação, a integridade informacional e os riscos trazidos pelos deepfakes.

2.1 A centralidade da informação como bem econômico

A informação deixou de ser mero suporte da atividade econômica para se tornar bem em si mesma. “A informação é a matéria-prima das sociedades contemporâneas, estruturando não apenas as formas de produção, mas também as relações de poder” (Castells, 2009, p. 72). Esse caráter central se intensifica no mercado digital, em que dados podem ser replicados e utilizados em larga escala para personalizar ofertas, prever comportamentos e construir modelos de negócio.

As grandes plataformas ilustram a transformação da informação em ativo estratégico. Zuboff (2019) identifica no processo de extração massiva de dados comportamentais a base do ‘capitalismo de vigilância’. Nesse modelo, a vida cotidiana é convertida em mercadoria, e previsões sobre comportamento futuro tornam-se fonte de lucro. Tal prática, embora eficiente para empresas, representa risco para a autodeterminação dos indivíduos e para a própria noção de consentimento informado. 

No Brasil, esse movimento se reflete em debates sobre a proteção jurídica da informação. A LGPD reconhece a centralidade dos dados pessoais e estabelece princípios de finalidade e qualidade, impondo limites ao uso econômico da informação. Contudo, a simples positivação de direitos não garante efetividade diante da velocidade e da complexidade das tecnologias digitais. É necessário repensar instrumentos de enforcement que contemplem o dinamismo informacional (Doneda, 2019).

A centralidade da informação também redefine mercados. Serviços de crédito, saúde e comércio eletrônico dependem da análise de grandes volumes de dados para funcionar. A informação tornou-se fator decisivo na economia da atenção, em que o consumidor é atraído, retido e monetizado por meio de estímulos personalizados. Esse cenário amplia a vulnerabilidade do usuário, que raramente compreende a extensão do uso de seus dados (Bioni, 2021). Além da dimensão econômica, a informação assume caráter existencial quando vinculada a aspectos da personalidade. A imagem, a voz e a identidade digital não podem ser reduzidas a simples mercadorias. Assim, a dignidade da pessoa humana estabelece limites intransponíveis à exploração da personalidade. Portanto, a centralidade informacional deve ser analisada também sob a ótica da proteção da pessoa e não apenas do mercado (Sarlet, 2018).

No plano internacional, o reconhecimento da informação como bem essencial aparece em instrumentos como o General Data Protection Regulation (GDPR) europeu – Regulamento Geral de Proteção de Dados –, que impõe padrões de qualidade e responsabilidade no tratamento de dados. Essas experiências mostram que a centralidade informacional não é fenômeno isolado, mas componente de uma agenda global de governança digital. O Brasil, ao dialogar com tais marcos, pode fortalecer a proteção de consumidores em ambiente transnacional.

Tepedino (2019) observa que a regulação deve atuar para equilibrar liberdade de mercado e tutela da personalidade, evitando que dados se transformem em instrumentos de dominação econômica. Essa perspectiva reforça a necessidade de olhar para a informação como bem econômico e, ao mesmo tempo, como direito fundamental. Portanto, a centralidade da informação deve ser compreendida em sua dupla dimensão: motor de inovação e risco para a dignidade. O desafio do direito é compatibilizar esses polos, reconhecendo que a informação, na economia digital, não é apenas insumo, mas elemento estruturante da vida econômica e social.

2.2 O papel da integridade informacional no mercado digital

A integridade informacional é condição essencial para que a informação seja confiável e útil ao mercado. Para Floridi (2021, p. 134), “[…] a integridade da informação é condição necessária para a manutenção de ecossistemas digitais confiáveis”. Isso significa que, sem autenticidade e precisão, a informação deixa de cumprir sua função de orientar escolhas racionais de consumo, tornando o consumidor refém de manipulações.

O CDC consagra o direito à informação adequada, clara e verdadeira, estabelecendo um núcleo de proteção contra práticas enganosas. A LGPD reforça essa perspectiva ao exigir qualidade e segurança no tratamento de dados pessoais. Entretanto, como observa Bioni (2021), tais normas enfrentam dificuldades diante de falsificações sofisticadas como os deepfakes, que não apenas distorcem, mas criam realidades alternativas convincentes.

No plano internacional, o GDPR europeu prevê a exatidão como princípio fundamental, exigindo que dados sejam precisos e atualizados. A proposta de AI Act amplia esse debate ao propor requisitos de confiabilidade para sistemas de inteligência artificial. Esses instrumentos mostram que a integridade informacional está no centro das preocupações regulatórias globais, servindo de parâmetro também para o Brasil. Desse modo, a integridade informacional possui valor econômico. Empresas que investem em mecanismos de verificação e rastreabilidade ganham credibilidade e fidelizam consumidores. 

Por outro lado, a circulação de conteúdos manipulados aumenta custos de transação e reduz a previsibilidade contratual. Assim, a integridade funciona como infraestrutura para mercados eficientes e sustentáveis. Os deepfakes desafiam essa integridade porque se apresentam como conteúdos autênticos. Doneda (2019, p. 63) observa: 

[…] a circulação de informações falsas ou manipuladas compromete a própria noção de autodeterminação informativa, reduzindo o indivíduo a mero objeto da lógica mercadológica. Essa advertência reforça a gravidade da manipulação sintética para os direitos de personalidade e para a confiança nas relações de consumo.

Instrumentos técnicos como marcas d’água digitais, metadados verificáveis e protocolos de rastreabilidade são alternativas em discussão. No entanto, sua eficácia depende da cooperação de plataformas e da adesão internacional. Sem coordenação, tais medidas podem se mostrar insuficientes diante da velocidade viral de disseminação de deepfakes. Além da dimensão técnica e jurídica, a integridade informacional possui caráter ético. Desse modo, Floridi (2013) argumenta que a informação deve ser tratada como bem relacional, cujo valor se conecta à qualidade das interações sociais. Ou seja, a manipulação não degrada apenas a esfera individual, mas compromete a confiança coletiva e a própria democracia. 

Logo, assegurar a integridade informacional significa proteger tanto a liberdade contratual do consumidor quanto a estabilidade sistêmica da ordem econômica digital. Esse é o ponto de transição para compreender os deepfakes como ameaça direta à confiança no mercado.

2.3 Deepfakes como risco à confiança nas relações de consumo

O consumidor presume que informações visuais e sonoras correspondem à realidade. De acordo com Marques (2019, p. 94): “[…] o direito à informação adequada constitui garantia fundamental de equilíbrio nas relações de consumo”. Os deepfakes rompem essa expectativa ao criar conteúdos verossímeis que induzem escolhas baseadas em falsidade, corroendo a autonomia do consumidor.

A publicidade é campo fértil para o uso abusivo de deepfakes. Ao simular depoimentos de celebridades ou influenciadores, empresas podem induzir consumidores a erro, violando normas do CDC e prejudicando a concorrência. Esse uso distorce percepções de qualidade e confiança, transformando a manipulação em ferramenta de mercado. Influenciadores digitais são ainda mais vulneráveis. A apropriação indevida de sua imagem em deepfakes compromete sua reputação e causa prejuízos econômicos. Para os consumidores, o dano se traduz em escolhas induzidas por falsas recomendações. Esse cenário exige regulação clara sobre responsabilidade de anunciantes, plataformas e produtores de conteúdo.

Setores sensíveis, como saúde e finanças, também estão expostos. A manipulação de voz ou vídeo pode induzir condutas arriscadas, como investimentos fraudulentos ou tratamentos inadequados. A previsibilidade é condição mínima para confiança em ambientes digitais; sua perda gera riscos sistêmicos para a economia e para a sociedade. No âmbito jurídico, conforme Hildebrandt, 2015, p. 37); 

[…] os deepfakes desafiam critérios de autenticidade probatória. A facilidade de adulteração digital torna necessária a adoção de presunções e de mecanismos de certificação técnica. Sem tais recursos, litígios envolvendo conteúdos manipulados podem se tornar insolúveis ou excessivamente custosos.

A resposta regulatória precisa articular prevenção, detecção e responsabilização. Prevenção envolve padrões de autenticidade incorporados desde a criação do conteúdo. Detecção depende de ferramentas de verificação robustas e cooperação entre plataformas. A responsabilização deve estabelecer critérios claros de imputação, equilibrando inovação tecnológica e proteção jurídica.

A alfabetização midiática é componente indispensável nesse contexto. O consumidor precisa compreender os limites da verificação e os riscos de manipulação. Para Bioni (2021), a educação não substitui o dever de plataformas e fornecedores de assegurar ambientes digitais seguros. A responsabilidade deve ser compartilhada, mas proporcional ao poder econômico de cada agente. Assim, os deepfakes configuram risco sistêmico à confiança nas relações de consumo. Ao minar a integridade da informação, comprometem direitos da personalidade e ameaçam a estabilidade da ordem econômica digital. Ou seja, o enfrentamento desse fenômeno requer respostas multiníveis, que combinem regulação estatal, autorregulação responsável, inovação tecnológica e políticas educativas.

3. DEEPFAKES, PROTEÇÃO DE DADOS E DIREITOS DE PERSONALIDADE

A relação entre deepfakes, proteção de dados e direitos da personalidade revela-se particularmente sensível na economia digital. A manipulação sintética de imagens e vozes atinge não apenas a confiança do consumidor, mas também a dignidade e a privacidade dos indivíduos. Esses conteúdos, ao explorarem elementos biométricos e aspectos da identidade pessoal, inserem-se diretamente no campo dos dados sensíveis, cuja tutela é reforçada pela LGPD e pelo GDPR. Além do impacto econômico, há violação de valores existenciais fundamentais, como a honra e a integridade psíquica.

A proteção jurídica, nesse contexto, exige uma abordagem integrada que combine normas de defesa do consumidor, regras de proteção de dados e princípios constitucionais. O fenômeno dos deepfakes mostra que a fronteira entre dano individual e repercussão coletiva é tênue, pois a circulação de conteúdos manipulados compromete tanto a esfera privada quanto a confiança social. Como assinala Sarlet (2018), a dignidade da pessoa humana constitui parâmetro normativo que limita práticas abusivas, inclusive quando mediadas por tecnologias digitais.

A análise dessa problemática deve considerar também a natureza global dos fluxos informacionais. Os deepfakes podem ser produzidos em qualquer parte do mundo e disseminados em segundos, desafiando jurisdições nacionais. Essa característica reforça a necessidade de cooperação regulatória internacional, alinhando marcos como LGPD e GDPR a padrões emergentes, como o AI Act europeu. Nesse cenário, a proteção da personalidade e dos dados não pode ficar restrita ao plano doméstico, mas deve dialogar com agendas transnacionais de governança digital.

3.1 Proteção de dados pessoais na LGPD e no GDPR: imagens, voz e biometria como dados sensíveis

A LGPD, em seu art. 5º, II, classifica dados biométricos, imagens e voz como sensíveis, impondo regime jurídico reforçado para sua coleta e tratamento. Para Doneda (2019, p. 41), “[…] o reconhecimento da natureza sensível desses dados representa o avanço de uma proteção que vincula diretamente informação e dignidade da pessoa humana”. Tal enquadramento reforça que manipulações audiovisuais, como os deepfakes, não podem ser tratadas como meras distorções, mas como violações qualificadas.

O GDPR europeu adota posição semelhante, tratando dados biométricos como de categoria especial, cuja utilização só é admitida em hipóteses restritas. Bioni (2021) enfatiza que:

[…] a irreversibilidade da biometria aumenta a gravidade do risco: uma vez expostos, tais elementos não podem ser substituídos. Isso torna os deepfakes especialmente danosos, pois atingem informações que se confundem com a própria identidade pessoal, dificultando a reparação integral. 

A proteção de dados, nesse sentido, é extensão dos direitos da personalidade. A dignidade humana deve orientar a interpretação dos direitos fundamentais, incluindo a proteção contra usos indevidos da informação. Essa perspectiva implica que a tutela da personalidade em ambientes digitais precisa reconhecer a especificidade dos dados sensíveis, impondo barreiras mais robustas a sua manipulação (Sarlet, 2018).

Rodotà (2008) contribui ao afirmar que a autodeterminação informativa é a forma moderna de liberdade. O indivíduo deve ter controle sobre como sua imagem e sua voz são utilizadas, e qualquer manipulação sem consentimento rompe essa autonomia. Os deepfakes, ao apropriarem-se da identidade sem autorização, negam essa prerrogativa fundamental, convertendo a pessoa em objeto da lógica mercantil.

Outro ponto é que a LGPD impõe bases legais restritivas para o tratamento de dados sensíveis, como consentimento expresso e proteção da vida. Aplicado aos deepfakes, esse regime revela que a maioria das manipulações não encontra amparo jurídico. A ausência de base legal válida torna ilícita a prática e legitima a aplicação de sanções administrativas e reparação civil, ampliando a responsabilidade dos agentes envolvidos (Doneda, 2019).

O GDPR, por sua vez, reforça o princípio da accountability, exigindo que controladores comprovem conformidade regulatória. A transparência é elemento central desse modelo, permitindo responsabilização efetiva (Floridi, 2021). No entanto, a manipulação sintética compromete essa lógica, pois dificulta a identificação da origem e do responsável pelo conteúdo, demonstrando a necessidade de instrumentos técnicos adicionais.

Bioni (2021) destaca que a harmonização normativa internacional é crucial diante da natureza global dos fluxos digitais. O tratamento dos deepfakes exige diálogo entre sistemas jurídicos, reduzindo arbitragens regulatórias e fortalecendo a proteção da personalidade. Essa perspectiva aproxima o Brasil de padrões internacionais de governança, inserindo a LGPD em um cenário de convergência global. Dessa forma, imagens, voz e biometria, ao serem manipuladas por deepfakes, devem ser interpretadas como objeto de tutela reforçada. Reconhecer sua natureza sensível implica adotar mecanismos jurídicos e tecnológicos que garantam não apenas a privacidade, mas também a preservação da identidade e da dignidade humana em sociedades digitais.

3.2 Deepfakes e violação da privacidade, honra e imagem

Os deepfakes configuram violações diretas aos direitos da personalidade, sobretudo privacidade, honra e imagem. O direito à informação adequada constitui garantia fundamental de equilíbrio nas relações de consumo (Marques, 2019). Quando essa informação é deturpada por manipulação sintética, não há apenas infração ao CDC, mas agressão ao núcleo existencial da pessoa, que vê sua identidade utilizada de forma indevida.

A privacidade é atingida quando conteúdos íntimos são fabricados sem consentimento, como ocorre em pornografia não consensual. A exploração de dados e imagens pessoais converte indivíduos em matéria-prima de mercados informacionais, eliminando fronteiras entre público e privado. Esse fenômeno, quando associado aos deepfakes, amplia o sofrimento psíquico das vítimas, cujo controle sobre a própria vida íntima é rompido (Zuboff, 2019).

A honra sofre abalo quando a tecnologia é usada para imputar comportamentos desonrosos a alguém. Conforme Sarlet (2018), a dignidade impõe barreiras contra práticas que instrumentalizam a pessoa para fins econômicos ou políticos. Assim, a manipulação audiovisual não é apenas ofensa individual, mas problema coletivo, pois compromete reputações e abala a confiança social.

No tocante à imagem, a doutrina brasileira reconhece sua natureza dupla: patrimonial e existencial. A utilização não autorizada da imagem viola não apenas interesses materiais, mas também valores ligados à identidade (Tepedino, 2019). Com os deepfakes, esse risco é intensificado, porque a circulação em redes digitais torna a reparação difícil e frequentemente insuficiente. Nesse sentido, Doneda (2019) observa que:

[…] o controle sobre a informação pessoal é expressão contemporânea da liberdade. Quando a voz ou a face são manipuladas sem autorização, essa liberdade é negada, e o indivíduo perde o poder de autodeterminação. Tal violação conecta-se diretamente à Constituição, que protege a privacidade e a intimidade como direitos fundamentais indisponíveis. Outro ponto crítico é a permanência dos danos. 

Conteúdos falsos, uma vez divulgados, podem ser replicados indefinidamente, mesmo após sua remoção. Essa característica amplia a gravidade das violações, gerando sofrimento prolongado às vítimas. A degradação da qualidade da informação compromete não apenas indivíduos, mas a saúde do espaço público (Floridi, 2013). 

A violação da honra e da imagem também pode gerar repercussões coletivas. Quando deepfakes atingem figuras públicas, instituições democráticas podem ser desacreditadas. Hildebrandt (2015) aponta que a previsibilidade informacional é essencial para a confiança social; sua perda implica risco sistêmico para a economia e para a política. Assim, o problema transcende a esfera privada e alcança dimensões institucionais. Desse modo, os deepfakes representam ameaça existencial e coletiva, ao comprometer direitos da personalidade em escala inédita. A resposta jurídica deve articular tutela individual, responsabilidade coletiva e mecanismos de governança que impeçam a degradação estrutural da confiança informacional.

3.3 Responsabilidade civil e consumerista diante da manipulação de conteúdos digitais

A manipulação de conteúdos digitais por deepfakes repercute diretamente na responsabilidade civil e consumerista. O CDC prevê a responsabilidade objetiva do fornecedor por danos decorrentes de defeitos na informação, estabelecendo base normativa para tutela das vítimas. A dignidade da pessoa humana funciona como cláusula geral de proteção, impondo ao Estado e aos particulares deveres de respeito e promoção (Sarlet, 2018). Essa cláusula justifica reparações integrais diante de danos materiais, morais e existenciais.

A responsabilidade civil, nesse contexto, precisa ser adaptada às especificidades digitais. Marques (2019) argumenta que a vulnerabilidade do consumidor é acentuada em ambientes opacos, o que exige critérios objetivos de imputação. Nos deepfakes, a violação à informação adequada aciona não apenas a esfera contratual, mas também a extracontratual, impondo reparação mesmo sem vínculo direto entre consumidor e agente manipulador.

Plataformas digitais devem ser incluídas nesse regime de responsabilidade. Intermediários da sociedade em rede não podem se eximir de deveres de proteção (Doneda, 2019). Embora não caiba exigir controle absoluto, é legítimo impor medidas preventivas, sistemas de detecção e respostas ágeis de remoção. O não cumprimento desses deveres pode configurar falha de serviço e ensejar responsabilização. Nesse sentido, Hildebrandt (2015, p. 156) defende que:

[…] a responsabilidade deve ser proporcional à capacidade técnica e econômica do agente de prevenir danos. Assim, grandes plataformas que lucram com a circulação de conteúdo devem assumir ônus maiores que usuários comuns. Esse critério de imputação diferenciada garante justiça distributiva e fortalece a efetividade do regime de responsabilidade civil.

Os danos decorrentes dos deepfakes não se restringem ao plano individual. Zuboff (2019) explica que a exploração de informações gera externalidades negativas que afetam toda a sociedade. No caso dos deepfakes, a proliferação de conteúdos falsos corrói a confiança coletiva, eleva custos de transação e fragiliza o funcionamento do mercado digital. A reparação, portanto, deve considerar também dimensões coletivas. Outro ponto é o desafio probatório. Conteúdos digitais falsificados exigem novos parâmetros de autenticidade. Bioni (2021) propõe que selos de origem, logs auditáveis e certificações independentes sejam incorporados como presunções jurídicas para facilitar a prova. Essa inovação reduziria a assimetria processual e permitiria maior proteção às vítimas.

A responsabilidade consumerista também inclui sanções administrativas. O descumprimento de deveres informacionais por parte de fornecedores e plataformas pode ensejar multas, suspensão de atividades e obrigações de reparação coletiva. Esses instrumentos complementam a tutela civil e fortalecem a confiança no sistema de proteção ao consumidor. Assim, a responsabilidade civil e consumerista diante dos deepfakes deve ser compreendida de forma sistêmica. Mais que reparar danos individuais, é preciso garantir a estabilidade da ordem econômica digital, preservando a dignidade humana e a confiança que sustentam as relações de consumo.

4. REGULAÇÃO E AUTORREGULAÇÃO: CAMINHOS PARA A GOVERNANÇA DIGITAL

O fenômeno dos deepfakes expõe a necessidade de repensar os instrumentos de regulação e autorregulação na ordem econômica digital. O direito tradicional, ancorado em categorias como responsabilidade civil e tutela contratual, mostra-se insuficiente para lidar com as especificidades da manipulação audiovisual sintética. A velocidade de circulação, a dificuldade de atribuição de autoria e a opacidade tecnológica tornam essencial a construção de modelos regulatórios híbridos, que combinem normas estatais, mecanismos técnicos e práticas de governança corporativa.

Como destaca Floridi (2021, p. 87), “[…] a arquitetura da informação é transnacional por natureza, e qualquer resposta eficaz precisa reconhecer essa característica”. Nesse sentido, marcos nacionais isolados tendem a ser limitados, já que conteúdos manipulados podem ser produzidos em uma jurisdição e circular livremente em outra. Essa realidade impõe a necessidade de cooperação internacional e de alinhamento com padrões regulatórios mais amplos.

Ao lado da regulação estatal, cresce a importância da autorregulação e do compliance informacional adotado por plataformas digitais. Empresas como Google, Meta e TikTok já desenvolvem políticas próprias de marcação de conteúdo manipulado, remoção de deepfakes nocivos e criação de ferramentas de verificação de autenticidade. Contudo, tais medidas ainda são fragmentadas, dependem da boa vontade das corporações e, muitas vezes, respondem mais à pressão reputacional do que a compromissos jurídicos vinculantes.

O debate sobre governança digital deve, portanto, articular três dimensões: a regulação pública, que garante legitimidade e coercitividade; a autorregulação corporativa, que oferece flexibilidade e rapidez; e a corresponsabilidade social, que demanda alfabetização midiática e engajamento coletivo. Hildebrandt (2015) destaca que os modelos regulatórios contemporâneos precisam ser responsivos, adaptando-se à complexidade da interação entre direito e tecnologia. Esse tripé é fundamental para enfrentar os riscos trazidos pelos deepfakes de maneira efetiva.

4.1 Experiências internacionais (UE, EUA e China)

A União Europeia desponta como referência no enfrentamento regulatório da inteligência artificial e, por extensão, dos deepfakes. O GDPR já estabelecia princípios de proteção de dados, mas o AI Act avança ao classificar sistemas de IA em categorias de risco, impondo regras mais rigorosas aos de “alto risco”. Segundo Floridi (2021), a transparência é elemento central para criar ecossistemas digitais confiáveis. O AI Act, ao exigir documentação técnica e mecanismos de rastreabilidade, constitui modelo de regulação preventiva para lidar com manipulações audiovisuais.

Nos Estados Unidos, a abordagem tem sido fragmentada, variando entre legislações estaduais e iniciativas setoriais. Estados como a Califórnia aprovaram normas que proíbem deepfakes em contextos eleitorais ou pornográficos sem consentimento. A tradição norte-americana privilegia a liberdade de expressão, o que dificulta a criação de marcos federais amplos. Essa fragmentação gera insegurança, mas também revela a tensão entre proteção da personalidade e valores constitucionais distintos (Bioni, 2021).

A China, por sua vez, adota postura mais centralizada e rígida. Em 2019, o país implementou regras que obrigam a rotulagem de conteúdos manipulados, impondo sanções severas a quem os difunde sem aviso prévio. Os modelos autoritários podem instrumentalizar a regulação tecnológica para reforçar mecanismos de vigilância (Zuboff, 2019). Ainda assim, o exemplo chinês demonstra como a imposição estatal pode ser eficaz para controlar a circulação de deepfakes, ainda que com riscos para a liberdade.

A comparação entre esses modelos evidencia três caminhos distintos: a regulação preventiva da União Europeia, o modelo fragmentado dos EUA e a regulação centralizada da China. Cada abordagem reflete não apenas opções jurídicas, mas também valores políticos e culturais. A experiência internacional mostra que não há solução única, mas a combinação de estratégias pode inspirar adaptações contextuais.

O AI Act europeu traz especial relevância ao exigir que sistemas de IA gerem documentação acessível e permitam auditorias independentes. Para Hildebrandt (2015), a verificabilidade é requisito mínimo de accountability. Nesse sentido, a União Europeia consolida-se como pioneira ao propor instrumentos que associam inovação tecnológica a padrões de confiança, estabelecendo um paradigma que pode orientar outros países.

Nos EUA, embora não exista marco federal unificado, cresce a pressão por regulação nacional. Casos de manipulação audiovisual em campanhas eleitorais estimularam propostas no Congresso. A demora em criar normas gerais pode ampliar a vulnerabilidade de consumidores e cidadãos, reforçando a necessidade de um debate mais estruturado. A tensão entre liberdade de expressão e tutela da dignidade permanece o maior desafio (Doneda, 2019).

A experiência chinesa revela a eficácia de soluções centralizadas, mas também seus limites éticos. A exigência de marcação obrigatória de deepfakes reduz riscos de engano, mas reforça o controle estatal sobre a informação. A proteção de dados deve servir à liberdade e não à vigilância. Essa advertência é fundamental para distinguir regulações legítimas de usos abusivos (Rodotà, 2008). Com isso, as experiências internacionais mostram que a governança de deepfakes pode seguir caminhos distintos, mas todos convergem para a necessidade de transparência, rastreabilidade e responsabilidade. A adaptação desses modelos ao Brasil deve considerar especificidades institucionais e constitucionais, equilibrando a proteção da personalidade e liberdade comunicativa.

4.2 Desafios regulatórios no Brasil: Marco Civil da Internet, LGPD e PLs sobre IA

O Brasil dispõe de marcos importantes, como o Marco Civil da Internet, a LGPD e o próprio CDC, que já oferecem bases para a proteção do consumidor e dos dados pessoais. No entanto, esses instrumentos foram concebidos antes da popularização dos deepfakes, não contemplando diretamente a manipulação sintética de conteúdos. A circulação de informações falsas ou manipuladas compromete a própria noção de autodeterminação informativa (Doneda (2019). A observação é pertinente para avaliar lacunas normativas diante da nova tecnologia.

O Marco Civil da Internet estabelece princípios de responsabilidade, neutralidade e privacidade. Contudo, sua lógica é voltada para provedores de aplicação e conexão, não para manipulação de conteúdos audiovisuais sintéticos. A evolução tecnológica impõe desafios de atualização normativa, sobretudo para enfrentar práticas que não estavam no horizonte quando a lei foi aprovada. Esse descompasso cria dificuldades para responsabilizar produtores e difusores de deepfakes (Bioni, 2021).

A LGPD representa avanço significativo, especialmente por tratar de dados sensíveis como biometria e imagem. Ainda assim, sua aplicação prática encontra obstáculos. Sarlet (2018) sustenta que a dignidade humana deve orientar a interpretação da proteção de dados, mas na prática os mecanismos de fiscalização ainda carecem de estrutura robusta. A Autoridade Nacional de Proteção de Dados (ANPD) enfrenta desafios institucionais para dar respostas rápidas à manipulação sintética.

Projetos de lei sobre inteligência artificial buscam preencher essa lacuna. O PL nº 21/2020, em tramitação no Congresso Nacional, propõe diretrizes para o uso responsável da IA. A regulação deve priorizar princípios de transparência e explicabilidade, elementos centrais para enfrentar os deepfakes. No entanto, o debate brasileiro ainda é incipiente e carece de integração com experiências internacionais (Floridi, 2021).

Outro desafio é a fragmentação regulatória. Setores distintos, como eleitoral e consumerista, têm buscado respostas próprias para o uso de deepfakes. A proteção do consumidor exige abordagem sistemática, capaz de lidar com práticas de desinformação e publicidade enganosa (Marques, 2019). A ausência de coordenação entre órgãos reguladores fragiliza a eficácia das medidas adotadas.

O Marco Civil prevê responsabilidade subsidiária, mas os deepfakes demandam regime mais proativo. Intermediários digitais não podem ser totalmente isentos de deveres de prevenção (Doneda, 2019). Isso significa que as plataformas devem investir em mecanismos de detecção, rotulagem e remoção ágil, sob pena de falha de serviço.

A ausência de parâmetros probatórios específicos também constitui lacuna relevante. Litígios envolvendo deepfakes dependem de perícia técnica, muitas vezes inacessível a consumidores. Bioni (2021) propõe a criação de instrumentos jurídicos que estabeleçam presunções relativas de autenticidade associadas a protocolos técnicos de certificação. Essa inovação reduziria a vulnerabilidade processual das vítimas.

Assim, os desafios regulatórios no Brasil passam por atualização legislativa, fortalecimento institucional e integração internacional. A construção de um marco específico para deepfakes deve dialogar com a Constituição, assegurando equilíbrio entre liberdade de expressão, proteção de dados e direitos da personalidade. Esse caminho é fundamental para garantir que a inovação tecnológica não se converta em ameaça à confiança social.

4.3 O papel das plataformas digitais e práticas de compliance informacional

As plataformas digitais ocupam posição central na circulação de conteúdos e, consequentemente, na disseminação de deepfakes. Seu papel como intermediárias da comunicação lhes confere responsabilidade especial para preservar a integridade informacional. O poder informacional concentrado nas plataformas digitais redefine a própria arquitetura da vida social (Zuboff, 2019). Isso significa que a ausência de políticas de governança dessas empresas pode comprometer a confiança coletiva.

Práticas de compliance informacional têm se consolidado como respostas corporativas. Plataformas já adotam políticas de rotulagem de conteúdos manipulados, desenvolvem ferramentas de verificação de autenticidade e estabelecem canais de denúncia para usuários. Hildebrandt (2015) pondera que a autorregulação, embora limitada, pode oferecer respostas mais rápidas que a regulação estatal. Contudo, sua eficácia depende da transparência e da possibilidade de auditoria independente.

O modelo de compliance informacional precisa incluir mecanismos de prevenção, monitoramento e resposta. A prevenção envolve incorporar padrões de autenticidade no design de sistemas. O monitoramento exige uso de inteligência artificial para detectar deepfakes em circulação. Já a resposta implica políticas claras de remoção e comunicação aos usuários afetados. Tais medidas devem respeitar direitos fundamentais, evitando censura arbitrária (Doneda, 2019).

Outro aspecto é a monetização dos conteúdos. Muitas vezes, deepfakes geram engajamento lucrativo para plataformas. Marques (2019) argumenta que a vulnerabilidade do consumidor é acentuada quando a lógica do lucro se sobrepõe à proteção da informação. Isso significa que políticas de compliance precisam alinhar incentivos econômicos à integridade informacional, desmonetizando conteúdos enganosos e priorizando transparência.

A cooperação interplataformas constitui medida essencial, ou seja, a fragmentação das respostas dificulta a eficácia do combate aos deepfakes. Iniciativas conjuntas, como bancos de dados compartilhados de conteúdos manipulados, aumentam a capacidade de detecção e reduzem a circulação de falsificações. Essa prática reforça a corresponsabilidade das empresas na proteção do ambiente digital (Bioni, 2021).

O compliance informacional também deve ser integrado a estratégias públicas. A regulação estatal pode estabelecer padrões mínimos, exigindo relatórios de transparência e auditorias externas. Accountability não pode ser apenas retórica, mas precisa ser verificável por terceiros independentes (Floridi, 2021). Esse modelo garante que práticas corporativas não sejam meramente simbólicas, mas efetivas para proteger consumidores.

Há ainda dimensão educativa que pode ser incorporada pelas plataformas. Programas de alfabetização midiática, parcerias com escolas e campanhas de conscientização ampliam a resiliência social diante dos deepfakes. Sarlet (2018) enfatiza que a dignidade humana envolve não apenas proteção negativa, mas promoção ativa de condições para o exercício da liberdade. Essa lógica deve orientar também a atuação das empresas digitais.

O papel das plataformas vai além da mera intermediação: trata-se de agentes que moldam fluxos informacionais e impactam diretamente os direitos fundamentais. Práticas de compliance informacional consistentes, auditáveis e integradas à regulação pública são indispensáveis para assegurar que a inovação tecnológica ocorra de forma compatível com a proteção da dignidade e da confiança social. 

5. IMPACTOS ECONÔMICOS E PRÁTICAS DE CONSUMO

Os deepfakes representam um ponto de inflexão no debate sobre consumo digital, pois afetam diretamente a forma como a informação é produzida, distribuída e recebida pelos indivíduos. Ao manipular imagens, vozes e comportamentos, essa tecnologia pode induzir escolhas que não correspondem à vontade livre do consumidor. Nesse cenário, a economia digital deixa de ser apenas espaço de inovação e passa a se constituir também como campo de riscos informacionais e econômicos, que precisam ser regulados.

A economia da informação, como explicam Shapiro e Varian (1999), é caracterizada pela relevância dos sinais informacionais na tomada de decisão. Quando esses sinais são corrompidos, os custos de transação aumentam e a confiança é reduzida. Os deepfakes, nesse contexto, criam ruídos que comprometem a previsibilidade e a racionalidade das escolhas, ampliando assimetrias entre fornecedores e consumidores. A perda da integridade informacional compromete, portanto, o funcionamento saudável dos mercados digitais.

Além da dimensão econômica direta, os deepfakes impactam a economia da atenção. Davenport e Beck (2001, p. 18) destacam que “[…] a atenção é o recurso mais escasso da economia contemporânea”. Ao explorar visualmente conteúdos sensacionalistas e manipulados, os deepfakes capturam atenção de forma desproporcional, deslocando escolhas de consumo e fragilizando a autonomia. Assim, a manipulação audiovisual torna-se mecanismo de concorrência desleal, com impactos sociais e econômicos relevantes.

Os efeitos dos deepfakes vão além do consumo individual, atingindo a ordem econômica e a confiança coletiva. A circulação massiva de desinformação compromete não apenas escolhas privadas, mas também instituições democráticas. Esse raciocínio pode ser estendido ao mercado: ao corroer a credibilidade da informação, os deepfakes ameaçam a base de funcionamento das relações contratuais, da publicidade e da própria confiança sistêmica (Sunstein, 2017).

5.1 Deepfakes e publicidade enganosa: riscos à livre escolha do consumidor

A publicidade é campo privilegiado para o uso de deepfakes, especialmente porque sua função é persuadir consumidores por meio da imagem e da palavra. De acordo com Marques (2019), o direito à informação adequada constitui garantia fundamental de equilíbrio nas relações de consumo. Quando a publicidade se vale de conteúdos manipulados, viola esse princípio e compromete a livre escolha, induzindo consumidores ao erro e desequilibrando o mercado.

Casos de anúncios falsos em que celebridades aparecem promovendo produtos ilustram como os deepfakes podem ser usados para publicidade enganosa. A manipulação informacional retira do consumidor o controle sobre suas decisões, transformando-o em objeto de estratégias persuasivas. Essa prática viola não apenas o CDC, mas também princípios constitucionais ligados à dignidade e à liberdade contratual (Doneda, 2019).

A utilização de deepfakes em campanhas publicitárias desafia a eficácia de mecanismos tradicionais de controle. O CONAR e os órgãos de defesa do consumidor têm competência para coibir publicidade enganosa, mas a sofisticação técnica dos deepfakes dificulta a identificação de manipulações. Bioni (2021) sublinha que a proteção do consumidor na era digital depende de novos instrumentos probatórios e de maior cooperação institucional.

Shapiro e Varian (1999) explicam que mercados baseados em informação funcionam a partir da confiança na veracidade dos sinais. Quando anúncios falsos proliferam, o consumidor passa a desconfiar até mesmo de conteúdos legítimos, o que prejudica empresas idôneas. Assim, o uso abusivo de deepfakes mina a credibilidade do mercado publicitário como um todo.

Outro ponto refere-se ao risco à concorrência leal, de modo que as empresas que recorrem a deepfakes para promover seus produtos reduzem custos de marketing e ganham vantagem indevida sobre concorrentes que atuam de forma ética. Cohen (2019) estabelece que a economia informacional está marcada pela tensão entre inovação e manipulação, exigindo regulação que limite práticas abusivas. O uso de deepfakes na publicidade é um exemplo claro dessa tensão.

A manipulação audiovisual também fragiliza a capacidade de consentimento, isto é, a democracia informacional depende de escolhas baseadas em conteúdos verdadeiros. Aplicada ao consumo, essa lógica significa que decisões induzidas por deepfakes não podem ser consideradas livres. A publicidade enganosa sintética, portanto, viola tanto o CDC quanto os fundamentos da autonomia privada (Sunstein, 2017).

O dano gerado por deepfakes publicitários não é apenas individual. Quando consumidores perdem confiança em anúncios, toda a cadeia de consumo é afetada. Wardle e Derakhshan (2017) demonstram que desinformação em larga escala corrói a credibilidade de ecossistemas comunicativos. Esse efeito sistêmico torna a publicidade enganosa baseada em deepfakes um problema estrutural, não apenas pontual.

Assim, os deepfakes aplicados à publicidade configuram risco grave à livre escolha do consumidor e à lealdade concorrencial. Enfrentar essa prática exige regulação específica, fiscalização ativa e ferramentas tecnológicas de verificação, de modo a preservar tanto direitos individuais quanto a integridade do mercado.

5.2 Manipulação de influenciadores digitais e economia da atenção

A economia da atenção transformou os influenciadores digitais em agentes centrais da publicidade e do consumo. Quem controla a atenção controla os recursos mais valiosos da economia contemporânea. Nesse cenário, o uso de deepfakes para simular falas ou comportamentos de influenciadores cria grave distorção no mercado, induzindo consumidores a confiar em recomendações inexistentes (Davenport; Beck, 2001, p. 22).

A manipulação de influenciadores com deepfakes atinge duplamente: prejudica o influenciador, que sofre danos reputacionais, e o consumidor, enganado por falsas recomendações. Marques (2019) defende que a vulnerabilidade do consumidor é acentuada em ambientes digitais, em que a confiança substitui a verificação. Esse contexto torna a manipulação audiovisual ainda mais perigosa, pois explora a credibilidade como ativo econômico.

Para Bioni (2021), a economia digital é marcada por assimetria informacional, e os deepfakes ampliam essa assimetria ao tornar indistinguível o real e o falso. Isso sugere que consumidores perdem sua capacidade de avaliação crítica, tornando-se mais suscetíveis a práticas abusivas. A economia da atenção, ao monetizar engajamento, incentiva ainda mais o uso de conteúdos manipulados.

Além do dano individual, a manipulação de influenciadores compromete a lealdade concorrencial. Empresas podem simular endossos sem custos, obtendo vantagens indevidas. Cohen (2019) aponta que o capitalismo informacional favorece práticas de manipulação quando não há regulação efetiva. A aplicação de deepfakes nesse contexto representa justamente essa forma de exploração.

A exposição contínua a conteúdos falsos pode gerar apatia e erosão da confiança social. No caso do consumo, isso significa que consumidores podem passar a desacreditar até mesmo influenciadores legítimos, reduzindo a eficácia de campanhas honestas e desestabilizando o mercado publicitário. A manipulação também dificulta a responsabilização jurídica. Identificar o autor do deepfake é tarefa complexa, e plataformas frequentemente alegam neutralidade. De acordo com Doneda (2019), intermediários digitais devem assumir deveres proporcionais ao seu poder econômico. Isso significa que as redes sociais precisam ser responsabilizadas quando se beneficiam financeiramente da circulação de deepfakes.

Wardle e Derakhshan (2017) destacam que o desordenamento informacional afeta ecossistemas inteiros, não apenas indivíduos. Aplicado à economia da atenção, isso significa que a manipulação de influenciadores corrói a confiança coletiva em todo o modelo de consumo baseado em credibilidade digital. Esse efeito negativo atinge tanto consumidores quanto empresas idôneas. 

Com isso, a manipulação de influenciadores digitais com deepfakes é um dos maiores riscos à economia da atenção. Enfrentar essa prática exige regulação clara, mecanismos de detecção e políticas de responsabilidade para plataformas, de modo a preservar tanto a confiança individual quanto a integridade do mercado publicitário.

5.3 Custos sociais e econômicos da desinformação no mercado

Para Shapiro e Varian (1999), a desinformação produzida por deepfakes gera custos que extrapolam o âmbito individual e atingem toda a sociedade. Mercados dependem da confiabilidade dos sinais para operar de forma eficiente. Quando esses sinais são distorcidos, os custos de transação aumentam, a confiança se reduz e a eficiência do mercado é comprometida. A proliferação de deepfakes representa, portanto, um risco sistêmico para a economia digital.

Sunstein (2017, p. 44) alerta que:

[…] a exposição constante à desinformação cria bolhas cognitivas e enfraquece a deliberação pública. Esse efeito não se restringe à política, mas atinge também o mercado, onde consumidores passam a tomar decisões com base em informações falsas. Assim, os custos da desinformação incluem escolhas de consumo ineficientes, alocação incorreta de recursos e prejuízos à concorrência justa.

A desinformação como fenômeno estrutural que afeta democracias e economias. A circulação de deepfakes reforça esse quadro ao criar incerteza generalizada sobre a autenticidade de conteúdos. Esse ambiente aumenta custos de verificação, desloca confiança para intermediários e favorece concentração de poder em plataformas que controlam ferramentas de autenticação (Cohen, 2019). Além disso, a desinformação gera externalidades negativas para empresas idôneas. A manipulação informacional distorce mercados, beneficiando atores oportunistas e prejudicando concorrentes éticos. O resultado é um círculo vicioso em que empresas confiáveis perdem espaço para aquelas que exploram a opacidade, reduzindo a qualidade geral do mercado.

A perda de integridade informacional compromete a própria efetividade do direito, já que normas dependem de informações verdadeiras para serem aplicadas. No mercado, isso significa maior dificuldade de fiscalização e de responsabilização, elevando custos regulatórios e reduzindo a eficácia das políticas públicas.

De acordo com Zuboff (2019), a exploração informacional converte experiências humanas em insumos mercantis, gerando desigualdade e insegurança. No caso dos deepfakes, esse processo resulta em prejuízos sociais difusos, que vão desde a erosão da confiança até o aumento da vulnerabilidade psíquica dos indivíduos.

Floridi (2013) acrescenta que a degradação da qualidade informacional ameaça a própria sustentabilidade da vida em sociedades digitais. Mercados e democracias dependem de ambientes informacionais íntegros, e sua corrosão implica riscos de longo prazo. Nesse sentido, os custos dos deepfakes não são apenas econômicos imediatos, mas estruturais, afetando a resiliência de todo o sistema.

Diante disso, os custos sociais e econômicos da desinformação provocada por deepfakes devem ser enfrentados de maneira integrada. É necessário combinar instrumentos jurídicos, soluções tecnológicas e políticas educativas para mitigar prejuízos e preservar a integridade da informação como bem público essencial.

6. CONSIDERAÇÕES FINAIS

Os deepfakes, como demonstrado ao longo deste estudo, constituem uma das expressões mais complexas da inteligência artificial aplicada ao ambiente digital, reunindo inovação tecnológica e riscos jurídicos de grande impacto. Embora possam ser utilizados em contextos legítimos, como entretenimento ou publicidade criativa, revelam-se especialmente problemáticos nas práticas de consumo, em razão da capacidade de comprometer a integridade informacional, manipular preferências e explorar indevidamente dados pessoais sensíveis. A confiança, fundamento das relações de mercado, torna-se vulnerável diante da dificuldade de distinguir o verdadeiro do manipulado, o que amplia a assimetria entre fornecedores e consumidores.

A análise normativa evidenciou que o ordenamento jurídico brasileiro dispõe de instrumentos relevantes para enfrentar esse cenário, especialmente o Código de Defesa do Consumidor, a Lei Geral de Proteção de Dados e o Marco Civil da Internet. O primeiro assegura direitos básicos como informação adequada e proteção contra publicidade enganosa; a segunda reconhece a natureza sensível de dados como imagem, voz e biometria, impondo salvaguardas reforçadas; e o terceiro estabelece princípios de responsabilidade e privacidade no ambiente digital. Contudo, a eficácia desses marcos legais depende de sua aplicação integrada, de capacidade institucional e de atualização normativa que acompanhe a sofisticação das manipulações audiovisuais.

O estudo também demonstrou que a promessa de inovação tecnológica, se não acompanhada de regulação efetiva, pode intensificar desigualdades e fragilizar a autonomia do consumidor. A manipulação de influenciadores digitais, o uso de deepfakes em publicidade e a desinformação em larga escala exemplificam como essa tecnologia pode agravar vulnerabilidades já existentes, deslocando custos de verificação para indivíduos e enfraquecendo a confiança coletiva. Assim, a proteção do consumidor na economia digital não pode ser compreendida apenas como garantia de acesso à informação, mas deve incluir qualidade, autenticidade e possibilidade de contestação eficaz contra práticas abusivas.

A experiência internacional mostrou que a governança dos deepfakes tem seguido caminhos distintos. A União Europeia, com o GDPR e a proposta do AI Act, busca estruturar respostas preventivas baseadas em transparência, rastreabilidade e responsabilidade. Os Estados Unidos, por sua vez, privilegiam soluções fragmentadas, combinando legislação estadual e enforcement setorial, enquanto a China adota modelo centralizado e rigoroso, impondo rotulagem obrigatória e sanções severas. Esses exemplos evidenciam que não há solução única, mas todos apontam para a necessidade de vincular inovação tecnológica à proteção de direitos fundamentais e à preservação da confiança informacional.

Diante dessas reflexões, conclui-se que a tutela do consumidor e dos direitos da personalidade frente aos deepfakes exige mais do que aplicação literal das normas existentes: requer um processo contínuo de reconstrução normativa e institucional. A força da regulação reside menos na rigidez das regras e mais na capacidade de responder a riscos dinâmicos, articulando regulação pública, autorregulação corporativa e corresponsabilidade social. O futuro da ordem econômica digital dependerá da consolidação de uma cultura regulatória responsiva, que valorize a integridade informacional como princípio, assegure a dignidade da pessoa humana como limite intransponível e preserve a responsabilidade das plataformas como condição indispensável para a justiça no consumo digital.

REFERÊNCIAS

BIONI, Bruno Ricardo. Proteção de dados pessoais: a função e os limites do consentimento. 2. ed. São Paulo: Thomson Reuters Brasil, 2021.

CASTELLS, Manuel. A sociedade em rede. 11. ed. São Paulo: Paz e Terra, 2009. (A era da informação: economia, sociedade e cultura, v. 1).

COELHO, Fábio Ulhoa. Curso de direito comercial: direito de empresa. 20. ed. rev., atual. e ampl. São Paulo: Thomson Reuters Brasil, 2021.

COHEN, Julie E. Between truth and power: the legal constructions of informational capitalism. Oxford: Oxford University Press, 2019.

DAVENPORT, Thomas H.; BECK, John C. The attention economy: understanding the new currency of business. Boston: Harvard Business School Press, 2001.

DONEDA, Danilo. Da privacidade à proteção de dados pessoais: elementos da formação da Lei Geral de Proteção de Dados. 2. ed. São Paulo: Thomson Reuters Brasil, 2019.

FLORIDI, Luciano. The ethics of information. Oxford: Oxford University Press, 2013.

FLORIDI, Luciano. Ethics of artificial intelligence. Oxford: Oxford University Press, 2021.

HILDEBRANDT, Mireille. Smart technologies and the end(s) of law: novel entanglements of law and technology. Cheltenham: Edward Elgar, 2015.

MARQUES, Cláudia Lima. Contratos no Código de Defesa do Consumidor: o novo regime das relações contratuais. 8. ed. São Paulo: Thomson Reuters Brasil, 2019.

RODOTÀ, Stefano. A vida na sociedade de vigilância: a privacidade hoje. Rio de Janeiro: Renovar, 2008.

SARLET, Ingo Wolfgang. A eficácia dos direitos fundamentais: uma teoria geral dos direitos fundamentais na perspectiva constitucional. 12. ed. Porto Alegre: Livraria do Advogado, 2018.

SHAPIRO, Carl; VARIAN, Hal R. Information rules: a strategic guide to the network economy. Boston: Harvard Business School Press, 1999.

SUNSTEIN, Cass R. #Republic: divided democracy in the age of social media. Princeton: Princeton University Press, 2017.

TEPEDINO, Gustavo. Temas de direito civil. 3. ed. Rio de Janeiro: Renovar, 2019.

WARDLE, Claire; DERAKHSHAN, Hossein. Information disorder: toward an interdisciplinary framework for research and policy making. Strasbourg: Council of Europe, 2017.

ZUBOFF, Shoshana. The age of surveillance capitalism: the fight for a human future at the new frontier of power. New York: PublicAffairs, 2019.