A RESPONSABILIDADE CIVIL POR FAKE NEWS E DISCURSO DE ÓDIO NAS REDES SOCIAIS: OS REFLEXOS DA AUSÊNCIA LEGISLATIVA E A APLICABILIDADE DO DIREITO À LIBERDADE DE EXPRESSÃO

REGISTRO DOI: 10.69849/revistaft/ch10202512080844


Marco Aurélio de Oliveira Alves Filho
Orientador: Prof. Filipe Augusto Caetano Sancho
Orientador: Prof. Marcus Vinícius Silva Coelho


RESUMO 

O presente trabalho analisa a responsabilidade civil decorrente da disseminação de  fake News e do discurso de ódio nas redes sociais, considerando os desafios impostos  pela ausência de regulamentação específica no ordenamento jurídico brasileiro, a  pesquisa, de natureza bibliográfica e qualitativa, investiga a colisão entre o direito à  liberdade de expressão e a proteção dos direitos da personalidade, especialmente  honra, imagem e dignidade humana. São examinados os dispositivos do Código Civil  e do Marco Civil da Internet, bem como decisões recentes do Supremo Tribunal  Federal e do Superior Tribunal de Justiça que redefinem parâmetros de  responsabilização de usuários e provedores de conteúdo. Constatou-se que a  arquitetura normativa atual mostra-se insuficiente para conter a propagação de  conteúdos ilícitos, devido à morosidade das respostas judiciais, à dificuldade de  identificação dos autores e à natureza transnacional das plataformas, o estudo  defende a necessidade de um modelo regulatório que una transparência,  proporcionalidade e tutela célere, assegurando o equilíbrio entre liberdade de  expressão e proteção dos direitos fundamentais no ambiente digital. 

PALAVRAS-CHAVE: Responsabilidade civil. Fake news. Discurso de ódio. Liberdade  de expressão. Marco Civil da Internet.

ABSTRACT 

This study examines civil liability arising from the dissemination of fake news and hate  speech on social networks, considering the challenges posed by the lack of specific  regulation in Brazilian law. Through a qualitative and bibliographic approach, it  explores the tension between freedom of expression and the protection of personality  rights—especially honor, image, and human dignity. The research analyzes the Civil  Code and the Internet Civil Framework, along with recent decisions from the Supreme  Federal Court and the Superior Court of Justice that redefine the liability of users and  digital platforms. The findings reveal that current legislation is insufficient to address  illicit online conduct due to judicial delays, difficulties in identifying offenders, and the  cross-border nature of digital networks. The study argues for a regulatory model based  on transparency, proportionality, and prompt remedies to balance freedom of  expression with the safeguarding of fundamental rights in the digital environment. 

KEYWORDS: Civil liability. Fake news. Hate speech. Freedom of expression. Internet  Civil Framework.

INTRODUÇÃO 

A revolução digital mudou a forma de se comunicar e de consumir informação,  fazendo das redes sociais um espaço central da vida pública (Longhi, 2022). Nesse  ambiente, cresceram práticas como a disseminação de fake news e discursos de ódio,  que atacam a honra e a dignidade de pessoas e grupos vulneráveis e colocam em risco  o próprio Estado Democrático de Direito (Silva; Botelho-Francisco; Sampaio, 2021). 

No Brasil, a Constituição garante a liberdade de expressão, mas também o  direito à indenização por danos morais e materiais (Brasil, 1988; 2002). A experiência  prática e os dados mostram que o modelo atual de responsabilidade previsto no Marco  Civil da Internet é limitado para lidar com conteúdos ilícitos que se espalham muito  rápido, motivo pelo qual parte da doutrina propõe o aperfeiçoamento da  responsabilização das plataformas, com maior proteção às vítimas (Longhi, 2022;  Almeida; Penaforte, 2025). 

Delineia-se, diante disso, o problema central deste trabalho “em que medida o  ordenamento jurídico brasileiro, especialmente no âmbito da responsabilidade civil, é  capaz de responder de forma adequada aos danos decorrentes da disseminação de  fake news e de discurso de ódio nas redes sociais, diante da ausência de  regulamentação específica e das limitações do regime atualmente vigente?” A questão  envolve a análise da colisão entre liberdade de expressão e proteção dos direitos da  personalidade, bem como a avaliação do papel das plataformas digitais enquanto  intermediárias que potencializam o alcance de conteúdos ilícitos, além da discussão  sobre o alegado “vácuo normativo” e o recurso crescente ao Poder Judiciário para a  construção jurisprudencial de parâmetros de responsabilização. 

O tema é relevante juridicamente e socialmente, pois desafia a teoria dos direitos  fundamentais ao exigir equilíbrio entre liberdade de expressão, dignidade, igualdade e  não discriminação, enquanto a desinformação e os ataques virtuais aumentam a  polarização e normalizam a discriminação contra minorias. 

Órgãos de Estado e entidades da sociedade civil vêm apontando a necessidade  de estratégias combinadas de regulação, transparência e educação midiática para  enfrentar o fenômeno, o que se reflete em iniciativas legislativas como o Projeto de Lei  n.º 2.630/2020 e em experiências estrangeiras como o Digital Services Act da União  Europeia.

Diante desse contexto, o objetivo geral deste trabalho é examinar a  responsabilidade civil pela disseminação de fake news e de discurso de ódio nas redes  sociais, à luz do ordenamento jurídico brasileiro, identificando suas bases normativas,  lacunas e desafios práticos. Como objetivos específicos, busca-se: a) conceituar e  caracterizar as fake news e o discurso de ódio no ambiente digital; b) analisar a  evolução da responsabilidade civil e sua aplicação a ilícitos praticados nas redes  sociais; c) examinar o papel do Código Civil e do Marco Civil da Internet na  responsabilização de usuários e provedores de aplicações; d) discutir o cenário de  ausência de regulamentação específica e seus reflexos na tutela civil das vítimas; e)  estudar decisões judiciais paradigmáticas, com vistas à extração de critérios para a  configuração do dever de indenizar em situações envolvendo desinformação e  discursos de ódio. 

Metodologicamente, trata-se de pesquisa de natureza básica, com abordagem  qualitativa e método predominantemente dedutivo, desenvolvida por meio de revisão  bibliográfica e documental. Serão utilizados como principais fontes o texto  constitucional, o Código Civil, o Marco Civil da Internet e demais diplomas legais  pertinentes, além de doutrina especializada em direito civil, direito constitucional e  direito digital, bem como decisões recentes do Supremo Tribunal Federal e do Superior  Tribunal de Justiça sobre responsabilidade civil por conteúdos ilícitos em ambiente  digital. 

O estudo busca contribuir para o debate sobre responsabilidade civil na era  digital, valorizando a liberdade de expressão, mas reforçando a necessidade de  respostas jurídicas eficazes contra fake news e discursos de ódio, propondo um modelo  regulatório transparente, ágil e proporcional que reduza lacunas legais e ofereça  segurança jurídica a vítimas, emissores de conteúdo e plataformas.

1 A RESPONSABILIDADE CIVIL NA ERA DIGITAL: FAKE NEWS, DISCURSO DE  ÓDIO E OS DESAFIOS DO ORDENAMENTO JURÍDICO. 

A crescente digitalização das relações sociais e a ascensão das redes sociais  como principais meios de comunicação transformaram radicalmente o cenário jurídico,  impondo novos desafios à proteção dos direitos fundamentais (Longhi, 2022). Nesse  ambiente, fenômenos como a disseminação de fake news, o discurso de ódio e o uso  indevido da imagem pessoal se intensificaram, comprometendo a dignidade humana,  a privacidade e a honra dos indivíduos, com especial gravidade em relação a grupos  historicamente vulnerabilizados (Silva; Botelho-Francisco; Sampaio, 2021). 

O presente capítulo tem por objetivo analisar as implicações jurídicas desses  fenômenos no ambiente digital, com ênfase na responsabilidade civil por danos morais  e na complexidade da responsabilização dos agentes envolvidos. Inicia-se com a  conceituação das fake news e do discurso de ódio, destacando suas implicações  sociais, políticas e jurídicas, e a forma como afetam o exercício da cidadania e a  convivência democrática. 

Em seguida, o capítulo apresenta a evolução da responsabilidade civil no Brasil,  com ênfase nas lesões ocorridas no meio digital que atingem os direitos da  personalidade, abordando também o uso indevido da imagem nas redes sociais, as  condutas ilícitas mais comuns, a proteção legal prevista no Código Civil e na  Constituição Federal, e a jurisprudência consolidada sobre a responsabilidade de  usuários e plataformas. 

Por fim, discutem-se os desafios jurídicos para a efetivação da  responsabilização, tanto civil quanto penal, dos agentes que praticam ilícitos digitais.  Tais desafios incluem a dificuldade de identificação dos infratores, os limites entre  liberdade de expressão e violação de direitos, as obrigações das plataformas digitais e  os entraves de natureza transnacional, que dificultam a aplicação das normas jurídicas  e a eficácia das decisões judiciais (Sarlet; Marinoni; Mitidiero, 2021). 

1.1 Conceito e caracterização de fake news e discurso de ódio 

O avanço da tecnologia da informação e a popularização das redes sociais  transformaram profundamente a dinâmica da comunicação na sociedade contemporânea, ampliando o acesso à informação e a possibilidade de participação no  debate público (Moura, 2016).  

Ao mesmo tempo, esse ambiente digital favoreceu o surgimento e a  intensificação de fenômenos preocupantes, como as fake news e o discurso de ódio,  que desafiam diretamente os pilares do Estado Democrático de Direito, a estabilidade  das instituições e a proteção de minorias (Piovesan, 2021). 

Sob a ótica conceitual, fake news são conteúdos falsos ou fortemente  distorcidos, criados e divulgados deliberadamente para enganar, manipular ou  confundir a opinião pública, utilizando estratégias de aparência jornalística, títulos  sensacionalistas e exploração de algoritmos para ampliar seu alcance, frequentemente  vinculadas a campanhas políticas, interesses econômicos ou movimentos extremistas  (Longhi, 2022). 

Especialistas em desinformação usam o termo “desordem informacional” para  descrever um cenário que inclui desinformação intencional, má informação e  informação enganosa, ajudando a entender a complexidade do fenômeno e a criar  respostas jurídicas mais precisas, considerando intenção e impacto social das  mensagens (Longhi, 2022). 

No Brasil, dados mostram que a disseminação de fake news está ligada a  campanhas coordenadas de desinformação que afetam saúde pública, eleições e  direitos de minorias, e o aumento de denúncias de conteúdos falsos e discursos de  ódio, especialmente em períodos de polarização, evidencia a gravidade estrutural do problema e a necessidade de estratégias institucionais de combate (Safernet Brasil,  2023). 

O discurso de ódio consiste em manifestações que incitam ou legitimam  hostilidade, discriminação ou violência contra pessoas ou grupos por características  como raça, gênero, orientação sexual, religião ou condição social, diferindo de críticas  ou opiniões impopulares por negar a dignidade dos alvos e, em casos extremos,  favorecer violência física (Moura, 2016; Piovesan, 2021). 

Pesquisas sobre redes sociais evidenciam que o ambiente digital potencializa o  alcance e a permanência dessas manifestações, especialmente por meio de  mecanismos algorítmicos que reforçam câmaras de eco e bolhas informacionais, nas  quais conteúdos extremistas tendem a circular entre públicos predispostos a confirmálos. A análise de comentários na página oficial de Jair Bolsonaro, por exemplo, 

demonstra a recorrência de categorias de intolerância e hostilidade que se repetem e  se intensificam em ambientes digitais (Silva; Botelho-Francisco; Sampaio, 2021). No plano jurídico, a Constituição Federal de 1988 assegura a liberdade de  expressão, mas estabelece limites quando há violação à dignidade humana, à  igualdade e à não discriminação, especialmente ao tratar o racismo como crime  inafiançável e imprescritível (Brasil, 1988). A doutrina constitucional contemporânea  enfatiza que a proteção da liberdade de expressão não abrange manifestações que  buscam negar direitos básicos a determinados grupos ou incitar sua perseguição,  cabendo ao Estado adotar medidas de prevenção e responsabilização proporcionais  (Sarlet; Marinoni; Mitidiero, 2021). 

Nesse cenário, a conjugação de fake news e discurso de ódio produz um  ambiente de desinformação e hostilidade que ultrapassa a esfera individual e atinge  bens jurídicos coletivos, como a confiança nas instituições democráticas e a integridade  do debate público (Safernet Brasil, 2023).  

É justamente nesse ponto que se revela o papel da responsabilidade civil como  instrumento relevante de tutela dos direitos da personalidade e de contenção de  práticas abusivas nas redes sociais digitais (Longhi, 2022). 

1.2 A evolução da responsabilidade civil e sua aplicação no ambiente digital 

A responsabilidade civil, em sua feição contemporânea, é construída a partir da  ideia de tutela dos direitos da personalidade e da necessidade de recompor, na medida  do possível, os prejuízos decorrentes de lesões injustas. Em termos clássicos, a  configuração do dever de indenizar exige, como regra, a presença de conduta ilícita,  dano e nexo de causalidade, acrescidos da culpa ou dolo do agente, nos casos em que  prevalece o modelo subjetivo (Sarlet; Marinoni; Mitidiero, 2021). 

No ordenamento jurídico brasileiro, a responsabilidade civil encontra fundamento  central nos artigos 186 e 927 do Código Civil, que disciplinam o dever de reparar o dano  decorrente de ato ilícito e admitem, em hipóteses específicas, a responsabilização  objetiva fundada no risco da atividade (Brasil, 2002).  

A regra geral permanece sendo a responsabilidade subjetiva, cabendo a  responsabilidade objetiva quando houver previsão legal ou quando a natureza da  atividade desenvolvida pelo agente implicar riscos especiais aos direitos de terceiros, como ocorre em determinadas atividades empresariais e na prestação de serviços em  massa (Longhi, 2022). 

A Constituição Federal de 1988, por sua vez, reforça a proteção aos direitos da  personalidade ao garantir o direito à indenização por danos morais e materiais  decorrentes da violação da intimidade, da vida privada, da honra e da imagem (Brasil,  1988). Nesse cenário, a indenização por dano moral assume função não apenas  compensatória, mas também preventiva e pedagógica, na medida em que sinaliza à  sociedade os limites do exercício das liberdades individuais, inclusive da liberdade de  expressão, especialmente quando utilizada para propagar desinformação e discursos  de ódio (Piovesan, 2021). 

Com a expansão da internet e das redes sociais, a responsabilidade civil passou  a enfrentar situações em que a lesão aos direitos da personalidade ocorre de forma  instantânea, capilarizada e, muitas vezes, de difícil reversão prática (Longhi, 2022). A  viralização de conteúdos ofensivos em poucos minutos, a replicação por milhares de  usuários e a permanência em ambientes digitais mesmo após a exclusão oficial do  conteúdo são fatores que agravam o dano e colocam em xeque categorias tradicionais de análise, como a identificação individualizada dos ofensores e a mensuração da  extensão do dano moral (Massicano, 2023). 

Entre os principais desafios, destacam-se identificar os autores das ofensas,  lidar com o caráter transnacional das plataformas e comprovar o dano moral em um  ambiente de constantes compartilhamentos, onde o conteúdo ilícito se dissocia  rapidamente do autor original, circulando em grupos, listas e perfis anônimos,  dificultando a responsabilização individual (Longhi, 2022). 

A natureza global da internet dificulta a eficácia das decisões judiciais quando  provedores estão no exterior ou usam servidores em vários países, exigindo  cooperação internacional e mecanismos rápidos de remoção de conteúdo, já que  atrasos aumentam o dano às vítimas, especialmente em casos de discurso de ódio ou  acusações falsas (Piovesan, 2021). 

Apesar das dificuldades, a responsabilidade civil permanece como instrumento  central na tutela dos direitos da personalidade no ambiente digital, especialmente  porque permite a combinação de medidas de reparação pecuniária com ordens de  obrigação de fazer, como a retirada de conteúdo e a publicação de retratações (Longhi,  2022). A doutrina recente tem defendido, inclusive, o fortalecimento de respostas não  pecuniárias, de modo a privilegiar medidas que efetivamente mitiguem os efeitos da ofensa no espaço público, como direito de resposta, retificações e medidas de  desindexação em mecanismos de busca (Massicano, 2023). 

Nesse contexto, a aplicação da responsabilidade civil à era digital exige leitura  sistemática do Código Civil, da Constituição Federal e do Marco Civil da Internet, de  modo a harmonizar a proteção dos direitos da personalidade com a preservação da  liberdade de expressão e com a necessidade de segurança jurídica para usuários e  plataformas (Brasil, 1988; 2002; 2014). 

1.2.1 A responsabilidade civil por uso indevido da imagem nas mídias sociais 

O direito à imagem, parte dos direitos da personalidade, garante que a pessoa  controle a captação, divulgação e uso de sua representação visual, e na era digital,  com compartilhamento constante em redes sociais, mensagens e plataformas de vídeo,  os riscos de uso indevido aumentam significativamente (Massicano, 2023). 

No Brasil, a proteção à imagem tem base tanto na Constituição quanto no Código  Civil, sendo que a Carta de 1988 assegura a inviolabilidade da intimidade, vida privada,  honra e imagem, garantindo direito à indenização por danos morais ou materiais  decorrentes de sua violação (Brasil, 1988). 

O Código Civil, por sua vez, prevê que a divulgação da imagem de alguém  poderá ser proibida, a seu requerimento, se lhe atingir a honra, a boa fama ou se se  destinar a fins comerciais sem a devida autorização, assegurando reparação em caso  de abuso (Brasil, 2002). 

Estudos recentes mostram que nas redes sociais o uso indevido da imagem  ocorre de várias formas, como exposição de fotos íntimas sem consentimento, uso não  autorizado para publicidade, manipulação para humilhar e associação a conteúdos  falsos ou difamatórios, causando danos à reputação, à vida profissional e ao bem-estar  psicológico das vítimas (Massicano, 2023). 

Na responsabilidade civil, quem pratica o ato ilícito responde diretamente,  podendo haver responsabilização solidária de coautores ou participantes conforme o  artigo 942 do Código Civil, de modo que quem cria, edita, compartilha ou contribui  significativamente para a divulgação de uma imagem ofensiva pode ser  responsabilizado pelo dano, especialmente em casos de dolo ou culpa grave (Brasil,  2002). 

Longhi (2022) tem destacado, ainda, o papel das plataformas digitais na  circulação de conteúdos que violam o direito à imagem, sobretudo nos casos em que  há demora injustificada na remoção de material ilícito após ciência inequívoca da  violação. Embora o Marco Civil da Internet (2014) adote, em regra, modelo de  responsabilização subsidiária dos provedores de aplicação, a omissão diante de  pedidos claros e específicos da vítima pode ensejar responsabilização civil,  especialmente quando há reiterada manutenção de conteúdo manifestamente ilícito  (Sarlet; Marinoni; Mitidiero, 2021). 

A jurisprudência recente tem consolidado entendimentos no sentido de que, uma  vez notificada de forma clara, a plataforma deve agir com diligência razoável na retirada  de conteúdos que violem direitos da personalidade, sob pena de responder  solidariamente pelos danos decorrentes da continuidade da divulgação. Em situações  particularmente graves, como a divulgação não consentida de imagens íntimas, o  próprio Marco Civil admite mecanismos de remoção mais céleres, dispensando ordem  judicial para proteger a vítima (Massicano, 2023). 

Diante da velocidade de circulação e da facilidade de reprodução de imagens no  ambiente digital, a tutela do direito à imagem demanda não apenas mecanismos  repressivos, mas também estratégias preventivas, como políticas de educação digital,  instrumentos de denúncia acessíveis e ferramentas automatizadas de detecção e  bloqueio de conteúdos reincidentes. A conjugação de medidas jurídicas e tecnológicas  mostra-se essencial para reduzir a revitimização e garantir proteção efetiva à dignidade  das pessoas expostas indevidamente (Massicano, 2023). 

1.3 Os desafios jurídicos na responsabilização dos agentes envolvidos 

A responsabilização civil e, em hipóteses específicas, penal dos agentes  envolvidos em ilícitos digitais enfrenta uma série de desafios estruturais, diretamente  ligados às características técnicas e sociais da internet (Longhi, 2022).  

A multiplicidade de sujeitos que podem participar da cadeia de difusão de  conteúdos, a rapidez da circulação de informações e a arquitetura transnacional das  plataformas digitais complexificam a identificação dos responsáveis e a efetiva  aplicação das sanções previstas em lei (Moura, 2016). 

Um dos primeiros obstáculos é a identificação da autoria das infrações, uma vez  que o ambiente digital facilita o uso de perfis falsos, contas automatizadas e ferramentas de anonimização, o que dificulta a individualização da conduta. Sem a  identificação do agente, a responsabilização civil se torna limitada, especialmente em  sistemas que ainda dependem, majoritariamente, de ações individuais de reparação de  dano (Longhi, 2022; Safernet Brasil, 2023). 

Outro aspecto delicado é equilibrar a defesa dos direitos da personalidade com  a liberdade de expressão, ambas asseguradas pela Constituição (Brasil, 1988).  O desafio jurídico é definir critérios claros que diferenciem críticas legítimas,  mesmo contundentes, de abusos como discurso de ódio, desinformação intencional ou  uso indevido da imagem de terceiros, já que a falta de normas específicas sobre  condutas digitais gera decisões judiciais divergentes e insegurança jurídica (Piovesan,  2021). 

Outro ponto central do debate é a responsabilidade dos provedores de serviços  e das plataformas digitais, sendo que o artigo 19 do Marco Civil da Internet limita, em  regra, sua responsabilização ao descumprimento de ordens judiciais de remoção de  conteúdo, seguindo o modelo de “safe harbor” para proteger a liberdade de expressão  e evitar censura privada (Brasil, 2014). 

Parte da doutrina, entretanto, tem apontado limitações desse modelo em casos  de conteúdos manifestamente ilícitos, de rápida difusão e alto potencial lesivo,  defendendo interpretações mais protetivas às vítimas e eventuais ajustes legislativos  (Longhi, 2022; Piovesan, 2021). 

A dimensão transnacional da internet representa um grande desafio, já que  muitos serviços usados por brasileiros são fornecidos por empresas no exterior, sujeitas  a várias legislações, tornando a obtenção de dados, a remoção de conteúdos e o  cumprimento de decisões indenizatórias dependentes de cooperação internacional  complexa e demorada, o que diminui a eficácia da proteção judicial (Moura, 2016). 

No campo das provas, a rapidez com que conteúdos digitais podem ser  alterados, excluídos ou replicados dificulta a construção de um acervo sólido para  comprovar danos e nexo causal, tornando ferramentas como atas notariais eletrônicas,  registros de tela e protocolos de preservação de logs junto a provedores cada vez mais  importantes, embora ainda pouco conhecidas e usadas pelo público em geral  (Massicano, 2023). 

No âmbito penal, somam-se dificuldades adicionais: muitas condutas praticadas  nas redes ainda não possuem tipificação específica ou se enquadram de forma  imperfeita em tipos penais tradicionais, o que gera debates sobre a adequação ou não de reformas legislativas. Ao mesmo tempo, o uso desmedido do Direito Penal em  matéria de expressão pode gerar riscos à liberdade de manifestação, impondo a  necessidade de soluções equilibradas que articulem sanções penais, civis e  administrativas de maneira proporcional (Sarlet; Marinoni; Mitidiero, 2021). 

Massicano (2023) destaca, ainda, o problema da revitimização judicial,  sobretudo em casos de discurso de ódio e exposição não consentida de imagem, em  que a vítima, ao buscar proteção, é obrigada a relembrar e reexpor a situação ofensiva  em múltiplas instâncias. Isso reforça a importância de uma atuação sensível e célere  do Poder Judiciário, com uso de procedimentos adequados, proteção da intimidade da  vítima e decisões capazes de mitigar rapidamente a continuidade do dano no ambiente  digital. 

Diante desse quadro, os desafios jurídicos na responsabilização dos agentes  envolvidos em ilícitos digitais evidenciam a necessidade de interpretação sistemática e  evolutiva do ordenamento, bem como de eventual aperfeiçoamento legislativo, de  maneira a compatibilizar a proteção dos direitos da personalidade, a liberdade de  expressão e as especificidades técnicas do ecossistema informacional em rede (Sarlet;  Marinoni; Mitidiero, 2021). 

2 A AUSÊNCIA DE REGULAMENTAÇÃO ESPECÍFICA E OS REFLEXOS NA  RESPONSABILIZAÇÃO CIVIL 

2.1 O papel do marco civil da internet e do código civil na responsabilização por  discurso de ódio na internet 

A promulgação do Marco Civil da Internet, a Lei nº 12.965/2014, é formalmente  considerada como tentativa de consolidar direitos e garantias no uso da internet no  Brasil. Entretanto, a sua elaboração foi influenciada por diretrizes internacionais e  eventos geopolíticos marcantes, como as revelações de Edward Snowden em 2013,  que trouxeram à tona práticas de vigilância em massa promovidas pela NSA, incluindo  o monitoramento de comunicações de cidadãos, empresas e chefes de Estado e que  trouxeram preocupações com segurança da informação, privacidade e os limites da  atuação estatal na esfera digital (Ribas, 2020). 

No contexto brasileiro, a notícia de que o país também fora alvo de espionagem  pelos EUA levou à aprovação de uma moção de repúdio na Câmara dos Deputados  e à instalação da Comissão Parlamentar de Inquérito nº 1/2014 para investigar os  fatos (Brasil, 2014). Nota-se que esses acontecimentos impulsionaram a criação de  um marco legal nacional capaz de assegurar a neutralidade da rede, a proteção de  dados pessoais e a privacidade online. Como aponta Meireles (2023), a fragilidade  dos mecanismos de consentimento e a coleta indiscriminada de informações  contribuíram para tornar a proteção de dados uma prioridade legislativa, influenciando  diretamente o Marco Civil e, posteriormente, a Lei Geral de Proteção de Dados  (LGPD). 

Embora inovador, o Marco Civil tem caráter mais principiológico e não detalha  a regulamentação de condutas ofensivas na internet; seu artigo 1º define princípios,  garantias, direitos e deveres para o uso da rede no Brasil, enquanto o artigo 2º lista  fundamentos como liberdade de expressão, direitos humanos, pluralidade,  diversidade, livre iniciativa e finalidade social da internet (Brasil, 2014). 

O artigo 3º da lei reforça princípios como proteção à privacidade e dados  pessoais, neutralidade da rede e responsabilização dos agentes digitais, ressaltando  em seu parágrafo único que esses princípios não excluem outros previstos na  legislação nacional ou em tratados internacionais; já o artigo 4º amplia o escopo ao  determinar que o uso da internet deve favorecer acesso universal, inovação e padrões tecnológicos abertos (Brasil, 2014). 

Ainda que tenha trazido avanços, o Marco Civil mostra-se insuficiente para  enfrentar os desafios atuais da comunicação digital em rede. Como destaca Mello  (2025), a disseminação de notícias falsas e o aumento dos discursos de ódio  ultrapassam os limites da responsabilização civil tradicional, exigindo um novo olhar  legislativo mais ágil e compatível com a complexidade do meio virtual. 

Segundo o autor, as plataformas digitais são centrais na difusão de conteúdos  que comprometem a democracia, a saúde pública e a convivência social, e, que,  embora a liberdade de expressão seja um direito fundamental, não é absoluta,  devendo ser compatibilizada com direitos como a dignidade da pessoa humana e a  proteção contra incitação à violência e à intolerância (Mello, 2025). 

Nesse sentido, Mello (2025) defende uma regulação mais eficaz das  plataformas digitais, propondo normas que responsabilizem empresas por conteúdos  prejudiciais, incentivem a transparência e promovam a ética na mediação de  informações, ressaltando também o papel do Estado em equilibrar inovação  tecnológica, liberdade de expressão e proteção contra abusos. 

No intuito de suprir lacunas da legislação vigente, destaca-se o Projeto de Lei  nº 2922/2020, de autoria do Senador Fabiano Contarato, que propõe acrescimentos  à Lei Federal nº 12.695, de 25 de julho de 2012, para proibir o anúncio publicitário em  sites que veiculem Fake News, acrescentado o art. 19- A, que regularia as seguintes  questões: 

Art. 19-A As empresas, nacionais e estrangeiras, que forneçam serviços de  mídia programática não poderão veicular anúncios em páginas da internet  que contenham desinformação ou que promovam discursos de ódio. § 1º Sem  prejuízo das demais sanções cíveis, criminais ou administrativas, as  empresas, nacionais e estrangeiras, que descumprirem ao caput deste artigo  ficam sujeitas, conforme o caso, às seguintes sanções, aplicadas de forma  isolada ou cumulativa: I – advertência, com indicação de prazo para adoção de medidas corretivas; II – multa de até 10% (dez por cento) do valor do  anúncio veiculado em desconformidade com este artigo. § 2º A  desinformação fica caracterizada como a informação comprovadamente falsa  ou enganadora que, cumulativamente: I – é criada, apresentada e divulgada  para obter vantagens econômicas ou para enganar deliberadamente o  público; e II – é suscetível de causar um prejuízo público, entendido como  ameaças aos processos políticos democráticos e aos processos de  elaboração de políticas, bem como a bens públicos, tais como a proteção da  saúde dos cidadãos, o ambiente ou a segurança. § 3º O discurso de ódio fica  caracterizado quando um ato de comunicação incite violência contra pessoa  ou grupo em razão de sua raça, gênero, orientação sexual, origem ou  quaisquer outras formas de discriminação. § 4º Decreto regulamentará o  procedimento para apuração de infrações ao disposto neste artigo. 

Deste modo, infere-se que o novo projeto se propõe, a preencher essas lacunas  ao detalhar regras de moderação de conteúdo, estabelecer maior transparência nas  ações das plataformas e garantir maior proteção aos direitos dos usuários. Entretanto,  não seria capaz de eliminar a subjetividade envolvida na moderação e avaliação de  conteúdo. 

Nota-se que atualmente, a responsabilização dos provedores de aplicações de  internet no Brasil segue o regime de responsabilidade subjetiva mitigada previsto no  art. 19 do Marco Civil, segundo o qual os provedores só respondem civilmente por  danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial  específica, não procederem à remoção do conteúdo, observados os limites técnicos e  o prazo estipulado, tentando evitar censura prévia e garantir a liberdade de expressão  (Brasil, 2014), mas mostra-se insuficiente diante da velocidade com que conteúdos  ofensivos se propagam na internet e do impacto imediato que podem causar 

Deste modo, como explica Ribeiro (2024), a responsabilidade dos provedores  é, em regra, subjetiva, mas mitigada, pois não decorre diretamente da presença de  culpa na disponibilização do conteúdo ofensivo, mas sim da inércia em cumprir ordem  judicial de retirada. A responsabilização, portanto, depende de uma conduta omissiva  frente a uma determinação formal do Judiciário 

O § 1º do art. 19 exige a identificação clara e específica do conteúdo a ser  retirado, enquanto o § 2º limita a responsabilização por violações de direitos autorais  à existência de previsão legal específica, reforçando a proteção à liberdade de  expressão. Os §§ 3º e 4º, por sua vez, tratam de mecanismos voltados à celeridade  processual e à concessão de tutela de urgência, desde que preenchidos os requisitos  legais, como prova inequívoca, verossimilhança e risco de dano irreparável (Brasil,  2014). 

No entanto, apesar da intenção de garantir segurança jurídica e coibir censura  indevida, a exigência contida no § 1º impõe obstáculos para as vítimas de conteúdos  ofensivos, em especial do discurso de ódio. Longhi (2022), pontua que a necessidade  de identificação precisa do material a ser removido acaba tornando-se entraves  práticos, sobretudo em casos de publicações efêmeras, como stories, ou de ampla  circulação em múltiplos formatos e plataformas e que diante da formalidade técnica  demanda da vítima recursos e conhecimentos que, muitas vezes, ela não possui,  comprometendo o acesso célere e eficaz à tutela jurisdicional. 

Além disso, mesmo em casos de graves violações à dignidade ou integridade pessoal, as plataformas não são responsabilizadas automaticamente, obrigando a  vítima a recorrer ao Judiciário e enfrentar morosidade, custos e desgaste emocional;  após a remoção, pequenas alterações no conteúdo ofensivo podem contornar a  decisão judicial, perpetuando a exposição indevida (Longhi, 2022). 

Embora o acesso aos Juizados Especiais represente uma alternativa facilitada  para o ajuizamento de ações, Schreiber (2015) aduz que a limitação desses juizados  para lidar com as especificidades dos litígios digitais pode resultar em sentenças  injustas e desproporcionais, sobretudo porque, no campo digital, a exigência de  provas detalhadas e inequívocas ainda se configura como uma barreira. 

Deste modo, infere-se que embora os dispositivos legais citados no campo  formal priorizem salvaguardas contra abusos estatais e promovam a liberdade de  expressão, acabam desamparando justamente aqueles que mais necessitam de  respostas rápidas e eficazes frente aos abusos virtuais, inadvertidamente facilita a  perpetuação de condutas lesivas praticadas pelos próprios usuários. 

Vale destacar que o art. 20, parágrafo único, do Marco Civil permite que o  provedor substitua o conteúdo removido por uma justificativa ou pela própria ordem  judicial quando houver fins econômicos (Brasil, 2014), o que pode, na prática, resultar  em divulgação indireta do material, reavivando a controvérsia ou expondo novamente  a vítima, especialmente em casos de conteúdo íntimo, difamatório ou discurso de ódio  de grande repercussão. 

O art. 21 do Marco Civil (Brasil, 2014) estabelece uma exceção ao regime geral,  prevendo que a responsabilidade do provedor por divulgação não autorizada de  conteúdo íntimo é subsidiária, ou seja, só ocorre se o material não for removido após  notificação válida da vítima; contudo, esse mecanismo exige que a vítima conheça  seus direitos, consiga formular a notificação corretamente e reúna provas como link e  autoria, o que pode dificultar o acesso à proteção, especialmente para pessoas em  situação de vulnerabilidade emocional ou financeira. 

Além disso, a necessidade de demonstrar a legitimidade do solicitante, como  prevê o parágrafo único, pode gerar demora na resposta da plataforma e abrir espaço  para questionamentos infundados por parte do agressor, atrasando a remoção e  prolongando a exposição da vítima. Os artigos 22 e 23 tratam da requisição judicial  de registros de conexão e de acesso a aplicações para fins probatórios em processos  cíveis ou penais. O art. 22 exige a fundamentação do pedido judicial com base em  indícios de ilícito e delimitação do período investigado. Já o art. 23 impõe ao juiz a adoção de medidas para garantir a privacidade do usuário, podendo inclusive  determinar o segredo de justiça (Brasil, 2014). 

O art. 22 e 23 do Marco Civil garantem que a remoção de conteúdos dependa  de ordem judicial fundamentada, com indícios concretos e limite temporal, protegendo  a privacidade; contudo, na prática, a dependência exclusiva do Judiciário retarda a  coleta de provas digitais, que são voláteis, e a falta de padronização na aplicação do  segredo de justiça expõe vítimas, especialmente em casos de discurso de ódio,  assédio ou divulgação de conteúdo íntimo, aumentando a insegurança jurídica e a  desigualdade de tratamento (Brasil, 2014). 

Em paralelo ao Marco Civil, o Código Civil brasileiro oferece base subsidiária  para a responsabilização civil por condutas ofensivas na internet, especialmente por  meio dos artigos 186 e 927, os quais estabelecem que aquele que, por ação ou  omissão voluntária, causar dano a outrem comete ato ilícito e deve reparar o prejuízo  (Brasil, 2002). 

Embora o Marco Civil da Internet e o Código Civil sejam marcos fundamentais  para a regulação e responsabilização civil no Brasil, ambos enfrentam limitações  práticas no ambiente digital: o primeiro, por ter sido concebido em contexto analógico,  dificulta a identificação de agentes e a obtenção rápida de medidas reparatórias; o  segundo, anterior à era digital, fornece bases importantes, porém insuficientes, para  responsabilizar atos como discurso de ódio online. 

2.2 Ciberespaço, discurso de ódio e o vácuo normatizo na responsabilização  jurídica 

Consoante apontam Silva, Botelho-Francisco e Sampaio (2021), é possível  identificar traços distintivos no discurso de ódio veiculado em meios digitais – denominado cyberhate, quando comparado às formas convencionais de manifestação  odiosa e que advém, em grande medida, das especificidades do ambiente virtual,  especialmente no que tange à liberdade de expressão ampliada e ao anonimato  assegurado por esse meio, fatores que favorecem a exteriorização de  posicionamentos extremistas. 

Sob essa ótica, Marques e Nobre (2021) ressaltam que a ausência de contato  físico entre o sujeito ativo e o sujeito passivo da conduta odiosa propicia uma  sensação de invisibilidade, contribuindo para a atenuação da percepção quanto à lesividade das manifestações proferidas. 

Ademais, a constituição de comunidades virtuais orientadas por ideologias  excludentes e intolerantes contribui para a intensificação da disseminação de  discursos de ódio, sendo essa dinâmica exacerbada pela velocidade com que as  informações são propagadas no meio digital, permitindo que conteúdos ofensivos  atinjam, em curtíssimo lapso temporal, uma audiência numerosa, estimulando reações  impulsivas e interações desprovidas de filtros ético-discursivos (Moura, 2016). 

De acordo com dados divulgados pela organização Safernet, entidade  dedicada à tutela dos direitos humanos no ciberespaço, foram registradas, apenas no  ano de 2022, mais de 74 mil denúncias relacionadas a crimes de ódio praticados por  meio da internet. Referidas comunicações foram devidamente encaminhadas à  Central Nacional de Denúncias de Crimes Cibernéticos, órgão integrante da própria  instituição, os quais evidenciam: 

Tabela 1 Dados dos discursos de ódio na internet de 2017 a 2022 

Fonte: SaferNet (2023) 

À luz dos dados supramencionados, constata-se um aumento significativo na quantidade de delitos de ódio denunciados no ambiente virtual. Em 2017, foram  reportados 24.356 registros, ao passo que, em 2022, esse número alcançou 74.025,  o que representa um acréscimo de 67,70%. Cumpre salientar, contudo, que tal  crescimento não se distribuiu de maneira homogênea entre as diversas categorias de  crimes, apresentando variações substanciais. É o caso, por exemplo, das denúncias  relativas à misoginia, que apresentaram um incremento de 250,85% no período  analisado, saltando de 961 para 28.679 ocorrências. De igual modo, as notificações  de xenofobia apresentaram elevação expressiva de 874,10%, passando de 1.395 para  10.686 registros. A intolerância religiosa, por sua vez, teve um crescimento de  455,99%, com aumento de 1.459 para 4.220 comunicações formais. 

Consoante exposto pela SaferNet Brasil (2021), o ciberespaço tem se revelado  propício à proliferação de discursos de ódio, os quais, não raramente, encontram  abrigo sob o manto da liberdade de expressão, contribuindo para a banalização e  naturalização dessas condutas ilícitas no ambiente digital. 

Para além da responsabilização jurídica dos autores de tais discursos, Sardi  (2023) destaca a lógica de lucratividade subjacente às dinâmicas digitais,  especialmente nas redes sociais. O autor assevera que o discurso de ódio se revela  economicamente rentável no meio digital, na medida em que as plataformas operam  não apenas como veículos de comunicação, mas como verdadeiras agências  publicitárias e editoras de conteúdo, cujos algoritmos são estruturados para captar  dados comportamentais dos usuários, direcionando conteúdos que maximizem o  engajamento, o tempo de permanência e, por conseguinte, a geração de receita  publicitária. 

Segundo a abordagem de Rocha e Lopes (2023), redes sociais se referem às  relações interpessoais e grupais, independentemente da tecnologia, enquanto mídias  sociais são as plataformas digitais específicas, como Facebook, Instagram e Twitter, onde essas interações acontecem e onde se observa mais concretamente a  disseminação de conteúdos pelos usuários. 

Nesse cenário, as mídias sociais funcionam como os principais meios para que  indivíduos compartilhem ideias, valores, emoções e opiniões, que podem, por vezes,  ser ofensivas ou discriminatórias, contribuindo para a disseminação de discursos de  ódio e para a violação de direitos e garantias fundamentais previstos na lei. 

Nesse sentido, observa-se que a ausência de uma legislação específica que  regule a disseminação de fake news e o discurso de ódio compromete diretamente a efetividade da responsabilização civil, uma vez que as normas existentes não  conseguem abranger, de forma adequada, os novos contornos e dinâmicas da  comunicação digital (Longhi, 2022) 

Assim, essas lacunas forçam o Judiciário a recorrer à interpretação extensiva  ou analógica, gerando decisões inconsistentes e insegurança jurídica, especialmente  porque a identificação dos responsáveis por conteúdos ofensivos nas redes sociais é  dificultada pelo anonimato e pela complexidade na obtenção de dados técnicos,  enfraquecendo a apuração dos fatos e a aplicação da responsabilidade civil (Longhi,  2022). 

Além disso, De Oliveira (2025), considera que a tipificação penal de condutas  como calúnia, injúria e difamação nem sempre contempla as especificidades do  ambiente digital. As fake news, muitas vezes, não se encaixam nos tipos penais  tradicionais e acabam sendo tratadas apenas como manifestações de opinião, mesmo  quando causam danos morais, sociais ou institucionais relevantes. 

2.3 Liberdade de expressão nas redes sociais e os limites constitucionais:  entre a inércia legislativa e a fragilidade da tutela civil 

A falta de normas específicas e eficazes no ordenamento jurídico brasileiro  sobre condutas ilícitas no ambiente digital vai além de simples omissão legislativa,  pois, segundo Piaia et al. (2025), compromete a proteção dos direitos fundamentais,  como dignidade, honra, imagem e privacidade, de forma que a ausência de  mecanismos jurídicos rápidos e adequados agrava a situação das vítimas e permite a  continuidade dos danos morais e sociais. 

Nesse cenário, conforme salienta Salvador (2023), a liberdade de expressão  nas plataformas digitais frequentemente colide com outras garantias constitucionais  de igual envergadura, especialmente o direito à inviolabilidade da intimidade, da honra  e da imagem. A extensão dada à liberdade de expressão no espaço virtual pode  ensejar abusos concretizados por meio de discursos injuriosos, difamatórios ou  baseados em informações notoriamente inverídicas, cujos efeitos deletérios recaem  sobre a reputação e integridade moral dos indivíduos no espaço público. 

Tal problemática restou evidenciada no julgamento do Mandado de Segurança  Cível nº 060023829/MA, sob relatoria do Ministro Carlos Horbach, proferido pelo  Tribunal Superior Eleitoral no ano de 2021. Na ocasião, destacou-se que, embora a liberdade de expressão e o pluralismo de ideias constituam fundamentos  indispensáveis à ordem democrática, não se prestam à legitimação de práticas  antijurídicas, como a disseminação de discursos de ódio e o desprezo às instituições  republicanas — ainda que veiculados por agentes políticos em períodos eleitorais.  Configura-se, assim, clara transgressão ao princípio da razoabilidade e ao dever de  urbanidade no exercício dos direitos fundamentais (Brasil, 2021). 

A tensão entre a liberdade de expressão e a responsabilidade civil reveste-se  de especial sensibilidade no meio digital, onde manifestações ofensivas são, por  vezes, indevidamente tuteladas sob o manto da livre opinião, mesmo quando  ultrapassam os limites constitucionalmente admissíveis e configuram verdadeiro  abuso de direito. A ausência de parâmetros legais objetivos e suficientemente  precisos para a definição dos contornos dessa liberdade fomenta um ambiente de  impunidade e banalização das ofensas, em detrimento da esfera jurídica dos sujeitos  atingidos. 

De igual modo, os mecanismos de autorregulação adotados pelas plataformas  digitais, mediante políticas internas de moderação de conteúdo e aplicação de termos  de uso, têm se revelado insuficientes, eivados de subjetivismo e carência de  uniformidade. A opacidade e a inconsistência na aplicação dessas normas  comprometem a credibilidade do sistema, frustrando as expectativas legítimas dos  usuários quanto à imparcialidade das decisões e à proteção de seus direitos. 

Nesse cenário, a ausência de normas claras pode ser vista como violação do  princípio da efetividade dos direitos fundamentais previsto no artigo 5º da Constituição  Federal, pois a indefinição quanto à responsabilização de agentes digitais gera  insegurança jurídica e fragiliza a proteção civil das vítimas, dificultando o acesso à  justiça e a reparação completa dos danos. 

Ilustra-se esse contexto com os eventos ocorridos em 8 de janeiro de 2023,  quando grupos organizados por meio das redes sociais, sob o pretexto do exercício  da liberdade de expressão, promoveram a invasão e depredação das sedes dos Três  Poderes da República, especialmente o Congresso Nacional. A gravidade dos fatos  culminou na instauração de diversas investigações, fundadas em registros digitais,  voltadas à responsabilização dos envolvidos, inclusive por meio de ações civis  públicas com pedidos de indenização por danos morais coletivos. Até abril de 2023,  aproximadamente 250 indivíduos, além de pessoas jurídicas e entidades sindicais, figuravam como requeridos nas referidas medidas (Agência Brasil, 2023). 

À luz do exposto, infere-se que a liberdade de expressão, especialmente  quando exercida em ambientes digitais, deve ser interpretada de forma sistemática e  harmônica com os demais direitos fundamentais e que não se reveste de caráter  absoluto, devendo ser exercida dentro dos limites traçados pelo princípio da  legalidade e pelo respeito incondicional à dignidade da pessoa humana. Não se  admite, portanto, que tal prerrogativa seja instrumentalizada como meio de afronta à  ordem constitucional ou de deslegitimação dos valores democráticos que estruturam  o Estado de Direito.

3 O EQUILÍBRIO ENTRE DIREITOS FUNDAMENTAIS E O COMBATE AOS  ABUSOS NAS REDES SOCIAIS 

A expansão das redes sociais como principal arena de circulação de  informações reconfigurou o modo como se exerce a liberdade de expressão e como  se produzem violações à honra, à imagem e à dignidade de indivíduos e grupos  vulneráveis (Longhi, 2022).  

No ambiente digital, conteúdos que antes eram limitados a espaços físicos  alcançam rapidamente milhares ou milhões de pessoas, aumentando os efeitos de  discursos discriminatórios, fake news e difamações, tornando a responsabilidade civil  um instrumento essencial para reparar danos e definir limites ao uso da expressão em  plataformas online (Safernet Brasil, 2023). 

A Constituição Federal de 1988 assegura, simultaneamente, a liberdade de  expressão e o direito à indenização por dano moral e material decorrente de ofensa à  honra, à imagem, à intimidade e à vida privada (Brasil, 1988).  

O Código Civil, por sua vez, estabelece o dever de reparar danos de atos  ilícitos, inclusive extrapatrimoniais, reforçando a importância dos direitos da  personalidade, e essa tensão entre liberdade de expressão e proteção da  personalidade se torna ainda mais evidente nas redes sociais, onde a linha entre  crítica legítima, discurso político intenso, fake news e discurso de ódio frequentemente  se confunde (Brasil, 2002). 

Este capítulo busca analisar como o ordenamento jurídico brasileiro vem  buscando equilibrar tais direitos fundamentais diante dos abusos praticados nas  plataformas digitais, com foco nos critérios de responsabilização civil, na leitura  constitucional do discurso de ódio e nas perspectivas regulatórias voltadas à  repressão de fake news e manifestações discriminatórias em larga escala. Para tanto,  examina-se, inicialmente, o embate dogmático entre liberdade de expressão e  responsabilidade civil; em seguida, analisa-se o caso Ellwanger como marco  paradigmático na delimitação constitucional do discurso de ódio; por fim, discutem-se  caminhos regulatórios para a responsabilização por fake news e hate speech em  ambiente digital.

3.1 Liberdade de expressão e responsabilidade civil em ambiente digital 

A liberdade de expressão é compreendida, na tradição constitucional  democrática, como condição para a formação da opinião pública, para o controle  social do poder e para a circulação de ideias em sociedade (Sarlet; Marinoni; Mitidiero,  2021). No modelo brasileiro, essa liberdade é assegurada de forma ampla pelo artigo  5º, incisos IV, IX e XIV, da Constituição Federal, que garante a livre manifestação do  pensamento, a liberdade de expressão intelectual, artística, científica e de  comunicação, bem como o acesso à informação (Brasil, 1988). Contudo, o mesmo  texto constitucional protege a honra, a imagem e a intimidade, assegurando o direito  à resposta e à indenização por dano moral e material em caso de abuso (Brasil, 1988). 

Sob essa ótica, a liberdade de expressão não possui caráter absoluto,  encontrando limites quando se converte em instrumento de humilhação, difamação,  incitação à discriminação ou ao ódio contra pessoas ou grupos, especialmente em  contextos historicamente marcados por violência e exclusão (Piovesan, 2021). A  responsabilidade civil por dano moral, ancorada nos artigos 186 e 927 do Código Civil,  surge como mecanismo de tutela dos direitos da personalidade, impondo a quem  excede tais limites o dever de reparar o prejuízo causado (Brasil, 2002). 

No ambiente digital, os elementos clássicos da responsabilidade civil – conduta,  dano, nexo causal e culpa ou risco – assumem novas feições. A conduta pode se  manifestar por meio de postagens, comentários, compartilhamentos ou mesmo  curtidas que reforçam conteúdos ofensivos. O dano, em especial o moral, tende a ser  amplificado pela rapidez e pelo alcance das redes, repercutindo na esfera pessoal,  profissional e comunitária da vítima (Silva; Botelho-Francisco; Sampaio, 2021). O nexo  causal exige análise da dinâmica de propagação do conteúdo, da relevância da  audiência e da persistência do material na rede, o que obriga o julgador a considerar  métricas de engajamento e viralização. 

A responsabilização passa, então, por diferenciar três situações típicas: a) a  imputação de fatos falsos apresentados como verdadeiros, como atribuição indevida  de crime ou conduta desonrosa; b) o discurso de ódio dirigido a grupos historicamente  vulnerabilizados, que ultrapassa o âmbito da opinião e incita discriminação ou  violência; e c) a crítica dura ou sátira, que, embora incômoda, permanece dentro dos  limites da liberdade de expressão (Silva; Botelho-Francisco; Sampaio, 2021). A resposta jurídica deve variar conforme a natureza do conteúdo, o contexto  comunicacional e a intensidade dos efeitos produzidos. 

Nesse cenário, o Marco Civil da Internet (Lei n.º 12.965/2014) introduziu  parâmetros importantes para a responsabilização de provedores de aplicação, ao  prever que, em regra, plataformas só respondem civilmente por conteúdos de  terceiros se descumprirem ordem judicial específica de remoção (Brasil, 2014).  

A lógica da lei visa impedir a censura prévia, evitar que empresas privadas  atuem como “juízas da verdade” e preservar a neutralidade da rede, mas na prática,  a necessidade de ordem judicial, identificação precisa de URLs e a rapidez da  circulação de conteúdos ilícitos têm se mostrado insuficientes para proteger  adequadamente as vítimas de discurso de ódio e desinformação em massa (Longhi,  2022). 

Debates recentes, tanto na doutrina quanto nos tribunais superiores, têm  apontado a necessidade de um modelo de responsabilidade mais sensível ao risco  sistêmico associado à desinformação e aos discursos de ódio em larga escala. Nesse  modelo, a responsabilização do autor direto do conteúdo continua a ser central, mas  se reconhece que, em situações de ilicitude manifesta e dano grave, pode ser exigido  das plataformas um nível reforçado de diligência, com mecanismos internos de  moderação, canais ágeis de denúncia e transparência nas decisões de remoção. A  questão central deixa de ser apenas “quem postou”, para incluir “como a arquitetura  da plataforma contribuiu para a amplificação do dano” (Longhi, 2022; Silva; Botelho Francisco; Sampaio, 2021). 

Sob a perspectiva da proporcionalidade, o desafio consiste em calibrar tutelas  que sejam suficientemente firmes contra fake news e conteúdos odiosos, sem  instaurar um regime de monitoramento generalizado ou de supressão arbitrária de  manifestações impopulares, críticas políticas ou discursos minoritários. A resposta  tem se orientado pela adoção combinada de reparação civil (indenização, retratação,  retirada de conteúdo), medidas pedagógicas (educação midiática, campanhas  públicas) e deveres estruturais de transparência por parte das plataformas digitais  (Comissão Europeia, 2022; Safernet Brasil, 2023). 

Assim, a responsabilidade civil na era das redes sociais deve ser compreendida  como instrumento de equilíbrio entre a proteção da esfera individual e a preservação  de um espaço público de debate robusto, plural e livre, em que a liberdade de expressão não sirva de escudo para a perpetuação de violências simbólicas ou para  a corrosão do próprio regime democrático. 

3.2 O caso Ellwanger e a delimitação constitucional do discurso de ódio 

O caso Ellwanger constitui marco fundamental para a compreensão dos limites  constitucionais da liberdade de expressão e da natureza jurídica do discurso de ódio  no Brasil. No Habeas Corpus n.º 82.424/RS, o Supremo Tribunal Federal analisou a  condenação de Siegfried Ellwanger por publicação e divulgação de obras  antissemitas, nas quais se defendia a superioridade racial ariana e se negava o  Holocausto. A defesa sustentava que os escritos estariam protegidos pela liberdade  de expressão e que o antissemitismo não se enquadraria no conceito de racismo (Brasil, 2003). 

Ao denegar a ordem, por maioria, o STF firmou entendimento no sentido de  que o antissemitismo configura forma de racismo e que manifestações voltadas à  inferiorização de determinado grupo humano não se inserem no âmbito da liberdade  de expressão constitucionalmente protegida. A Corte destacou que a Constituição de  1988, ao prever o crime de racismo como inafiançável e imprescritível, sinaliza repúdio  categórico a discursos que negam a dignidade e a igualdade de grupos historicamente  perseguidos (Brasil, 2003). 

Na fundamentação, os ministros enfatizaram que a liberdade de expressão não  se presta à propagação de ideologias de ódio que incitam discriminação, segregação  ou violência contra minorias, sob pena de contradição interna do próprio texto  constitucional (Brasil, 2003).  

A decisão consolidou a compreensão de que determinados se situam fora do  perímetro da proteção comunicativa e podem ser objeto de repressão penal e  responsabilização civil sem violação ao núcleo essencial da liberdade de expressão  (Piovesan, 2021). 

Embora o caso Ellwanger tenha se desenvolvido em contexto pré-redes  sociais, sua ratio decidendi é diretamente aplicável ao ambiente digital  contemporâneo, no qual narrativas negacionistas, antissemitas, racistas, misóginas e  LGBTfóbicas se valem da capilaridade e do anonimato para se disseminar em grande  escala (Silva; Botelho-Francisco; Sampaio, 2021). As redes sociais permitem a  formação de comunidades virtualmente organizadas em torno de ideologias excludentes, nas quais o discurso de ódio deixa de ser exceção para se tornar  elemento central de identidade e coesão grupal (Moura, 2016). 

Dados da SaferNet Brasil mostram que, em 2022, houve mais de 74 mil  denúncias de crimes de ódio na internet, com aumento significativo de casos de  misoginia, racismo, xenofobia e intolerância religiosa em relação a anos anteriores,  evidenciando que o ambiente digital se tornou um espaço para reproduzir e amplificar  práticas discriminatórias muitas vezes disfarçadas de “opinião” ou “humor” (Safernet  Brasil, 2023). 

Com base no precedente Ellwanger, a diferença entre expressão protegida e  discurso de ódio depende do conteúdo e do impacto social da mensagem, e quando  ela busca desumanizar, inferiorizar ou excluir grupos por etnia, religião, orientação  sexual, gênero ou nacionalidade, ultrapassando o debate de ideias e atacando a  dignidade de pessoas concretas, ocorre abuso de direito, tornando a intervenção civil  não apenas possível, mas necessária para evitar a naturalização da violência  simbólica (Brasil, 2003). 

Em decisões recentes, o STF e o Tribunal Superior Eleitoral têm reafirmado  que manifestações disfarçadas de crítica política, mas que contêm ofensas racistas,  misóginas ou homofóbicas ou incitam desrespeito às instituições democráticas, não  estão protegidas pela liberdade de expressão, especialmente quando fazem parte de  campanhas coordenadas nas redes sociais que ameaçam a ordem constitucional ou  corroem direitos fundamentais de grupos vulneráveis (Brasil, 2021). 

No campo da responsabilidade civil, o caso Ellwanger ensina que discursos  que negam a humanidade ou o sofrimento histórico de minorias, mesmo na forma de  livro, postagem ou meme, configuram dano à dignidade coletiva e podem gerar  indenização, e que, em situações de discurso de ódio, não é necessário provar  prejuízo econômico específico, pois a própria propagação de ideologias  discriminatórias constitui ofensa grave a direitos fundamentais (Piovesan, 2021). 

Aplicada às redes sociais, essa lógica conduz ao reconhecimento de que  campanhas de difamação racista, ataques coordenados a religiões de matriz africana,  misoginia virulenta e incitação à violência contra pessoas LGBTQIA+ não podem ser  tratadas como “debate de ideias” ou “opiniões polêmicas”, mas como formas de  agressão à dignidade humana que legitimam a imposição de deveres de reparação e  de remoção célere de conteúdos (Silva; Botelho-Francisco; Sampaio, 2021). Em tais  casos, o direito de resposta, a retratação pública, a exclusão do material ofensivo e a fixação de indenização compatível com a gravidade e a repercussão da conduta são  instrumentos essenciais de tutela. 

Por fim, o precedente Ellwanger orienta a criação de futuras regras para  plataformas digitais ao afirmar que ideologias de ódio não estão protegidas pela  liberdade de expressão, oferecendo base para exigir que empresas de tecnologia  adotem políticas de moderação transparentes e com devido processo, impedindo a  permanência de conteúdos que atentem contra a dignidade de grupos historicamente  perseguidos e permitindo equilibrar a preservação da esfera pública digital com a  proteção de direitos fundamentais. 

3.3 Perspectivas para a regulamentação da responsabilização por fake news e  discurso de ódio 

A disseminação de fake news e de discursos de ódio nas redes sociais não é  fenômeno restrito ao Brasil, o que explica a multiplicidade de respostas normativas  em diferentes sistemas jurídicos. Em comum, destacam-se preocupações com a  integridade dos processos democráticos, com a proteção de grupos vulneráveis e com  a preservação da liberdade de expressão em um ecossistema informacional marcado  por algoritmos de recomendação, personalização de conteúdo e forte concentração  de poder em poucas plataformas globais (Comissão Europeia, 2022). 

Na União Europeia, o Digital Services Act (Regulamento (UE) 2022/2065)  estabeleceu um conjunto de obrigações proporcionais ao porte e ao impacto sistêmico  dos intermediários digitais, impondo às grandes plataformas deveres de avaliação e  mitigação de riscos associados à disseminação de conteúdos ilegais, à desinformação  e à violação de direitos fundamentais (Comissão Europeia, 2022). O regulamento  prevê, entre outras medidas, relatórios periódicos de transparência, mecanismos de  denúncia acessíveis, procedimentos de contestação para usuários e abertura de  dados para fins de auditoria e pesquisa independente. 

Esse modelo procura equilibrar três objetivos: oferecer resposta rápida a  conteúdos ilícitos evidentes, impedir remoções arbitrárias que restrinjam o debate  público e garantir que as decisões de moderação possam ser explicadas e  monitoradas por autoridades e pela sociedade civil, mostrando que é possível criar  um regime de responsabilidade que exija maior diligência de plataformas influentes sem transformar pequenos serviços em “fiscalizadores universais” (Comissão  Europeia, 2025). 

No Brasil, o debate mais conhecido sobre o tema é o Projeto de Lei n.º  2.630/2020, que busca regulamentar a responsabilidade das plataformas, a  transparência de algoritmos, a identificação de conteúdos patrocinados e a criação de  mecanismos internos de denúncia e revisão de moderação; embora ainda enfrente  resistência política e institucional, o projeto evidencia a preocupação de criar regras  de responsabilização compatíveis com a realidade brasileira de desigualdade social,  violência política e amplo uso das redes sociais (Brasil, 2020). 

Relatórios da SaferNet Brasil indicam que, entre 2017 e 2022, o número de  denúncias de crimes de ódio na internet cresceu de forma expressiva, com destaque  para categorias como misoginia, xenofobia, racismo e intolerância religiosa (Safernet  Brasil, 2023). Esses dados revelam que a autorregulação espontânea das plataformas  não tem sido suficiente para conter a escalada de conteúdos discriminatórios e  desinformativos. Ao mesmo tempo, mostram que a sociedade civil organizada  desempenha papel relevante na documentação das violações e na pressão por  respostas estatais mais efetivas. 

Nesse contexto, as perspectivas de regulamentação da responsabilização por  fake news e discurso de ódio nas redes podem ser sistematizadas em quatro eixos.  O primeiro é o da transparência, que demanda a publicação regular de relatórios de  moderação, a explicitação de critérios de remoção e recomendação de conteúdo,  além da disponibilização de repositórios de anúncios políticos e de interesse público  (Comissão Europeia, 2022). Quanto mais visíveis forem as regras e as práticas, menor  o espaço para arbitrariedades e maior a possibilidade de controle social. 

O segundo eixo é o da diligência proporcional ao risco, pelo qual plataformas  com grande número de usuários e capacidade de influenciar debates públicos devem  adotar medidas reforçadas para prevenir e responder a conteúdos claramente ilícitos,  como ameaças, incitação à violência, apologia ao nazismo ou divulgação de imagens  íntimas sem consentimento, incluindo canais de denúncia privilegiados, equipes  especializadas e cooperação com autoridades, sempre respeitando proteção de  dados e devido processo (Longhi, 2022). 

O terceiro eixo é o da tutela rápida com garantias mínimas, segundo o qual, em  casos de discursos de ódio claros, fake news potencialmente danosas ou graves  violações de direitos da personalidade, a remoção rápida é essencial para evitar amplificação do dano, mas deve sempre incluir notificação ao usuário, explicação dos  motivos e possibilidade de contestação interna ou judicial, evitando que a urgência se  transforme em censura privada (Longhi, 2022; Comissão Europeia, 2022). 

O quarto eixo é o da cooperação e da educação midiática, enfatizando que  medidas puramente punitivas não resolvem sozinhas o problema da desinformação e  do discurso de ódio, sendo essencial investir em alfabetização digital para que  cidadãos reconheçam conteúdos enganosos e compartilhem informações com  responsabilidade, ao mesmo tempo em que a colaboração entre Estados,  plataformas, academia e sociedade civil viabiliza ferramentas de monitoramento,  auditoria e pesquisa sobre o impacto das políticas adotadas (Comissão Europeia,  2025). 

No plano interno, eventuais ajustes no Marco Civil da Internet e no Código Civil  deverão levar em conta a jurisprudência consolidada sobre discurso de ódio, em  especial o precedente Ellwanger, e o papel estruturante da liberdade de expressão  para a democracia constitucional. A construção de um novo regime de  responsabilização por fake news e hate speech, portanto, não pode prescindir da  técnica da ponderação, da análise contextual das manifestações e da preservação de  um núcleo robusto de proteção para críticas políticas, denúncias jornalísticas e  discursos contra-hegemônicos (Piovesan, 2021). 

As perspectivas de regulamentação da responsabilidade por fake news e  discurso de ódio apontam para um modelo que une normas claras, deveres  proporcionais das plataformas, transparência, respostas rápidas com garantias e  educação midiática, visando não silenciar vozes divergentes, mas reduzir danos de  conteúdos ilícitos em larga escala, proteger direitos da personalidade e preservar o  espaço democrático de circulação de ideias em um ambiente informacional cada vez  mais complexo e interconectado. 

CONSIDERAÇÕES FINAIS  

A análise desenvolvida ao longo deste trabalho mostrou que a expansão das  redes sociais e a lógica algorítmica da comunicação desafiam os instrumentos  tradicionais de responsabilização civil, evidenciando limites práticos do Código Civil e  do Marco Civil da Internet na proteção dos direitos da personalidade no ambiente  digital, enquanto a disseminação de fake news e discursos de ódio causa danos  significativos à honra, à imagem e à dignidade de indivíduos e grupos vulneráveis,  exigindo respostas jurídicas mais rápidas e eficazes. 

Constatou-se que a liberdade de expressão, embora ocupe posição central no  constitucionalismo brasileiro, não possui caráter absoluto e deve ser interpretada em  harmonia com outros direitos fundamentais, como a igualdade, a não discriminação e  a proteção da dignidade humana. A jurisprudência recente dos tribunais superiores,  em especial do Supremo Tribunal Federal e do Superior Tribunal de Justiça, tem  caminhado no sentido de compatibilizar a vedação à censura prévia com a  possibilidade de responsabilização a posteriori por conteúdos manifestamente ilícitos,  admitindo, em situações qualificadas, deveres de cuidado mais robustos por parte das  plataformas digitais. 

O exame do regime de responsabilidade civil das plataformas indicou que o  modelo baseado na exigência de ordem judicial específica, previsto no artigo 19 do  Marco Civil da Internet, mostra-se insuficiente frente à rapidez, à escala e à  replicabilidade dos conteúdos ofensivos, pois a necessidade de URL precisa, a  lentidão nas decisões e a volatilidade das provas digitais fragilizam a proteção das  vítimas e, muitas vezes, tornam irreversível o dano à reputação, enquanto dados da  SaferNet Brasil, que registram aumento expressivo de denúncias de crimes de ódio e  conteúdos discriminatórios, evidenciam o descompasso entre a gravidade dos ilícitos  e a capacidade de resposta do sistema jurídico. 

Constatou-se também que a ausência de regulamentação específica sobre  desinformação e discurso de ódio gera insegurança jurídica, obrigando o Judiciário a  preencher lacunas caso a caso por meio de ponderações e jurisprudência, medida útil  para proteger vítimas, mas insuficiente frente à necessidade de um marco regulatório  claro, estável e democrático que defina parâmetros objetivos para usuários,  plataformas e autoridades públicas.

Com base nessas constatações, conclui-se que a consolidação de um modelo  regulatório adequado à era digital passa, necessariamente, por quatro eixos: (a)  reforço da proteção civil dos direitos da personalidade, com instrumentos  procedimentais que viabilizem tutelas de urgência eficazes e proporcionais ao risco;  (b) definição de deveres de diligência graduados para as plataformas, com maior  transparência sobre critérios de moderação, canais acessíveis de contestação e  prestação de contas periódica à sociedade; (c) aperfeiçoamento da cooperação entre  Estado, empresas e sociedade civil, inclusive em âmbito internacional, para enfrentar  ilícitos transnacionais; e (d) investimento em educação midiática e digital, a fim de  fortalecer as capacidades críticas dos usuários e reduzir a circulação de conteúdos  nocivos. 

Assim, o trabalho conclui que, embora a liberdade de expressão permaneça  como regra no Brasil, ela não pode proteger discursos de ódio ou desinformação que  atentem contra direitos fundamentais, sendo necessária uma reconfiguração da  responsabilidade civil no ambiente digital, baseada em dignidade humana,  proporcionalidade e efetividade da tutela judicial, para garantir um espaço online mais  seguro, plural e democrático. 

REFERÊNCIAS 

AGÊNCIA BRASIL. Atos antidemocráticos: STF aceita denúncias contra mais 245  pessoas envolvidas. Brasília, DF, 2023. Disponível em:  https://agenciabrasil.ebc.com.br/justica/noticia/2023-05/stf-torna-reus-mais-250- investigados-pelos-atos-golpistas. Acesso em: 28 nov. 2025. 

ALMEIDA, Juliana Evangelista de; PENAFORTE, Gabriella Mundim. Marco Civil da Internet (Lei n.º 12.965/14) e os desafios contemporâneos à  responsabilidade civil dos provedores na era das fake news. Revista de Ciências  do Estado (REVICE/UFMG), Belo Horizonte, 2025. Disponível em:  https://periodicos.ufmg.br/index.php/revice/article/view/e54425/e54425. Acesso em:  28 nov. 2025. 

BRASIL. [Constituição (1988)]. Constituição da República Federativa do Brasil de  1988. 5 de outubro de 1988. Brasília, DF: Presidência da República, [2025].  Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm.  Acesso em: 31 out. 2025. 

BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Diário  Oficial da União, Brasília, DF, 11 jan. 2002. Disponível em:  https://www.planalto.gov.br/ccivil_03/leis/2002/l10406compilada.htm. Acesso em: 28  nov. 2025. 

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Marco Civil da Internet. Diário Oficial  da União, Brasília, DF, 24 abr. 2014. Disponível em:  https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso  em: 28 nov. 2025. 

BRASIL. Lei nº 13.188, de 11 de novembro de 2015. Direito de Resposta.  Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2015/lei/L13188.htm. Acesso em: 31 out. 2025. 

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados  Pessoais. Diário Oficial da União, Brasília, DF, 15 ago. 2018. Disponível em:  https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso  em: 28 nov. 2025. 

BRASIL. Congresso Nacional. Projeto de Lei nº 2.630, de 2020. Institui a Lei  Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Brasília, DF,  2020. Disponível em:  https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=225673 5. Acesso em: 28 nov. 2025. 

BRASIL. Senado Federal. Projeto de Lei nº 2.922, de 2020. Acrescenta o art. 19-A  à Lei nº 12.965, de 23 de abril de 2014, para vedar a veiculação de publicidade em  páginas da internet que contenham desinformação ou promovam discursos de ódio.  Brasília, DF, 2020. Disponível em: https://legis.senado.leg.br/sdleg getter/documento?dm=8115327&ts=1590602881006&disposition=inline. Acesso em:  29 nov. 2025. 

BRASIL. Supremo Tribunal Federal (STF). Habeas Corpus nº 82.424/RS. Rel. Min.  Maurício Corrêa. Diário da Justiça, Brasília, DF, 19 mar. 2004. Disponível em:  https://www.jusbrasil.com.br/jurisprudencia/stf/14744055. Acesso em: 28 nov. 2025. 

COMISSÃO EUROPEIA. Regulamento (UE) 2022/2065 do Parlamento Europeu e  do Conselho, de 19 de outubro de 2022, relativo a um mercado único para os  serviços digitais e que altera a Diretiva 2000/31/CE (Digital Services Act).  Bruxelas, 2022. Disponível em: https://eur-lex.europa.eu/PT/legal content/summary/digital-services-act.html. Acesso em: 28 nov. 2025. 

LONGHI, João Victor Rozatti. Responsabilidade civil e redes sociais: retirada de  conteúdo, perfis falsos, discurso de ódio, fake news e milícias digitais. São Paulo:  Thomson Reuters Brasil, 2022. 

MASSICANO, T. A proteção da privacidade e imagem nas redes sociais e no  WhatsApp. Revista Jurídica OAB Tatuapé, v. 3, n. 1, p. 1-13, 2023. Disponível em: https://revista.oabtatuape.org.br/index.php/revista/issue/view/5.  Acesso em: 31 out. 2025. 

MOURA, Marco Aurélio.O discurso do ódio em redes sociais. São Paulo: Lura  Editorial, 2016. 

PIOVESAN, Flávia. Direitos humanos e justiça constitucional internacional. 14.  ed. São Paulo: Saraiva, 2021. 

SARLET, Ingo Wolfgang; MARINONI, Luiz Guilherme; MITIDIERO, Daniel. Curso de  direito constitucional. 3. ed. São Paulo: Saraiva, 2021. 

SAFERNET BRASIL. Denúncias de crimes de discurso de ódio e de imagens de  abuso sexual infantil na internet têm crescimento em 2022. Boletim estatístico  Safernet Brasil. São Paulo, 2023. Disponível em:  https://new.safernet.org.br/content/denuncias-de-crimes-de-discurso-de-odio-e-de imagens-de-abuso-sexual-infantil-na-internet. Acesso em: 28 nov. 2025. 

SILVA, Luciana R. L.; BOTELHO-FRANCISCO, Rodrigo Eduardo; SAMPAIO, Rafael  C. S. Discurso de ódio nas redes sociais digitais: tipos e formas de intolerância na  página oficial de Jair Bolsonaro no Facebook. Galáxia (São Paulo, online), n. 46, p.  1-26, 2021. Disponível em:  https://www.scielo.br/j/gal/a/4krjKThRWZD6MRy8LLLpVhF/abstract/?lang=pt.  Acesso em: 31 out. 2025.