REGISTRO DOI: 10.69849/revistaft/ch10202512080844
Marco Aurélio de Oliveira Alves Filho
Orientador: Prof. Filipe Augusto Caetano Sancho
Orientador: Prof. Marcus Vinícius Silva Coelho
RESUMO
O presente trabalho analisa a responsabilidade civil decorrente da disseminação de fake News e do discurso de ódio nas redes sociais, considerando os desafios impostos pela ausência de regulamentação específica no ordenamento jurídico brasileiro, a pesquisa, de natureza bibliográfica e qualitativa, investiga a colisão entre o direito à liberdade de expressão e a proteção dos direitos da personalidade, especialmente honra, imagem e dignidade humana. São examinados os dispositivos do Código Civil e do Marco Civil da Internet, bem como decisões recentes do Supremo Tribunal Federal e do Superior Tribunal de Justiça que redefinem parâmetros de responsabilização de usuários e provedores de conteúdo. Constatou-se que a arquitetura normativa atual mostra-se insuficiente para conter a propagação de conteúdos ilícitos, devido à morosidade das respostas judiciais, à dificuldade de identificação dos autores e à natureza transnacional das plataformas, o estudo defende a necessidade de um modelo regulatório que una transparência, proporcionalidade e tutela célere, assegurando o equilíbrio entre liberdade de expressão e proteção dos direitos fundamentais no ambiente digital.
PALAVRAS-CHAVE: Responsabilidade civil. Fake news. Discurso de ódio. Liberdade de expressão. Marco Civil da Internet.
ABSTRACT
This study examines civil liability arising from the dissemination of fake news and hate speech on social networks, considering the challenges posed by the lack of specific regulation in Brazilian law. Through a qualitative and bibliographic approach, it explores the tension between freedom of expression and the protection of personality rights—especially honor, image, and human dignity. The research analyzes the Civil Code and the Internet Civil Framework, along with recent decisions from the Supreme Federal Court and the Superior Court of Justice that redefine the liability of users and digital platforms. The findings reveal that current legislation is insufficient to address illicit online conduct due to judicial delays, difficulties in identifying offenders, and the cross-border nature of digital networks. The study argues for a regulatory model based on transparency, proportionality, and prompt remedies to balance freedom of expression with the safeguarding of fundamental rights in the digital environment.
KEYWORDS: Civil liability. Fake news. Hate speech. Freedom of expression. Internet Civil Framework.
INTRODUÇÃO
A revolução digital mudou a forma de se comunicar e de consumir informação, fazendo das redes sociais um espaço central da vida pública (Longhi, 2022). Nesse ambiente, cresceram práticas como a disseminação de fake news e discursos de ódio, que atacam a honra e a dignidade de pessoas e grupos vulneráveis e colocam em risco o próprio Estado Democrático de Direito (Silva; Botelho-Francisco; Sampaio, 2021).
No Brasil, a Constituição garante a liberdade de expressão, mas também o direito à indenização por danos morais e materiais (Brasil, 1988; 2002). A experiência prática e os dados mostram que o modelo atual de responsabilidade previsto no Marco Civil da Internet é limitado para lidar com conteúdos ilícitos que se espalham muito rápido, motivo pelo qual parte da doutrina propõe o aperfeiçoamento da responsabilização das plataformas, com maior proteção às vítimas (Longhi, 2022; Almeida; Penaforte, 2025).
Delineia-se, diante disso, o problema central deste trabalho “em que medida o ordenamento jurídico brasileiro, especialmente no âmbito da responsabilidade civil, é capaz de responder de forma adequada aos danos decorrentes da disseminação de fake news e de discurso de ódio nas redes sociais, diante da ausência de regulamentação específica e das limitações do regime atualmente vigente?” A questão envolve a análise da colisão entre liberdade de expressão e proteção dos direitos da personalidade, bem como a avaliação do papel das plataformas digitais enquanto intermediárias que potencializam o alcance de conteúdos ilícitos, além da discussão sobre o alegado “vácuo normativo” e o recurso crescente ao Poder Judiciário para a construção jurisprudencial de parâmetros de responsabilização.
O tema é relevante juridicamente e socialmente, pois desafia a teoria dos direitos fundamentais ao exigir equilíbrio entre liberdade de expressão, dignidade, igualdade e não discriminação, enquanto a desinformação e os ataques virtuais aumentam a polarização e normalizam a discriminação contra minorias.
Órgãos de Estado e entidades da sociedade civil vêm apontando a necessidade de estratégias combinadas de regulação, transparência e educação midiática para enfrentar o fenômeno, o que se reflete em iniciativas legislativas como o Projeto de Lei n.º 2.630/2020 e em experiências estrangeiras como o Digital Services Act da União Europeia.
Diante desse contexto, o objetivo geral deste trabalho é examinar a responsabilidade civil pela disseminação de fake news e de discurso de ódio nas redes sociais, à luz do ordenamento jurídico brasileiro, identificando suas bases normativas, lacunas e desafios práticos. Como objetivos específicos, busca-se: a) conceituar e caracterizar as fake news e o discurso de ódio no ambiente digital; b) analisar a evolução da responsabilidade civil e sua aplicação a ilícitos praticados nas redes sociais; c) examinar o papel do Código Civil e do Marco Civil da Internet na responsabilização de usuários e provedores de aplicações; d) discutir o cenário de ausência de regulamentação específica e seus reflexos na tutela civil das vítimas; e) estudar decisões judiciais paradigmáticas, com vistas à extração de critérios para a configuração do dever de indenizar em situações envolvendo desinformação e discursos de ódio.
Metodologicamente, trata-se de pesquisa de natureza básica, com abordagem qualitativa e método predominantemente dedutivo, desenvolvida por meio de revisão bibliográfica e documental. Serão utilizados como principais fontes o texto constitucional, o Código Civil, o Marco Civil da Internet e demais diplomas legais pertinentes, além de doutrina especializada em direito civil, direito constitucional e direito digital, bem como decisões recentes do Supremo Tribunal Federal e do Superior Tribunal de Justiça sobre responsabilidade civil por conteúdos ilícitos em ambiente digital.
O estudo busca contribuir para o debate sobre responsabilidade civil na era digital, valorizando a liberdade de expressão, mas reforçando a necessidade de respostas jurídicas eficazes contra fake news e discursos de ódio, propondo um modelo regulatório transparente, ágil e proporcional que reduza lacunas legais e ofereça segurança jurídica a vítimas, emissores de conteúdo e plataformas.
1 A RESPONSABILIDADE CIVIL NA ERA DIGITAL: FAKE NEWS, DISCURSO DE ÓDIO E OS DESAFIOS DO ORDENAMENTO JURÍDICO.
A crescente digitalização das relações sociais e a ascensão das redes sociais como principais meios de comunicação transformaram radicalmente o cenário jurídico, impondo novos desafios à proteção dos direitos fundamentais (Longhi, 2022). Nesse ambiente, fenômenos como a disseminação de fake news, o discurso de ódio e o uso indevido da imagem pessoal se intensificaram, comprometendo a dignidade humana, a privacidade e a honra dos indivíduos, com especial gravidade em relação a grupos historicamente vulnerabilizados (Silva; Botelho-Francisco; Sampaio, 2021).
O presente capítulo tem por objetivo analisar as implicações jurídicas desses fenômenos no ambiente digital, com ênfase na responsabilidade civil por danos morais e na complexidade da responsabilização dos agentes envolvidos. Inicia-se com a conceituação das fake news e do discurso de ódio, destacando suas implicações sociais, políticas e jurídicas, e a forma como afetam o exercício da cidadania e a convivência democrática.
Em seguida, o capítulo apresenta a evolução da responsabilidade civil no Brasil, com ênfase nas lesões ocorridas no meio digital que atingem os direitos da personalidade, abordando também o uso indevido da imagem nas redes sociais, as condutas ilícitas mais comuns, a proteção legal prevista no Código Civil e na Constituição Federal, e a jurisprudência consolidada sobre a responsabilidade de usuários e plataformas.
Por fim, discutem-se os desafios jurídicos para a efetivação da responsabilização, tanto civil quanto penal, dos agentes que praticam ilícitos digitais. Tais desafios incluem a dificuldade de identificação dos infratores, os limites entre liberdade de expressão e violação de direitos, as obrigações das plataformas digitais e os entraves de natureza transnacional, que dificultam a aplicação das normas jurídicas e a eficácia das decisões judiciais (Sarlet; Marinoni; Mitidiero, 2021).
1.1 Conceito e caracterização de fake news e discurso de ódio
O avanço da tecnologia da informação e a popularização das redes sociais transformaram profundamente a dinâmica da comunicação na sociedade contemporânea, ampliando o acesso à informação e a possibilidade de participação no debate público (Moura, 2016).
Ao mesmo tempo, esse ambiente digital favoreceu o surgimento e a intensificação de fenômenos preocupantes, como as fake news e o discurso de ódio, que desafiam diretamente os pilares do Estado Democrático de Direito, a estabilidade das instituições e a proteção de minorias (Piovesan, 2021).
Sob a ótica conceitual, fake news são conteúdos falsos ou fortemente distorcidos, criados e divulgados deliberadamente para enganar, manipular ou confundir a opinião pública, utilizando estratégias de aparência jornalística, títulos sensacionalistas e exploração de algoritmos para ampliar seu alcance, frequentemente vinculadas a campanhas políticas, interesses econômicos ou movimentos extremistas (Longhi, 2022).
Especialistas em desinformação usam o termo “desordem informacional” para descrever um cenário que inclui desinformação intencional, má informação e informação enganosa, ajudando a entender a complexidade do fenômeno e a criar respostas jurídicas mais precisas, considerando intenção e impacto social das mensagens (Longhi, 2022).
No Brasil, dados mostram que a disseminação de fake news está ligada a campanhas coordenadas de desinformação que afetam saúde pública, eleições e direitos de minorias, e o aumento de denúncias de conteúdos falsos e discursos de ódio, especialmente em períodos de polarização, evidencia a gravidade estrutural do problema e a necessidade de estratégias institucionais de combate (Safernet Brasil, 2023).
O discurso de ódio consiste em manifestações que incitam ou legitimam hostilidade, discriminação ou violência contra pessoas ou grupos por características como raça, gênero, orientação sexual, religião ou condição social, diferindo de críticas ou opiniões impopulares por negar a dignidade dos alvos e, em casos extremos, favorecer violência física (Moura, 2016; Piovesan, 2021).
Pesquisas sobre redes sociais evidenciam que o ambiente digital potencializa o alcance e a permanência dessas manifestações, especialmente por meio de mecanismos algorítmicos que reforçam câmaras de eco e bolhas informacionais, nas quais conteúdos extremistas tendem a circular entre públicos predispostos a confirmálos. A análise de comentários na página oficial de Jair Bolsonaro, por exemplo,
demonstra a recorrência de categorias de intolerância e hostilidade que se repetem e se intensificam em ambientes digitais (Silva; Botelho-Francisco; Sampaio, 2021). No plano jurídico, a Constituição Federal de 1988 assegura a liberdade de expressão, mas estabelece limites quando há violação à dignidade humana, à igualdade e à não discriminação, especialmente ao tratar o racismo como crime inafiançável e imprescritível (Brasil, 1988). A doutrina constitucional contemporânea enfatiza que a proteção da liberdade de expressão não abrange manifestações que buscam negar direitos básicos a determinados grupos ou incitar sua perseguição, cabendo ao Estado adotar medidas de prevenção e responsabilização proporcionais (Sarlet; Marinoni; Mitidiero, 2021).
Nesse cenário, a conjugação de fake news e discurso de ódio produz um ambiente de desinformação e hostilidade que ultrapassa a esfera individual e atinge bens jurídicos coletivos, como a confiança nas instituições democráticas e a integridade do debate público (Safernet Brasil, 2023).
É justamente nesse ponto que se revela o papel da responsabilidade civil como instrumento relevante de tutela dos direitos da personalidade e de contenção de práticas abusivas nas redes sociais digitais (Longhi, 2022).
1.2 A evolução da responsabilidade civil e sua aplicação no ambiente digital
A responsabilidade civil, em sua feição contemporânea, é construída a partir da ideia de tutela dos direitos da personalidade e da necessidade de recompor, na medida do possível, os prejuízos decorrentes de lesões injustas. Em termos clássicos, a configuração do dever de indenizar exige, como regra, a presença de conduta ilícita, dano e nexo de causalidade, acrescidos da culpa ou dolo do agente, nos casos em que prevalece o modelo subjetivo (Sarlet; Marinoni; Mitidiero, 2021).
No ordenamento jurídico brasileiro, a responsabilidade civil encontra fundamento central nos artigos 186 e 927 do Código Civil, que disciplinam o dever de reparar o dano decorrente de ato ilícito e admitem, em hipóteses específicas, a responsabilização objetiva fundada no risco da atividade (Brasil, 2002).
A regra geral permanece sendo a responsabilidade subjetiva, cabendo a responsabilidade objetiva quando houver previsão legal ou quando a natureza da atividade desenvolvida pelo agente implicar riscos especiais aos direitos de terceiros, como ocorre em determinadas atividades empresariais e na prestação de serviços em massa (Longhi, 2022).
A Constituição Federal de 1988, por sua vez, reforça a proteção aos direitos da personalidade ao garantir o direito à indenização por danos morais e materiais decorrentes da violação da intimidade, da vida privada, da honra e da imagem (Brasil, 1988). Nesse cenário, a indenização por dano moral assume função não apenas compensatória, mas também preventiva e pedagógica, na medida em que sinaliza à sociedade os limites do exercício das liberdades individuais, inclusive da liberdade de expressão, especialmente quando utilizada para propagar desinformação e discursos de ódio (Piovesan, 2021).
Com a expansão da internet e das redes sociais, a responsabilidade civil passou a enfrentar situações em que a lesão aos direitos da personalidade ocorre de forma instantânea, capilarizada e, muitas vezes, de difícil reversão prática (Longhi, 2022). A viralização de conteúdos ofensivos em poucos minutos, a replicação por milhares de usuários e a permanência em ambientes digitais mesmo após a exclusão oficial do conteúdo são fatores que agravam o dano e colocam em xeque categorias tradicionais de análise, como a identificação individualizada dos ofensores e a mensuração da extensão do dano moral (Massicano, 2023).
Entre os principais desafios, destacam-se identificar os autores das ofensas, lidar com o caráter transnacional das plataformas e comprovar o dano moral em um ambiente de constantes compartilhamentos, onde o conteúdo ilícito se dissocia rapidamente do autor original, circulando em grupos, listas e perfis anônimos, dificultando a responsabilização individual (Longhi, 2022).
A natureza global da internet dificulta a eficácia das decisões judiciais quando provedores estão no exterior ou usam servidores em vários países, exigindo cooperação internacional e mecanismos rápidos de remoção de conteúdo, já que atrasos aumentam o dano às vítimas, especialmente em casos de discurso de ódio ou acusações falsas (Piovesan, 2021).
Apesar das dificuldades, a responsabilidade civil permanece como instrumento central na tutela dos direitos da personalidade no ambiente digital, especialmente porque permite a combinação de medidas de reparação pecuniária com ordens de obrigação de fazer, como a retirada de conteúdo e a publicação de retratações (Longhi, 2022). A doutrina recente tem defendido, inclusive, o fortalecimento de respostas não pecuniárias, de modo a privilegiar medidas que efetivamente mitiguem os efeitos da ofensa no espaço público, como direito de resposta, retificações e medidas de desindexação em mecanismos de busca (Massicano, 2023).
Nesse contexto, a aplicação da responsabilidade civil à era digital exige leitura sistemática do Código Civil, da Constituição Federal e do Marco Civil da Internet, de modo a harmonizar a proteção dos direitos da personalidade com a preservação da liberdade de expressão e com a necessidade de segurança jurídica para usuários e plataformas (Brasil, 1988; 2002; 2014).
1.2.1 A responsabilidade civil por uso indevido da imagem nas mídias sociais
O direito à imagem, parte dos direitos da personalidade, garante que a pessoa controle a captação, divulgação e uso de sua representação visual, e na era digital, com compartilhamento constante em redes sociais, mensagens e plataformas de vídeo, os riscos de uso indevido aumentam significativamente (Massicano, 2023).
No Brasil, a proteção à imagem tem base tanto na Constituição quanto no Código Civil, sendo que a Carta de 1988 assegura a inviolabilidade da intimidade, vida privada, honra e imagem, garantindo direito à indenização por danos morais ou materiais decorrentes de sua violação (Brasil, 1988).
O Código Civil, por sua vez, prevê que a divulgação da imagem de alguém poderá ser proibida, a seu requerimento, se lhe atingir a honra, a boa fama ou se se destinar a fins comerciais sem a devida autorização, assegurando reparação em caso de abuso (Brasil, 2002).
Estudos recentes mostram que nas redes sociais o uso indevido da imagem ocorre de várias formas, como exposição de fotos íntimas sem consentimento, uso não autorizado para publicidade, manipulação para humilhar e associação a conteúdos falsos ou difamatórios, causando danos à reputação, à vida profissional e ao bem-estar psicológico das vítimas (Massicano, 2023).
Na responsabilidade civil, quem pratica o ato ilícito responde diretamente, podendo haver responsabilização solidária de coautores ou participantes conforme o artigo 942 do Código Civil, de modo que quem cria, edita, compartilha ou contribui significativamente para a divulgação de uma imagem ofensiva pode ser responsabilizado pelo dano, especialmente em casos de dolo ou culpa grave (Brasil, 2002).
Longhi (2022) tem destacado, ainda, o papel das plataformas digitais na circulação de conteúdos que violam o direito à imagem, sobretudo nos casos em que há demora injustificada na remoção de material ilícito após ciência inequívoca da violação. Embora o Marco Civil da Internet (2014) adote, em regra, modelo de responsabilização subsidiária dos provedores de aplicação, a omissão diante de pedidos claros e específicos da vítima pode ensejar responsabilização civil, especialmente quando há reiterada manutenção de conteúdo manifestamente ilícito (Sarlet; Marinoni; Mitidiero, 2021).
A jurisprudência recente tem consolidado entendimentos no sentido de que, uma vez notificada de forma clara, a plataforma deve agir com diligência razoável na retirada de conteúdos que violem direitos da personalidade, sob pena de responder solidariamente pelos danos decorrentes da continuidade da divulgação. Em situações particularmente graves, como a divulgação não consentida de imagens íntimas, o próprio Marco Civil admite mecanismos de remoção mais céleres, dispensando ordem judicial para proteger a vítima (Massicano, 2023).
Diante da velocidade de circulação e da facilidade de reprodução de imagens no ambiente digital, a tutela do direito à imagem demanda não apenas mecanismos repressivos, mas também estratégias preventivas, como políticas de educação digital, instrumentos de denúncia acessíveis e ferramentas automatizadas de detecção e bloqueio de conteúdos reincidentes. A conjugação de medidas jurídicas e tecnológicas mostra-se essencial para reduzir a revitimização e garantir proteção efetiva à dignidade das pessoas expostas indevidamente (Massicano, 2023).
1.3 Os desafios jurídicos na responsabilização dos agentes envolvidos
A responsabilização civil e, em hipóteses específicas, penal dos agentes envolvidos em ilícitos digitais enfrenta uma série de desafios estruturais, diretamente ligados às características técnicas e sociais da internet (Longhi, 2022).
A multiplicidade de sujeitos que podem participar da cadeia de difusão de conteúdos, a rapidez da circulação de informações e a arquitetura transnacional das plataformas digitais complexificam a identificação dos responsáveis e a efetiva aplicação das sanções previstas em lei (Moura, 2016).
Um dos primeiros obstáculos é a identificação da autoria das infrações, uma vez que o ambiente digital facilita o uso de perfis falsos, contas automatizadas e ferramentas de anonimização, o que dificulta a individualização da conduta. Sem a identificação do agente, a responsabilização civil se torna limitada, especialmente em sistemas que ainda dependem, majoritariamente, de ações individuais de reparação de dano (Longhi, 2022; Safernet Brasil, 2023).
Outro aspecto delicado é equilibrar a defesa dos direitos da personalidade com a liberdade de expressão, ambas asseguradas pela Constituição (Brasil, 1988). O desafio jurídico é definir critérios claros que diferenciem críticas legítimas, mesmo contundentes, de abusos como discurso de ódio, desinformação intencional ou uso indevido da imagem de terceiros, já que a falta de normas específicas sobre condutas digitais gera decisões judiciais divergentes e insegurança jurídica (Piovesan, 2021).
Outro ponto central do debate é a responsabilidade dos provedores de serviços e das plataformas digitais, sendo que o artigo 19 do Marco Civil da Internet limita, em regra, sua responsabilização ao descumprimento de ordens judiciais de remoção de conteúdo, seguindo o modelo de “safe harbor” para proteger a liberdade de expressão e evitar censura privada (Brasil, 2014).
Parte da doutrina, entretanto, tem apontado limitações desse modelo em casos de conteúdos manifestamente ilícitos, de rápida difusão e alto potencial lesivo, defendendo interpretações mais protetivas às vítimas e eventuais ajustes legislativos (Longhi, 2022; Piovesan, 2021).
A dimensão transnacional da internet representa um grande desafio, já que muitos serviços usados por brasileiros são fornecidos por empresas no exterior, sujeitas a várias legislações, tornando a obtenção de dados, a remoção de conteúdos e o cumprimento de decisões indenizatórias dependentes de cooperação internacional complexa e demorada, o que diminui a eficácia da proteção judicial (Moura, 2016).
No campo das provas, a rapidez com que conteúdos digitais podem ser alterados, excluídos ou replicados dificulta a construção de um acervo sólido para comprovar danos e nexo causal, tornando ferramentas como atas notariais eletrônicas, registros de tela e protocolos de preservação de logs junto a provedores cada vez mais importantes, embora ainda pouco conhecidas e usadas pelo público em geral (Massicano, 2023).
No âmbito penal, somam-se dificuldades adicionais: muitas condutas praticadas nas redes ainda não possuem tipificação específica ou se enquadram de forma imperfeita em tipos penais tradicionais, o que gera debates sobre a adequação ou não de reformas legislativas. Ao mesmo tempo, o uso desmedido do Direito Penal em matéria de expressão pode gerar riscos à liberdade de manifestação, impondo a necessidade de soluções equilibradas que articulem sanções penais, civis e administrativas de maneira proporcional (Sarlet; Marinoni; Mitidiero, 2021).
Massicano (2023) destaca, ainda, o problema da revitimização judicial, sobretudo em casos de discurso de ódio e exposição não consentida de imagem, em que a vítima, ao buscar proteção, é obrigada a relembrar e reexpor a situação ofensiva em múltiplas instâncias. Isso reforça a importância de uma atuação sensível e célere do Poder Judiciário, com uso de procedimentos adequados, proteção da intimidade da vítima e decisões capazes de mitigar rapidamente a continuidade do dano no ambiente digital.
Diante desse quadro, os desafios jurídicos na responsabilização dos agentes envolvidos em ilícitos digitais evidenciam a necessidade de interpretação sistemática e evolutiva do ordenamento, bem como de eventual aperfeiçoamento legislativo, de maneira a compatibilizar a proteção dos direitos da personalidade, a liberdade de expressão e as especificidades técnicas do ecossistema informacional em rede (Sarlet; Marinoni; Mitidiero, 2021).
2 A AUSÊNCIA DE REGULAMENTAÇÃO ESPECÍFICA E OS REFLEXOS NA RESPONSABILIZAÇÃO CIVIL
2.1 O papel do marco civil da internet e do código civil na responsabilização por discurso de ódio na internet
A promulgação do Marco Civil da Internet, a Lei nº 12.965/2014, é formalmente considerada como tentativa de consolidar direitos e garantias no uso da internet no Brasil. Entretanto, a sua elaboração foi influenciada por diretrizes internacionais e eventos geopolíticos marcantes, como as revelações de Edward Snowden em 2013, que trouxeram à tona práticas de vigilância em massa promovidas pela NSA, incluindo o monitoramento de comunicações de cidadãos, empresas e chefes de Estado e que trouxeram preocupações com segurança da informação, privacidade e os limites da atuação estatal na esfera digital (Ribas, 2020).
No contexto brasileiro, a notícia de que o país também fora alvo de espionagem pelos EUA levou à aprovação de uma moção de repúdio na Câmara dos Deputados e à instalação da Comissão Parlamentar de Inquérito nº 1/2014 para investigar os fatos (Brasil, 2014). Nota-se que esses acontecimentos impulsionaram a criação de um marco legal nacional capaz de assegurar a neutralidade da rede, a proteção de dados pessoais e a privacidade online. Como aponta Meireles (2023), a fragilidade dos mecanismos de consentimento e a coleta indiscriminada de informações contribuíram para tornar a proteção de dados uma prioridade legislativa, influenciando diretamente o Marco Civil e, posteriormente, a Lei Geral de Proteção de Dados (LGPD).
Embora inovador, o Marco Civil tem caráter mais principiológico e não detalha a regulamentação de condutas ofensivas na internet; seu artigo 1º define princípios, garantias, direitos e deveres para o uso da rede no Brasil, enquanto o artigo 2º lista fundamentos como liberdade de expressão, direitos humanos, pluralidade, diversidade, livre iniciativa e finalidade social da internet (Brasil, 2014).
O artigo 3º da lei reforça princípios como proteção à privacidade e dados pessoais, neutralidade da rede e responsabilização dos agentes digitais, ressaltando em seu parágrafo único que esses princípios não excluem outros previstos na legislação nacional ou em tratados internacionais; já o artigo 4º amplia o escopo ao determinar que o uso da internet deve favorecer acesso universal, inovação e padrões tecnológicos abertos (Brasil, 2014).
Ainda que tenha trazido avanços, o Marco Civil mostra-se insuficiente para enfrentar os desafios atuais da comunicação digital em rede. Como destaca Mello (2025), a disseminação de notícias falsas e o aumento dos discursos de ódio ultrapassam os limites da responsabilização civil tradicional, exigindo um novo olhar legislativo mais ágil e compatível com a complexidade do meio virtual.
Segundo o autor, as plataformas digitais são centrais na difusão de conteúdos que comprometem a democracia, a saúde pública e a convivência social, e, que, embora a liberdade de expressão seja um direito fundamental, não é absoluta, devendo ser compatibilizada com direitos como a dignidade da pessoa humana e a proteção contra incitação à violência e à intolerância (Mello, 2025).
Nesse sentido, Mello (2025) defende uma regulação mais eficaz das plataformas digitais, propondo normas que responsabilizem empresas por conteúdos prejudiciais, incentivem a transparência e promovam a ética na mediação de informações, ressaltando também o papel do Estado em equilibrar inovação tecnológica, liberdade de expressão e proteção contra abusos.
No intuito de suprir lacunas da legislação vigente, destaca-se o Projeto de Lei nº 2922/2020, de autoria do Senador Fabiano Contarato, que propõe acrescimentos à Lei Federal nº 12.695, de 25 de julho de 2012, para proibir o anúncio publicitário em sites que veiculem Fake News, acrescentado o art. 19- A, que regularia as seguintes questões:
Art. 19-A As empresas, nacionais e estrangeiras, que forneçam serviços de mídia programática não poderão veicular anúncios em páginas da internet que contenham desinformação ou que promovam discursos de ódio. § 1º Sem prejuízo das demais sanções cíveis, criminais ou administrativas, as empresas, nacionais e estrangeiras, que descumprirem ao caput deste artigo ficam sujeitas, conforme o caso, às seguintes sanções, aplicadas de forma isolada ou cumulativa: I – advertência, com indicação de prazo para adoção de medidas corretivas; II – multa de até 10% (dez por cento) do valor do anúncio veiculado em desconformidade com este artigo. § 2º A desinformação fica caracterizada como a informação comprovadamente falsa ou enganadora que, cumulativamente: I – é criada, apresentada e divulgada para obter vantagens econômicas ou para enganar deliberadamente o público; e II – é suscetível de causar um prejuízo público, entendido como ameaças aos processos políticos democráticos e aos processos de elaboração de políticas, bem como a bens públicos, tais como a proteção da saúde dos cidadãos, o ambiente ou a segurança. § 3º O discurso de ódio fica caracterizado quando um ato de comunicação incite violência contra pessoa ou grupo em razão de sua raça, gênero, orientação sexual, origem ou quaisquer outras formas de discriminação. § 4º Decreto regulamentará o procedimento para apuração de infrações ao disposto neste artigo.
Deste modo, infere-se que o novo projeto se propõe, a preencher essas lacunas ao detalhar regras de moderação de conteúdo, estabelecer maior transparência nas ações das plataformas e garantir maior proteção aos direitos dos usuários. Entretanto, não seria capaz de eliminar a subjetividade envolvida na moderação e avaliação de conteúdo.
Nota-se que atualmente, a responsabilização dos provedores de aplicações de internet no Brasil segue o regime de responsabilidade subjetiva mitigada previsto no art. 19 do Marco Civil, segundo o qual os provedores só respondem civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não procederem à remoção do conteúdo, observados os limites técnicos e o prazo estipulado, tentando evitar censura prévia e garantir a liberdade de expressão (Brasil, 2014), mas mostra-se insuficiente diante da velocidade com que conteúdos ofensivos se propagam na internet e do impacto imediato que podem causar
Deste modo, como explica Ribeiro (2024), a responsabilidade dos provedores é, em regra, subjetiva, mas mitigada, pois não decorre diretamente da presença de culpa na disponibilização do conteúdo ofensivo, mas sim da inércia em cumprir ordem judicial de retirada. A responsabilização, portanto, depende de uma conduta omissiva frente a uma determinação formal do Judiciário
O § 1º do art. 19 exige a identificação clara e específica do conteúdo a ser retirado, enquanto o § 2º limita a responsabilização por violações de direitos autorais à existência de previsão legal específica, reforçando a proteção à liberdade de expressão. Os §§ 3º e 4º, por sua vez, tratam de mecanismos voltados à celeridade processual e à concessão de tutela de urgência, desde que preenchidos os requisitos legais, como prova inequívoca, verossimilhança e risco de dano irreparável (Brasil, 2014).
No entanto, apesar da intenção de garantir segurança jurídica e coibir censura indevida, a exigência contida no § 1º impõe obstáculos para as vítimas de conteúdos ofensivos, em especial do discurso de ódio. Longhi (2022), pontua que a necessidade de identificação precisa do material a ser removido acaba tornando-se entraves práticos, sobretudo em casos de publicações efêmeras, como stories, ou de ampla circulação em múltiplos formatos e plataformas e que diante da formalidade técnica demanda da vítima recursos e conhecimentos que, muitas vezes, ela não possui, comprometendo o acesso célere e eficaz à tutela jurisdicional.
Além disso, mesmo em casos de graves violações à dignidade ou integridade pessoal, as plataformas não são responsabilizadas automaticamente, obrigando a vítima a recorrer ao Judiciário e enfrentar morosidade, custos e desgaste emocional; após a remoção, pequenas alterações no conteúdo ofensivo podem contornar a decisão judicial, perpetuando a exposição indevida (Longhi, 2022).
Embora o acesso aos Juizados Especiais represente uma alternativa facilitada para o ajuizamento de ações, Schreiber (2015) aduz que a limitação desses juizados para lidar com as especificidades dos litígios digitais pode resultar em sentenças injustas e desproporcionais, sobretudo porque, no campo digital, a exigência de provas detalhadas e inequívocas ainda se configura como uma barreira.
Deste modo, infere-se que embora os dispositivos legais citados no campo formal priorizem salvaguardas contra abusos estatais e promovam a liberdade de expressão, acabam desamparando justamente aqueles que mais necessitam de respostas rápidas e eficazes frente aos abusos virtuais, inadvertidamente facilita a perpetuação de condutas lesivas praticadas pelos próprios usuários.
Vale destacar que o art. 20, parágrafo único, do Marco Civil permite que o provedor substitua o conteúdo removido por uma justificativa ou pela própria ordem judicial quando houver fins econômicos (Brasil, 2014), o que pode, na prática, resultar em divulgação indireta do material, reavivando a controvérsia ou expondo novamente a vítima, especialmente em casos de conteúdo íntimo, difamatório ou discurso de ódio de grande repercussão.
O art. 21 do Marco Civil (Brasil, 2014) estabelece uma exceção ao regime geral, prevendo que a responsabilidade do provedor por divulgação não autorizada de conteúdo íntimo é subsidiária, ou seja, só ocorre se o material não for removido após notificação válida da vítima; contudo, esse mecanismo exige que a vítima conheça seus direitos, consiga formular a notificação corretamente e reúna provas como link e autoria, o que pode dificultar o acesso à proteção, especialmente para pessoas em situação de vulnerabilidade emocional ou financeira.
Além disso, a necessidade de demonstrar a legitimidade do solicitante, como prevê o parágrafo único, pode gerar demora na resposta da plataforma e abrir espaço para questionamentos infundados por parte do agressor, atrasando a remoção e prolongando a exposição da vítima. Os artigos 22 e 23 tratam da requisição judicial de registros de conexão e de acesso a aplicações para fins probatórios em processos cíveis ou penais. O art. 22 exige a fundamentação do pedido judicial com base em indícios de ilícito e delimitação do período investigado. Já o art. 23 impõe ao juiz a adoção de medidas para garantir a privacidade do usuário, podendo inclusive determinar o segredo de justiça (Brasil, 2014).
O art. 22 e 23 do Marco Civil garantem que a remoção de conteúdos dependa de ordem judicial fundamentada, com indícios concretos e limite temporal, protegendo a privacidade; contudo, na prática, a dependência exclusiva do Judiciário retarda a coleta de provas digitais, que são voláteis, e a falta de padronização na aplicação do segredo de justiça expõe vítimas, especialmente em casos de discurso de ódio, assédio ou divulgação de conteúdo íntimo, aumentando a insegurança jurídica e a desigualdade de tratamento (Brasil, 2014).
Em paralelo ao Marco Civil, o Código Civil brasileiro oferece base subsidiária para a responsabilização civil por condutas ofensivas na internet, especialmente por meio dos artigos 186 e 927, os quais estabelecem que aquele que, por ação ou omissão voluntária, causar dano a outrem comete ato ilícito e deve reparar o prejuízo (Brasil, 2002).
Embora o Marco Civil da Internet e o Código Civil sejam marcos fundamentais para a regulação e responsabilização civil no Brasil, ambos enfrentam limitações práticas no ambiente digital: o primeiro, por ter sido concebido em contexto analógico, dificulta a identificação de agentes e a obtenção rápida de medidas reparatórias; o segundo, anterior à era digital, fornece bases importantes, porém insuficientes, para responsabilizar atos como discurso de ódio online.
2.2 Ciberespaço, discurso de ódio e o vácuo normatizo na responsabilização jurídica
Consoante apontam Silva, Botelho-Francisco e Sampaio (2021), é possível identificar traços distintivos no discurso de ódio veiculado em meios digitais – denominado cyberhate, quando comparado às formas convencionais de manifestação odiosa e que advém, em grande medida, das especificidades do ambiente virtual, especialmente no que tange à liberdade de expressão ampliada e ao anonimato assegurado por esse meio, fatores que favorecem a exteriorização de posicionamentos extremistas.
Sob essa ótica, Marques e Nobre (2021) ressaltam que a ausência de contato físico entre o sujeito ativo e o sujeito passivo da conduta odiosa propicia uma sensação de invisibilidade, contribuindo para a atenuação da percepção quanto à lesividade das manifestações proferidas.
Ademais, a constituição de comunidades virtuais orientadas por ideologias excludentes e intolerantes contribui para a intensificação da disseminação de discursos de ódio, sendo essa dinâmica exacerbada pela velocidade com que as informações são propagadas no meio digital, permitindo que conteúdos ofensivos atinjam, em curtíssimo lapso temporal, uma audiência numerosa, estimulando reações impulsivas e interações desprovidas de filtros ético-discursivos (Moura, 2016).
De acordo com dados divulgados pela organização Safernet, entidade dedicada à tutela dos direitos humanos no ciberespaço, foram registradas, apenas no ano de 2022, mais de 74 mil denúncias relacionadas a crimes de ódio praticados por meio da internet. Referidas comunicações foram devidamente encaminhadas à Central Nacional de Denúncias de Crimes Cibernéticos, órgão integrante da própria instituição, os quais evidenciam:
Tabela 1 Dados dos discursos de ódio na internet de 2017 a 2022

Fonte: SaferNet (2023)
À luz dos dados supramencionados, constata-se um aumento significativo na quantidade de delitos de ódio denunciados no ambiente virtual. Em 2017, foram reportados 24.356 registros, ao passo que, em 2022, esse número alcançou 74.025, o que representa um acréscimo de 67,70%. Cumpre salientar, contudo, que tal crescimento não se distribuiu de maneira homogênea entre as diversas categorias de crimes, apresentando variações substanciais. É o caso, por exemplo, das denúncias relativas à misoginia, que apresentaram um incremento de 250,85% no período analisado, saltando de 961 para 28.679 ocorrências. De igual modo, as notificações de xenofobia apresentaram elevação expressiva de 874,10%, passando de 1.395 para 10.686 registros. A intolerância religiosa, por sua vez, teve um crescimento de 455,99%, com aumento de 1.459 para 4.220 comunicações formais.
Consoante exposto pela SaferNet Brasil (2021), o ciberespaço tem se revelado propício à proliferação de discursos de ódio, os quais, não raramente, encontram abrigo sob o manto da liberdade de expressão, contribuindo para a banalização e naturalização dessas condutas ilícitas no ambiente digital.
Para além da responsabilização jurídica dos autores de tais discursos, Sardi (2023) destaca a lógica de lucratividade subjacente às dinâmicas digitais, especialmente nas redes sociais. O autor assevera que o discurso de ódio se revela economicamente rentável no meio digital, na medida em que as plataformas operam não apenas como veículos de comunicação, mas como verdadeiras agências publicitárias e editoras de conteúdo, cujos algoritmos são estruturados para captar dados comportamentais dos usuários, direcionando conteúdos que maximizem o engajamento, o tempo de permanência e, por conseguinte, a geração de receita publicitária.
Segundo a abordagem de Rocha e Lopes (2023), redes sociais se referem às relações interpessoais e grupais, independentemente da tecnologia, enquanto mídias sociais são as plataformas digitais específicas, como Facebook, Instagram e Twitter, onde essas interações acontecem e onde se observa mais concretamente a disseminação de conteúdos pelos usuários.
Nesse cenário, as mídias sociais funcionam como os principais meios para que indivíduos compartilhem ideias, valores, emoções e opiniões, que podem, por vezes, ser ofensivas ou discriminatórias, contribuindo para a disseminação de discursos de ódio e para a violação de direitos e garantias fundamentais previstos na lei.
Nesse sentido, observa-se que a ausência de uma legislação específica que regule a disseminação de fake news e o discurso de ódio compromete diretamente a efetividade da responsabilização civil, uma vez que as normas existentes não conseguem abranger, de forma adequada, os novos contornos e dinâmicas da comunicação digital (Longhi, 2022)
Assim, essas lacunas forçam o Judiciário a recorrer à interpretação extensiva ou analógica, gerando decisões inconsistentes e insegurança jurídica, especialmente porque a identificação dos responsáveis por conteúdos ofensivos nas redes sociais é dificultada pelo anonimato e pela complexidade na obtenção de dados técnicos, enfraquecendo a apuração dos fatos e a aplicação da responsabilidade civil (Longhi, 2022).
Além disso, De Oliveira (2025), considera que a tipificação penal de condutas como calúnia, injúria e difamação nem sempre contempla as especificidades do ambiente digital. As fake news, muitas vezes, não se encaixam nos tipos penais tradicionais e acabam sendo tratadas apenas como manifestações de opinião, mesmo quando causam danos morais, sociais ou institucionais relevantes.
2.3 Liberdade de expressão nas redes sociais e os limites constitucionais: entre a inércia legislativa e a fragilidade da tutela civil
A falta de normas específicas e eficazes no ordenamento jurídico brasileiro sobre condutas ilícitas no ambiente digital vai além de simples omissão legislativa, pois, segundo Piaia et al. (2025), compromete a proteção dos direitos fundamentais, como dignidade, honra, imagem e privacidade, de forma que a ausência de mecanismos jurídicos rápidos e adequados agrava a situação das vítimas e permite a continuidade dos danos morais e sociais.
Nesse cenário, conforme salienta Salvador (2023), a liberdade de expressão nas plataformas digitais frequentemente colide com outras garantias constitucionais de igual envergadura, especialmente o direito à inviolabilidade da intimidade, da honra e da imagem. A extensão dada à liberdade de expressão no espaço virtual pode ensejar abusos concretizados por meio de discursos injuriosos, difamatórios ou baseados em informações notoriamente inverídicas, cujos efeitos deletérios recaem sobre a reputação e integridade moral dos indivíduos no espaço público.
Tal problemática restou evidenciada no julgamento do Mandado de Segurança Cível nº 060023829/MA, sob relatoria do Ministro Carlos Horbach, proferido pelo Tribunal Superior Eleitoral no ano de 2021. Na ocasião, destacou-se que, embora a liberdade de expressão e o pluralismo de ideias constituam fundamentos indispensáveis à ordem democrática, não se prestam à legitimação de práticas antijurídicas, como a disseminação de discursos de ódio e o desprezo às instituições republicanas — ainda que veiculados por agentes políticos em períodos eleitorais. Configura-se, assim, clara transgressão ao princípio da razoabilidade e ao dever de urbanidade no exercício dos direitos fundamentais (Brasil, 2021).
A tensão entre a liberdade de expressão e a responsabilidade civil reveste-se de especial sensibilidade no meio digital, onde manifestações ofensivas são, por vezes, indevidamente tuteladas sob o manto da livre opinião, mesmo quando ultrapassam os limites constitucionalmente admissíveis e configuram verdadeiro abuso de direito. A ausência de parâmetros legais objetivos e suficientemente precisos para a definição dos contornos dessa liberdade fomenta um ambiente de impunidade e banalização das ofensas, em detrimento da esfera jurídica dos sujeitos atingidos.
De igual modo, os mecanismos de autorregulação adotados pelas plataformas digitais, mediante políticas internas de moderação de conteúdo e aplicação de termos de uso, têm se revelado insuficientes, eivados de subjetivismo e carência de uniformidade. A opacidade e a inconsistência na aplicação dessas normas comprometem a credibilidade do sistema, frustrando as expectativas legítimas dos usuários quanto à imparcialidade das decisões e à proteção de seus direitos.
Nesse cenário, a ausência de normas claras pode ser vista como violação do princípio da efetividade dos direitos fundamentais previsto no artigo 5º da Constituição Federal, pois a indefinição quanto à responsabilização de agentes digitais gera insegurança jurídica e fragiliza a proteção civil das vítimas, dificultando o acesso à justiça e a reparação completa dos danos.
Ilustra-se esse contexto com os eventos ocorridos em 8 de janeiro de 2023, quando grupos organizados por meio das redes sociais, sob o pretexto do exercício da liberdade de expressão, promoveram a invasão e depredação das sedes dos Três Poderes da República, especialmente o Congresso Nacional. A gravidade dos fatos culminou na instauração de diversas investigações, fundadas em registros digitais, voltadas à responsabilização dos envolvidos, inclusive por meio de ações civis públicas com pedidos de indenização por danos morais coletivos. Até abril de 2023, aproximadamente 250 indivíduos, além de pessoas jurídicas e entidades sindicais, figuravam como requeridos nas referidas medidas (Agência Brasil, 2023).
À luz do exposto, infere-se que a liberdade de expressão, especialmente quando exercida em ambientes digitais, deve ser interpretada de forma sistemática e harmônica com os demais direitos fundamentais e que não se reveste de caráter absoluto, devendo ser exercida dentro dos limites traçados pelo princípio da legalidade e pelo respeito incondicional à dignidade da pessoa humana. Não se admite, portanto, que tal prerrogativa seja instrumentalizada como meio de afronta à ordem constitucional ou de deslegitimação dos valores democráticos que estruturam o Estado de Direito.
3 O EQUILÍBRIO ENTRE DIREITOS FUNDAMENTAIS E O COMBATE AOS ABUSOS NAS REDES SOCIAIS
A expansão das redes sociais como principal arena de circulação de informações reconfigurou o modo como se exerce a liberdade de expressão e como se produzem violações à honra, à imagem e à dignidade de indivíduos e grupos vulneráveis (Longhi, 2022).
No ambiente digital, conteúdos que antes eram limitados a espaços físicos alcançam rapidamente milhares ou milhões de pessoas, aumentando os efeitos de discursos discriminatórios, fake news e difamações, tornando a responsabilidade civil um instrumento essencial para reparar danos e definir limites ao uso da expressão em plataformas online (Safernet Brasil, 2023).
A Constituição Federal de 1988 assegura, simultaneamente, a liberdade de expressão e o direito à indenização por dano moral e material decorrente de ofensa à honra, à imagem, à intimidade e à vida privada (Brasil, 1988).
O Código Civil, por sua vez, estabelece o dever de reparar danos de atos ilícitos, inclusive extrapatrimoniais, reforçando a importância dos direitos da personalidade, e essa tensão entre liberdade de expressão e proteção da personalidade se torna ainda mais evidente nas redes sociais, onde a linha entre crítica legítima, discurso político intenso, fake news e discurso de ódio frequentemente se confunde (Brasil, 2002).
Este capítulo busca analisar como o ordenamento jurídico brasileiro vem buscando equilibrar tais direitos fundamentais diante dos abusos praticados nas plataformas digitais, com foco nos critérios de responsabilização civil, na leitura constitucional do discurso de ódio e nas perspectivas regulatórias voltadas à repressão de fake news e manifestações discriminatórias em larga escala. Para tanto, examina-se, inicialmente, o embate dogmático entre liberdade de expressão e responsabilidade civil; em seguida, analisa-se o caso Ellwanger como marco paradigmático na delimitação constitucional do discurso de ódio; por fim, discutem-se caminhos regulatórios para a responsabilização por fake news e hate speech em ambiente digital.
3.1 Liberdade de expressão e responsabilidade civil em ambiente digital
A liberdade de expressão é compreendida, na tradição constitucional democrática, como condição para a formação da opinião pública, para o controle social do poder e para a circulação de ideias em sociedade (Sarlet; Marinoni; Mitidiero, 2021). No modelo brasileiro, essa liberdade é assegurada de forma ampla pelo artigo 5º, incisos IV, IX e XIV, da Constituição Federal, que garante a livre manifestação do pensamento, a liberdade de expressão intelectual, artística, científica e de comunicação, bem como o acesso à informação (Brasil, 1988). Contudo, o mesmo texto constitucional protege a honra, a imagem e a intimidade, assegurando o direito à resposta e à indenização por dano moral e material em caso de abuso (Brasil, 1988).
Sob essa ótica, a liberdade de expressão não possui caráter absoluto, encontrando limites quando se converte em instrumento de humilhação, difamação, incitação à discriminação ou ao ódio contra pessoas ou grupos, especialmente em contextos historicamente marcados por violência e exclusão (Piovesan, 2021). A responsabilidade civil por dano moral, ancorada nos artigos 186 e 927 do Código Civil, surge como mecanismo de tutela dos direitos da personalidade, impondo a quem excede tais limites o dever de reparar o prejuízo causado (Brasil, 2002).
No ambiente digital, os elementos clássicos da responsabilidade civil – conduta, dano, nexo causal e culpa ou risco – assumem novas feições. A conduta pode se manifestar por meio de postagens, comentários, compartilhamentos ou mesmo curtidas que reforçam conteúdos ofensivos. O dano, em especial o moral, tende a ser amplificado pela rapidez e pelo alcance das redes, repercutindo na esfera pessoal, profissional e comunitária da vítima (Silva; Botelho-Francisco; Sampaio, 2021). O nexo causal exige análise da dinâmica de propagação do conteúdo, da relevância da audiência e da persistência do material na rede, o que obriga o julgador a considerar métricas de engajamento e viralização.
A responsabilização passa, então, por diferenciar três situações típicas: a) a imputação de fatos falsos apresentados como verdadeiros, como atribuição indevida de crime ou conduta desonrosa; b) o discurso de ódio dirigido a grupos historicamente vulnerabilizados, que ultrapassa o âmbito da opinião e incita discriminação ou violência; e c) a crítica dura ou sátira, que, embora incômoda, permanece dentro dos limites da liberdade de expressão (Silva; Botelho-Francisco; Sampaio, 2021). A resposta jurídica deve variar conforme a natureza do conteúdo, o contexto comunicacional e a intensidade dos efeitos produzidos.
Nesse cenário, o Marco Civil da Internet (Lei n.º 12.965/2014) introduziu parâmetros importantes para a responsabilização de provedores de aplicação, ao prever que, em regra, plataformas só respondem civilmente por conteúdos de terceiros se descumprirem ordem judicial específica de remoção (Brasil, 2014).
A lógica da lei visa impedir a censura prévia, evitar que empresas privadas atuem como “juízas da verdade” e preservar a neutralidade da rede, mas na prática, a necessidade de ordem judicial, identificação precisa de URLs e a rapidez da circulação de conteúdos ilícitos têm se mostrado insuficientes para proteger adequadamente as vítimas de discurso de ódio e desinformação em massa (Longhi, 2022).
Debates recentes, tanto na doutrina quanto nos tribunais superiores, têm apontado a necessidade de um modelo de responsabilidade mais sensível ao risco sistêmico associado à desinformação e aos discursos de ódio em larga escala. Nesse modelo, a responsabilização do autor direto do conteúdo continua a ser central, mas se reconhece que, em situações de ilicitude manifesta e dano grave, pode ser exigido das plataformas um nível reforçado de diligência, com mecanismos internos de moderação, canais ágeis de denúncia e transparência nas decisões de remoção. A questão central deixa de ser apenas “quem postou”, para incluir “como a arquitetura da plataforma contribuiu para a amplificação do dano” (Longhi, 2022; Silva; Botelho Francisco; Sampaio, 2021).
Sob a perspectiva da proporcionalidade, o desafio consiste em calibrar tutelas que sejam suficientemente firmes contra fake news e conteúdos odiosos, sem instaurar um regime de monitoramento generalizado ou de supressão arbitrária de manifestações impopulares, críticas políticas ou discursos minoritários. A resposta tem se orientado pela adoção combinada de reparação civil (indenização, retratação, retirada de conteúdo), medidas pedagógicas (educação midiática, campanhas públicas) e deveres estruturais de transparência por parte das plataformas digitais (Comissão Europeia, 2022; Safernet Brasil, 2023).
Assim, a responsabilidade civil na era das redes sociais deve ser compreendida como instrumento de equilíbrio entre a proteção da esfera individual e a preservação de um espaço público de debate robusto, plural e livre, em que a liberdade de expressão não sirva de escudo para a perpetuação de violências simbólicas ou para a corrosão do próprio regime democrático.
3.2 O caso Ellwanger e a delimitação constitucional do discurso de ódio
O caso Ellwanger constitui marco fundamental para a compreensão dos limites constitucionais da liberdade de expressão e da natureza jurídica do discurso de ódio no Brasil. No Habeas Corpus n.º 82.424/RS, o Supremo Tribunal Federal analisou a condenação de Siegfried Ellwanger por publicação e divulgação de obras antissemitas, nas quais se defendia a superioridade racial ariana e se negava o Holocausto. A defesa sustentava que os escritos estariam protegidos pela liberdade de expressão e que o antissemitismo não se enquadraria no conceito de racismo (Brasil, 2003).
Ao denegar a ordem, por maioria, o STF firmou entendimento no sentido de que o antissemitismo configura forma de racismo e que manifestações voltadas à inferiorização de determinado grupo humano não se inserem no âmbito da liberdade de expressão constitucionalmente protegida. A Corte destacou que a Constituição de 1988, ao prever o crime de racismo como inafiançável e imprescritível, sinaliza repúdio categórico a discursos que negam a dignidade e a igualdade de grupos historicamente perseguidos (Brasil, 2003).
Na fundamentação, os ministros enfatizaram que a liberdade de expressão não se presta à propagação de ideologias de ódio que incitam discriminação, segregação ou violência contra minorias, sob pena de contradição interna do próprio texto constitucional (Brasil, 2003).
A decisão consolidou a compreensão de que determinados se situam fora do perímetro da proteção comunicativa e podem ser objeto de repressão penal e responsabilização civil sem violação ao núcleo essencial da liberdade de expressão (Piovesan, 2021).
Embora o caso Ellwanger tenha se desenvolvido em contexto pré-redes sociais, sua ratio decidendi é diretamente aplicável ao ambiente digital contemporâneo, no qual narrativas negacionistas, antissemitas, racistas, misóginas e LGBTfóbicas se valem da capilaridade e do anonimato para se disseminar em grande escala (Silva; Botelho-Francisco; Sampaio, 2021). As redes sociais permitem a formação de comunidades virtualmente organizadas em torno de ideologias excludentes, nas quais o discurso de ódio deixa de ser exceção para se tornar elemento central de identidade e coesão grupal (Moura, 2016).
Dados da SaferNet Brasil mostram que, em 2022, houve mais de 74 mil denúncias de crimes de ódio na internet, com aumento significativo de casos de misoginia, racismo, xenofobia e intolerância religiosa em relação a anos anteriores, evidenciando que o ambiente digital se tornou um espaço para reproduzir e amplificar práticas discriminatórias muitas vezes disfarçadas de “opinião” ou “humor” (Safernet Brasil, 2023).
Com base no precedente Ellwanger, a diferença entre expressão protegida e discurso de ódio depende do conteúdo e do impacto social da mensagem, e quando ela busca desumanizar, inferiorizar ou excluir grupos por etnia, religião, orientação sexual, gênero ou nacionalidade, ultrapassando o debate de ideias e atacando a dignidade de pessoas concretas, ocorre abuso de direito, tornando a intervenção civil não apenas possível, mas necessária para evitar a naturalização da violência simbólica (Brasil, 2003).
Em decisões recentes, o STF e o Tribunal Superior Eleitoral têm reafirmado que manifestações disfarçadas de crítica política, mas que contêm ofensas racistas, misóginas ou homofóbicas ou incitam desrespeito às instituições democráticas, não estão protegidas pela liberdade de expressão, especialmente quando fazem parte de campanhas coordenadas nas redes sociais que ameaçam a ordem constitucional ou corroem direitos fundamentais de grupos vulneráveis (Brasil, 2021).
No campo da responsabilidade civil, o caso Ellwanger ensina que discursos que negam a humanidade ou o sofrimento histórico de minorias, mesmo na forma de livro, postagem ou meme, configuram dano à dignidade coletiva e podem gerar indenização, e que, em situações de discurso de ódio, não é necessário provar prejuízo econômico específico, pois a própria propagação de ideologias discriminatórias constitui ofensa grave a direitos fundamentais (Piovesan, 2021).
Aplicada às redes sociais, essa lógica conduz ao reconhecimento de que campanhas de difamação racista, ataques coordenados a religiões de matriz africana, misoginia virulenta e incitação à violência contra pessoas LGBTQIA+ não podem ser tratadas como “debate de ideias” ou “opiniões polêmicas”, mas como formas de agressão à dignidade humana que legitimam a imposição de deveres de reparação e de remoção célere de conteúdos (Silva; Botelho-Francisco; Sampaio, 2021). Em tais casos, o direito de resposta, a retratação pública, a exclusão do material ofensivo e a fixação de indenização compatível com a gravidade e a repercussão da conduta são instrumentos essenciais de tutela.
Por fim, o precedente Ellwanger orienta a criação de futuras regras para plataformas digitais ao afirmar que ideologias de ódio não estão protegidas pela liberdade de expressão, oferecendo base para exigir que empresas de tecnologia adotem políticas de moderação transparentes e com devido processo, impedindo a permanência de conteúdos que atentem contra a dignidade de grupos historicamente perseguidos e permitindo equilibrar a preservação da esfera pública digital com a proteção de direitos fundamentais.
3.3 Perspectivas para a regulamentação da responsabilização por fake news e discurso de ódio
A disseminação de fake news e de discursos de ódio nas redes sociais não é fenômeno restrito ao Brasil, o que explica a multiplicidade de respostas normativas em diferentes sistemas jurídicos. Em comum, destacam-se preocupações com a integridade dos processos democráticos, com a proteção de grupos vulneráveis e com a preservação da liberdade de expressão em um ecossistema informacional marcado por algoritmos de recomendação, personalização de conteúdo e forte concentração de poder em poucas plataformas globais (Comissão Europeia, 2022).
Na União Europeia, o Digital Services Act (Regulamento (UE) 2022/2065) estabeleceu um conjunto de obrigações proporcionais ao porte e ao impacto sistêmico dos intermediários digitais, impondo às grandes plataformas deveres de avaliação e mitigação de riscos associados à disseminação de conteúdos ilegais, à desinformação e à violação de direitos fundamentais (Comissão Europeia, 2022). O regulamento prevê, entre outras medidas, relatórios periódicos de transparência, mecanismos de denúncia acessíveis, procedimentos de contestação para usuários e abertura de dados para fins de auditoria e pesquisa independente.
Esse modelo procura equilibrar três objetivos: oferecer resposta rápida a conteúdos ilícitos evidentes, impedir remoções arbitrárias que restrinjam o debate público e garantir que as decisões de moderação possam ser explicadas e monitoradas por autoridades e pela sociedade civil, mostrando que é possível criar um regime de responsabilidade que exija maior diligência de plataformas influentes sem transformar pequenos serviços em “fiscalizadores universais” (Comissão Europeia, 2025).
No Brasil, o debate mais conhecido sobre o tema é o Projeto de Lei n.º 2.630/2020, que busca regulamentar a responsabilidade das plataformas, a transparência de algoritmos, a identificação de conteúdos patrocinados e a criação de mecanismos internos de denúncia e revisão de moderação; embora ainda enfrente resistência política e institucional, o projeto evidencia a preocupação de criar regras de responsabilização compatíveis com a realidade brasileira de desigualdade social, violência política e amplo uso das redes sociais (Brasil, 2020).
Relatórios da SaferNet Brasil indicam que, entre 2017 e 2022, o número de denúncias de crimes de ódio na internet cresceu de forma expressiva, com destaque para categorias como misoginia, xenofobia, racismo e intolerância religiosa (Safernet Brasil, 2023). Esses dados revelam que a autorregulação espontânea das plataformas não tem sido suficiente para conter a escalada de conteúdos discriminatórios e desinformativos. Ao mesmo tempo, mostram que a sociedade civil organizada desempenha papel relevante na documentação das violações e na pressão por respostas estatais mais efetivas.
Nesse contexto, as perspectivas de regulamentação da responsabilização por fake news e discurso de ódio nas redes podem ser sistematizadas em quatro eixos. O primeiro é o da transparência, que demanda a publicação regular de relatórios de moderação, a explicitação de critérios de remoção e recomendação de conteúdo, além da disponibilização de repositórios de anúncios políticos e de interesse público (Comissão Europeia, 2022). Quanto mais visíveis forem as regras e as práticas, menor o espaço para arbitrariedades e maior a possibilidade de controle social.
O segundo eixo é o da diligência proporcional ao risco, pelo qual plataformas com grande número de usuários e capacidade de influenciar debates públicos devem adotar medidas reforçadas para prevenir e responder a conteúdos claramente ilícitos, como ameaças, incitação à violência, apologia ao nazismo ou divulgação de imagens íntimas sem consentimento, incluindo canais de denúncia privilegiados, equipes especializadas e cooperação com autoridades, sempre respeitando proteção de dados e devido processo (Longhi, 2022).
O terceiro eixo é o da tutela rápida com garantias mínimas, segundo o qual, em casos de discursos de ódio claros, fake news potencialmente danosas ou graves violações de direitos da personalidade, a remoção rápida é essencial para evitar amplificação do dano, mas deve sempre incluir notificação ao usuário, explicação dos motivos e possibilidade de contestação interna ou judicial, evitando que a urgência se transforme em censura privada (Longhi, 2022; Comissão Europeia, 2022).
O quarto eixo é o da cooperação e da educação midiática, enfatizando que medidas puramente punitivas não resolvem sozinhas o problema da desinformação e do discurso de ódio, sendo essencial investir em alfabetização digital para que cidadãos reconheçam conteúdos enganosos e compartilhem informações com responsabilidade, ao mesmo tempo em que a colaboração entre Estados, plataformas, academia e sociedade civil viabiliza ferramentas de monitoramento, auditoria e pesquisa sobre o impacto das políticas adotadas (Comissão Europeia, 2025).
No plano interno, eventuais ajustes no Marco Civil da Internet e no Código Civil deverão levar em conta a jurisprudência consolidada sobre discurso de ódio, em especial o precedente Ellwanger, e o papel estruturante da liberdade de expressão para a democracia constitucional. A construção de um novo regime de responsabilização por fake news e hate speech, portanto, não pode prescindir da técnica da ponderação, da análise contextual das manifestações e da preservação de um núcleo robusto de proteção para críticas políticas, denúncias jornalísticas e discursos contra-hegemônicos (Piovesan, 2021).
As perspectivas de regulamentação da responsabilidade por fake news e discurso de ódio apontam para um modelo que une normas claras, deveres proporcionais das plataformas, transparência, respostas rápidas com garantias e educação midiática, visando não silenciar vozes divergentes, mas reduzir danos de conteúdos ilícitos em larga escala, proteger direitos da personalidade e preservar o espaço democrático de circulação de ideias em um ambiente informacional cada vez mais complexo e interconectado.
CONSIDERAÇÕES FINAIS
A análise desenvolvida ao longo deste trabalho mostrou que a expansão das redes sociais e a lógica algorítmica da comunicação desafiam os instrumentos tradicionais de responsabilização civil, evidenciando limites práticos do Código Civil e do Marco Civil da Internet na proteção dos direitos da personalidade no ambiente digital, enquanto a disseminação de fake news e discursos de ódio causa danos significativos à honra, à imagem e à dignidade de indivíduos e grupos vulneráveis, exigindo respostas jurídicas mais rápidas e eficazes.
Constatou-se que a liberdade de expressão, embora ocupe posição central no constitucionalismo brasileiro, não possui caráter absoluto e deve ser interpretada em harmonia com outros direitos fundamentais, como a igualdade, a não discriminação e a proteção da dignidade humana. A jurisprudência recente dos tribunais superiores, em especial do Supremo Tribunal Federal e do Superior Tribunal de Justiça, tem caminhado no sentido de compatibilizar a vedação à censura prévia com a possibilidade de responsabilização a posteriori por conteúdos manifestamente ilícitos, admitindo, em situações qualificadas, deveres de cuidado mais robustos por parte das plataformas digitais.
O exame do regime de responsabilidade civil das plataformas indicou que o modelo baseado na exigência de ordem judicial específica, previsto no artigo 19 do Marco Civil da Internet, mostra-se insuficiente frente à rapidez, à escala e à replicabilidade dos conteúdos ofensivos, pois a necessidade de URL precisa, a lentidão nas decisões e a volatilidade das provas digitais fragilizam a proteção das vítimas e, muitas vezes, tornam irreversível o dano à reputação, enquanto dados da SaferNet Brasil, que registram aumento expressivo de denúncias de crimes de ódio e conteúdos discriminatórios, evidenciam o descompasso entre a gravidade dos ilícitos e a capacidade de resposta do sistema jurídico.
Constatou-se também que a ausência de regulamentação específica sobre desinformação e discurso de ódio gera insegurança jurídica, obrigando o Judiciário a preencher lacunas caso a caso por meio de ponderações e jurisprudência, medida útil para proteger vítimas, mas insuficiente frente à necessidade de um marco regulatório claro, estável e democrático que defina parâmetros objetivos para usuários, plataformas e autoridades públicas.
Com base nessas constatações, conclui-se que a consolidação de um modelo regulatório adequado à era digital passa, necessariamente, por quatro eixos: (a) reforço da proteção civil dos direitos da personalidade, com instrumentos procedimentais que viabilizem tutelas de urgência eficazes e proporcionais ao risco; (b) definição de deveres de diligência graduados para as plataformas, com maior transparência sobre critérios de moderação, canais acessíveis de contestação e prestação de contas periódica à sociedade; (c) aperfeiçoamento da cooperação entre Estado, empresas e sociedade civil, inclusive em âmbito internacional, para enfrentar ilícitos transnacionais; e (d) investimento em educação midiática e digital, a fim de fortalecer as capacidades críticas dos usuários e reduzir a circulação de conteúdos nocivos.
Assim, o trabalho conclui que, embora a liberdade de expressão permaneça como regra no Brasil, ela não pode proteger discursos de ódio ou desinformação que atentem contra direitos fundamentais, sendo necessária uma reconfiguração da responsabilidade civil no ambiente digital, baseada em dignidade humana, proporcionalidade e efetividade da tutela judicial, para garantir um espaço online mais seguro, plural e democrático.
REFERÊNCIAS
AGÊNCIA BRASIL. Atos antidemocráticos: STF aceita denúncias contra mais 245 pessoas envolvidas. Brasília, DF, 2023. Disponível em: https://agenciabrasil.ebc.com.br/justica/noticia/2023-05/stf-torna-reus-mais-250- investigados-pelos-atos-golpistas. Acesso em: 28 nov. 2025.
ALMEIDA, Juliana Evangelista de; PENAFORTE, Gabriella Mundim. Marco Civil da Internet (Lei n.º 12.965/14) e os desafios contemporâneos à responsabilidade civil dos provedores na era das fake news. Revista de Ciências do Estado (REVICE/UFMG), Belo Horizonte, 2025. Disponível em: https://periodicos.ufmg.br/index.php/revice/article/view/e54425/e54425. Acesso em: 28 nov. 2025.
BRASIL. [Constituição (1988)]. Constituição da República Federativa do Brasil de 1988. 5 de outubro de 1988. Brasília, DF: Presidência da República, [2025]. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 31 out. 2025.
BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Diário Oficial da União, Brasília, DF, 11 jan. 2002. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/2002/l10406compilada.htm. Acesso em: 28 nov. 2025.
BRASIL. Lei nº 12.965, de 23 de abril de 2014. Marco Civil da Internet. Diário Oficial da União, Brasília, DF, 24 abr. 2014. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 28 nov. 2025.
BRASIL. Lei nº 13.188, de 11 de novembro de 2015. Direito de Resposta. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2015/lei/L13188.htm. Acesso em: 31 out. 2025.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais. Diário Oficial da União, Brasília, DF, 15 ago. 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 28 nov. 2025.
BRASIL. Congresso Nacional. Projeto de Lei nº 2.630, de 2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Brasília, DF, 2020. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=225673 5. Acesso em: 28 nov. 2025.
BRASIL. Senado Federal. Projeto de Lei nº 2.922, de 2020. Acrescenta o art. 19-A à Lei nº 12.965, de 23 de abril de 2014, para vedar a veiculação de publicidade em páginas da internet que contenham desinformação ou promovam discursos de ódio. Brasília, DF, 2020. Disponível em: https://legis.senado.leg.br/sdleg getter/documento?dm=8115327&ts=1590602881006&disposition=inline. Acesso em: 29 nov. 2025.
BRASIL. Supremo Tribunal Federal (STF). Habeas Corpus nº 82.424/RS. Rel. Min. Maurício Corrêa. Diário da Justiça, Brasília, DF, 19 mar. 2004. Disponível em: https://www.jusbrasil.com.br/jurisprudencia/stf/14744055. Acesso em: 28 nov. 2025.
COMISSÃO EUROPEIA. Regulamento (UE) 2022/2065 do Parlamento Europeu e do Conselho, de 19 de outubro de 2022, relativo a um mercado único para os serviços digitais e que altera a Diretiva 2000/31/CE (Digital Services Act). Bruxelas, 2022. Disponível em: https://eur-lex.europa.eu/PT/legal content/summary/digital-services-act.html. Acesso em: 28 nov. 2025.
LONGHI, João Victor Rozatti. Responsabilidade civil e redes sociais: retirada de conteúdo, perfis falsos, discurso de ódio, fake news e milícias digitais. São Paulo: Thomson Reuters Brasil, 2022.
MASSICANO, T. A proteção da privacidade e imagem nas redes sociais e no WhatsApp. Revista Jurídica OAB Tatuapé, v. 3, n. 1, p. 1-13, 2023. Disponível em: https://revista.oabtatuape.org.br/index.php/revista/issue/view/5. Acesso em: 31 out. 2025.
MOURA, Marco Aurélio.O discurso do ódio em redes sociais. São Paulo: Lura Editorial, 2016.
PIOVESAN, Flávia. Direitos humanos e justiça constitucional internacional. 14. ed. São Paulo: Saraiva, 2021.
SARLET, Ingo Wolfgang; MARINONI, Luiz Guilherme; MITIDIERO, Daniel. Curso de direito constitucional. 3. ed. São Paulo: Saraiva, 2021.
SAFERNET BRASIL. Denúncias de crimes de discurso de ódio e de imagens de abuso sexual infantil na internet têm crescimento em 2022. Boletim estatístico Safernet Brasil. São Paulo, 2023. Disponível em: https://new.safernet.org.br/content/denuncias-de-crimes-de-discurso-de-odio-e-de imagens-de-abuso-sexual-infantil-na-internet. Acesso em: 28 nov. 2025.
SILVA, Luciana R. L.; BOTELHO-FRANCISCO, Rodrigo Eduardo; SAMPAIO, Rafael C. S. Discurso de ódio nas redes sociais digitais: tipos e formas de intolerância na página oficial de Jair Bolsonaro no Facebook. Galáxia (São Paulo, online), n. 46, p. 1-26, 2021. Disponível em: https://www.scielo.br/j/gal/a/4krjKThRWZD6MRy8LLLpVhF/abstract/?lang=pt. Acesso em: 31 out. 2025.
