REMOÇÃO DE CONTEÚDOS ILÍCITOS E DISCURSOS DE ÓDIO NA INTERNET: DESAFIOS PARA A LEGISLAÇÃO BRASILEIRA

REGISTRO DOI: 10.69849/revistaft/cl10202411052050


José Eduardo Gomes Lima1
Max Viana Lemos2
Júlio César Rodrigues Ugalde3


RESUMO: O artigo discute a questão da remoção de conteúdos na internet, abordando o equilíbrio entre a liberdade de expressão e a proteção dos direitos individuais, com base na legislação brasileira, incluindo o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD). A análise abrange a aplicação judicial e administrativa da remoção de conteúdos considerados ilícitos, com foco nos desafios enfrentados pelas vítimas e nos mecanismos disponíveis para responsabilização dos provedores de internet. A metodologia utilizada foi uma revisão bibliográfica e jurisprudencial, explorando os limites à liberdade de expressão em casos de remoção de conteúdo, bem como as diferentes interpretações jurídicas sobre o tema. Os resultados indicam que a eficácia das sentenças de remoção de conteúdo é limitada pela velocidade e replicação do material online, o que dificulta o controle e a exclusão completa dos dados. Por fim, o estudo sugere a necessidade de melhoria da legislação e a implementação de medidas preventivas para lidar com as demandas crescentes relacionadas à remoção de conteúdos na internet, envolvendo um equilíbrio adequado entre os direitos.

Palavras-chaves: Remoção de conteúdo. Liberdade de expressão. Marco Civil. Proteção de Dados.

ABSTRACT: The article discusses the issue of removing content on the internet, addressing the balance between freedom of expression and the protection of individual rights, based on Brazilian legislation, including the Marco Civil da Internet and the General Data Protection Law (LGPD). The analysis covers the judicial and administrative enforcement of the removal of content considered illegal, focusing on the challenges faced by victims and the mechanisms available to hold internet providers accountable. The methodology used was a bibliographic and jurisprudential review, exploring the limits to freedom of expression in cases of content removal, as well as the different legal interpretations on the topic. The results indicate that the effectiveness of content removal orders is limited by the speed and replication of online material, which makes control and complete deletion of data difficult. Finally, the study suggests the need to improve legislation and implement preventive measures to deal with the growing demands related to the removal of content on the internet, involving an adequate balance between rights.

Keywords: Content removal. Freedom of expression. Marco Civil. Data Protection.

1. INTRODUÇÃO

A Constituição Federal de 1988, no artigo 5º, inciso IV, assegura que “é livre a manifestação do pensamento, sendo vedado o anonimato” (PAREDES, 2019). Este princípio constitucional reflete a importância da liberdade de expressão em uma sociedade democrática, permitindo que os cidadãos expressem suas ideias sem interferências indevidas do Estado. Entretanto, o mesmo texto constitucional também protege a dignidade da pessoa humana, o direito à igualdade e a proibição de discriminações, conforme expresso no artigo 5º, inciso XLI, que afirma que “a lei punirá qualquer discriminação atentatória dos direitos e liberdades fundamentais”. Esse cenário cria um dilema para legisladores, Poder Judiciário e sociedade: como garantir a liberdade de expressão sem permitir que ela se transforme em um escudo para a propagação de crimes de ódio, como o racismo e a injúria racial?. A conciliação entre esses dois princípios se tornou um dos grandes desafios jurídicos, especialmente no ambiente digital, onde a disseminação de ideias e discursos de ódio acontece de maneira acelerada e com alcance global.

Diversas legislações brasileiras tentam abordar esse problema, como o Marco Civil da Internet (Lei n.º 12.965/2014), a Lei Geral de Proteção de Dados (Lei n.º 13.709/2018), a Lei n.º 7.716/1989, que define crimes de preconceito racial, e a Lei n.º 9.459/1997, que tipifica a injúria racial. Essas normativas buscam equilibrar a proteção da liberdade de expressão e a responsabilização de condutas ilícitas, como os crimes de ódio e racismo. No entanto, embora essas leis ofereçam um arcabouço jurídico robusto, surgem dúvidas sobre sua eficácia prática, sobretudo no que diz respeito à remoção de conteúdos na internet (CITRON, 2019; GOLDSMITH, 2020).

Este estudo tem como objetivo geral avaliar como a legislação brasileira, especialmente a Constituição Federal, o Marco Civil da Internet e a Lei Geral de Proteção de Dados, lida com a conciliação entre a liberdade de expressão e o combate aos crimes de ódio. Nesse contexto, levanta-se a hipótese de que, embora o ordenamento jurídico brasileiro ofereça mecanismos eficazes para a remoção de conteúdos ilícitos, há desafios significativos na aplicação prática dessas normas. A remoção de conteúdo, por exemplo, muitas vezes se mostra insuficiente para impedir a disseminação contínua de discursos de ódio, que podem ser replicados de forma rápida e global. Além disso, questiona-se até que ponto as leis brasileiras conseguem proteger a liberdade de expressão sem que ela seja usada como justificativa para a perpetuação de crimes raciais e injúrias.

A justificativa deste estudo reside na crescente relevância da internet como espaço de expressão e debate público, o que amplifica os dilemas relacionados à regulação da liberdade de expressão e à responsabilização por crimes de ódio. Com o aumento de casos de discursos de ódio no ambiente digital e suas graves consequências sociais e jurídicas, é fundamental avaliar se as ferramentas legais existentes são suficientes para enfrentar esses desafios.

O método utilizado é uma revisão bibliográfica e jurisprudencial, baseando-se em estudos de teóricos que abordam a temática da liberdade de expressão, como Paredes (2019) e Mendes (2021), além de análises sobre crimes de ódio na internet, como as de Citron (2019) e Goldsmith (2020). A pesquisa buscará compreender os limites impostos pela legislação brasileira à liberdade de expressão, bem como sua eficácia na proteção contra abusos, sobretudo no ambiente digital. Serão analisadas decisões judiciais recentes para explorar como os tribunais têm interpretado e aplicado essas normas.

Por fim, o presente estudo visa não apenas a análise da eficácia das medidas de remoção de conteúdos ilícitos, mas também os desafios enfrentados na tentativa de equilibrar a proteção à liberdade de expressão e o combate aos crimes de ódio. Será verificada a adequação da legislação brasileira às demandas do ambiente digital e se as medidas previstas conseguem proteger os direitos fundamentais sem violar o direito à manifestação livre.

2. LIBERDADE DE EXPRESSÃO E SEUS LIMITES NO CONTEXTO DIGITAL

De acordo com Gonçalves (2022) a liberdade de expressão é um dos pilares fundamentais das democracias modernas, consagrado como direito inviolável na Constituição Federal de 1988, no artigo 5º, inciso IV, que garante que “é livre a manifestação do pensamento, sendo vedado o anonimato”. Esse direito é essencial para o exercício da cidadania, a promoção de debates e o avanço social, permitindo que os indivíduos expressem suas opiniões, opiniões e ideias sem medo de repressão. No entanto, o ambiente digital, amplificado pelo poder das redes sociais e plataformas de comunicação online, trouxe à tona novos desafios para esse direito, especialmente quando ele se choca com outros direitos fundamentais, como a dignidade, a honra e a proteção contra discriminações, como o racismo e os discursos de ódio.

A internet se configura como um ambiente vasto e descentralizado, onde todos podem manifestar livremente suas opiniões (Holt, 2021). No entanto, a ausência de barreiras físicas e a sensação de anonimato fazem com que muitos utilizem essa liberdade de maneira desmedida, promovendo discursos ofensivos, racistas e injuriosos, o que coloca em evidência a necessidade de limites e regulamentações. Esses discursos, que se propagam rapidamente no ambiente digital, podem causar danos profundos e irreparáveis ​​às vítimas, principalmente quando se trata de discursos de ódio e racismo.

A liberdade de expressão, conforme previsto no artigo 5º da Constituição Federal, é amplamente reconhecida como essencial para uma sociedade democrática (Araújo, 2022). A Declaração Universal dos Direitos Humanos também reforça essa concepção ao afirmar, em seu artigo 19, que “todo ser humano tem direito à liberdade de opinião e expressão”. No entanto, embora esse direito seja fundamental, ele não é absoluto. Como outros direitos, devem ser exercidos de maneira responsável e dentro dos limites estabelecidos pela lei. Além disso, a própria Constituição Federal, em seus incisos V e X do artigo 5º, assegura o direito à proteção da honra, da imagem e da dignidade pessoal, estabelecendo um contraponto à liberdade de expressão.

No ambiente digital, o exercício desse direito apresenta desafios particulares, já que a internet permite a disseminação de informações em escala global e com uma velocidade incomparável. Uma publicação cirúrgica ou difamatória pode alcançar milhões de pessoas em questão de minutos, e, mesmo que removida posteriormente, seus efeitos podem ser irreversíveis. A replicação e o compartilhamento de conteúdo nas redes tornam a remoção completa uma tarefa difícil, o que exige uma reflexão sobre os limites da liberdade de expressão na era digital (Nunes, 2023).

O ordenamento jurídico brasileiro já estabelece limites claros ao exercício da liberdade de expressão, especialmente quando ela colide com direitos fundamentais como a dignidade humana (Alvarez, 2021). O enfrentamento de discursos de ódio, racismo e injúria racial nas plataformas digitais tornou-se uma preocupação constante, já que a internet é frequentemente utilizada para a prática desses crimes, camuflados sob o pretexto de “livre manifestação”. No entanto, a liberdade de expressão não pode ser usada como desculpa para a prática de atos ilícitos que violam os direitos fundamentais de outros indivíduos.

A Lei nº 12.965/2014, conhecida como Marco Civil da Internet, estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil (Leite, 2022). Um dos princípios fundamentais desse marco é a proteção à liberdade de expressão, mas o texto legal também define responsabilidades para provedores de serviços de internet quanto à remoção de conteúdos ilícitos. De acordo com Branco (2023) o artigo 19 do Marco Civil, os provedores de internet só são responsabilizados por conteúdos de terceiros se não cumprirem uma ordem judicial determinando a remoção do material. Esse dispositivo reflete a preocupação do legislador em evitar qualquer forma de censura prévia, que é expressamente vedada pela Constituição. Ao mesmo tempo, busca-se garantir que, uma vez reconhecida a ilicitude do conteúdo, ele seja rapidamente removido para evitar maiores danos às vítimas.

Em conformidade Jobim (2020) cita que um exemplo claro da aplicação desses princípios está relacionado à propagação de discursos de ódio e racismo. A Lei nº 7.716/1989, que define os crimes resultantes de preconceito de raça ou cor, e a Lei nº 9.459/1997, que tipifica a injúria racial, são marcos importantes no combate à propagação de discursos de ódio. No entanto, o ambiente digital tem desafiado essas legislações, uma vez que o volume de conteúdo publicado na internet é enorme, e as plataformas nem sempre envelhecem com a rapidez necessária para coibir esses crimes. De acordo com Jobim (2020) , mesmo com a obrigatoriedade de remoção de conteúdos após ordem judicial, a natureza descentralizada e global da internet dificulta o controle e a prevenção de republicações, que são comuns em casos de conteúdo viral.

Nesse cenário, a remoção de conteúdos que promovam discursos de ódio, racismo e injúrias torna-se uma medida essencial para proteger os direitos fundamentais de indivíduos e grupos vulneráveis. A internet, embora seja uma ferramenta poderosa de comunicação e expressão, não pode ser um espaço onde o ódio e o preconceito circulam livremente. A liberdade de expressão, por mais fundamental que seja, deve ter clareza, e esses limites se concretizam quando o exercício desse direito viola a dignidade humana e promove a violência.

O Supremo Tribunal Federal (STF) foi reconhecido, em várias decisões, a importância de se importar limites à liberdade de expressão quando esta colide com outros direitos fundamentais, como o direito à dignidade humana (Oliveira, 2022). Em casos de discursos de ódio e racismo, o STF tem se pronunciado a favor da remoção de conteúdos ofensivos e da responsabilização dos autores desses atos. O entendimento da Corte é que, embora a liberdade de expressão seja um direito essencial, ela não pode ser utilizada para prever a violação dos direitos de outrem, especialmente quando essa violação envolve discriminação e preconceito.

Além do papel fundamental do Judiciário, os provedores de serviços de internet também têm uma responsabilidade significativa nesse processo. Almeida (2020) cita que embora o Marco Civil da Internet limite a responsabilização desses provedores em casos em que há uma ordem judicial, muitas plataformas digitais têm implementado políticas internas de controle de conteúdo, como sistemas de denúncia e revisão de postagens. Facebook, Twitter e outras redes sociais, por exemplo, estabeleceram diretrizes que permitem a remoção de conteúdos que violem seus termos de uso, incluindo postagens que incitem ao ódio, racismo e violência. No entanto, a eficácia dessas medidas varia, e muitas vezes elas são insuficientes para coibir a disseminação desses discursos.

3. LEGISLAÇÃO BRASILEIRA PARA O COMBATE AO DISCURSO DE ÓDIO E CRIMES DE RACISMO NA INTERNET

A legislação brasileira tem buscado acompanhar a evolução da internet e as complexidades do ambiente digital, criando mecanismos para combater crimes que, embora tenham raízes profundas na sociedade, encontraram nas plataformas digitais um novo espaço para se manifestarem. Entre esses crimes, o discurso de ódio e o racismo se destaca como especialmente grave aos direitos humanos, exigindo respostas específicas por parte do Estado. Para enfrentar esses problemas, o Brasil conta com um arcabouço legal que inclui o Marco Civil da Internet, a Lei de Crimes de Preconceito (Lei nº 7.716/1989), a Lei de Injúria Racial (Lei nº 9.459/1997), além de dispositivos penais e constitucionais que, juntos, visam punir e prevenir tais condutas.

O Marco Civil da Internet (Lei nº 12.965/2014) é uma das principais normas que regulam o uso da internet no Brasil, estabelecendo garantias para a liberdade de expressão e a privacidade, mas também prevendo mecanismos de controle e responsabilização. O Marco Civil, ao garantir o livre exercício da liberdade de expressão, tem como um de seus pilares o combate à censura prévia, permitindo que as pessoas se manifestem livremente na internet (Santos, 2021). No entanto, o artigo 19 do Marco Civil também impõe responsabilidades aos provedores de internet, que devem remover conteúdos considerados ilícitos mediante ordem judicial. A partir desse dispositivo, conteúdos que incitem ao ódio, promovam o racismo ou ferem a dignidade dos indivíduos podem ser retirados da rede, desde que haja uma decisão judicial que reconheça a ilicitude do material.

Além do Marco Civil, a Lei nº 7.716/1989, que define os crimes decorrentes do preconceito de raça ou de cor, desempenha um papel fundamental no combate ao racismo (Cavalcanti, 2022). Essa lei foi criada com o objetivo de reprimir atitudes e práticas discriminatórias, sendo utilizada constantemente para coibir crimes de racismo tanto no ambiente físico quanto no virtual. A legislação prevê penas para quem pratica, induz ou incita a discriminação ou preconceito em razão de raça, cor, etnia, religião ou procedência nacional. No contexto digital, essas práticas encontram um novo campo de propagação, especialmente em redes sociais, blogs e fóruns, onde os responsáveis ​​se escondem, muitas vezes, por trás do anonimato ou da falsa ideia de impunidade que a internet pode proporcionar.

No âmbito específico dos crimes de injúria racial, a Lei nº 9.459/1997, que alterou o Código Penal, é uma norma importante no combate a essas práticas. A injúria racial é definida como ofensa à honra de alguém, utilizando elementos referentes à raça, cor, etnia, religião ou origem, e está prevista no artigo 140, parágrafo 3º, do Código Penal (Gavinho, 2023). Embora seja um crime que, muitas vezes, ocorre em interações diretas entre indivíduos, a internet tem sido palco frequente para a prática de lesões raciais, seja por meio de comentários em postagens públicas, seja em mensagens privadas, que, quando reveladas, causam profundo constrangimento às vítimas. A injúria racial, assim como o racismo, é uma afronta à dignidade humana, e ao ambiente digital, ao permitir a rápida propagação dessas ofensas, amplificando os danos causados (Moraes, 2021).

A aplicação dessas legislações ao ambiente digital trouxe novos desafios. A rapidez com que as informações circulam e a dificuldade de controlar a supervisão de conteúdos ofensivos impõem à Justiça e aos provedores de serviços de internet a responsabilidade de atuar de forma rápida e eficaz. No entanto, a remoção de conteúdos racistas ou de discursos de ódio enfrenta obstáculos práticos, uma vez que, mesmo quando são retirados de uma plataforma, eles podem ser republicados noutras ou partilhadas em redes privadas (Almeida, 2020). Isso demonstra que, embora a legislação brasileira seja robusta em termos de definição e limitações desses crimes, a execução dessas normas no ambiente digital ainda encontra dificuldades.

O Supremo Tribunal Federal (STF), em diversos julgados, tem reforçado a importância de combater crimes de ódio e racismo, especialmente no ambiente digital. A Corte confirma que, embora a liberdade de expressão seja um direito fundamental, ela não pode servir de escudo para a prática de crimes. De acordo com Lemos (2022) as decisões recentes, o STF reafirmou a necessidade de responsabilização dos indivíduos que utilizam a internet para promover discursos de ódio e discriminação. O entendimento é que a proteção à dignidade humana, princípio basilar da Constituição Federal, deve prevalecer em casos de conflito com a liberdade de expressão.

Além disso, a atuação das plataformas digitais e dos provedores de serviços de internet também é essencial no combate a esses crimes. Embora o Marco Civil da Internet limite a responsabilidade dos provedores nos casos em que há ordem judicial para remoção de conteúdo, muitas plataformas adotam políticas internas para combater o discurso de ódio. Redes sociais como Facebook, Instagram e Twitter, por exemplo, implementaram ferramentas de denúncia e remoção automática de conteúdos que violem seus termos de uso, especialmente em casos de racismo e incitação à violência (Gouveia, 2023). Essas medidas são complementares às disposições legais e ajudam a minimizar o impacto dos discursos de ódio na internet, mas sua eficácia ainda depende da cooperação entre usuários, empresas de tecnologia e o Poder Judiciário.

A Lei Geral de Proteção de Dados Pessoais (LGPD), n.º 13.709/2018, embora mais focada na privacidade e segurança dos dados dos usuários, também desempenha um papel relevante na proteção contra o uso indevido de informações pessoais que podem alimentar discursos de ódio e discriminação. A utilização de dados pessoais para a criação de perfis falsos, a disseminação de informações enganosas ou a exposição de dados sensíveis pode, em muitos casos, fomentar crimes de ódio na internet (Martins, 2023). A LGPD garante que os titulares dos dados podem solicitar a remoção ou correção de informações que estejam sendo utilizadas indevidamente, proporcionando uma camada adicional de proteção contra esses crimes.

De acordo com Nunes (2022) apesar desse arcabouço legal robusto, o Brasil ainda enfrenta grandes desafios para conter a disseminação de discursos de ódio e racismo no ambiente digital, velocidade com que esses conteúdos se espalham e dificultam a responsabilização dos autores, que muitas vezes se escondem atrás de perfis anônimos ou falsos, tornam a atuação da Justiça e dos provedores mais complexa. No entanto, as leis brasileiras, em conjunto com a supervisão e a atuação de organizações da sociedade civil, desempenham um papel fundamental na busca por uma internet mais segura e livre de preconceito.

4. EFICÁCIA E DESAFIOS DA REMOÇÃO DE CONTEÚDOS ILÍCITOS NAS PLATAFORMAS DIGITAIS

A remoção de conteúdos ilícitos nas plataformas digitais representa uma medida fundamental para garantir a segurança e a proteção dos direitos fundamentais no ambiente online. A proteção de discursos de ódio, racismo, injúrias e desinformação tem levado à necessidade crescente de intervenções jurídicas e tecnológicas para minimizar os danos causados ​​por tais condutas (Oliveira, 2021). No entanto, a eficácia desse processo enfrentou numerosos desafios, tanto que não se refere à atuação das plataformas digitais quanto ao cumprimento das decisões judiciais e à proteção da liberdade de expressão. 

A eficácia da remoção de conteúdos ilícitos na Internet depende, em grande medida, da rapidez com que as plataformas e os órgãos judiciais forneçam identificação e retirem material ofensivo do ar (Nunes, 2022). O Marco Civil da Internet (Lei nº 12.965/2014) estabelece que os provedores de serviços de internet somente podem ser responsabilizados pela manutenção de conteúdos ilegais se não cumprirem uma ordem judicial de remoção. De acordo com Cardoso (2022) esse dispositivo tem como objetivo proteger a liberdade de expressão, evitando a remoção arbitrária de conteúdo e prevenindo a censura prévia. No entanto, ao mesmo tempo, impõe uma limitação à atuação imediata das plataformas, que muitas vezes precisam aguardar uma intervenção judicial para agir, o que retarda o processo de remoção.

Um dos principais desafios da remoção de conteúdos ilícitos é a velocidade de divulgação de informações na internet. Uma publicação ofensiva ou ilegal pode ser compartilhada por milhares ou até milhões de pessoas em poucos minutos, o que dificulta seu controle e retirada. Mesmo após a emissão de uma ordem judicial e a remoção do conteúdo original, réplicas e capturas de tela podem continuar circulando em outras plataformas ou em redes privadas, como grupos de aplicativos de mensagens instantâneas. Isso demonstra que, embora a remoção de conteúdo seja uma ferramenta necessária, ela muitas vezes não é suficiente para evitar que o material continue a causar danos.

Conforme afirmado por Freitas (2023), o desafio técnico que envolve a identificação e remoção de conteúdos ilícitos também é significativo. As plataformas digitais precisam de sistemas robustos de moderação, capazes de identificar e eliminar conteúdos que violam suas políticas ou leis nacionais. Empresas como Facebook, Twitter e YouTube utilizam uma combinação de inteligência artificial e revisão humana para monitorar e avaliar postagens (Barreto, 2021). No entanto, esses sistemas nem sempre são eficazes. A inteligência artificial pode cometer erros ao identificar conteúdos ilícitos, removendo mensagens que não violem as normas, ou, por outro lado, deixando passar materiais que incitam ao ódio ou à violência. O uso de algoritmos para moderar conteúdo, portanto, ainda carece de melhorias para atingir o equilíbrio ideal entre proteger os usuários de conteúdos específicos e respeitar a liberdade de expressão (Vieira, 2023).

Outro aspecto relevante é o descompasso entre o Judiciário e o ritmo das interações digitais. A internet opera em uma velocidade muito maior do que o processo judicial, o que significa que as decisões para a remoção de conteúdo podem demorar dias, semanas ou até meses para serem renovadas (Cardoso, 2022). Nesse intervalo, o conteúdo permanece acessível, causando danos às vítimas. Além disso, as diferentes jurisdições nacionais e o fato de muitas plataformas digitais terem sua sede em outros países podem complicar ainda mais a execução de decisões judiciais brasileiras. Embora o Marco Civil da Internet estabeleça que os provedores de serviços estrangeiros que atuam no Brasil devam seguir as leis locais, a aplicação dessas decisões em uma rede globalizada pode ser problemática.

Conforme afirmado por Hassan (2022) o anonimato e o uso de perfis falsos também representam grandes obstáculos na remoção de conteúdos ilícitos. Muitos indivíduos que promovem discursos de ódio ou cometem crimes de racismo e injúria na internet fazem uso de contas anônimas ou pseudônimos, dificultando sua identificação e responsabilização. Mesmo que o conteúdo seja removido, a identificação do autor muitas vezes se torna inviável, prejudicando a aplicação de decisões legais adequadas.

Além dos desafios práticos e técnicos, há um debate contínuo sobre a relação entre a remoção de conteúdos ilícitos e a liberdade de expressão. As plataformas digitais, ao removerem conteúdos com base em suas próprias políticas ou em decisões judiciais, muitas vezes são acusadas de censura (Pereira, 2023). Esse é um ponto sensível, especialmente em temas que envolvem opinião política, religião ou questões sociais polêmicas. A retirada de conteúdo, quando aplicada de maneira generalizada ou sem critérios claros, pode ser interpretada como uma violação ao direito constitucional à liberdade de expressão conforme o Art. 5° da Constituição Federal, o que levanta questionamentos sobre até que ponto as plataformas digitais têm para moderar o discurso público.

O equilíbrio entre a liberdade de expressão e a remoção de conteúdos que promovam o ódio envolve a conciliação entre dois direitos fundamentais: o direito à manifestação do pensamento e o direito à dignidade humana (Hassan, 2022). Esse equilíbrio é alcançado quando se estabelece que a liberdade de expressão, embora essencial em uma sociedade democrática, não pode ser exercida de maneira irrestrita, especialmente quando seu exercício viola direitos de outros indivíduos, como a honra, a imagem e a dignidade.

A legislação brasileira, como o Marco Civil da Internet (Lei n.º 12.965/2014) e a Lei Geral de Proteção de Dados (Lei n.º 13.709/2018), busca esse equilíbrio ao prever que a remoção de conteúdos ilícitos só deve ocorrer mediante decisão judicial, evitando censura prévia. No entanto, quando o conteúdo viola direitos humanos fundamentais — como no caso de discursos de ódio, racismo e incitação à violência —, a remoção é justificada como medida de proteção, pois esses discursos geram danos irreparáveis às vítimas e à sociedade.

Portanto, o equilíbrio reside no uso responsável da liberdade de expressão, reconhecendo seus limites quando ela colide com direitos fundamentais de outras pessoas. Conforme preconiza Oliveira (2021) a remoção de conteúdos ofensivos, em consonância com o ordenamento jurídico, é uma forma de garantir que a internet não seja um espaço de impunidade, preservando ao mesmo tempo o princípio da livre manifestação dentro dos parâmetros legais que protegem a dignidade humana.

O papel dos provedores de serviços de internet também merece destaque. Embora o Marco Civil da Internet estabeleça que os provedores não são responsáveis ​​pelos conteúdos postados por seus usuários, exceto quando houver descumprimento de ordens judiciais, há uma expectativa de que essas empresas adotem políticas mais proativas na remoção de conteúdos ofensivos (Hassan, 2022). Conforme Almeida (2022) afirma, algumas plataformas têm diretrizes internas e ferramentas de denúncia para facilitar a remoção de conteúdos que violem seus termos de uso, como discursos de ódio e racismo. No entanto, a eficácia dessas iniciativas ainda é questionada, e muitas vezes as respostas das plataformas são tardias ou insuficientes para lidar com a gravidade das evidências.

CONCLUSÃO

Ao longo do artigo, observamos que o ambiente digital, embora amplie as possibilidades de comunicação e expressão, também facilita a propagação de condutas ilícitas que ferem os direitos fundamentais de diversos grupos. Nesse sentido, a remoção de conteúdos ilícitos é apresentada como uma medida necessária para proteger esses direitos, embora sua aplicação envolva um delicado equilíbrio entre a liberdade de expressão e a necessidade de evitar abusos no ambiente online.

A Constituição Federal brasileira, em seu artigo 5º, assegura a liberdade de expressão como um dos direitos fundamentais do cidadão. No entanto, ao mesmo tempo em que protege esse direito, a Constituição também impõe limites claros, garantindo que a dignidade, a honra e a privacidade de cada indivíduo sejam igualmente resguardadas. Nesse cenário, as legislações que regulamentam a internet no Brasil, como o Marco Civil da Internet, a Lei nº 7.716/1989, que trata do racismo, e a Lei nº 9.459/1997, que tipifica a injúria racial, juntamente com o Código Penal (CP), artigo 140, parágrafo 3º, buscam criar mecanismos de proteção contra condutas abusivas sem comprometer o direito à manifestação livre.

Uma análise das normas existentes demonstra que o Brasil possui um arcabouço legal robusto para combater crimes de ódio e racismo na internet. O Marco Civil da Internet, por exemplo, consagra a liberdade de expressão como princípio fundamental, mas também estabelece diretrizes claras para a remoção de conteúdos ilícitos, mediante ordem judicial, quando há violação de direitos. No entanto, apesar dessa regulamentação, o processo de remoção de conteúdos ilícitos enfrenta diversos obstáculos práticos que comprometem a sua eficácia.

Entre os desafios mais relevantes está a velocidade com que o conteúdo ofensivo pode ser divulgado na internet. Plataformas digitais como redes sociais e aplicativos de mensagens instantâneas permitem que publicações se espalhem rapidamente, muitas vezes tornando impossível a remoção completa do conteúdo mesmo após decisão judicial. A divulgação de materiais ofensivos e a replicação em diversas plataformas dificultam o controle sobre essas informações, evidenciando uma das principais limitações na eficácia das medidas de remoção.

Outro ponto crucial está relacionado ao anonimato e à criação de perfis falsos, que são utilizados para difundir conteúdos racistas e discursos de ódio. Embora o anonimato seja vedado pela Constituição no exercício da liberdade de expressão, a internet permite que muitos usuários ocultem sua verdadeira identidade, tornando difícil responsabilizá-los judicialmente. Essas características contribuem para a sensação de impunidade, já que a identificação e a proteção dos infratores se tornam mais complexas no ambiente digital.

Além disso, há o desafio técnico enfrentado pelas plataformas da internet. Empresas como Facebook, Twitter e YouTube, embora tenham implementado sistemas de monitoramento e remoção de conteúdos com base em inteligência artificial e equipes de moderação, ainda cometem erros que afetam tanto o combate a discursos ilícitos quanto à preservação da liberdade de expressão. A automatização do processo de moderação, muitas vezes, resulta na remoção de conteúdos que não violam as políticas das plataformas, ao mesmo tempo em que conteúdos claramente ofensivos começam a circular. Isso revela a necessidade de aperfeiçoamento das tecnologias utilizadas para identificar e remover conteúdos ilícitos.

Outro obstáculo significativo é o descompasso entre o ritmo das interações digitais e a resposta do Judiciário. A internet opera de maneira rápida e global, enquanto o processo judicial é mais demorado e, em muitos casos, as decisões demoram a ser realizadas. Essa diferença de tempo entre a disseminação do conteúdo e sua remoção efetiva pode resultar em danos permanentes às vítimas, que continuam expostos ao material ofensivo até que a justiça seja feita. Além disso, a aplicação de decisões judiciais contra plataformas sediadas no exterior encontra muitas vezes dificuldades, especialmente quando não há cooperação imediata entre os países envolvidos.

Contudo, apesar desses desafios, é fundamental considerar os avanços que têm sido feitos na regulação da internet e na proteção de direitos no ambiente digital. A existência de mecanismos legais para a remoção de conteúdos ilícitos, combinada com a crescente conscientização da sociedade sobre o impacto dos discursos de ódio e racismo, são passos importantes na criação de um ambiente digital mais seguro e inclusivo. A atuação das plataformas digitais também tem evoluído, com a implementação de políticas internas que permitem a remoção de conteúdos ofensivos antes mesmo de uma ordem judicial, como parte de seus termos de uso.

Outro ponto positivo é o fortalecimento do diálogo entre o setor público e privado. A colaboração entre o Poder Judiciário, as empresas de tecnologia e a sociedade civil tem sido fundamental para melhorar a eficiência na identificação e remoção de conteúdos ilícitos. Campanhas de conscientização e educação sobre o uso responsável da internet também são ferramentas importantes para prevenir a propagação de discursos de ódio e promover uma cultura de respeito e tolerância nas plataformas digitais.

Em termos de futuro, o aperfeiçoamento das tecnologias de moderação de conteúdo e a criação de mecanismos mais ágeis para a execução de decisões judiciais são essenciais para enfrentar os desafios da remoção de conteúdos ilícitos. Além disso, é necessário um esforço contínuo das agências regulamentadoras para equilibrar a proteção da liberdade de expressão com a remoção de conteúdos que promovam o ódio e a discriminação, garantindo que a internet continue sendo um espaço democrático, mas também seguro para todos.

A remoção de conteúdos ilícitos nas plataformas digitais é uma medida necessária para a proteção de direitos fundamentais, como a dignidade e a igualdade, mas sua implementação enfrenta uma série de desafios técnicos, jurídicos e sociais. A eficácia dessas medidas depende de uma atuação coordenada entre os provedores de internet, o Judiciário e os usuários, além de um constante aprimoramento das legislações e das tecnologias de moderação de conteúdo. Somente por meio de uma abordagem colaborativa e proativa possível será possível garantir um ambiente digital mais justo, inclusivo e respeitoso, onde a liberdade de expressão seja exercida com responsabilidade e sem prejuízo dos direitos alheios.

REFERÊNCIAS 

ALMEIDA, J. M. Direito digital e responsabilidade civil: Análise da proteção de dados pessoais e dos direitos da personalidade. São Paulo: Malheiros, 2020.

ALVAREZ, L. A proteção da dignidade humana na era digital: Reflexões sobre o direito à honra. Rio de Janeiro: Lumen Juris, 2021.

ARAÚJO, B.; SOTO, C. Análise dos crimes cibernéticos no Brasil: Legislação e jurisprudência. São Paulo: Editora Atlas, 2022.

BARRETO, L. Internet e criminalidade: A legislação em debate. São Paulo: Hucitec, 2021.

BRANCO, M. et al. Internet e Sociedade: Uma visão crítica sobre os desafios contemporâneos. São Paulo: Hucitec, 2023.

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Institui o Marco Civil da Internet e dá outras providências. Diário Oficial da União, Brasília, DF, 24 abr. 2014. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 20 out. 2023.

BRASIL. Lei nº 7.716, de 5 de janeiro de 1989. Define os crimes resultantes de preconceito de raça ou de cor e dá outras providências. Diário Oficial da União, Brasília, DF, 6 jan. 1989. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l7716.htm. Acesso em: 04 out. 2024.

BRASIL. Lei nº 9.459, de 13 de maio de 1997. Altera o Código Penal para incluir a injúria racial entre os crimes de racismo e dá outras providências. Diário Oficial da União, Brasília, DF, 14 mai. 1997. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l9459.htm. Acesso em: 05 out. 2024.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados pessoais. Diário Oficial da União, Brasília, DF, 15 ago. 2018. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/L13709.htm. Acesso em: 01 out. 2024.

CARDOSO, F. Liberdade de expressão e os limites da legalidade na internet. São Paulo: Editora RT, 2022.

CARDOSO, M. Discurso de ódio e suas consequências jurídicas no Brasil. Belo Horizonte: Juruá, 2022.

CAVALCANTI, M. Discurso de ódio na Internet: Uma análise crítica e suas implicações jurídicas. Brasília: Editora UnB, 2022.

CITRON, D. K. Hate crimes in cyberspace: Understanding and addressing the challenge of online hate. Cambridge: Harvard University Press, 2020.

CUNHA, E. Regulação e ética na internet: O papel das plataformas digitais. Curitiba: Juruá, 2021.

FREITAS, L. Os desafios da proteção de dados pessoais no contexto digital. São Paulo: Malheiros, 2023.

GAVINHO, G. et al. Remoção de conteúdo na Internet: Desafios e perspectivas legislativas. Brasília: CEUB, 2023.

GOLDMITH, J.; WU, T. Who controls the Internet? Illusions of a borderless world. New York: Oxford University Press, 2020.

GONÇALVES, V. H. P. Marco Civil da Internet: Comentários à Lei nº 12.965/2014. São Paulo: Editora Revista dos Tribunais, 2022.

HASSAN, A. Crime cibernético: Uma análise crítica das legislações brasileiras. São Paulo: Saraiva, 2022.

HOLT, T. J.; BOSSLER, A. M. Cybercrime and digital forensics: An introduction. New York: Jones & Bartlett Publishers, 2021.

JOBIM, P. A regulação da Internet no Brasil: Desafios e perspectivas. Porto Alegre: Fabris, 2020.

JOBIM, P.; RIBEIRO, A. Direito e novas tecnologias: Desafios contemporâneos na regulação da Internet. Brasília: Editora UnB, 2022.

KUKLINSKI, S. A censura no ambiente digital: Limites e possibilidades. Porto Alegre: Editora Verbete, 2021.

LEITE, F. Direitos Humanos e Internet: O desafio da regulação e proteção dos direitos fundamentais. Belo Horizonte: Del Rey, 2022.

LEMOS, P. Privacidade e proteção de dados na era digital: Desafios e direitos. Rio de Janeiro: Editora Forense, 2022.

MARTINS, T. O papel das redes sociais na disseminação do ódio e da violência. Brasília: Editora UnB, 2023.

MACHADO, R. Direitos e deveres na Internet: Regulação e proteção dos usuários. São Paulo: Editora RT, 2021.

NUNES, D. Cibersegurança e direitos humanos: A proteção de dados na era digital. São Paulo: Atlas, 2022.

NUNES, S.; MIRANDA, F. C. Liberdade de expressão e crimes de ódio na era digital. Brasília: Editora CEUB, 2023.

OLIVEIRA, C. Racismo na era digital: O impacto das redes sociais na disseminação de preconceitos. Curitiba: Juruá, 2022.

OLIVEIRA, L. Regulação da Internet: Desafios e oportunidades no combate ao discurso de ódio. Belo Horizonte: Del Rey, 2021.

REIS, N. A proteção da dignidade humana no contexto digital: Reflexões e desafios. Curitiba: Juruá, 2023.

RAMALHO, J. Legislação e crimes cibernéticos: Uma análise crítica. Brasília: Editora CEUB, 2023.

SILVA, T. Regulação da liberdade de expressão na Internet: Limites e desafios. Rio de Janeiro: Lumen Juris, 2023.

SMITH, A.; DUGGAN, M. Online Harassment. Pew Research Center, 2020. Disponível em: https://www.pewresearch.org. Acesso em: 20 set. 2024.

SVANTESSON, L.; CLARKE, R. Cybercrime and the law: Legal issues in digital environments. London: Routledge, 2023.


1Cursando o 10° período do curso de direito da Faculdade Unisapiens. E-mail: Jose.lima@faculdadesapiens.edu.br
2Cursando o 10° período do curso de direito da Faculdade Unisapiens. E-mail: Max.lemos@faculdadesapiens.edu.br
3Orientador do curso de Direito da Faculdade Unisapiens. E-mail: julio.ugalde@uniron.edu.br