A GRANDE MANCHA DO SILÍCIO.

THE GREAT STAIN OF SILICON VALLEY.

REGISTRO DOI: 10.69849/revistaft/cs10202412071516


Vinícius Ramos Vurdel1


Resumo

Este artigo científico examina as políticas legislativas adotadas por diversas nações na regulamentação das redes sociais, com o propósito de contribuir para o aprimoramento da formação acadêmica dos estudantes de Serviços Jurídicos e Notariais. O objetivo é promover uma análise crítica que capacite os estudantes a oferecer informações fundamentadas e precisas, enriquecendo os debates sobre a regulação dessas plataformas digitais. Assim, espera-se que, após a leitura do artigo, esses estudantes sejam capazes de propor ideias inovadoras tanto entre seus colegas quanto aos responsáveis pela formulação de políticas públicas locais. Entre as normativas investigadas, destacam-se a Network Enforcement Act da Alemanha, a Digital Services Act e a Digital Market Act da União Europeia, além da Seção 230 dos Estados Unidos da América. Ao investigar as legislações mencionadas, o estudo oferece uma perspectiva abrangente sobre as diferentes estratégias empregadas por sociedades contemporâneas para enfrentar os desafios impostos pela era digital. A pesquisa revela como esses esforços contribuem para a construção de ambientes virtuais mais seguros e responsáveis, demonstrando a relevância de uma abordagem legislativa criteriosa diante das complexidades do universo digital.

Palavras-chave: Impacto Social das Redes; Comportamento Humano nas Redes; Regulação Digital; Responsabilização em Mídias Sociais; Estratégias Legislativas.

Abstract

This scientific article examines the legislative policies adopted by various nations to regulate social media platforms, aiming to contribute to the academic development of students in Legal and Notarial Services. It seeks to foster a critical analysis that equips them to provide well-founded and accurate information while enriching discussions on the regulation of these digital platforms. The expectation is that, after reading the article, these students will be able to propose innovative ideas both among their peers and to those responsible for formulating local public policies. Among the regulations investigated are Germany’s Network Enforcement Act, the European Union’s Digital Services Act and Digital Markets Act, as well as Section 230 of the United States of America. By examining these legislations, the study provides a comprehensive perspective on the different strategies employed by contemporary societies to address the challenges posed by the digital age. The research highlights how these efforts contribute to the creation of safer and more responsible virtual environments, demonstrating the relevance of a careful legislative approach in the face of the complexities of the digital world.

Keywords: Social Impact of Social Media. Human Behavior on Social Media. Digital Regulation. Accountability in Social Media. Legislative Strategies.

1. Introdução

Na vastidão escura do universo, danças cósmicas desdobram-se em intrincadas formas. A mais de novecentos milhões de quilômetros do nosso planeta, um astro soberano governa. Relâmpagos retumbam. Sobre as alturas das névoas envolventes, um vórtice rubro gira impetuosamente em sentido anti-horário. Num domínio com dimensões 1,3 vezes além do diâmetro terrestre, irrompe a suprema tempestade anticiclônica do Sistema Solar entoando ventos de até 432 km/h. Silente e mortal, a Grande Mancha Vermelha de Júpiter impera.

Assim como a Grande Mancha de Júpiter é um vasto redemoinho incontrolável, as redes sociais têm desencadeado mudanças e desafios que afetam desde a comunicação pessoal até a estrutura da sociedade moderna. Essa “tempestade digital”, originária do Vale do Silício, envolve uma enxurrada de problemas de impacto profundo: notícias falsas, tal como ventos tempestuosos, distorcem a percepção da realidade, confundindo e desorientando os indivíduos. Além disso, os discursos de ódio se disseminam como correntes intensas, promovendo um ambiente tóxico e prejudicial. Um exemplo trágico disso é o fenômeno do cyberbullying, que exerce um efeito devastador na vida de jovens ao se manifestar em atos de hostilidade virtual. Os danos à saúde mental dos afetados são amplos, envolvendo desde o desenvolvimento de fobias sociais e perda de autoestima até a deterioração de relações pessoais e transtornos alimentares. Em situações graves, o impacto chega a quadros de ansiedade, depressão, pânico e, em casos extremos, suicídio.

Paralelamente a isso, o massacre em Christchurch é mais um exemplo alarmante do extremismo alimentado pelas redes sociais. Em 2019, Brenton Tarrant, então com 28 anos, atacou fieis em uma mesquita em Christchurch, Nova Zelândia, com um rifle AR-15, transmitindo o massacre ao vivo via Facebook e vinculando-o a um manifesto de setenta páginas publicado à época no Twitter. Durante as investigações, descobriu-se que o YouTube foi um canal significativo de influência para Tarrant, oferecendo acesso a conteúdos que lhe permitiram aprender a modificar as armas usadas no ataque.

Outro exemplo severo das consequências da falta de regulamentação das redes sociais ocorreu em Mianmar, onde o Facebook desempenhou um papel central no agravamento de tensões étnicas e religiosas que culminaram no genocídio da população rohingya. Uma pesquisa conduzida por uma organização de Washington examinou 32 mil perfis no Facebook e revelou um padrão alarmante de discursos de ódio e desinformação, incluindo acusações falsas de canibalismo e contrabando de armas, muitas vezes em “memes” difamatórios que receberam mais de 40 mil compartilhamentos. Os comentários instiga violência direta contra a comunidade rohingya, evidenciando o papel da plataforma na intensificação dos conflitos. David Madden, fundador de uma startup em Mianmar, fez repetidos apelos ao Facebook, alertando sobre o impacto da rede social na escalada de violência. Embora Madden e sua equipe tenham fornecido informações detalhadas à empresa, as medidas preventivas não foram tomadas, e as tensões culminaram em um cenário de violência e destruição de vilarejos. Em março de 2018, uma investigação da ONU reconheceu que as redes sociais, especialmente o Facebook, tiveram um “papel crucial” no genocídio, promovendo o ódio que conduziu à devastação de uma população inteira.

Em síntese, o fenômeno das redes sociais, como um ciclone virtual, pode propagar desinformação, polarização e conflitos, deixando profundas cicatrizes em comunidades inteiras.

Nesse contexto, este artigo científico examinará as saídas legislativas que surgiram ao redor do mundo em resposta aos desafios impostos pelas redes sociais, conforme ilustrado pelos exemplos mencionados. A análise abordará as soluções jurídicas, como a Network Enforcement Act na Alemanha, a Digital Services Act e a Digital Market Act na União Europeia, além da Seção 230 nos Estados Unidos. Essas regulamentações foram elaboradas como contramedidas aos impactos negativos das redes sociais, com o objetivo de proteger os cidadãos e reduzir os danos decorrentes da disseminação de conteúdos prejudiciais.

Para os estudantes de Serviços Jurídicos e Notariais, o estudo dessas legislações é essencial, pois os expõem a conceitos que podem enriquecer o debate sobre a regulação de redes sociais, permitindo que contribuam com ideias inovadoras junto a seus pares e aos formuladores de políticas locais. 

O trabalho acadêmico tem como principal propósito ressaltar a importância desse tema no contexto dos Serviços Jurídicos e Notariais. Ao abordar as soluções jurídicas existentes, o artigo deseja fortalecer a formação dos estudantes, estimulando uma reflexão crítica que os capacite a fornecer informações fundamentadas e precisas. Assim, o curso promove uma compreensão ampla dos desafios impostos pelas redes sociais à sociedade atual, favorecendo uma análise profunda dos efeitos desse fenômeno disruptivo – aqui denominado como a “Grande Mancha do Silício”.

2. Soluções Externas

2.1. Alemanha 

A Alemanha destacou-se como pioneira na adoção de regulamentações rigorosas para responsabilizar as plataformas de mídia social pelo conteúdo que disseminam. Esse movimento começou com a implementação da Network Enforcement Act (NetzDG), que se consolidou como um marco regulatório e serve de referência para outras jurisdições, tanto na União Europeia quanto em países fora dela. A aplicação do NetzDG tem oferecido um modelo robusto para a governança do espaço digital, influenciando o desenvolvimento de políticas que buscam equilibrar a liberdade de expressão com a necessidade de proteção contra conteúdos prejudiciais.

Promulgada em 2018, a NetzDG surgiu com um propósito claro: combater a disseminação de discursos de ódio em um contexto histórico e social em que tais expressões estavam em crescimento, especialmente devido ao aumento de ataques direcionados a migrantes e refugiados. A lei visava mitigar a influência de grupos neonazistas e xenófobos, cujas atividades online tinham o potencial de incitar e intensificar atos de violência. Ao regulamentar as publicações nas redes sociais, a NetzDG buscava criar um ambiente digital mais seguro e inclusivo, protegendo a integridade de comunidades vulneráveis e promovendo a responsabilidade das plataformas no controle de conteúdos prejudiciais.

A legislação alemã estipula que plataformas de mídia social com mais de dois milhões de usuários registrados são responsáveis por remover qualquer “conteúdo ilícito” denunciado, incluindo discurso de ódio e difamação de crenças religiosas. Para conteúdos considerados “patentemente ilegais” – classificados segundo o Código Penal alemão –, as plataformas devem eliminá-los em até vinte e quatro horas após a denúncia. Em casos de outros conteúdos ilícitos, como difamação criminal, insultos e ofensas a religiões que infrinjam acordos internacionais de direitos humanos, o prazo para remoção é de até sete dias. A legislação impõe ainda uma penalidade financeira significativa: a não remoção desses conteúdos pode resultar em multas de até cinquenta milhões de euros, pressionando as plataformas a cumprirem seus deveres de moderação e controle rigoroso.

Todavia, a legislação alemã enfrentou críticas consideráveis devido à sua generalidade e abrangência, especialmente por não delimitar claramente os tipos específicos de conteúdo a que se aplicaria. Críticos apontaram que a norma transferiu a responsabilidade de moderação para as plataformas sem exigir delas transparência ou um processo justo de punição, o que podia induzir as empresas a priorizarem a remoção de conteúdo em detrimento da liberdade de expressão. Esse enfoque levantou preocupações sobre a censura excessiva, uma vez que conceitos vagos como “insulto” e “difamação” podiam ser interpretados de forma ampla, o que, segundo alguns, entravam em conflito com o artigo 19 do Pacto Internacional dos Direitos Civis e Políticos, que assegura a liberdade de expressão e o direito ao acesso à informação.

Além disso, temia-se que a possibilidade de multas elevadas induzisse as plataformas a uma supressão excessiva de conteúdo (overblocking), com empresas preferindo remover publicações questionáveis para evitar penalidades financeiras. Especialistas e defensores dos direitos digitais monitoram os efeitos dessa legislação, destacando a dificuldade de avaliar com precisão se ela resultou em práticas de censura excessiva e se foi efetiva no combate ao discurso de ódio. Essa incerteza foi atribuída à falta de uniformidade e à ausência de informações detalhadas nos relatórios fornecidos pelas plataformas, dificultando uma análise concreta de seus impactos.

Outro fator que dificultou a análise da eficácia da NetzDG foi a decisão das plataformas de avaliar primeiro os conteúdos denunciados segundo suas próprias diretrizes internas, que usualmente já proíbem condutas como incitação à violência, exploração sexual e bullying. Se o conteúdo denunciado viola estes termos de serviço, as empresas informam em seus relatórios que a remoção foi feita globalmente. No entanto, caso o material esteja em conformidade com as regras internas da plataforma, mas seja considerado ilegal pela NetzDG, ele é removido apenas para usuários na Alemanha. Esse procedimento tornou os relatórios pouco claros, pois não especificaram se a exclusão foi motivada por uma violação das políticas da plataforma ou por uma determinação da NetzDG, dificultando uma avaliação precisa do efeito direto da legislação.

2.1.1. Aplicabilidade e resultados da NetzDG 

O especialista em legislação da internet, Matthias C. Kettemann, que atua como consultor do Parlamento Alemão e é pesquisador sênior no Instituto Leibniz de Pesquisa de Mídia, avaliou que a NetzDG “demonstrou sua utilidade” ao estabelecer a responsabilidade dos provedores em lidar com queixas sobre conteúdo. Kettemann observou que não há evidências de um “excesso generalizado de bloqueios” decorrente da legislação e destacou como efeito positivo os investimentos das empresas para atender às exigências de análise rápida das reclamações. Por exemplo, um dos relatórios do YouTube indicou que havia 66 especialistas na “equipe NetzDG” dedicados à revisão dos conteúdos denunciados. No entanto, Kettemann admitiu que “não é possível determinar se há mais ou menos discurso de ódio nas redes ‘alemãs’”.

Kettemann também apontou um aspecto delicado da NetzDG: a atribuição de decisões complexas – como identificar se uma expressão configura crime de difamação, algo que comumente exigiria uma análise judicial detalhada – aos analistas de conteúdo das plataformas, que ainda devem cumprir prazos rigorosos para essas decisões. Críticos da legislação argumentaram que, ao exigir que plataformas tomem decisões jurídicas complexas, a NetzDG as posicionou como “vigilantes online”, incumbidas de uma função quase judicial. A situação tornou-se ainda mais complexa com a exigência de que as empresas compartilhassem esses conteúdos e os dados dos usuários com a polícia federal alemã, o que levantou preocupações sobre privacidade e vigilância, além de ter ampliado o papel das plataformas no controle e na moderação de conteúdo online.

De acordo com documentos analisados pela BBC News Brasil, o YouTube e o Twitter receberam mais de 3,3 milhões de notificações sobre conteúdos potencialmente ilícitos, conforme os critérios da NetzDG. O YouTube removeu 346.830 itens, o que correspondeu a 24% das 1,868 milhão de denúncias recebidas até junho de 2020. Já o Twitter excluiu 235.683 conteúdos, representando 12,6% das 1,436 milhão de notificações recebidas até 2019. Esses números indicam a escala significativa de solicitações de remoção enfrentadas por essas plataformas, refletindo o impacto prático da legislação sobre o volume de conteúdo moderado em resposta às demandas de conformidade com a NetzDG.

2.2. União Europeia

Em abril de 2022, a União Europeia anunciou uma nova etapa de regulação para plataformas digitais e redes sociais, consolidando sua posição de liderança na criação de normas para o ambiente online. Este avanço ocorreu seis anos após a implementação do Regulamento Geral de Proteção de Dados (GDPR), estabelecido em 2016, que reforçou significativamente o direito à privacidade e inspirou legislações semelhantes em várias partes do mundo. Com a introdução da Digital Services Act (DSA), cuja vigência iniciou em janeiro de 2024, e da Digital Market Act (DMA), que se tornou aplicável em maio de 2023, a União Europeia buscava estabelecer diretrizes para proteger os consumidores e fomentar um mercado digital mais justo e inovador.

Essas novas legislações atualizam a antiga Diretiva de Comércio Eletrônico de 2000, com o objetivo principal de eliminar práticas desleais e conter abusos das grandes empresas de tecnologia. A DSA e a DMA limitam a circulação de conteúdos prejudiciais, como desinformação, discursos de ódio, material de pornografia infantil e conteúdos com teor antidemocrático ou xenófobo, promovendo um espaço digital mais seguro e competitivo para os consumidores na Europa. Dessa forma, essas normas não apenas protegem direitos dos consumidores, mas também incentivam um mercado digital mais saudável e equilibrado, beneficiando a sociedade e promovendo a confiança no ambiente digital.

Considerando os avanços recentes no mercado digital europeu, a Digital Market Act (DMA) foi criada com o propósito de harmonizar a regulamentação entre os Estados Membros, prevenindo que diferentes legislações nacionais fragmentem o mercado único da União Europeia. A DMA impõe um conjunto de obrigações rigorosas para determinados atores econômicos, especialmente as grandes plataformas online, agora categorizadas como “gatekeepers” ou “guardiões dos portões”. Esses atores, devido à sua posição estratégica e influência no mercado, estão sujeitos a uma regulamentação específica com o objetivo de garantir um ambiente de justiça e competitividade.

Segundo a DMA, uma plataforma online é classificada como “gatekeeper” caso atenda a determinados critérios ao longo dos últimos três anos. Entre esses critérios, incluem-se: 

a) possuir faturamento anual superior a 7,5 bilhões de euros dentro da União Europeia ou ter um valor de mercado estipulado em 75 bilhões de dólares; e 

b) contar com, no mínimo, 45 milhões de usuários finais ou 10 mil usuários empresariais ativos e com fins lucrativos no território europeu. Com essa estrutura, a DMA visa regulamentar as atividades de plataformas de grande porte, promovendo um mercado digital mais equitativo e integrado em toda a região da União Europeia.

A Digital Services Act (DSA) destina-se a indivíduos e empresas que atuam profissionalmente no espaço econômico da União Europeia em setores específicos, organizados em três categorias principais. Essas categorias incluem:

i. Serviços de simples transporte, como provedores de acesso à internet, registradores de domínio e lojas de aplicativos online;

ii. Serviços de armazenagem temporária, abrangendo soluções de computação em nuvem, sistemas operacionais e assistentes virtuais;

iii. Serviços de alojamento virtual, que englobam redes sociais, plataformas de compartilhamento de vídeos, determinados serviços de mensagens, marketplaces online e sistemas de pagamento.

Para serem cobertos pela DSA, esses provedores devem atender, conjuntamente, a critérios adicionais ao longo dos três anos mais recentes, tais como: 

a) Operar majoritariamente em ambiente digital com impacto substancial no mercado da União Europeia; e 

b) Controlar um acesso expressivo de usuários comerciais aos consumidores finais.

Assim, para que uma entidade esteja sujeita às disposições e sanções estabelecidas pelas Digital Market Act (DMA) e Digital Services Act (DSA), não é necessária uma presença física na União Europeia. Basta que a Comissão Europeia identifique uma conexão significativa entre a entidade e o mercado europeu, especialmente por meio de sua interação com usuários dentro do bloco econômico. No entanto, o objetivo do legislador é assegurar que a aplicação dessas regulamentações seja justa e proporcional, levando em conta o risco associado, o porte e a abrangência da entidade regulada.

“O DSA tem esse interesse de trazer um novo rol de obrigações para as plataformas ao mesmo tempo em que traz um modelo que não seja tão disruptivo nem para o mercado digital e muito menos para inovação” (Santos, 2023).

Como princípio fundamental, todos os provedores de serviços intermediários devem operar com cuidado e transparência em suas atividades. O artigo 10 estabelece que o prestador de serviços deve manter, previamente a qualquer solicitação ou notificação por parte das autoridades europeias, ao menos:

i. Um registro de recebimento de informações;

ii. A identificação do remetente;

iii. Um histórico das atividades pertinentes.

Ao serem requisitadas informações por uma autoridade, pressupõe-se que apenas dados já disponíveis ao prestador sejam solicitados, o que elimina a justificativa para atrasos indevidos na resposta. Essa disposição visa assegurar agilidade e precisão na comunicação entre os provedores e as autoridades, promovendo uma estrutura de monitoramento mais eficaz e eficiente no contexto do mercado digital europeu.

Uma diretriz central é a exigência de que todos os provedores de serviços mantenham um canal de comunicação direto e acessível para facilitar o contato com as autoridades europeias. No caso de provedores sem presença física na União Europeia, é necessário designar um representante legal com autoridade para garantir a conformidade com as normas legais aplicáveis. Essa pessoa ou entidade jurídica poderá ser responsabilizada em caso de descumprimento das regulamentações, assumindo as consequências legais decorrentes dessas falhas.

Além disso, os provedores de serviços intermediários são obrigados a divulgar suas práticas de moderação de conteúdo e o uso de decisões automatizadas, com base em seus termos de serviço. Essas informações devem ser detalhadas em relatórios anuais de transparência, exceto para pequenas empresas, que estão dispensadas dessa obrigação. No que diz respeito aos prestadores no setor de transporte simples, estes estarão isentos de responsabilidade pelo conteúdo das informações transmitidas, desde que:

i. Não participem da origem da transmissão;

ii. Não escolham o destinatário da transmissão;

iii. Não modifiquem o conteúdo transmitido.

Essas disposições não impedem que uma autoridade judicial ou administrativa da União Europeia possa impor medidas específicas para prevenir ou interromper uma violação (artigo 4º da DSA). No que diz respeito aos serviços de armazenamento temporário, os provedores não serão responsabilizados pelo conteúdo armazenado ou intermediado, desde que:

i. Não alterem as informações armazenadas;

ii. Cumpram com as condições de acesso às informações;

iii. Observem as normas aplicáveis de atualização e segurança em relação ao armazenamento;

iv. Não interfiram na utilização legítima de tecnologias de coleta de dados para fins operacionais de seus clientes;

v. Ajam com prontidão para remover ou bloquear o acesso a conteúdo prejudicial, caso recebam ordem específica de uma autoridade judicial ou administrativa europeia.

Da mesma forma, os fornecedores de serviços de hospedagem virtual não serão responsabilizados pelo conteúdo hospedado, contanto que:

i. Desconheçam a natureza ilegal do conteúdo ou da atividade;

ii. Ao tomarem conhecimento da ilicitude, atuam de forma diligente para interromper o processamento do conteúdo ilícito.

Essas exceções aplicam-se a:

i. Provedores de hospedagem virtual controlados diretamente pelos usuários do serviço; e

ii. Plataformas digitais que facilitam interações entre consumidores e vendedores, levando o consumidor comum a acreditar que a plataforma é a responsável pela execução do serviço solicitado.

Para os operadores de serviços de hospedagem digital, incluindo plataformas online, a legislação exige a implementação de mecanismos acessíveis para que os usuários possam enviar notificações e reclamações. Esses usuários devem ter o direito de receber respostas justificadas e de contestar decisões de moderação de conteúdo por meio de vias judiciais e extrajudiciais. As exigências são especialmente rigorosas para grandes empresas tecnológicas, dadas suas amplas repercussões sociais e econômicas.

Entre os requisitos, destaca-se a obrigação de realizar avaliações de risco e adotar medidas mitigatórias (conforme artigos 26 e 27), similarmente ao que já é previsto na legislação de proteção de dados pessoais. Esse processo visa à identificação e redução de riscos sistêmicos, abrangendo desde a disseminação de conteúdo ilegal até a proteção de direitos fundamentais e o controle de manipulações comportamentais.

Os artigos 51 e 52 do Regulamento de Serviços Digitais definem o regime de penalidades aplicável em caso de descumprimento das normas. Em essência, os Estados-membros, em conjunto com a Comissão Europeia, serão responsáveis por estabelecer os procedimentos investigativos e as sanções necessárias para garantir a conformidade com a legislação. Entre as medidas punitivas, sanções financeiras coercitivas podem ser aplicadas, limitadas a 5% do lucro médio diário global do infrator, calculado a partir da data definida pela autoridade reguladora. Para outras multas, os Estados-membros garantem que o montante não ultrapasse 6% da receita anual global do infrator, com base nos resultados do ano fiscal anterior. Além disso, o regulamento assegura aos operadores o direito a uma defesa completa e a um processo justo, em conformidade com a Carta dos Direitos Fundamentais da União Europeia.

“Este acordo é histórico. Nossas novas regras protegerão os usuários online, garantirão a liberdade de expressão e oportunidades para as empresas” (Von Der Leyen, 2022).
“Sim, temos um acordo! Com a DSA, os dias em que as grandes plataformas digitais podiam se comportar como bem entendessem por causa de seu poder acabaram” (Breton, 2022). 

2.3. Facebook Papers e Novas Diretrizes da União Europeia: O Impacto nas Plataformas Digitais.

A divulgação dos “Facebook Papers” por Frances Haugen, ex-funcionária da Meta, desencadeou um debate global sobre a responsabilidade das plataformas digitais. Em resposta, a autoridade irlandesa de proteção de dados aplicou uma multa de 225 milhões de euros ao WhatsApp, exigindo mudanças em sua política de privacidade. Além disso, a Microsoft está sob escrutínio por possíveis violações de privacidade relacionadas ao seu serviço de mensagens, o Teams.

O Google enfrentou uma ação judicial no Reino Unido, representando 19,5 milhões de usuários do Android, devido à taxa de 30% aplicada na Play Store para compras digitais. A acusação alegou que essa taxa foi repassada indevidamente aos consumidores pelas empresas de tecnologia.

Em uma declaração à imprensa, o Google informou que está avaliando o novo documento legislativo e reiterou seu compromisso de colaborar com as autoridades para garantir o cumprimento das novas regulamentações. As diretrizes, que entraram em vigor em 2024, são particularmente rigorosas em relação a conteúdos publicitários direcionados ao público infantil e aqueles baseados em dados pessoais sensíveis, incluindo crenças religiosas, gênero, etnia e posicionamento político. Além disso, proíbem o uso de interfaces enganosas projetadas exclusivamente para a coleta de dados pessoais sob falsos pretextos. Essa legislação de serviços digitais da União Europeia substituirá normas que permaneceram vigentes por mais de vinte anos.

As novas regras serão aplicáveis em todos os países membros da União Europeia, incluindo Áustria, Bélgica, Bulgária, Croácia, Chipre, República Checa, Dinamarca, Estônia, Finlândia, França, Alemanha, Grécia, Hungria, Irlanda, Itália, Letônia, Lituânia, Luxemburgo, Malta, Países Baixos, Polônia, Portugal, Romênia, Eslováquia, Eslovênia, Espanha e Suécia.

2.4. Estados Unidos da América

Aprovada em 1996, em um período anterior ao advento das redes sociais, a Seção 230 estabelece que os provedores de serviços online não devem ser considerados responsáveis pelo conteúdo gerado por terceiros. Essa seção integra a Lei de Decência nas Comunicações (Communications Decency Act) e oferece aos prestadores uma ampla imunidade legal em relação ao conteúdo veiculado em suas plataformas. Com base nessa disposição, tais provedores não podem ser classificados como “representantes” ou “editores” do conteúdo disponibilizado por seus usuários, protegendo-os assim de possíveis ações judiciais relacionadas ao material publicado por terceiros. 

Além disso, a Seção 230 concede proteção jurídica às plataformas para que possam moderar determinados tipos de postagens, incluindo aquelas que contêm conteúdo pornográfico ou que violem leis federais. No entanto, essa capacidade de controle é limitada, pois a Constituição dos Estados Unidos protege o direito à liberdade de expressão, o que implica que certas restrições poderiam representar uma violação desse direito fundamental dos usuários.  

Com o aumento de publicações propagando discursos de ódio e desinformação, a Seção 230 tem sido alvo de críticas, estimulando um debate complexo em diversos setores da sociedade. A controvérsia jurídica em torno dessa norma intensificou-se, sobretudo, após o caso dos ataques de novembro de 2015 em Paris, quando familiares de Nohemi González, uma das 130 vítimas, moveram uma ação contra o Google. Esse processo trouxe à tona questões sobre a responsabilidade das plataformas pelo conteúdo promovido em seus serviços, reabrindo discussões sobre os limites e as implicações da Seção 230 na era digital.

González, que residia na França, perdeu a vida na cafeteria Belle Equipe durante os ataques em Paris, executados por um membro do grupo Estado Islâmico (EI). Seus pais atribuíram parte da responsabilidade ao YouTube, uma subsidiária do Google, argumentando que a plataforma teria recomendado vídeos de propaganda jihadista a certos usuários, o que, segundo eles, poderia ter contribuído para incitar o crime. Em suas alegações, afirmaram que “ao endossar vídeos do EI para seus utilizadores, o Google auxiliou o EI na disseminação de sua mensagem e, por conseguinte, prestou assistência material”. Contudo, embora tenham buscado ação legal contra a empresa, os tribunais federais rejeitaram a queixa, respaldando-se na proteção legal oferecida ao YouTube pela Seção 230.

A Seção 230 é composta por duas partes principais:

Seção 1: Estabelece que as plataformas não podem ser responsabilizadas pelo conteúdo criado por terceiros, pois essas empresas não são consideradas editoras de conteúdo;

Seção 2: Concede imunidade às plataformas para moderarem conteúdos gerados por usuários, desde que o façam com base em critérios de boa-fé. Essa moderação é permitida para remover material que considerem obsceno, lascivo, impróprio, excessivamente violento, assediador ou de outra forma ofensivo, independentemente de o material estar protegido pela Constituição ou não.

A concessão de imunidade aos provedores de serviços de Internet foi concebida para evitar que essas empresas fossem classificadas como editoras ou autoras do conteúdo compartilhado em suas plataformas, isentando-as de responsabilidade por materiais criados por terceiros. Essa medida visava prevenir situações como a decisão do Tribunal Superior de Nova York em 1995, que responsabilizou a Prodigy, uma prestadora de serviços online, por conteúdo difamatório publicado por terceiros em seus fóruns. Naquele caso, o tribunal concluiu que, devido à moderação de conteúdo exercida pela Prodigy, a empresa poderia ser tratada como “editora” do material postado por usuários, estabelecendo um precedente que a Seção 230 buscou neutralizar.

O regime de responsabilidade introduzido pela Seção 230 do CDA desempenhou um papel determinante no crescimento dos provedores de conteúdo e de aplicativos, além de impulsionar a expansão da internet como a conhecemos hoje. Esse sistema, com uma estrutura aberta, permitiu a comunicação e a interação entre usuários de maneira direta, livre de intermediação e sem restrições de censura. Ao isentar as plataformas da responsabilidade pelo conteúdo gerado por terceiros, a Seção 230 facilitou um ambiente em que novas aplicações e formas de engajamento puderam florescer, estabelecendo as bases para o cenário digital contemporâneo.

Contudo, a Seção 230 começou a ser criticada por oferecer uma proteção excessiva às plataformas digitais, especialmente com o surgimento de gigantes como Facebook e X (anteriormente Twitter), que possuem o poder de influenciar e direcionar a visibilidade online. Essas plataformas, atuando como intermediárias centrais não só entre indivíduos, mas também entre diversos sistemas sociais, têm motivado argumentos de que a Seção 230 estaria desatualizada. Nesse novo contexto, a justificativa original para a imunidade – que visava proteger as empresas de internet contra intervenções estatais e possíveis ações de indenização – agora permite uma liberdade substancial para as redes sociais, suscitando críticas que questionam a adequação dessa imunidade ampla diante da complexidade e do alcance atual dessas plataformas.

“Afasta delas toda e qualquer obrigação e responsabilidade com relação a conteúdos criados por usuários, por terceiros. (…) A Seção 230 do CDA olha para as decisões editoriais de disponibilização de conteúdo, algoritmos de recomendação e classifica isso como coisas que são relativas ao discurso, então merecem ser protegidas tanto quanto. A lei resguarda a atuação desses atores e sempre preza pela boa-fé deles enquanto estiverem moderando.” (Santos, 2023).

Desde 2019, foram apresentadas mais de 25 iniciativas legislativas com o intuito de modificar ou revogar a Seção 230, visando, assim, alterar o sistema de responsabilidade e obrigações das redes sociais. Observa-se que, em geral, algumas das propostas visam reduzir e restringir as atividades de moderação, enquanto outras buscam impor requisitos mais rigorosos de moderação frente a conteúdos que possam, com probabilidade, causar danos irreparáveis.

Jeff Kosseff, professor de direito especializado em segurança cibernética na Academia Naval dos Estados Unidos, argumenta que, apesar das complexidades envolvidas na moderação de conteúdo em Estados democráticos, a autorregulação das empresas, com interferência estatal mínima, continua sendo uma solução viável. Ele ressalta alguns pontos para apoiar essa visão:

a) A revogação da Seção 230 ou a imposição de medidas para combater certos tipos de conteúdo pode levar as plataformas de redes sociais a intensificar a remoção e o bloqueio de mensagens, mesmo que estas não sejam ilegais ou prejudiciais, resultando em um controle mais restritivo de conteúdos;

b) As operações de moderação realizadas por plataformas de mídia social também são protegidas pela Primeira Emenda, o que significa que suas decisões de gerenciamento de conteúdo não podem ser restringidas pelo governo nem por demandas dos usuários;

c) A falta de discussões entre especialistas imparciais dificulta a avaliação dos impactos de mudanças na Seção 230. Um exemplo é o “Stop Enabling Sex Trafficking Act” de 2018, que, ao tentar combater o tráfico e a exploração sexual, acabou expondo profissionais do sexo a maior vulnerabilidade, especialmente aqueles de classes econômicas baixas e minorias étnicas, como negros, pardos e indígenas. Em resposta à nova lei, o site Craigslist, receoso de possíveis sanções, removeu toda a seção de “anúncios pessoais”.

Kosseff defende que essas considerações demonstram a importância de manter a autonomia das plataformas para moderar conteúdo, evitando consequências indesejadas que podem surgir com uma regulamentação estatal mais rígida.

Após a invasão ao Capitólio em janeiro de 2021, os CEOs das principais empresas de tecnologia foram chamados a comparecer ao Congresso dos Estados Unidos para discutir o impacto das plataformas digitais sobre a democracia. Esse evento trouxe para o centro das deliberações legislativas norte-americanas temas de grande relevância global, como a transparência e a responsabilização das plataformas. A convocação marcou um ponto crítico no debate sobre o papel das grandes corporações tecnológicas na mediação da informação e na promoção de um ambiente digital seguro, considerando seu potencial de influenciar tanto processos democráticos quanto o discurso público.

“Estamos falando de poder exigir dessas plataformas que publiquem relatórios de transparência e nos deem mais informação sobre seus próprios algoritmos, especialmente os de recomendação que acabam direcionando tantas pessoas para conteúdos que são danosos ou problemáticos.” (Santos, 2023).

2.4.1. Novas Leis em Utah: Controle Parental e Prevenção de Dependência Digital entre Jovens

Em março de 2023, o estado de Utah aprovou duas leis que estabelecem novas restrições ao uso de redes sociais por menores de idade. De acordo com essas regulamentações, crianças e adolescentes só podem acessar essas plataformas com o consentimento dos pais. Empresas como a Meta (responsável pelo Facebook e Instagram) e o TikTok estão agora obrigadas a implementar mecanismos que autorizem tanto a criação de novas contas quanto a verificação de perfis existentes, com o objetivo de prevenir a dependência digital e assegurar que os pais estejam envolvidos nas atividades online de seus filhos.

As novas medidas adotadas em Utah podem funcionar como um modelo para o gerenciamento do acesso de menores às redes sociais, com potencial para influenciar regulamentações internacionais, especialmente considerando a necessidade de adaptação das grandes corporações tecnológicas. Contudo, permanece incerto como essas restrições serão aplicadas a contas de menores já existentes e qual será o impacto real dessas mudanças. A iniciativa levanta importantes questões sobre a divisão de responsabilidades entre os pais e os desenvolvedores de aplicativos na proteção das crianças durante a navegação online. Esse debate sobre a supervisão digital infantil deve se intensificar à medida que a nova legislação passa a vigorar, suscitando discussões sobre as práticas e os deveres das plataformas digitais em relação ao bem-estar dos jovens usuários.

3. Conclusões

Este artigo científico examinou as medidas legais implementadas nas redes sociais em diferentes países, tendo como objetivo indicar possíveis caminhos e estimular a reflexão entre estudantes do curso de Serviços Jurídicos e Notariais, promovendo um aprofundamento em leis estrangeiras para ampliar seu conhecimento e permitir que contribuam positivamente no debate sobre o tema. Dessa forma, espera-se que eles possam compartilhar ideias valiosas com colegas e autoridades locais, incentivando uma interação digital mais ética e responsável.

Embora a aprovação de regulamentações para plataformas digitais enfrente atualmente desafios no Brasil, devido ao forte lobby de empresas de tecnologia e à resistência de parlamentares com posições conservadoras e reacionárias, a análise de legislações internacionais oferece um modelo essencial para a regulamentação das redes sociais no país. Esse é um passo determinante na busca por soluções eficazes para os problemas enfrentados no ambiente digital.

Cada país tem suas particularidades e obstáculos específicos, mas o estudo das experiências internacionais oferece insights e diretrizes valiosas para a formulação de políticas regulatórias adaptadas às necessidades brasileiras. No entanto, é fundamental que essa adaptação considere não só as variações legais e culturais, mas também os princípios de liberdade de expressão, privacidade e responsabilidade.

Assim, ao integrar conhecimentos internacionais à realidade nacional, podemos almejar uma regulamentação eficaz que promova um ambiente digital mais seguro, transparente e inclusivo para todos os cidadãos brasileiros.

REFERÊNCIAS

ADM CNX. Redes sociais e saúde mental: influência e impacto dessa relação. Disponível em: https://www.conexasaude.com.br/blog/redes-sociais-saude-mental/. Acesso em: 01 de dezembro de 2023.

AGÊNCIA O GLOBO. PL das Fake News: veja como funcionam as regras onde já há leis que regulam as redes sociais. Disponível em: https://exame.com/brasil/pl-das-fake-news-veja-como-funcionam-as-regras-onde-ja-ha-leis-que-regulam-as-redes-sociais/. Acesso em: 10 de dezembro de 2023.

BORTOLI, Franciane. Como as redes sociais podem prejudicar a sua saúde mental? Disponível em: https://www.psicologo.com.br/blog/redes-sociais-e-saude-mental/. Acesso em: 02 de dezembro de 2023.

CAVALCANTI, Kilza. A regulamentação da internet na Europa pode ser ponto de partida para o Brasil. Disponível em: https://www.urbanovitalino.com.br/a-regulamentacao-da-internet-na-europa-pode-ser-ponto-de-partida-para-o-brasil/. Acesso em: 09 de dezembro de 2023.

COMSCORE. Tendências de Social Media 2023. Disponível em: https://static.poder360.com.br/2023/03/Tendencias-de-Social-Media-2023-1.pdf. Acesso em: 12 de dezembro de 2023.

CONJUR. A seção 230 do CDA e o artigo 19 do Marco Civil da Internet. Disponível em: https://www.conjur.com.br/2022-mai-04/direito-digital-secao-230-cda-artigo-19-marco-civil-internet/. Acesso em: 12 de dezembro de 2023.

DINO. Volume de uso de redes sociais pode afetar saúde mental. Disponível em: https://oglobo.globo.com/patrocinado/dino/noticia/2023/05/volume-de-uso-de-redes-sociais-pode-afetar-saude-mental.ghtml. Acesso em: 01 de dezembro de 2023.

DOSSIÊ CQM. Redes sociais e suicídio. Disponível em: https://dossie.comunicaquemuda.com.br/suicidio/8-redes-sociais-e-suicidio/. Acesso em: 02 de dezembro de 2023.

EUROFARMA. Redes Sociais x Saúde Mental. Como as redes sociais podem ser um fator importante para impactar a saúde mental do usuário. Disponível em: https://eurofarma.com.br/artigos/relacao-entre-redes-sociais-saude-mental. Acesso em: 02 de dezembro de 2023.

FISCHER, Max. A máquina do caos: Como as redes sociais reprogramaram nossa mente e nosso mundo. São Paulo: Editora Todavia, 2023.

FOLHA DE SÃO PAULO. Entenda regulação das redes sociais no Brasil, EUA, Reino Unido e União Europeia.  Disponível em: https://www1.folha.uol.com.br/poder/2023/03/entenda-debate-sobre-a-regulacao-das-redes-sociais-no-brasil.shtml. Acesso em: 10 de dezembro de 2023.

FRAGA, Juliana. Países enfrentam Big techs e endurecem suas leis para regular conteúdos nas redes sociais. Disponível em: https://www.folhape.com.br/colunistas/blogdafolha/paises-enfrentam-big-techs-e-endurecem-suas-leis-para-regular-conteudos-nas-redes-sociais/37108/. Acesso em: 10 de dezembro de 2023.

G1. PL das Fake News: como outros países lidam com crimes nas redes sociais. Disponível em: https://g1.globo.com/tecnologia/noticia/2023/05/02/pl-das-fake-news-como-outros-paises-lidam-com-crimes-nas-redes-sociais.ghtml. Acesso em: 09 de dezembro de 2023.

GAUCHA ZH. O que é a seção 230 e como sua alteração pode impactar o futuro da internet. Disponível em: https://gauchazh.clicrbs.com.br/tecnologia/noticia/2023/02/o-que-e-a-secao-230-e-como-sua-alteracao-pode-impactar-o-futuro-da-internet-cleeha62u00cg01e9o0wbqxxb.html. Acesso em: 12 de dezembro de 2023.

HAN, Byung-Chul. Psicopolítica: O neoliberalismo e as novas técnicas de poder. Belo Horizonte: Editora Âyiné, 2020. Acesso em: 14 de dezembro de 2023.

JORNAL DO COMÉRCIO. Redes sociais podem prejudicar saúde mental para 79% dos Brasileiros, aponta Datafolha. Disponível em: https://www.jornaldocomercio.com/geral/2022/09/864595-redes-sociais-podem-prejudicar-saude-mental-para-79-dos-brasileiros-aponta-datafolha.html. Acesso em: 02 de dezembro de 2023.

LANIER, Jaron. Dez argumentos para você deletar agora suas redes sociais. Rio de Janeiro: Editora Intrínseca, 2018. Acesso em: 09 de dezembro de 2023.

LISBOA, Alveni; CIRIACO, Douglas. União Europeia aprova lei que regulamenta grandes empresas de tecnologia. Disponível em: https://canaltech.com.br/software/uniao-europeia-aprova-lei-que-regulamenta-grandes-empresas-de-tecnologia-202963/. Acesso em: 10 de dezembro de 2023.

MARTINS, Laís; SPAGNUOLO, Sérgio. Como uma lei na Europa deve inspirar o futuro das redes sociais no Brasil. Disponível em: https://nucleo.jor.br/reportagem/2023-01-20-dsa-inspirar-regulacao-redes-brasil/. Acesso em: 02 de dezembro de 2023.

MASSIS, Diana. Somos cada vez menos felizes e produtivos porque estamos viciados na tecnologia. Disponível em: https://www.bbc.com/portuguese/geral-51409523. Acesso em: 02 de dezembro de 2023.

MEDLEY. As redes sociais estão te fazendo bem? Veja o que a ciência diz. Disponível em: https://www.medley.com.br/saude-e-bem-estar/saude-fisica/cuidados/redes-sociais-fazem-bem-ou-mal. Acesso em: 02 de dezembro de 2023.

MIQUELETTO, Maria Isabel; SANTOS, Natália; MEDEIROS, Davi; PANHO, Isabella Alonso. Entenda como são as diferentes regulações de redes sociais pelo mundo. Disponível em: https://www.estadao.com.br/link/empresas/entenda-como-sao-as-diferentes-regulacoes-de-redes-sociais-pelo-mundo/. Acesso em: 10 de dezembro de 2023.

O’NEIL, Cathy. Algoritmos de Destruição em Massa. São Paulo: Editora Rua do Sabão, 2021. Acesso em: 13 de dezembro de 2023.

ORLOWSKI, Jeff. O Dilema das Redes Sociais. Estados Unidos da América: Netflix, 2020. Acesso em: 20 de dezembro de 2023.

ORWELL, George. 1984. São Paulo: Editora Companhia das Letras, 2009. Acesso em: 22 de dezembro de 2023.

R7. Em análise no Brasil, regulamentação de redes sociais está em vigor na Europa e na Austrália. Disponível em: https://www.correiodopovo.com.br/not%C3%ADcias/pol%C3%ADtica/em-an%C3%A1lise-no-brasil-regulamenta%C3%A7%C3%A3o-de-redes-sociais-est%C3%A1-em-vigor-na-europa-e-na-austr%C3%A1lia-1.1023509. Acesso em: 10 de dezembro de 2023.

RFI. UE aprova legislação histórica para controle de plataformas digitais. Disponível em: https://g1.globo.com/mundo/noticia/2022/04/23/seguranca-ue-aprova-legislacao-historica-para-controle-de-plataformas-digitais.ghtml. Acesso em: 09 de dezembro de 2023.

RUPP, Isadora. Como países regulam o uso de redes sociais por crianças. Disponível em: https://www.nexojornal.com.br/expresso/2023/04/29/Como-pa%C3%ADses-regulam-o-uso-de-redes-sociais-por-crian%C3%A7as. Acesso em: 10 de dezembro de 2023.

SANTOS, Natália; MEDEIROS, Davi; PANHO, Isabella Alonso. Existem leis como o PL das Fake News em outros países? Entenda. Disponível em: https://www.estadao.com.br/politica/existem-pl-das-fake-news-em-outros-paises-nprp/. Acesso em: 10 de dezembro de 2023.

SCHREIBER, Mariana. A controversa lei alemã que inspira projeto de lei das Fake News. Disponível em: https://www.bbc.com/portuguese/brasil-53914408. Acesso em: 12 de dezembro de 2023.

SEGURADO, Rosemary; LIMA, Carolina Silva Mandú de; AMENI, Cauê S. Regulamentação da internet: perspectiva comparada entre Brasil, Chile, Espanha, EUA e França. História, Ciências, Saúde – Manguinhos, Rio de Janeiro, v.22, supl., dez. 2015, p.1551-1571. Disponível em: https://www.scielo.br/j/hcsm/a/TrcdX6SmXCcNqBLCcR7rb7J/. Acesso em: 09 de dezembro de 2023.

TARNAPOLSKY, Fabio. Estados Unidos aprova lei que restringe acesso a redes sociais por menores em Utah. Disponível em: https://www.mundoconectado.com.br/redessociais/estados-unidos-aprova-lei-que-restringe-acesso-a-redes-sociais-por-menores-em-utah/. Acesso em: 09 de dezembro de 2023.

UNIMED CAMPINAS, Equipe de Medicina Preventiva. Qual é o impacto negativo das redes sociais na nossa saúde mental? Disponível em: https://www.unimedcampinas.com.br/blog/saude-emocional/qual-e-o-impacto-negativo-das-redes-sociais-na-nossa-saude-mental. Acesso em: 02 de dezembro de 2023.

VIEIRA, Ana Lúcia; JÚNIOR, Clodoaldo Moreira dos Santos. A influência das redes sociais nos casos de suicídio entre jovens e adolescentes brasileiros e o seu aumento durante a pandemia. Disponível em: https://www.oabgo.org.br/arquivos/downloads/cc964ed851fe18-ainfluenciadasredessociaisnosc-1-1054196.pdf. Acesso em: 02 de dezembro de 2023.

YAZBEK, Priscila. Brasil quer seguir passos da Europa para regulamentar redes sociais. Disponível em: https://www.cnnbrasil.com.br/politica/brasil-quer-seguir-passos-da-europa-para-regulamentar-redes-sociais/. Acesso em: 10 de dezembro de 2023.


1Discente do Curso Tecnólogo de Serviços Jurídicos e Notariais do Centro Universitário Internacional UNINTER, e-mail: viniciuvurdel@gmail.com