O IMPACTO DA INTELIGÊNCIA ARTIFICIAL NA PROTEÇÃO DOS DIREITOS HUMANOS: DESAFIOS E PERSPECTIVAS REGULATÓRIAS NO CONTEXTO BRASILEIRO

REGISTRO DOI: 10.69849/revistaft/cs10202509142145


Jonas Matias Fagundes1


Resumo: Este trabalho explora o impacto da inteligência artificial (IA) na proteção dos direitos humanos no Brasil, abordando tanto os riscos, como a discriminação algorítmica e a violação de privacidade, quanto as oportunidades para a promoção da igualdade e inclusão digital. Analisa e compara as perspectivas regulatórias do Projeto de Lei 2338/2023 e do EU AI Act, destacando a abordagem baseada em risco como um esforço para equilibrar a inovação tecnológica com a proteção de direitos fundamentais.

Palavras-Chave: inteligência artificial; direitos humanos; algoritmos.

1. Introdução

A revolução tecnológica promovida pela inteligência artificial (IA) transformou diversos aspectos da sociedade contemporânea, apresentando inovações que prometem ampliar a eficiência em diferentes setores, desde o mercado de trabalho até os sistemas judiciais. No entanto, essa mesma tecnologia tem levantado preocupações significativas no que diz respeito à proteção dos direitos humanos, especialmente no contexto da democracia, da inclusão digital e da igualdade. O uso crescente de algoritmos na tomada de decisões, muitas vezes sem transparência ou supervisão adequada, revela o potencial de reforçar discriminações históricas e de violar direitos fundamentais, como a privacidade e a liberdade de expressão.

No Brasil, o desafio de regulamentar a IA ganha contornos específicos, dada a diversidade social, as desigualdades estruturais e o cenário jurídico em constante transformação. Enquanto países como os membros da União Europeia avançam com regulações robustas, como o European AI Act, o Brasil ainda busca consolidar um marco regulatório capaz de equilibrar inovação e proteção de direitos. O Projeto de Lei 2338/2023 surge como uma tentativa de responder a essas demandas, mas é preciso avaliar sua eficácia no enfrentamento dos riscos associados ao uso de tecnologias emergentes.

Este trabalho pretende explorar os impactos da inteligência artificial na proteção dos direitos humanos no Brasil, destacando os desafios e as oportunidades oferecidas por uma regulação adequada, para em seguida comparar as iniciativas europeia e brasileira de regulação da IA.

2. Impactos da IA nos Direitos Humanos

A revolução tecnológica impulsionada pela inteligência artificial (IA) tem apresentado avanços significativos em diversas áreas, como saúde, educação e gestão pública. No entanto, essas inovações não estão isentas de desafios, especialmente no que tange aos direitos humanos. A aplicação da IA tem gerado riscos, como discriminação algorítmica e violações de privacidade, ao mesmo tempo que oferece oportunidades para inclusão digital e promoção da igualdade. 

Um dos maiores desafios da IA é sua tendência a reproduzir e amplificar preconceitos humanos. Algoritmos, muitas vezes considerados imparciais, dependem de dados históricos para operar, o que significa que os vieses presentes nesses dados são refletidos e até reforçados nos resultados. Por exemplo, decisões algorítmicas que parecem racionais e neutras podem, na verdade, resultar em discriminação direta ou indireta contra grupos vulneráveis. A discriminação indireta, em particular, ocorre quando práticas aparentemente neutras têm impactos desproporcionais sobre determinados grupos, como minorias étnicas, mulheres ou pessoas de baixa renda1. Esse tipo de discriminação é especialmente problemático no direito penal, no direito do trabalho (recrutamento) e na mercado consumidor (concessão de crédito).

O uso de IA em sistemas de decisão automatizada também levanta preocupações sobre a falta de transparência e responsabilidade. Muitas vezes, os algoritmos operam como “caixas-pretas”, dificultando a identificação de responsabilidades quando ocorrem erros ou discriminações. Nesse sentido, o direito internacional dos direitos humanos oferece uma base para a abordagem da responsabilização algorítmica, estabelecendo obrigações que abrangem o ciclo completo de vida dos algoritmos, desde sua concepção até a aplicação prática. Essa estrutura organizadora auxilia os Estados e as empresas a identificar os fatores que devem tomar em consideração para implementar salvaguardas e mecanismos de supervisão que mitiguem os riscos de violações e garantir reparação às vítimas2.

Outra preocupação está relacionada à privacidade. O uso intensivo de big data, essencial para o treinamento de algoritmos baseados em aprendizado de máquina, pode comprometer a privacidade individual. Grandes quantidades de dados pessoais são frequentemente coletadas, armazenadas e processadas sem o consentimento explícito dos indivíduos. Além disso, algoritmos que operam com base nesses dados podem tomar decisões que afetam significativamente a vida das pessoas, como determinar a elegibilidade para benefícios sociais ou prever comportamentos criminais, muitas vezes sem que os envolvidos tenham ciência ou controle sobre tais processos. Esses riscos são exacerbados pela falta de regulamentação clara em muitos países, incluindo o Brasil.

Apesar dos desafios, a IA também apresenta um enorme potencial para promover a inclusão digital e a igualdade social. Tecnologias baseadas em IA podem desempenhar um papel crucial na redução de desigualdades, ampliando o acesso a serviços básicos e oportunidades educacionais para populações marginalizadas. Por exemplo, plataformas digitais habilitadas por IA podem adaptar conteúdos educacionais para atender às necessidades de diferentes grupos, promovendo a inclusão de pessoas com deficiências ou de comunidades em regiões remotas.

Além disso, a eficiência dos algoritmos em processar grandes volumes de dados permite identificar padrões que podem ser usados para combater desigualdades estruturais. Ferramentas de IA podem revelar vieses existentes em sistemas sociais e econômicos, possibilitando a formulação de políticas públicas mais equitativas. Como destacado por Risse, algoritmos têm o potencial de superar limitações humanas, como ruído e inconsistências, ao mesmo tempo que podem ser programados para detectar e corrigir práticas discriminatórias. “Os algoritmos são livres de ruído: ao contrário dos seres humanos, eles chegam à mesma decisão sobre o mesmo problema quando o apresentam duas vezes”.3

Outra oportunidade está no campo da saúde. Algoritmos de IA já são amplamente utilizados para diagnosticar doenças com maior precisão, identificar tendências epidemiológicas e melhorar o acesso a cuidados médicos em áreas menos favorecidas. Esses avanços não apenas aumentam a eficiência dos sistemas de saúde, mas também têm o potencial de reduzir desigualdades no acesso a tratamentos e diagnósticos. No contexto brasileiro, onde a desigualdade regional é um desafio persistente, a adoção estratégica de IA pode contribuir significativamente para a promoção do direito à saúde.

No âmbito dos direitos fundamentais, a IA também pode ser usada para promover a liberdade de expressão, facilitando o acesso à informação e amplificando vozes que, de outra forma, seriam marginalizadas. No entanto, essa mesma liberdade deve ser equilibrada com mecanismos que protejam contra os abusos, como o discurso de ódio e a desinformação. Nas redes sociais, por exemplo, a aplicação de algoritmos para moderar conteúdos pode ajudar a reduzir a disseminação de mensagens nocivas, promovendo um ambiente mais seguro e inclusivo. Sarlet destaca que o maior desafio está em encontrar um equilíbrio entre a liberdade de expressão e a proteção da dignidade humana, assegurando níveis satisfatórios de tolerância e respeito4.

Embora as oportunidades oferecidas pela IA sejam promissoras, é fundamental que seu uso seja regulado de forma ética e responsável. O direito internacional dos direitos humanos pode servir como uma base para a criação de políticas que garantam a utilização responsável da tecnologia. Por exemplo, frameworks regulatórios podem exigir que algoritmos sejam projetados para maximizar a equidade e a transparência, além de incorporar mecanismos de supervisão e auditoria que garantam a conformidade com padrões éticos e legais5.

No Brasil, iniciativas como o Projeto de Lei 2338/2023 representam um passo na direção certa, mas ainda há muito a ser feito para harmonizar a legislação e adaptá-la às complexidades das novas tecnologias. A comparação com o European AI Act, que busca estabelecer padrões claros para o uso de IA na União Europeia, pode oferecer orientações para o desenvolvimento de um marco regulatório mais robusto e inclusivo no contexto brasileiro.

Em suma, a inteligência artificial possui o potencial de transformar positivamente a sociedade, desde que seu uso seja cuidadosamente monitorado e regulado. Os riscos associados à IA, como discriminação e violação de privacidade, devem ser enfrentados com a mesma seriedade que as oportunidades, como inclusão digital e promoção da igualdade, são exploradas. Somente assim será possível alinhar o progresso tecnológico aos valores fundamentais dos direitos humanos, garantindo um futuro mais justo e inclusivo.

3. Perspectivas Regulatórias

A regulação da inteligência artificial (IA) é um desafio global, especialmente diante do rápido desenvolvimento tecnológico e das implicações éticas, jurídicas e sociais que acompanham sua implementação. Tanto o EU AI Act, da União Europeia, quanto o Projeto de Lei Brasileiro 2338/2023, apresentam abordagens robustas e distintas para o uso responsável da IA. Examinam-se as perspectivas regulatórias dessas iniciativas, identificando convergências e diferenças, e avaliando suas implicações para os direitos fundamentais e para a governança da IA.

Ambos os documentos adotam uma abordagem baseada em riscos como estrutura central de suas regulações. No caso europeu, a IA é dividida em quatro categorias de risco: inaceitável, alto, limitado e mínimo. Sistemas de risco inaceitável, como aqueles usados para manipulação subliminar6 e pontuação social7, são proibidos. Por outro lado, sistemas de alto risco, como aplicações na saúde e no recrutamento, estão sujeitos a rigorosos requisitos de conformidade, enquanto os de risco limitado e mínimo seguem apenas diretrizes voluntárias8. No Brasil, o projeto de lei apresenta categorias semelhantes, destacando riscos excessivos e altos, mas oferece menos detalhes sobre riscos limitados e mínimos. A categorização brasileira é complementada por uma avaliação de impacto algorítmico obrigatória para sistemas de alto risco, enfatizando a transparência, a publicidade e a explicabilidade9.

Outro ponto de convergência é o foco na proteção de direitos fundamentais. Ambos os documentos estabelecem como prioridade central a não discriminação, a transparência e a supervisão humana em sistemas que impactem significativamente os indivíduos. No entanto, enquanto o EU AI Act detalha procedimentos específicos, como a exigência de autorização prévia para sistemas biométricos em espaços públicos, o projeto brasileiro traz diretrizes mais gerais, com maior flexibilidade para regulamentações futuras10.

A transparência é um pilar essencial em ambas as propostas. O EU AI Act exige que sistemas de alto risco sigam regras rigorosas de governança de dados, garantindo que conjuntos de dados sejam representativos, livres de erros e adequados ao propósito pretendido11. De forma semelhante, o projeto brasileiro exige a rastreabilidade das decisões e a explicabilidade dos sistemas, promovendo a participação humana efetiva no processo de tomada de decisão. Isso inclui direitos garantidos às pessoas afetadas, como explicação sobre os critérios utilizados e contestação de decisões automatizadas.12

Apesar dessas similaridades, há diferenças significativas. O modelo europeu detalha os critérios técnicos para conformidade, enquanto o modelo brasileiro prioriza uma abordagem principiológica. Por exemplo, o EU AI Act descreve requisitos específicos para dados de treinamento e supervisão humana, incluindo a capacidade de detectar e mitigar vieses, o que ainda é tratado de forma mais geral no Brasil13.

Embora o Projeto de Lei Brasileiro 2338/2023 represente um avanço significativo, ele enfrenta desafios únicos no contexto nacional. O Brasil possui limitações técnicas e econômicas que podem dificultar a implementação de requisitos mais detalhados e rigorosos, como os estabelecidos no modelo europeu. Além disso, a abordagem principiológica do projeto brasileiro, apesar de flexível, pode gerar lacunas interpretativas e dificultar a fiscalização efetiva.

No entanto, a experiência europeia pode oferecer lições valiosas. Por exemplo, o EU AI Act promove um modelo de governança multinível, com participação de órgãos regulatórios e técnicos em nível nacional e europeu. A criação de uma autoridade competente para supervisionar e implementar as regras, como proposto no projeto brasileiro, pode se beneficiar desse modelo, adaptando-o às necessidades e capacidades locais14.

Dada a natureza transnacional da IA, a harmonização de regulações é um objetivo desejável, mas desafiador. A abrangência territorial do EU AI Act, que regula não apenas usuários dentro da União Europeia, mas também fornecedores globais que operem em seu mercado, serve como um modelo potencial para outros países. Esse alcance pode facilitar a criação de padrões internacionais baseados em direitos humanos e transparência15.

No Brasil, a compatibilidade com regulações internacionais pode incentivar investimentos e colaboração tecnológica. Para isso, é crucial que o país adote uma abordagem que equilibre inovação com proteção de direitos, como já demonstrado na harmonização da Lei Geral de Proteção de Dados (LGPD) com o Regulamento Geral de Proteção de Dados (GDPR) europeu.

4. Conclusão

A regulação da inteligência artificial (IA) reflete um esforço global para equilibrar a proteção de direitos fundamentais com a promoção da inovação tecnológica. Apesar das diferenças culturais e econômicas entre regiões, há convergências significativas entre os modelos regulatórios da União Europeia, dos Estados Unidos e do Brasil. Prioridades como a transparência, a não discriminação e a categorização de riscos estão no cerne de todas as propostas, demonstrando que, apesar das divergências, uma linguagem comum é possível, ao menos em linhas gerais. Exemplos como a influência do Regulamento Geral de Proteção de Dados (GDPR) europeu na criação da Lei Geral de Proteção de Dados (LGPD) brasileira reforçam o potencial de alinhamento entre regulamentos por meio de padrões amplamente aceitos.

Entretanto, obstáculos significativos permanecem. Diferenças culturais, como a percepção mais ampla da liberdade de expressão nos Estados Unidos, contrastam com abordagens que enfatizam a proteção contra abuso desse direito, como no Brasil. Além disso, os desafios técnicos e financeiros enfrentados por países em desenvolvimento, como o Brasil, podem dificultar a adoção de regulações complexas semelhantes às europeias. A capacidade de harmonização global depende, portanto, de um equilíbrio entre diretrizes universais e adaptações locais.

Por outro lado, a regulação ainda está em seus primeiros passos, enfrentando a dificuldade de prever os impactos futuros de uma tecnologia em constante evolução. Enquanto o EU AI Act tenta abarcar amplamente os riscos e possibilidades, o Projeto de Lei Brasileiro 2338/2023 adota um modelo principiológico, com diretrizes flexíveis para regulamentações futuras. Apesar disso, ambos reconhecem a inevitabilidade da regulação, que surge como a melhor resposta disponível para um cenário ainda incerto.

Por fim, embora a proibição de tecnologias específicas seja uma ferramenta regulatória importante, a experiência histórica mostra que a inovação continua a prosperar mesmo sob restrições. No caso da IA, o desafio será não apenas regulamentar seu uso, mas também garantir que suas aplicações sirvam ao bem comum, sem comprometer direitos fundamentais.


1Borgesius, 2020, p. 1.576.
2McGregor, Murray e Ng, 2019, p. 313.
3Risse, 2018, p. 19, 20.
4Sarlet, 2019, p. 1209, 1210.
5McGregor, Murray e Ng, 2019, p. 313.
6Técnicas utilizadas para distorcer o comportamento de uma pessoa capaz de lhe causar dano físico ou psicológico.
7Sistema de pontuação utilizado por autoridade pública para categorizar e classificar as pessoas naturais segundo o seu comportamento social, impactando diretamente no acesso a serviços e direitos públicos.
8Edwards, 2022, p. 9-10.
9BRASIL, 2023, art. 22.
10Edwards, 2022, p. 13; BRASIL, 2023, arts. 14-15.
11Edwards, 2022, p. 13.
12BRASIL, 2023, arts. 7-9.
13Edwards, 2022, p. 17; BRASIL, 2023, arts. 19-20.
14BRASIL, 2023, arts. 4, V e 32.
15Edwards, 2022, p. 5.

REFERÊNCIAS BIBLIOGRÁFICAS

BORGESIUS, Frederik J. Zuiderveen. Strengthening legal protection against discrimination by algorithms and artificial intelligence. International Journal of Human Rights, 2020.

BRASIL. Projeto de Lei nº 2338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: <https://legis.senado.leg.br/sdleg-getter/documento?dm=9347622& ts=1720545987618&disposition=inline>. Acesso em: 07 dez. 2024.

EDWARDS, Lilian. The EU AI Act: A summary of its significance and scope. Newcastle University, 2022. Disponível em: <https://eur-lex.europa.eu>. Acesso em: 07 dez. 2024.

MCGREGOR, Lorna; MURRAY, Daragh; NG, Vivian. International human rights law as a framework for algorithmic accountability. International & Comparative Law Quarterly, v. 69, n. 2, 2020.

RISSE, Mathias. Direitos Humanos e Inteligência Artificial: Uma Agenda Urgentemente Necessária. Publicum, v. 4, n. 1, 2018.

SARLET, Ingo Wolfgang. Liberdade de Expressão e o Problema da Regulação do Discurso do Ódio nas Mídias Sociais. Revista Estudos Institucionais, v. 5, n. 3, 2019.


1https://lattes.cnpq.br/3090472490692951