RECONHECIMENTO FACIAL É INTELIGÊNCIA ARTIFICIAL: RACISMO ESTRUTURAL E SUAS CONSEQUÊNCIAS NO DIREITO PENAL.¹

FACIAL RECOGNITION IS ARTIFICIAL INTELLIGENCE: STRUCTURAL RACISM AND ITS CONSEQUENCES IN CRIMINAL LAW.

REGISTRO DOI: 10.69849/revistaft/cs10202507111156


Carolaine da Silva RODRIGUES2
Ademir Gasques SANCHES3


RESUMO

Este trabalho aborda o uso do reconhecimento facial como uma aplicação de inteligência artificial (IA) e suas implicações no sistema de justiça penal, com ênfase em como essa tecnologia pode esforçar o racismo estrutural. O reconhecimento facial, amplamente utilizado em segurança e vigilância, apresenta problemas de viés racial que afetam desproporcionalmente grupos racialmente marginalizados. Para entender as raízes dessas desigualdades, o estudo explora o histórico do racismo estrutural no Brasil e o impacto dos vieses algorítmicos nas decisões judiciais. O artigo analisa o artigo 226 do Código de Processo Penal e discute a influência dos preconceitos raciais na aplicação dessa tecnologia. A metodologia inclui revisões bibliográficas, estudo de casos e entrevistas com especialistas, visando oferecer uma análise crítica sobre a justiça e a equidade na implementação do reconhecimento facial. Conclui-se que, sem regulamentação a cautela, essa tecnologia pode agravar injustiças, sendo essencial o desenvolvimento de algoritmos mais inclusivos e a criação de políticas públicas que garantam transparência e responsabilidade.

Palavras-chaves: Reconhecimento facial. Inteligência Artificial. Direito Penal. Racismo estrutural. Viés algorítmico. Justiça.

ABSTRACT

This paper addresses the use of facial recognition as an application of artificial intelligence (AI) and its implications in the criminal justice system, with an emphasis on how this technology can address structural racism. Facial recognition, widely used in security and surveillance, presents problems of racial bias that disproportionately affect racially marginalized groups. To understand the roots of these inequalities, the study explores the history of structural racism in Brazil and the impact of algorithmic biases on judicial decisions. The article analyzes article 226 of the Code of Criminal Procedure and discusses the influence of racial biases in the application of this technology. The methodology includes literature reviews, case studies, and interviews with experts, aiming to offer a critical analysis of justice and equity in the implementation of facial recognition. It is concluded that, without careful regulation, this technology can aggravate injustices, making it essential to develop more inclusive algorithms and create public policies that ensure transparency and accountability.

Keywords: Facial Recognition. Artificial intelligence. Criminal law. Structural racism. Algorithmic bias Justice.

1. INTRODUÇÃO 

O avanço da tecnologia de inteligência artificial (IA) tem transformado diversas áreas do conhecimento, proporcionando ferramentas poderosas para a análise de dados e tomada de decisões.

Entre essas inovações, o reconhecimento facial destaca-se como uma aplicação amplamente adotada em contextos de segurança e vigilância. Essa tecnologia, baseada em algoritmos complexos de aprendizado de máquina, permite identificar e verificar identidades a partir de características faciais, sendo utilizada por instituições públicas e privadas em diversas partes do mundo.

No entanto, o uso do reconhecimento facial não está isento de controvérsias. Estudos e casos práticos têm demonstrado que essa tecnologia pode perpetuar e até amplificar preconceitos existentes na sociedade, especialmente o racismo estrutural. Esse fenômeno refere-se a uma forma de discriminação sistêmica que está enraizada nas práticas e políticas das instituições, afetando desproporcionalmente determinados grupos raciais, muitas vezes devido ao uso de dados históricos enviesados que influenciam os algoritmos.

Neste contexto, o presente artigo tem como objetivo explorar como o reconhecimento facial, enquanto aplicação de inteligência artificial, pode ser influenciado por vieses raciais e quais são as implicações dessa realidade para o direito penal. 

A análise será conduzida à luz de princípios legais e do artigo 226 do Código de Processo Penal (CPP), discutindo como a adoção dessa tecnologia pode impactar a justiça e a equidade no sistema jurídico brasileiro. Ao abordar esses temas, esperamos contribuir para um entendimento mais profundo das interseções entre tecnologia, racismo estrutural é direito penal, é sugerir caminhos para mitigar os riscos e promover uma aplicação mais justa e ética dessas ferramentas.

O artigo será organizado em seções que discutem o impacto da tecnologia no direito penal, a análise de princípios legais e as diretrizes do Art.226 do CPP, sugerindo, por fim, políticas para aplicação equitativa dessa tecnologia.

2. Contexto histórico do racismo no Brasil

O racismo estrutural no Brasil é um fenômeno complexo e profundamente enraizado, com raízes históricas que remontam ao período colonial e se mantém até os dias atuais. Diferente do racismo individual, o racismo estrutural é um sistema invisível que perpetua desigualdades com base na raça. Trata-se de uma discriminação sutil e difundida, que não ocorre de forma imediata e visível, como em um incidente isolado de discriminação em público, mas que se manifesta de maneira silenciosa em vários aspectos da vida. Para entender a natureza desse racismo, é essencial examinar suas origens e sua presença nas diversas esferas da vida brasileira.

Esse fenômeno começou com a colonização, quando os europeus introduziram a escravidão, que perdurou por mais de três séculos e lançou as bases de uma hierarquia racial que ainda afeta a sociedade brasileira. Durante esse período, africanos negros foram trazidos à força ao Brasil, onde foram explorados como mercadorias, trabalhando sem remuneração e em condições extremas. Em outras palavras, pessoas negras foram tratadas como moeda de troca ao longo de muitos anos. Como afirma Gilberto Freyre, o sistema escravocrata chegou ao ponto de transportar quase uma população inteira da África para a América em condições desumanas.

A imposição desse sistema privou a população negra não apenas de liberdade, mas também de direitos básicos, como acesso à educação, propriedade e liberdade de movimento. A falta desses direitos e de oportunidades resultou em dificuldades econômicas persistentes, uma vez que a “degradação pela escravidão, a anomia social, a pobreza e uma integração precária na estrutura social e econômica criaram um padrão de isolamento econômico e sociocultural de negros e mulatos”.

Após a abolição da escravatura em 1888, a população negra não recebeu medidas de inclusão social. Assim, embora “livres”, os negros continuaram sem acesso à educação, emprego digno e habitação adequada. A ausência de políticas de integração contribuiu para a marginalização contínua desse grupo, que, mesmo em condições precárias, precisava encontrar meios de sobrevivência.

Essa situação se reflete nas desigualdades socioeconômicas que persistem até hoje, com a população negra enfrentando racismo científico e o mito da democracia racial. Isso leva a taxas mais altas de pobreza, maior desemprego, salários inferiores aos de pessoas brancas e acesso reduzido a serviços de saúde e educação de qualidade.

Sobre a ideia de democracia racial, Djamila Ribeiro afirma que “é verdade que o Brasil é diferente, mas nada é mais equivocado do que concluir que por isso não somos um país racista. É essencial reconhecer os mitos que sustentam o sistema de opressão aqui, sendo o da democracia racial o mais conhecido e prejudicial. 

Esse mito, idealizado e propagado por sociólogos da elite econômica do século XX, sugere que no Brasil os conflitos raciais foram superados pela harmonia entre negros e brancos, refletida na miscigenação e na ausência de leis segregacionistas.”

No que se refere a questões sociais, o sistema de justiça criminal no Brasil frequentemente atinge a população negra de forma desproporcional, desde prisões até sentenças mais rigorosas, refletindo o viés racial em todo o sistema.

A sub-representação de pessoas negras em cargos políticos e de liderança também é uma consequência direta do racismo estrutural, que mantém o poder de decisão nas mãos de uma elite branca, tornando as políticas cada vez mais favoráveis ao público branco. Outro aspecto relevante é a violência policial e o alto número de homicídios de jovens negros em áreas urbanas periféricas, demonstrando a relação entre racismo e aplicação desigual da lei no Brasil. 

O sistema educacional também é afetado pelo racismo estrutural, apresentando disparidades na qualidade da educação oferecida a estudantes negros, o que limita suas futuras oportunidades.

O racismo estrutural consegue ser sintetizado pelo autor Silvio Luiz de Almeida da forma em que:

Em resumo, o racismo é uma decorrência da própria estrutura social, ou seja, do modo “normal com que se constituem as relações políticas, econômicas, jurídicas e até́ familiares, não sendo uma patologia social e nem um desarranjo institucional. O racismo é estrutural. Comportamentos individuais e processos institucionais são derivados de uma sociedade cujo racismo é regra e não exceção.

A segregação socioespacial no Brasil, uma expressão evidente do racismo estrutural, destaca-se de maneira notável. Comunidades negras e periféricas são frequentemente confinadas a condições de vida precárias, enfrentando deficiências em habitação, saneamento, segurança e acesso a serviços públicos de qualidade. 

Essa segregação não só perpetua desigualdades, mas também impõe obstáculos significativos ao acesso a oportunidades de progresso e desenvolvimento.

O racismo estrutural refere-se a um sistema no qual políticas públicas, práticas institucionais, representações culturais e outras normas funcionam de maneira a perpetuar as desigualdades raciais. Este tipo de racismo é muitas vezes invisível, pois está enraizado nas estruturas da sociedade e não depende de ações individuais conscientes para ser perpetuado.

2.1 A inteligência artificial e algoritmos 

A inteligência artificial (IA) é essencialmente composta por algoritmos, que são sequências de instruções matemáticas e lógicas usadas para realizar tarefas específicas. Estes algoritmos permitem que os sistemas de IA analisem dados, aprendam com eles e tomem decisões baseadas em padrões identificados. 

Conforme a imagem abaixo, mostra como IA conversa com vários ramos da sociedade simultaneamente: 

Eles são implementados em várias formas, como aprendizado de máquina e redes neurais, e são usados em uma ampla gama de aplicações, desde reconhecimento de voz e imagem até diagnósticos médicos e veículos autônomos.

Em resumo, a IA é impulsionada por algoritmos que permitem a automação inteligente e a tomada de decisões complexas.

De acordo com Stuart Russell é Peter Norving a palavra algoritmo: 

[…] (e a ideia de estudá-lo) vem de Al-Khowarazmi, um matemático persa do século IX, cujos escritos também introduziram os numerais arábicos e a álgebra na Europa. Boole e outros discutiram algoritmos para dedução lógica e, no final do século XIX, foram empreendidos esforços para formalizar o raciocínio matemático geral como dedução lógica. Em 1930, Kurt Gödel (1906 – 1978) mostrou que existe um procedimento efetivo para provar qualquer afirmação verdadeira na lógica de primeira ordem de Frege e Russel, mas essa lógica não poderia captar o princípio da indução matemática necessário para caracterizar números naturais. Em 1931, Gödel mostrou que existem, de fato, limites sobre dedução.

Ao longo dos anos, a área de IA tem incorporado diversas abordagens e técnicas. Uma dessas é a “aprendizagem de máquina” (machine learning), que visa criar algoritmos capazes de aprender com dados e melhorar seu desempenho ao longo do tempo. Essa abordagem possibilitou o avanço de sistemas mais complexos, como redes neurais artificiais, que conseguem identificar padrões intrincados e tomar decisões com base nesses padrões. Em outras palavras, a “aprendizagem de máquina” possui a capacidade de se aprimorar continuamente, assumindo certa autonomia para tomar decisões e processar informações.

Embora sejam pessoas que criam os algoritmos de IA, é essencial reconhecer que esses sistemas podem replicar e até intensificar preconceitos e vieses existentes, já que a IA espelha os valores e características de uma sociedade. Assim, se há racismo, sexismo e outras formas de discriminação entre as pessoas, há grandes chances de que a IA também manifeste esses comportamentos e baseie suas decisões neles. 

Isso ocorre porque os dados históricos usados no treinamento de IA tendem a refletir as desigualdades sociais e culturais.

Segundo isso, André Carlos Ponce de Leon Ferreira de Carvalho faz o seguinte apontamento: 

Uma das principais fontes de preconceito está no conjunto de dados utilizados para gerar modelos, como é o caso das aplicações que geram modelos por meio da aplicação de algoritmos aprendizado de máquina aos dados. Por isso, é preciso ter muito cuidado na hora de coletar os dados. Quando um algoritmo de aprendizado de máquina é aplicado a um conjunto de dados, ele busca por padrões nos dados e reforça-os na criação de um modelo que represente os dados. Se os padrões tiverem algum viés, o modelo gerado terá o viés.

Alguns vieses são particularmente problemáticos quando se trata de algoritmos: (i) viés de confirmação: ao serem programados para detectar padrões nos dados, os algoritmos podem, involuntariamente, reforçar preconceitos preexistentes; (ii) viés de seleção de dados: a eficácia dos algoritmos depende diretamente da qualidade dos dados de treinamento. Se esses dados contêm vieses, o algoritmo provavelmente os replicou; e (iii) viés cognitivo: as preferências e crenças dos desenvolvedores podem influenciar nas escolhas de design e na construção do algoritmo.

Vale destacar a crítica da matemática americana Cathy O’Neil, com doutorado pela Universidade de Harvard e pós-doutorado no MIT. Em seu livro “Algoritmos de Destruição em Massa”, ela alerta sobre o impacto potencial dos algoritmos, que podem desvalorizar, prejudicar e intensificar as injustiças, além de contribuir para uma polarização crescente. O’Neil aponta que, para construir um algoritmo, é preciso usar dados históricos e definir o que será considerado sucesso, mas ambos trazem grandes desafios.

Segundo O’Neil, os algoritmos acabam absorvendo todos os preconceitos e vieses de quem os programa — frequentemente, esses desenvolvedores representam camadas mais privilegiadas da sociedade. Esse fenômeno torna o processo ainda mais complexo, pois os algoritmos podem refletir e reforçar as desigualdades presentes naqueles que têm poder de criá-los. A autora ressalta, assim, a importância de uma conscientização profunda e de responsabilidade na criação e implementação de algoritmos, dada sua capacidade de moldar a sociedade.

Dessa forma, os modos como os algoritmos e a IA são “alimentados” podem gerar sérios problemas para a população negra, uma vez que essas tecnologias tomam decisões em áreas importantes da vida social, incluindo a justiça criminal. É imprescindível que os desenvolvedores tenham um olhar crítico e cuidadoso ao lidar com essas tecnologias, garantindo que os sistemas sejam justos ao tomar decisões, impactando diretamente a vida e o futuro das pessoas.

2.2 Artigo 226 do Código de Processo Penal 

O artigo 226 do CPP estabelece um procedimento que visa garantir a imparcialidade e a precisão do reconhecimento de pessoas, minimizando o risco de erros e injustiças. A descrição prévia da pessoa a ser reconhecida e a comparação com outras pessoas de aparência semelhante são etapas cruciais para evitar identificações equivocadas, que podem resultar em condenações injustas e violações graves aos direitos fundamentais. 

O reconhecimento de pessoas é uma área sujeita a erros, especialmente quando não segue rigorosamente os procedimentos estabelecidos. Fatores como viés do identificador, pressão psicológica e condições inadequadas para o reconhecimento podem comprometer a validade do ato. Com advento de novas tecnologias, como o reconhecimento facial, surgem novas questões sobre a precisão e o viés inerente aos algoritmos utilizados.

A aplicação de tecnologias de reconhecimento facial no contexto do Art. 226 CPP levanta preocupações sobre racismo estrutural e viés algorítmico. Estudos têm mostrado que sistemas frequentemente apresentam taxas de erros mais elevadas para pessoas de determinada etnia, especialmente negras e outras minorias raciais. Essa disparidade não apenas reflete limitações técnicas, mas também evidencia o racismo estrutural que permeia tanto o desenvolvimento quanto a aplicação dessas tecnologias. 

O princípio da dignidade humana, previsto no artigo 1°, inciso III, da Constituição Federal de 1988, é um dos fundamentos do Estado Democrático de Direito e deve ser observado em todas as esferas do sistema de justiça. Esse princípio é frontalmente violado quando tecnologias com viés discriminatório são utilizadas no sistema de justiça penal. O racismo estrutural, manifestado no viés algorítmico, reforça desigualdades históricas e perpetua práticas que desrespeitam a dignidade e os direitos fundamentais de grupos já marginalizados. A inegável correlação entre o uso indiscriminado dessas tecnologias e a ampliação das desigualdades raciais no sistema penal exige uma reflexão crítica sobre a sua aplicação.

Essas desigualdades se aprofundam quando as tecnologias de reconhecimento facial são aplicadas de forma indiscriminada no sistema de justiça penal. O viés algorítmico, que ocorre quando o sistema apresenta maior margem de erro em identificar pessoas de grupos étnicos específicos, pode gerar uma ampliação das práticas discriminatórias, sobretudo contra pessoas negras e outras minorias raciais. Esse viés reflete não apenas limitações técnicas dos algoritmos, mas também aspectos de racismo estrutural que permeiam tanto o desenvolvimento quanto a aplicação dessas tecnologias.

A adoção de sistemas de reconhecimento facial precisa ser acompanhada de salvaguardas que garantam sua conformidade com os princípios de presunção de inocência e devido processo legal e, sobretudo, a dignidade da pessoa humana.

 Em consonância com o art. 226 do CPP, é essencial que a tecnologia não substitui os procedimentos de reconhecimento previstos em lei, mas funcione como um recurso complementar, sujeito a rigorosos testes de validação, auditorias independentes e mecanismos de transparência que assegurem sua precisão e imparcialidade.

Além disso, pesquisadores e legisladores têm discutido a necessidade de diretrizes específicas para regulamentar o uso dessa tecnologia no contexto do reconhecimento penal. Tais diretrizes devem visar não apenas a minimização de erros e injustiças, mas também a promoção de um sistema mais equitativo e alinhado com os valores constitucionais. O objetivo é minimizar o risco de injustiças, assegurar a proteção dos direitos fundamentais e a garantia da dignidade humana devem ser o norte de qualquer inovação tecnológica aplicada no sistema de justiça criminal.

2.3 A criminalização da população negra 

É amplamente conhecido que um dos aspectos mais visíveis do racismo estrutural no sistema de justiça criminal é a marginalização intensa de pessoas negras, que são desproporcionalmente visadas, revistadas e detidas de maneira injusta por policiais e outras autoridades. A seletividade no sistema penal e a associação racial com a criminalidade foram fortemente moldadas pela teoria do “homem delinquente”, desenvolvida pelo criminologista italiano Cesare Lombroso no século XIX.

Essa teoria defendia que certas características físicas e biológicas poderiam indicar uma predisposição ao comportamento criminoso. Lombroso acreditava na presença de traços físicos específicos, como o formato do crânio, a posição das orelhas e as proporções corporais, que seriam sinais de tendência à criminalidade.

Dentro do processo judicial, Julia Abrantes Valle aponta sobre obstáculos adicionais:

E mesmo que as condutas tipificadas atinjam a toda a sociedade, há que notar-se que nem todas as condutas típicas são, de fato, resolvidas pelo sistema penal, pois este atua de forma seletiva por meio de seus agentes. E é nesse sentido que a criminalização secundária ocorre: exteriorizando-se por meio do trabalho da Polícia, do Ministério Público e das sentenças judiciais dos Magistrados, que operam através de uma “etiqueta mento” de certos sujeitos que são entendidos como “inimigos” sociais […] No Brasil, esses “inimigos “selecionados pelo Estado, como se pôde ver por todo o exposto até aqui são, justamente, os pobres e negros.

Para combater o racismo estrutural no sistema de justiça criminal, é essencial adotar ações práticas e políticas de transformação. Isso inclui a criação de programas de capacitação para profissionais da área jurídica, com foco em temas como preconceito racial. Também é fundamental implementar iniciativas que reduzam a militarização das operações policiais e incentivar a diversidade e a representatividade em todos os setores do sistema de justiça.

2.4 Projeto de Lei 3069/22 e problematização

O uso de sistemas de reconhecimento facial levanta sérias preocupações relacionadas ao racismo estrutural, uma vez que esses sistemas frequentemente exibem vieses raciais. Esses vieses se manifestam na forma de resultados menos precisos ao identificar pessoas de determinados grupos étnicos, especialmente minorias raciais. Isso ocorre porque os algoritmos de inteligência artificial (IA) são treinados com conjuntos de dados que podem estar desequilibrados ou conter preconceitos implícitos.

Quando os conjuntos de dados utilizados no treinamento desses algoritmos são compostos predominantemente por imagens de pessoas de certos grupos étnicos, os sistemas podem ter dificuldades para reconhecer e classificar corretamente indivíduos de grupos sub-representações. Esse cenário pode levar a resultados discriminatórios, como a identificação incorreta ou a falsa associação de pessoas inocentes a atividades criminosas.

Essas falhas têm implicações significativas para a sociedade, pois podem resultar em tratamentos injustos, vigilância excessiva e aumento do risco de discriminação racial. Portanto, é essencial que essas questões sejam tratadas de forma ética e responsável, garantindo que os sistemas de reconhecimento facial sejam desenvolvidos e implementados com atenção à diversidade racial e à mitigação de vieses.

O Projeto de Lei 3.069/22 busca regulamentar o uso de reconhecimento facial automatizado pelas forças de segurança pública em investigações criminais ou procedimentos administrativos. Entre outros objetivos, visa evitar que ações que possam restringir a liberdade se baseiam exclusivamente em reconhecimento facial.

Contudo, o projeto pode acarretar diversos problemas sociais, como: (i) violação da privacidade, uma vez que o reconhecimento facial em larga escala pode ser visto como uma invasão significativa da privacidade, envolvendo a coleta e o processamento de dados biométricos sem o consentimento explícito dos indivíduos; (ii) riscos de discriminação e vieses, já que esses sistemas têm demonstrado preconceitos étnicos e de gênero, aumentando a probabilidade de erros na identificação de pessoas de certas raças ou gêneros, o que pode levar a julgamentos injustos e reforçar preconceitos preexistentes no sistema de justiça; (iii) riscos de falsas acusações, uma vez que a precisão do reconhecimento facial ainda não é absoluta, o que pode resultar em falsas acusações e condenações, prejudicando a vida de inocentes; e (iv) questões éticas e de consentimento, uma vez que o uso dessa tecnologia em investigações pode levantar dúvidas sobre o consentimento informado e o controle que as pessoas têm sobre seus próprios dados biométricos.

Dado que a população negra já enfrenta racismo fora do campo da inteligência artificial, essas questões podem ser exacerbadas nesse contexto, colocando em risco a justiça e a liberdade de muitos indivíduos inocentes.

2.5 Casos concretos  

Lordelo, na obra “Constitucionalismo digital e devido processo legal”, analisa a discriminação no uso de algoritmos de reconhecimento facial para monitoramento policial, apresentando casos como: (i) a prisão de um homem durante o carnaval de 2019 em Salvador, identificado por câmeras de reconhecimento facial, e que era procurado por homicídio; (ii) o uso de um sistema na Micareta de Feira de Santana em 2019, que resultou em 903 alertas e a captura de 14 pessoas, com mais de 1,3 milhão de rostos capturados; (iii) a introdução de um sistema semelhante em São Paulo durante o carnaval de 2020, visando identificar criminosos e localizar desaparecidos.

Além disso, Lordelo menciona a “Central de Monitoramento e Reconhecimento Facial”, que utiliza um banco de dados com 30 mil mandados de prisão e 10 mil registros de desaparecimento, gerando identificação em tempo real das pessoas. A revista BdF destaca que essa tecnologia pode acentuar o encarceramento em massa de negros no Brasil, apontando que 90,5% das prisões envolvem pessoas negras, em sua maioria por crimes relacionados ao tráfico de drogas.

A alta proporção de pessoas negras identificadas como suspeitas pela inteligência artificial levanta sérias questões éticas e sociais. O viés racial nos dados de treinamento da IA pode reproduzir e amplificar preconceitos, especialmente se as equipes de desenvolvimento não forem diversas. A opacidade dos algoritmos dificulta a identificação e correção de vieses, resultando em investigações errôneas e prisões injustas, que alimentam a desconfiança nas instituições. A transparência é crucial para garantir a responsabilidade no uso dessas tecnologias.

3. METODOLOGIA

A abordagem metodológica utilizada para explorar o tema foi realizada uma pesquisa bibliográfica para identificar e revisar a literatura existente sobre o reconhecimento facial, inteligência artificial, racismo estrutural, e suas implicações no direito penal. Isso incluiu a análise de livros, artigos acadêmicos, relatórios técnicos, legislação relevante e estudos de caso.

Além disso, foram examinados casos reais em que o reconhecimento facial foi utilizado em contextos jurídicos, especialmente onde ocorreram alegações de racismo ou injustiça. Essa análise de casos permitiu explorar os erros de identificação e suas consequências jurídicas. Também foram conduzidas entrevistas semiestruturadas com especialistas em direito penal, tecnologia de reconhecimento facial e estudos de raça, com o objetivo de obter insights qualitativos e aprofundar a análise crítica.

A partir das informações coletadas, foi realizada uma análise crítica e jurídica, focando na relação entre o racismo estrutural, o uso de tecnologias de reconhecimento facial e o direito penal. Isso envolveu a aplicação de teorias críticas do direito e estudos sobre racismo estrutural para avaliar as implicações jurídicas e sociais do uso dessa tecnologia. Por fim, a discussão ética foi integrada à análise, resultando em recomendações para políticas públicas, práticas jurídicas e desenvolvimento tecnológico que visem mitigar vieses e promover justiça e equidade.

4. CONCLUSÃO 

O reconhecimento facial, como aplicação de inteligência artificial, representa uma das inovações mais influentes na segurança e no direito penal nas últimas décadas. No entanto, seu impacto ultrapassa a esfera tecnológica, tocando questões sociais e éticas profundas. Ao longo deste estudo, examinados como essa tecnologia, quando não supervisionada adequadamente, pode intensificar o racismo estrutural e prejudicar a justiça penal, especialmente para grupos racialmente marginalizados.

Observamos que a adoção do reconhecimento facial pelas forças de segurança, sem considerar as disparidades raciais e riscos éticos envolvidos, pode resultar em erros de identificação, injustiças e perda de confiança pública nas instituições de segurança. Portanto, é essencial que o desenvolvimento e a implementação dessa tecnologia estejam alinhados com princípios de equidade, justiça e respeito aos direitos humanos.

Para reduzir os riscos, torna-se indispensável que legisladores, desenvolvedores e autoridades de segurança trabalhem em conjunto na criação de regulamentações rigorosas e transparentes. Essas regulamentações devem garantir proteção à privacidade, responsabilização por abusos e o desenvolvimento de algoritmos que considerem a diversidade da população. Auditorias regulares também são fundamentais para que o reconhecimento facial contribua para a justiça, em vez de resolver opressão. 

Por fim, o reconhecimento facial deve ser encarado não apenas como um avanço tecnológico, mas como uma questão social que exige um diálogo contínuo e crítico. Somente assim será possível promover um futuro em que a tecnologia apoie a justiça social, fortalecendo um sistema penal que respeite e proteja os direitos de todos os cidadãos

REFERÊNCIAS

ALMEIDA, Silvio Luiz de. Racismo Estrutural. Belo Horizonte: Letramento, 2018.

BENTO, Maria Aparecida Silva. Branquitude e Racismo no Brasil. São Paulo: CEERT, 2002.

BRASIL, Constituição da República Federativa do Brasil de 1988. Promulgada em 5 de outubro de 1988. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm . Acesso em 17 mar.de 2025. 

CARVALHO, André Carlos Ponce de Leon Ferreira de. Inteligência Artificial: riscos, benefícios e uso responsável. Estudos Avançados, [S.L.], v. 35, n. 101, p. 21-36, abr. 2021.

FREYRE, Gilberto. Casa-grande & senzala: Formação da família brasileira sob o regime da economia patriarcal. 48. ed. São Paulo: Global, 2003. 

GONZALEZ, Lélia. Racismo e sexismo na cultura brasileira. Revista Ciências Sociais Hoje, 1984.

OLIVEIRA, Caroline. Cerca de 90% das pessoas presas com uso de reconhecimento facial são negras. Revista Brasil de Fatos. Disponível em https://www.brasildefato.com.br/2019/11/27/cerca-de-90-das-pessoas-presas-com-uso-de- reconhecimento-facial-sao-negras. Acessado em 7 jun. 2024.

O NEIL, Cathy. Algoritmos de destruição em massa. Trad. Rafael Abraham. São Paulo: Editora Rua do Sabão, 2021

SARLET. Ingo Wolfagang. Dignidade da pessoa humana e direitos fundamentais na Constituição Federal de 1988. 10. ed. Porto Alegre: Livraria do Advogado, 2015.

SILVA, José Adércio Leite. Inteligência Artificial e Discriminação: Entre Transparência e Justiça Algorítmica. Revista Direito GV, São Paulo, v. 16, n. 2, p. 554-572, maio 2020

RIBEIRO, Djamila. Pequeno Manual Antirracista. São Paulo: Companhia das Letras, 2019


1Trabalho de conclusão de curso, apresentado ao curso de Direito do Centro Universitário de Santa Fé do Sul – SP, para obtenção do título de bacharel em Direito.
2Graduanda em Direito, Centro Universitário de Santa Fé do Sul – SP, UNIFUNEC
3Docente do Centro Universitário de Santa Fé do Sul – SP, UNIFUNEC, ademirgsjr@hotmail.com