FACIAL RECOGNITION AND FUNDAMENTAL RIGHTS: THE LEGALITY OF USING ARTIFICIAL INTELLIGENCE IN CRIMINAL INVESTIGATIONS
REGISTRO DOI: 10.69849/revistaft/dt10202510311908
Adriana Cristina Aguiar dos Santos1
Arthur Caldeira Simões Lima2
Janielly Gomes de Souza3
Marina Pereira Bento Welika4
RESUMO
O presente estudo teve como objetivo analisar a legalidade do uso da tecnologia de reconhecimento facial baseada em inteligência artificial na investigação criminal à luz dos direitos fundamentais, considerando que as inovações tecnológicas estão inseridas na investigação criminal. Os procedimentos metodológicos utilizados para nortear esta pesquisa foram por meio de uma abordagem qualitativa e objetivo exploratório e descritiva, com uma revisão bibliográfica realizando um levantamento de doutrinas jurídicas sobre reconhecimento facial, a fim de relacionar os métodos com o problema de pesquisa. A coleta de dados foi fundamentada por intermédio de livros, artigos científicos, dissertações de mestrado e teses de doutorado, nas plataformas de bases de dados: Science Direct, Scielo, Google Acadêmico. Os resultados apontaram que a utilização da Inteligência Artificial (IA) e do reconhecimento facial (RF) nas investigações criminais tem representado um relevante avanço tecnológico para a justiça, sendo capaz de promover rapidez e eficiência nas ações policiais e judiciais. Entretanto, essas inovações tecnológicas levantam grande e sérias preocupações concernente à proteção das garantias fundamentais, especialmente no que se refere à privacidade, à presunção de inocência e ao devido processo legal. Observa-se que os recentes julgados pelo Superior Tribunal de Justiça (STJ) evidenciaram que a utilização indevida do reconhecimento facial sem um direcionamento dos procedimentos legais, pode resultar em erros judiciais e violações de direitos. Deste modo, conclui-se que, a aplicabilidade das inovações tecnológicas nas investigações criminais devem ser pautadas por critérios éticos, técnicos e legais rigorosos, fazendo uso de mecanismos de controle, supervisão humana e regulamentações. Evidenciando que o equilíbrio entre eficiência investigativa e o respeito aos direitos humanos é ponto fulcral para a contribuição da Inteligência Artificial de maneira responsável e justa para o sistema penal.
Palavras-chave: Inovações tecnológicas. Reconhecimento facial. Investigação criminal. Direitos fundamentais.
ABSTRACT
This study aimed to analyze the legality of using artificial intelligence-based facial recognition technology in criminal investigations in light of fundamental rights, considering that technological innovations are integrated into criminal investigations. The methodological procedures used to guide this research were through a qualitative approach with an exploratory and descriptive objective, including a literature review of legal doctrines on facial recognition, in order to relate the methods to the research problem. Data collection was based on books, scientific articles, master’s dissertations, and doctoral theses, accessed through the following database platforms: Science Direct, SciELO, and Google Scholar. The results indicated that the use of Artificial Intelligence (AI) and facial recognition (FR) in criminal investigations represents a significant technological advancement for the justice system, promoting speed and efficiency in police and judicial actions. However, these technological innovations raise significant and serious concerns regarding the protection of fundamental rights, especially regarding privacy, the presumption of innocence, and due process. Recent rulings by the Superior Court of Justice (STJ) have shown that the misuse of facial recognition without proper legal procedures can result in judicial errors and rights violations. Therefore, it is concluded that the applicability of technological innovations in criminal investigations must be guided by rigorous ethical, technical, and legal criteria, utilizing control mechanisms, human oversight, and regulations. This highlights that the balance between investigative efficiency and respect for human rights is crucial for Artificial Intelligence’s responsible and fair contribution to the criminal justice system.
Keywords: Technological innovations. Facial recognition. Criminal investigation. Fundamental rights.
1. INTRODUÇÃO
A temática proposta para este artigo aborda uma preocupação com o reconhecimento facial e direitos fundamentais: a legalidade do uso da inteligência artificial na investigação criminal. Considerando que a evolução da inteligência artificial (IA) no sistema de justiça criminal está revolucionando a maneira como as investigações de crimes são realizadas. A IA é uma parceira das autoridades na avaliação de grandes volumes de dados, reconhecimento de padrões e até na previsão de comportamentos suspeitos.
Pereira & Oliveira (2024) apontam que a IA está revolucionando a verificação e levantamento de provas no campo do direito penal. Programas de reconhecimento facial (RF), algoritmo e avaliação de padrões vocais que analisam grandes volumes de dados estão auxiliando os investigadores a reconhecerem suspeitos e comportamentos criminosos com rapidez e exatidão nunca antes alcançadas. Essas ferramentas não apenas agilizam as investigações, mas também elevam as suas probabilidades de êxito.
A aplicação de recursos tecnológicos de IA na repressão e investigação de crime tem sido realizada em diversas áreas de investigação criminal, incluindo: exame de vídeos e imagens: Instrumentos de identificação facial auxiliam na descoberta de suspeitos em gravações de segurança; rastreamento de mensagens e ligações: algoritmos examinam mensagens e ligações em investigações de delitos financeiros e grupos criminosos; prevenção de delitos; sistemas examinam tendências criminais para antecipar regiões e períodos de maior perigo e análise forense digital; a IA colabora em casos de recuperação e compreensão de informações de aparelhos eletrônicos.
Nessa perspectiva, Nakashima (2024) aponta que a IA se destaca como uma excelente ferramenta de confronto ao crime, por intermédio de sistemas que utilizam técnicas avançadas para a avaliação das informações históricas e atuais sobre as ocorrências criminais. Geram mapas de calor ou alertas sobre determinadas áreas ou em períodos de maior probabilidade dessas ocorrências. Tais mecanismos auxiliam no planejamento e na reserva de recursos policiais, possibilitando eficácia na prevenção ou repressão aos crimes.
Todavia, apesar dos benefícios proporcionados pelo uso da IA na segurança pública, a normatização do RF na investigação criminal no Brasil não possui uma disposição legal que determine detalhadamente a sua aplicabilidade por agentes de sistema de segurança governamental. A utilização dessa tecnologia está baseada em normas infralegais ou projetos piloto, ora desenvolvidos pelas secretarias estaduais de segurança. É preocupante, pois suscitam questionamentos quanto à legalidade e a proporcionalidade no uso da referida ferramenta na área da investigação criminal (SABANE, 2021). Deste modo, questiona-se: o uso de reconhecimento facial na investigação criminal fere direitos fundamentais como a privacidade e a presunção de inocência?
Torna-se premente e precípuo que sejam estabelecidas salvaguardas em conformidade com os princípios legais e éticos para resguardar os civis e individuais, a fim de mitigar os efeitos negativos associados ao RF, na privacidade e nos direitos fundamentais. Nesse sentido, Almeida (2022) complementa que os riscos são maiores que as vantagens, é necessário a implementação de mecanismos efetivos para minimizar as ameaças de violação dos registros pessoais. Dentre os riscos existentes, que não correspondem aos princípios da especificidade e da adequação, estão: vigilância massiva, erros de acurácia e incidente de viés no algoritmo.
Sendo assim, este artigo traz como objetivo geral: analisar a legalidade do uso da tecnologia de reconhecimento facial baseada em inteligência artificial na investigação criminal à luz dos direitos fundamentais. E como objetivos específicos: examinar conceitos e apresentar um breve histórico sobre o Marco Civil da internet; verificar a ligação entre a IA e a investigação criminal; analisar a legislação brasileira vigente e a necessidade de regulamentação específica para o uso da IA na investigação criminal; identificar os princípios constitucionais e legais que podem ser afetados pelo uso da IA na persecução penal; e, avaliar os riscos e benefícios da utilização do reconhecimento facial para fins de segurança pública.
A presente pesquisa justifica-se pela grande relevância social, visto que hoje, traz um tema de grande impacto na sociedade, pois o uso do RF pode afetar diretamente a liberdade e a privacidade dos cidadãos. Garvie, Bedoya & Frankle (2016) mencionam que a aplicação do RF pelas forças de segurança, especialmente em contextos urbanos e de alta vigilância, pode reforçar padrões de seletividade penal e intensificar a estigmatização de pessoas que fazem parte dos grupos vulneráveis, como negros e pobres. E ter efeitos relevantes na sociedade relacionados à segurança e privacidade. A relevância teórica favorece para o aprofundamento dos estudos a respeito da interação entre a tecnologia e as garantias fundamentais, analisando as repercussões do RF no direito penal e constitucional. Conforme leciona Lemos (2021), a aplicação da IA ao reconhecimento facial levanta questões relevantes sobre a construção algorítmica no processo de identificação e aos riscos associados ao viés nos processos automatizados de decisão, sobretudo quando utilizados pelo Estado. Justifica-se, ainda, pois o uso dessas ferramentas tecnológicas por autoridades policiais implica na consideração e no respeito ao devido processo legal, à presunção de inocência, a garantia da proteção dos dados individuais e ao respeito à privacidade.
Deste modo, esta pesquisa justifica-se perante os desafios envolvidos no uso do RF em virtude de ser uma tecnologia complexa que tem relevância teórica, social e jurídica na investigação criminal. É essencial que sejam estabelecidas regulamentações claras e mecanismos adequados tanto na preservação da privacidade quanto na precisão dos resultados.
Este estudo está subdividido em seções. A seção 2 traz os procedimentos metodológicos utilizados nesta pesquisa. Na seção 3 apresenta os resultados obtidos. Já na seção 4 foi apresentada a discussão da temática objeto de estudo desta pesquisa. E na seção 5 traz as considerações finais.
2. REVISÃO DA LITERATURA
A internet pode ser compreendida como uma rede de computadores de grande escala, que proporciona acesso amplo e irrestrito aos recursos disponíveis no ciberespaço. Nem toda rede de computadores, contudo, configura a internet: por exemplo, uma rede interna de uma empresa restringe o acesso apenas aos usuários autorizados (DENNY, 2019).
Nesse contexto, a Norma nº 004/95, publicada pelo Ministério das Comunicações e aprovada pela Portaria nº 148/95 do Ministério da Ciência e Tecnologia, que regulamenta o uso da rede pública de telecomunicações para acesso à internet, define a internet como: termo genérico que designa o conjunto de redes, meios de transmissão, roteadores, equipamentos e protocolos necessários à comunicação entre computadores, incluindo o software e os dados armazenados nesses dispositivos (BRASIL, 1995).
A internet chegou ao Brasil no final da década de 1980, com início em 1988 a partir de um projeto acadêmico entre a FAPESP e a UFRJ, que conectou pesquisadores a instituições nos Estados Unidos e na Europa. Em 1989, o Ministério da Ciência e Tecnologia criou a Rede Nacional de Pesquisa (RNP), e, em 1994, a Embratel iniciou a operação comercial da internet no país, posteriormente expandida com avanços como dispositivos móveis e banda larga (OLIVEIRA, 2011 apud DIONISIO, 2018).
Nesse cenário, os avanços em telecomunicações e computação, no final da década de 1990, intensificaram o desenvolvimento digital, favorecendo novas formas de comunicação e impactando práticas sociais e relações humanas, em um contexto marcado pela busca por hiperinformação e integração ao espaço digital (LIMA, 2018). A trajetória da internet também reflete a combinação de expertise e necessidade de organização, exemplificada por Timothy John Berners-Lee, que, em 1989, no CERN, desenvolveu um sistema capaz de transmitir informações entre computadores incompatíveis, respondendo simultaneamente à demanda de gerenciar cientistas e experimentos de forma eficiente (SANTOS & CATARINO, 2016).
Esse desenvolvimento evidencia que o progresso digital possui uma relação estreita entres as dimensões tecnológicas e socioculturais, visto que há uma influência nos comportamentos dos indivíduos reconfigurando as interações entre sujeitos e instituições.
No Congresso Nacional brasileiro, os primeiros projetos voltados à regulamentação da internet concentraram-se na esfera penal, com destaque para a Lei nº 12.735/2012 (Lei de Cybercrime ou Lei Azeredo). A escolha de iniciar a regulamentação por meio de normas penais surpreendeu, já que a expectativa era que a primeira legislação fosse civil, definindo direitos e deveres de governo, empresas e usuários de forma mais equilibrada (ALMEIDA & PENAFORTE, 2025). No entanto, a limitação inicial ao enfoque punitivo deixou transparecer uma necessidade de um marco normativo mais amplo, com a capacidade de disciplinar a utilização da internet sob o ângulo dos direitos fundamentais e da cidadania digital.
Em resposta a essa lacuna, no Brasil, o Marco Civil da Internet – MCI (Lei nº 12.965/2014) surgiu para regulamentar o uso da internet, definindo direitos e deveres de usuários, provedores e do Estado. Criado em um contexto de rápida expansão tecnológica e diante de desafios como fake news e debates sobre liberdade de expressão, o MCI também foi motivado por escândalos de espionagem eletrônica, evidenciando a necessidade de proteção de dados e privacidade. A lei contou com ampla participação de organizações civis e políticas, consolidando princípios e normas que equilibram liberdade, segurança e responsabilidade no ambiente digital (ALMEIDA & PENAFORTE, 2025; LIMA & BARRETO JÚNIOR, 2016).
Deste modo, o Marco Civil da Internet no Brasil revela a preocupação em determinar um equilíbrio entre liberdade, segurança e responsabilidade no ambiente digital. Refletindo como a rápida expansão tecnológica apresentou novos desafios, tais como a proteção de dados pessoais, a privacidade e o combate à desinformação. Destacando a importância do papel dos indivíduos na participação social e na construção de normas que orientam a convivência e a interação no espaço virtual.
A Lei nº 12.737/2012 (BRASIL, 2012), denominada como “Lei Carolina Dieckmann”, foi elaborada com o objetivo de suprir lacunas legislativas relacionadas ao uso de meios cibernéticos. Recentemente, sua aplicação prática tem sido amplamente debatida por juristas especializados em Direito Penal e Direito Eletrônico, especialmente no que se refere à eficácia da norma. Tais discussões evidenciam tensões entre especialistas dessas áreas quanto à interpretação e implementação da lei frente aos desafios contemporâneos do ambiente digital.
Para alguns autores, esse dispositivo não oferece uma proteção plenamente eficaz, devido a certas peculiaridades relacionadas à conduta do criminoso e à previsão relativamente tímida das penas. O diploma legal, que acrescenta ao Código Penal brasileiro o art. 154-A, referente à invasão de dispositivos informáticos, apresenta aspectos que podem ser considerados, em certa medida, antagônicos (BEZERRA, 2022).
Percebe-se que a referida lei representa um esforço do ordenamento jurídico para atualizar a legislação diante das novas demandas do ambiente digital, criando mecanismos para punir a invasão de dispositivos eletrônicos. No entanto, sua eficácia prática tem sido alvo de debate, apontando limitações na proteção oferecida, como a definição restrita das condutas criminosas e a previsão relativamente branda das penalidades.
Nesse ambiente de constantes evoluções tecnológicas e desafios normativos, a Inteligência Artificial (IA) ganha destaque e pode ser entendida como o campo tecnológico que busca simular habilidades humanas, como raciocínio, aprendizado e criatividade, por meio do processamento de grandes volumes de dados. Ao automatizar tarefas cognitivas, torna-se um recurso universal e indispensável em diversas áreas da atividade humana (RUSSELL & NORVIG, 2010).
A autonomia da Inteligência Artificial (IA) tem se mostrado uma característica central na evolução tecnológica contemporânea. Conforme Yamada (2025), a autonomia depende de uma estrutura funcional hierárquica, permitindo que agentes realizem avaliação integrativa e auto-modificação, resultando em comportamentos semelhantes aos humanos.
Não obstante, a autonomia da IA oferecer benefícios operacionais e eficiência, também há riscos significativos, principalmente no que diz respeito a decisões desalinhadas, erros ou possíveis manipulações. Sendo assim, a supervisão humana contínua é primordial para garantir a segurança e a credibilidade desses sistemas, destacando que mecanismos de controle e intervenção humana são indispensáveis.
Diante disso, o progresso da IA no campo da segurança pública tem promovido transformações substanciais nas práticas investigativas e judiciais, com sua inserção acelerada no sistema de justiça criminal, incluindo o jurídico. A adoção da IA no Direito está revolucionando práticas convencionais e gerando novas possibilidades para os advogados e o sistema de justiça. Este texto investiga a implementação da biometria facial na área jurídica, os dilemas éticos decorrentes dessa inovação e as consequências futuras para os especialistas do setor (SABANE, 2021).
No âmbito judicial, podem-se destacar vários efeitos que o emprego desse sistema inteligente provocou. Por exemplo, na esfera criminal, o maior impacto potencial para a prática de crimes com o uso da IA; na esfera civil, levantando debates sobre potenciais prejuízos de danos provocados pela IA; inclusive, na recente Lei Geral de Proteção de Dados (LGPD), visto que no contexto da IA, os dados são considerados coletados e guardados na sua agenda (CONJUR, 2023). O uso da IA no âmbito judicial deixa claro os desafios legais a serem enfrentados, tanto na prevenção de crimes quanto na responsabilização por danos civis, o que reforça a relevância da LGPD na proteção de dados e na regulação do ambiente digital.
O reconhecimento facial representa uma maneira de tecnologia biométrica que utiliza características faciais únicas para identificar indivíduos. Essa tecnologia envolve a captura e análise de imagens faciais usando algoritmos complexos, que comparam as características do rosto para confrontá-las com um banco de dados de faces conhecidas (BUOLAMWINI & GEBRU, 2018). A tecnologia do RF permite a identificação por meio da análise de traços únicos. No entanto, levanta debates sobre a privacidade e apesar de ter potencial para aprimorar segurança, controle de acesso e serviços personalizados, há grandes riscos de vieses nos algoritmos utilizados. O que reforça a necessidade de regulamentações apropriadas e práticas responsáveis.
O processo de atuação dos algoritmos de RF possui alguns desafios técnicos. Nas considerações de Garvie, Badoya & Frankle (2016) embora possuam grande potencial, os algoritmos enfrentam limitações técnicas relevantes, como variações de iluminação, posição do rosto, envelhecimento, uso de acessórios (óculos, máscaras) e imagens capturadas de baixa resolução. Esses fatores influenciam de forma direta a acurácia e a incidência de erros do tipo falsos positivos e negativos nos sistemas de identificação.
A integração entre o RF e a IA constitui uma evolução importante nas práticas de investigação criminal e segurança pública. No entanto, sua aplicação no contexto jurídico impõe desafios complexos e multidimensionais, que envolvem não apenas a eficácia técnica da ferramenta, mas, sobretudo, a preservação dos direitos fundamentais, dentre eles: a privacidade, a igualdade, o devido processo legal e a autodeterminação informativa.
3. METODOLOGIA
A pesquisa foi baseada em revisão de literatura, envolvendo a pesquisa bibliográfica, qualitativa e exploratória.
A pesquisa qualitativa objetiva compreender, de forma aprofundada, os significados, percepções e implicações sociais e jurídicas do uso do RF como instrumento nas investigações criminais. Já a pesquisa com uma abordagem exploratória pretende compreender a necessidade de aprofundar o debate acadêmico sobre os impactos no sistema penal, particularmente no que tange ao respeito aos direitos fundamentais, à proteção da privacidade e à observância do devido processo legal.
Na pesquisa bibliográfica foi realizado um levantamento de doutrinas jurídicas sobre reconhecimento facial, IA e as garantias fundamentais. Envolvendo a análise de normas legais, doutrina especializada, jurisprudência nacional, bem como relatórios técnicos e artigos científicos que abordam o tema. Entende-se que a comparação entre os diferentes arcabouços regulatórios permite identificar as lacunas presentes no sistema jurídico brasileiro e proposituras para aprimorá-la, considerando as melhores práticas internacionais.
Por intermédio da pesquisa documental foi feita uma análise da legislação brasileira, incluindo a CF, o CPP e a LGPD. Visto que a pesquisa documental é uma modalidade de investigação científica que se baseia na análise de documentos previamente elaborados, sejam eles oficiais, institucionais ou particulares, com o objetivo de obter informações relevantes para o entendimento de determinado fenômeno ou problema de pesquisa.
A análise jurisprudencial constitui uma etapa fundamental dessa pesquisa, sendo realizada mediante estudo crítico de deliberações judiciais em âmbito nacional que dizem respeito ao uso do RF no âmbito das investigações criminais. Esse método permite identificar como os tribunais têm interpretado e aplicado os princípios constitucionais, os direitos fundamentais e as normas legais diante da incorporação de tecnologias de identificação biométrica no processo penal.
O estudo comparado tem como finalidade conduzir uma análise detalhada das regulamentações internacionais que disciplinam o uso da IA aplicada à segurança pública. Essa abordagem permite compreender como diferentes jurisdições em todo o mundo enfrentam os desafios éticos, jurídicos e sociais decorrentes da implementação dessas tecnologias, especialmente em ações voltadas à salvaguarda dos direitos fundamentais dos cidadãos.
O método de raciocínio mais adequado para essa pesquisa foi o método dialético e dedutivo, pois envolve: O método dialético permite o confronto entre a urgência de segurança pública e a garantia dos direitos essenciais, apresentando diferentes argumentos, teorias e abordagens relativas ao emprego do reconhecimento facial e da IA na investigação criminal, possibilitando uma compreensão aprofundada dos conflitos, contradições e convergências existentes no campo jurídico e tecnológico. Com uma análise dos argumentos a favor e contra a aplicação do reconhecimento facial na investigação criminal. O método dedutivo parte da análise dos princípios constitucionais e das normas legais para verificar a conformidade jurídica do uso da IA na persecução penal. Examina os perigos e benefícios do reconhecimento facial fundamentado em estudos e casos práticos.
Com essa abordagem, a pesquisa pode avaliar criticamente o uso do RF na investigação criminal, propondo diretrizes para analisar a legitimidade do emprego que garanta a eficiência na segurança pública sem comprometer os direitos fundamentais dos cidadãos.
4. RESULTADOS E DISCUSSÕES
4.1 Inteligência artificial e investigação criminal
A Inteligência Artificial representa um avanço significativo na tecnologia, considerando que simula habilidades cognitivas humanas e automatiza tarefas complexas, tornando-se um recurso essencial em múltiplas áreas. Sua autonomia é um fator central, permitindo adaptação e ajustes de comportamento de forma independente nos processos de tomada de decisão humana.
Entretanto, essa independência operacional traz riscos significativos. Nas palavras de Adewumi et al. (2025) ou autores alertam que sistemas totalmente autônomos podem apresentar valores desalinhados, engano ou manipulação, exigindo supervisão humana contínua. Esse ponto é reforçado por Löwenmark et al. (2025), que demonstram, no contexto industrial, que embora os sistemas possam operar de forma autônoma, a intervenção humana é essencial para garantir segurança e confiabilidade.
Alvarenga & Torres (2024) trazem a definição de Inteligência Artificial como uma tecnologia com capacidade para simular habilidades humanas na tomada de decisão e solucionar problemas, por intermédio da análise de dados pelos algoritmos, aprendendo e fazendo previsões ou gerando respostas automáticas. Na investigação criminal, a IA pode ser adotada no exame de grandes volumes de informações, avaliando riscos, identificando padrões, projetando a possibilidade da reincidência criminal dos suspeitos, proporcionando celeridade processual, otimizando a distribuição de recursos e assegurando a consistência das decisões.
Ao conduzir essa reflexão para o campo jurídico e penal, pode-se observar que existem alguns desafios que surgem quando a IA é implementada em processos de identificação e investigação criminal, fato este que exige uma análise crítica sobre as implicações éticas e legais.
Nesse contexto, Ferreira (2024) destaca que, as decisões complexas e os elevados volumes de dados que predominam na área da investigação criminal, a adoção de sistemas computacionais inteligentes emerge como uma alternativa propulsora que potencializará a celeridade, e, por conseguinte, a qualidade das análises efetivadas pelos investigadores. O conhecimento tácito dos profissionais de polícia judiciária, quando incorporados aos sistemas inteligentes, configura um marco no aperfeiçoamento da gestão das atividades investigativas.
Esse desenvolvimento tecnológico, no entanto, ultrapassa a esfera operacional, visto que sua crescente implementação por entes de segurança pública no Brasil e em outros países, percebe-se que tem ocorrido uma grande expansão globalmente. Essa ferramenta está presente nas medidas de segurança no território nacional, e internacionalmente em países como Reino Unido, China e Estados Unidos que têm liderado a implementação do RF (GARVIE, BADOYA & FRANKLE, 2016; LUDGERO, 2024).
Nesse cenário, enquanto Grossi et al. (2025) ressalta benefícios da IA, dentro de uma corporação, posto que é uma ferramenta valiosa, sendo estratégica para auxiliar a investigação e prevenção de crimes, cooperando para o RF, otimização de recursos, cibersegurança, análise preditiva das áreas de risco e apoio para tomada de decisão, Alvarenga & Torres (2024) destacam que, no campo do direito penal e processual penal, a utilização da inovação tecnológica desencadeia um conflito entre a proteção integral dos direitos e garantias fundamentais dos suspeitos e implementação de novas tecnologias de informação e comunicação, envolvendo as questões de celeridade, coleta de provas, transparência e privacidade dos indivíduos.
Dessa forma, percebe-se que a utilização da IA no âmbito da investigação criminal promove avanços relevantes no que tange a exatidão na análise dos dados, celeridade e eficiência. É imprescindível que haja regulamentação adequada para uma conciliação entre as inovações tecnológicas e as garantias constitucionais, para que a sua adoção não gere desafios sociais, éticos e jurídicos, principalmente relacionados à proteção de direitos fundamentais, privacidade e transparência dos processos.
4.2 Reconhecimento facial e direito à privacidade
O reconhecimento facial é uma inovação tecnológica muito utilizada na investigação criminal, mediante seu potencial para identificar indivíduos com características faciais únicas. Todavia, essa tecnologia levanta questões teóricas, sociais e jurídicas importantes. No entanto, a utilização do RF em investigações criminais levanta questões importantes sobre o princípio da presunção de inocência e o devido processo legal. Matida & Cecconello (2021) ressaltam que o reconhecimento fotográfico é um instrumento útil, mas precisa ser usado com cuidado para evitar erros e assegurar a presunção de inocência.
Historicamente, a investigação criminal era dependente de pistas físicas e depoimentos de testemunhas que possibilitassem a identificação dos suspeitos. Antes do advento das tecnologias avançadas, tais como: câmeras de segurança e sistemas de reconhecimento facial, o processo de investigação era moroso e dependente das evidências e provas tradicionais. Com o acesso às ferramentas tecnológicas, a polícia passou a identificar de forma mais rápida os suspeitos com maior probabilidade de acerto (GROSS, 2025).
O impacto do RF na localização de suspeitos e no monitoramento de espaços públicos levou à consolidação como uma das inovações tecnológicas mais importantes utilizadas na esfera da segurança pública. Principalmente, com a detecção de suspeitos, no monitoramento de espaços públicos e como prevenção de crimes. No entanto, a aplicação do RF na segurança estatal requer um equilíbrio atencioso intrinsecamente ligado à eficiência na repressão ao crime e na defesa dos direitos civis (PONTES & SILVA, 2023).
Nessa esteira, Buolamwini & Gebru (2018) reforçam que o reconhecimento facial pode apresentar falhas e trazer resultados com falsas acusações, especialmente na utilização do banco de informações onde há treinamento e poderá ser tendenciosa ou a tecnologia carece de precisão.
Apesar dessas limitações, há possibilidades de que a IA aplicada aos mecanismos de RF contribua para uma justiça mais eficaz, auxiliando nas investigações criminais sem comprometer as garantias fundamentais dos envolvidos. Para tanto, é necessário oferecer uma fundamentação para diretrizes que incentivem a utilização com responsabilidade e equitativo da IA na justiça penal, promovendo um cenário de justiça mais moderno e acessível, mas sempre atento aos direitos humanos.
A lacuna na literatura traz a ausência de norma regulatória específica e a recente integração da referida tecnologia pelas autoridades brasileiras torna necessária uma análise crítica sobre sua legalidade e implicações jurídicas. Araujo, Cardoso & Paula (2021) ressaltam que essa deficiência normativa para a aplicação do RF em investigações criminais cria uma lacuna na literatura, sendo necessária uma análise crítica sobre sua legalidade e as implicações jurídicas relativas à proteção dos direitos fundamentais.
A proporção da privacidade e da intimidade está expressa no art. 5º, inciso X, da Constituição da República Federativa do Brasil (CF) de 1988, estabelecendo que “são invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas, assegurado o direito à indenização pelo dano material ou moral decorrente de sua violação” (BRASIL, 1988, p. 13).
A CF, no artigo 5º, inciso LVII, determina quanto ao princípio da presunção de inocência e o rito processual adequado: “ninguém será considerado culpado até o trânsito em julgado de sentença penal condenatória” (BRASIL, 1988, p. 16).
Conforme Buolamwini & Gebru (2018), a garantia de equidade é um princípio fundamental cujo cumprimento se impõe nas dimensões da vida social, inclusive no sistema penal. A seletividade penal, a qual se refere à aplicação desigual da lei penal a diversos grupos sociais, é uma temática relevante que afeta diretamente esse direito.
Nessa conjuntura, a adoção do RF na esfera da segurança pública e da persecução penal deve estar rigorosamente coerente aos princípios constitucionais e aos direitos fundamentais consagrados na CF de 1988. Princípios como a legalidade, o devido processo legal, a dignidade da pessoa humana, a igualdade e a presunção de inocência não devem ser relativizados em favor da eficiência estatal ou da evolução tecnológica.
4.3 Riscos jurídicos e éticos da automatização da justiça penal
O reconhecimento facial desafia os sistemas legais a encontrarem o equilíbrio entre eficiência investigativa e resguardo de garantias fundamentais. O uso dessas ferramentas tecnológicas por autoridades policiais implica na consideração e no respeito ao devido processo legal, à presunção de inocência, a garantia da proteção dos dados individuais e ao respeito à privacidade. Buolamwini & Gebru (2018) salientam que o reconhecimento facial levanta questões importantes acerca da segurança de dados de identificação e a privacidade.
Tais questões tornam indispensável uma reflexão crítica sobre os limites éticos da utilização do RF, principalmente quando as inovações tecnológicas se sobrepõem à tutela das garantias, dos direitos e liberdades individuais.
A exigência de regulamentação para garantir transparência e segurança frente aos abusos é urgente, considerando que um erro na identificação do cidadão poderá suceder em consequências graves. A legislação brasileira deve ter diretrizes transparentes no emprego do RF objetivando a preservação da privacidade e dos direitos civis. O marco regulatório trará equilíbrio à segurança e às garantias dos cidadãos (ARAUJO, CARDOSO & PAULA, 2021; BADA & OLIVEIRA, 2024).
Em todo esse cenário, existem ameaças de segregação injusta na abordagem com a tecnologia de RF. Na pesquisa realizada por Buolamwini & Gebru (2018), do Laboratório MIT Media, evidenciaram-se taxas de erros de 34% no momento do RF em rostos de mulheres negras, já a taxa de erro em homens brancos era inferior a 1%. Estudos empíricos atestam que os índices de erro nos algoritmos passam a ser mais altos para pessoas negras, mulheres e indivíduos não brancos. Os mesmos autores apontam que o impacto do viés algorítmico e a probabilidade de reforço da desigualdade penal ocorrem em função do banco de dados passar por um treinamento enviesado. Destarte, os sujeitos que já são marginalizados estão mais suscetíveis a erros, a abordagens policiais indevidas e a prisões injustificadas (BUOLAMWINI & GEBRU, 2018).
Nas considerações de Andrade (2021) no Estado da Bahia, na micareta de 2019, em Feira de Santana, 1,3 milhões de indivíduos passaram pelo reconhecimento facial. Dessas, 903 alertas foram emitidos como possíveis criminosos, porém somente 3,6% se tornaram mandados de prisão. Observa-se que a margem de erro da IA para essa tecnologia é muito elevada, criando falsos positivos.
Dessa forma, com casos de falsos positivos há riscos de erro judiciário, considerando que o reconhecimento facial coleta dados biométricos indiscriminadamente afetando o direito à intimidade e privacidade do cidadão que não é investigado na esfera criminal (PEREIRA, 2021). Tais circunstâncias revelam que o uso indiscriminado dessa ferramenta poderá comprometer os direitos fundamentais, especialmente quando há ocorrência de detenções indevidas e constrangimentos ilegítimos.
Araújo, Cardoso & Paula (2021) mencionam o caso ocorrido no Rio de Janeiro, em 2019, quando uma mulher foi identificada como uma que era acusada de cometer delito de homicídio e ocultação de cadáver, motivando assim a sua prisão. Entretanto, os agentes perceberam o equívoco quando souberam que a mulher procurada já estava presa. De modo semelhante, Pitasse (2024) ressalta que, no Rio de Janeiro, as abordagens realizadas pela Polícia Militar com o reconhecimento facial, por ocasião da comemoração do dia 31 de dezembro de 2023, tiveram um índice de 10% de falsas identificações.
O controle e auditoria sobre a referida tecnologia ser utilizada pelo estado precisam de medidas urgentes, mediante a regulamentação de sua utilização, protocolos padronizados a fim de certificar-se de que o sistema seja consistente e justo, com a efetivação de auditorias autônomas que são indispensáveis para a utilidade do RF de maneira responsável e respeitosa com os direitos individuais (RODRIGUES, 2025; DEFENSORIA PÚBLICA DA UNIÃO, 2025). No entanto, mesmo com tais mecanismos de controle, perduram desafios associados aos vieses algorítmicos e ao risco da persistência de desigualdades raciais e sociais no âmbito penal. Matida & Cecconello (2021) alertam que a aplicação da IA no sistema de justiça criminal sem critérios legais e técnicos claros ameaça a garantia do devido processo legal, podendo gerar decisões enviesadas, desproporcionais ou sem base empírica adequada, particularmente em situações de reconhecimento facial e análise preditiva.
Falsos positivos e erro judiciário em investigações criminais, segundo Araújo, Cardoso & Paula (2021) ocorrem no uso de técnicas de RF que estão mal calibrado ou operado com bancos de dados incompleto, aumenta significativamente o perigo de falsos positivos, com identificações equivocadas que levam à prisão de inocentes.
É relevante considerar as ameaças e limitações associadas a essa inovação tecnológica que é o reconhecimento facial, sobretudo em circunstâncias de investigação criminal, pois a falha na tecnologia pode conduzir a erros judiciários e a condenações injustas, com consequências graves aos indivíduos envolvidos.
4.4 A legislação brasileira e internacional sobre o reconhecimento facial na investigação criminal
Concernente ao Direito comparado e o cenário internacional, a adoção do RF em investigações criminais já existem nos Estados Unidos da América (EUA), China e União Europeia. Nabeshima (2024) aponta que nos Estados Unidos, o uso da tecnologia de reconhecimento facial (FRT) em investigações criminais é um tema controverso. Alguns estados têm adotado instrumentos legais que viabilizam a aplicação em circunstâncias particulares. Já na China, conforme o relatório da Human Rights Watch (2019), o governo chinês utiliza reconhecimento facial para rastrear e controlar pessoas em regiões como Xinjiang, o que levanta sérias questões sobre autoritarismo digital, monitoramento massivo e desrespeito aos direitos humanos.
Nas considerações de Nabeshima (2024), observa-se que a União Europeia, tem a adoção da FRT regulamentado pelo Regulamento Geral de Proteção de Dados (GDPR) e pela Convenção 108+. A GDPR define diretrizes estritas para o manuseio de dados das pessoas, incluindo dados biométricos. Segundo o autor, a União Europeia tem uma postura preventiva e regulatória mais rígida, concernente ao reconhecimento facial. Nos EUA, nas cidades de São Francisco, Oakland e Boston proibiram totalmente o sistema de RF pelas agências governamentais, já em Massachusetts e Washington aprovaram leis que exigem mandado judicial, auditoria independente e supervisão humana para a utilização dessa ferramenta pela polícia. No Reino Unido há exigência de critérios legais mais precisos, controle humano qualificado, avaliação de proporcionalidade e prestação de contas (NABESHIMA, 2024).
Deste modo, é primordial o estabelecimento de restrições e regulamentações claras objetivando a garantia dos direitos individuais e a privacidade. Os países que já enfrentaram desafios com essa tecnologia têm adotado medidas para assegurar os direitos dos indivíduos e dar transparência na execução da tecnologia de RF.
O Código de Processo Penal brasileiro (CPP), apesar de ter sido promulgado em 1941, tem enfrentado reformas pontuais para se adaptar às exigências do Estado Democrático de Direito e à incorporação de novas tecnologias. Segundo Greco (2022), o CPP necessita de uma análise à luz da Constituição de 1988, impondo limites para o uso tecnológico que afetem os direitos fundamentais como a intimidade, a privacidade e o devido processo legal.
A doutrina contemporânea também alerta que as tecnologias atuais não podem ser usadas como atalho para atender a uma falta de investigação robusta. Conforme defende Lopes Junior (2021), as tecnologias devem ser utilizadas como uma ferramenta de reforço à legalidade e não um mecanismo de exceção para assegurar os direitos fundamentais.
A LGPD n. 13.709/2018 configura-se como um marco primordial no ordenamento jurídico do Brasil no tocante ao tratamento de dados individuais, impondo obrigações que preservem a proteção e a garantia dos titulares. Nas considerações de Venosa (2020), no âmbito da segurança pública, a utilização de tecnologias baseadas em IA, como reconhecimento facial, deve observar os princípios da finalidade, necessidade, transparência e segurança previstos na legislação, para evitar usos abusivos ou discriminatórios.
A adoção da IA, no campo jurídico, suscita questões relevantes acerca da privacidade e da proteção de dados. A IA, frequentemente, demanda a acessibilidade a grandes volumes de dados sensíveis, podendo elevar a possibilidade da violação de dados. Os profissionais em Direito precisam estar familiarizados com as normas de proteção aos dados e assegurar que as práticas apropriadas estejam implementadas para salvaguardar informações sigilosas (SABANE, 2021).
Sobre as regulamentações internacionais sobre o RF e vigilância, sabe-se que: em 2021, o Parlamento Europeu aprovou resolução criticando o emprego do RF ao vivo por forças policiais, recomendando a proibição dessa prática em espaços públicos, pois entende que ela compromete os princípios da presunção de inocência, da proporcionalidade e da não discriminação (EUROPEAN PARLIAMENT, 2021).
De acordo com o relatório da organização Human Rights Watch (2019), países que adotam sistemas de RF em escala ampliada, como China e Rússia, demonstram os perigos da vigilância massiva não regulamentada, com consequências severas no que diz respeito à liberdade de expressão, ao direito de manifestação e à liberdade religiosa.
Já nos Estados Unidos, a inexistência de uma legislação federal específica na utilização do RF tem gerado um cenário regulatório fragmentado. Segundo Garvie, Badoya & Frankle (2016), essa lacuna permite que agências policiais utilizem os sistemas de RF sem supervisão pública efetiva, o que compromete direitos como privacidade, liberdade de associação e devido processo legal.
O exame do sistema jurídico brasileiro e internacional quanto a aplicação do RF na investigação criminal revela um cenário ainda caracterizado por omissões legais, tensionado entre as inovações tecnológicas e a exigência de assegurar os direitos fundamentais. Dessa maneira, o reconhecimento facial aplicado à investigação criminal exige regulamentação específica, transparente e democrática, com critérios objetivos, instrumentos de fiscalização e salvaguardas legais eficazes.
4.4 Jurisprudência nacional e dados da Polícia Federal
No ano de 2023, no Superior Tribunal de Justiça (STJ), das 377 decisões que revogaram a prisão provisória ou os réus foram absolvidos, 281 – ou seja, 74,6% do quantitativo geral foram decididas pelas falhas ocorridas no reconhecimento dos supostos infratores. Essas decisões estão fundamentadas na existência de erros durante a identificação por intermédio de fotografias (STJ, 2024).
De acordo com o Superior Tribunal de Justiça:
Nos casos que foram revistos pelo STJ em 2023, as instâncias de origem haviam entendido, em geral, que o artigo 226 do CPP traria apenas uma “recomendação”, de modo que o descumprimento do dispositivo legal não seria motivo para declarar a nulidade da prova colhida. A jurisprudência do STJ, contudo, é outra: para a corte – na esteira de precedentes do Supremo Tribunal Federal (STF) –, o artigo 226 do CPP é de observância obrigatória, servindo como uma garantia mínima para quem está na posição de suspeito do cometimento de um crime (HC 598.886). Ainda segundo o STJ, mesmo que o reconhecimento seja realizado em conformidade com o artigo 226 do CPP, o procedimento tem valor probatório relativo, não podendo, por si só, levar à certeza sobre a autoria do delito (HC 712.781) (STJ, 2024, p. 1).
A consolidação do entendimento do Superior Tribunal de Justiça (STJ) de que o artigo 226 do Código de Processo Penal (CPP) não é somente recomendatório, mas tem caráter obrigatório, pois traz a uma garantia mínima ao sujeito que se encontra em momento de reconhecimento. O descumprimento desse dispositivo poderá invalidar a prova, mesmo seguindo um procedimento correto, o reconhecimento deverá ser validado por outras evidências.
Na Figura 1 estão apresentados os resultados das decisões que absolveram ou revogaram as prisões tendo como base o tipo de reconhecimento do suspeito.
Figura 1 – Absolvição/Revogação da prisão – Resultado por Tipo de Reconhecimento

O resultado aponta que 19 acórdãos e 358 decisões monocráticas tiveram como resultado a revogação da prisão ou a absolvição do indivíduo, perfazendo um total de 377 julgados. De acordo com a Figura 1, o elemento de prova que resultou na maior parte de julgados absolvidos e revogadas tiveram o reconhecimento fotográfico, este fato se deve a inobservância dos procedimentos legais previstos na legislação.
Fica evidente a adoção de uma postura mais cautelosa por parte da jurisprudência mais recente, visto que os tribunais superiores estão buscando a validação do reconhecimento facial como provas a serem utilizadas, a fim de coibir as condenações advindas de procedimentos ilegais.
Nesse contexto, um precedente de grande relevância da Sexta Turma do Superior Tribunal de Justiça (STJ), que anulou uma condenação baseada em reconhecimento por imagens de outro crime, tendo a seguinte decisão:
No que refere especificamente à prova de reconhecimento, a preservação do mito da ‘memória máquina filmadora’ significa aquiescer a falsos negativos e a falsos positivos, isto é, à absolvição de culpados e à condenação de inocentes. De outro lado, compreender as limitações constitutivas da memória humana torna necessária a tomada de uma série de providências no âmbito probatório – seja no que refere à produção, seja no que refere à valoração probatória, seja, finalmente, no que se refere à adoção de uma decisão sobre os fatos…’ (RHC 206.846/SP, Rel. Ministro GILMAR MENDES, DJe 29/09/2021). Por isso concluiu o Relator que, no caso concreto, era nulo o “reconhecimento fotográfico realizado por WhatsApp, somado ao fato de que nenhuma outra prova há nos autos no sentido de confirmar a autoria sobre o recorrente” (BRASIL, 2021, p. 6).
Os dois indivíduos foram absolvidos por unanimidade, pela Sexta Turma do Superior Tribunal de Justiça (STJ). Ambos foram acusados de roubo, após a vítima ter realizado a denúncia e o reconhecimento fotográfico baseado em um vídeo de outro crime. O entendimento do colegiado foi fundamento na inobservância dos procedimentos legais para a realização do reconhecimento facial.
Diante desse contexto jurisprudencial, pode-se observar que o cumprimento dos procedimentos legais é condição primordial para garantir a validade das provas e a proteção das garantias fundamentais no processo penal. Essa mesma observância torna-se precípua e premente quanto a legalidade e a efetividade das ações investigativas, que refletem na esfera das operações voltadas aos crimes digitais.
A Figura 2 apresenta o quantitativo de Mandados de Busca e Apreensão (MBAs) no combate aos crimes cibernéticos, em todo o território nacional no ano de 2023.
Figura 2 – Mandados de Busca e Apreensão (MBAs) expedidos no ano de 2023

Conforme a figura acima se percebe que houve uma maior quantidade de MBAs no Distrito Federal (DF) com 103, em Minas Gerais (MG) com 83, no Pará (PA) com 70, na Paraíba (PB) com 82, no Paraná (PR) com 132, Rio Grande do Sul (RS) com 70 e em São Paulo (SP) com 154 mandados.
No ano de 2023 houve 770 operações da Polícia Federal em todo o Brasil, resultando em 237 prisões em flagrante, 7 prisões temporárias expedidas, 103 prisões preventivas expedidas, 1216 MBAs expedidos (POLÍCIA FEDERAL, 2023).
Na Figura 3 está demonstrado o quantitativo de Mandados de Busca e Apreensão (MBAs) no combate aos crimes cibernéticos, em todo o território nacional no ano de 2024.
Figura 3 – Mandados de Busca e Apreensão (MBAs) expedidos no ano de 2024

Na análise da figura acima, percebe-se que houve uma maior quantidade nos Estados do Paraná com 141, Rio de Janeiro com 70, Minas Gerais com 83, Rio Grande do Sul com 80 e São Paulo com 313 mandados.
No ano de 2024 houve 1150 operações da Polícia Federal em todo o Brasil, resultando em 386 prisões em flagrante, 42 prisões temporárias expedidas, 183 prisões preventivas expedidas, 1430 MBAs expedidos, conforme Figura 1, e, 99 vítimas resgatadas (POLÍCIA FEDERAL, 2024).
Dessa forma, evidencia-se que os avanços tecnológicos e sua utilização no campo investigativo criminal deverão ser acompanhados de mecanismos de controle, transparência e regulamentação, buscando assegurar que essas ferramentas contribuam de maneira eficiente para a justiça, sem, contudo, violar os direitos fundamentais do cidadão. Pois, o reconhecimento facial, compromete a validade das provas quando utilizado sem critérios técnicos e jurídicos rigorosos, e, principalmente, afronta os princípios constitucionais, como o devido processo legal e a presunção de inocência.
5. CONSIDERAÇÕES FINAIS
É importante anotar que o referido trabalho aqui apresentado, teve por objetivo central, analisar a legalidade do uso da tecnologia de reconhecimento facial baseada em inteligência artificial na investigação criminal à luz dos direitos fundamentais. Para tanto, foi realizada uma vasta pesquisa bibliográfica com os teóricos da área, análise da legislação e jurisprudências para obter uma melhor visão do tema proposto.
Os resultados responderam a problemática aventada nesta pesquisa, apontando que o uso de reconhecimento facial na investigação criminal quando não segue os devidos procedimentos legais, fere os direitos fundamentais dos indivíduos, como a privacidade e a presunção de inocência.
Ao verificar a ligação entre a IA e a investigação criminal, os resultados apontaram que a inserção da Inteligência Artificial, especificamente, do reconhecimento facial nas investigações criminais tem representado um avanço tecnológico relevante para o sistema de segurança pública e o processo penal contemporâneo. As ferramentas tecnológicas abarcam um grande potencial para aperfeiçoar a eficiência das investigações, acelerando a persecução penal e ampliando a capacidade estatal de resposta mais imediata frente ao aumento da criminalidade, principalmente no que diz respeito aos crimes cibernéticos.
Quanto ao objetivo de identificar os princípios constitucionais e legais que podem ser afetados pelo uso da IA na persecução penal, observou-se os avanços tecnológicos não podem se sobrepor aos princípios da legalidade, da dignidade da pessoa humana, da igualdade e da presunção de inocência, pois são garantias fundamentais que fazem parte do Estado Democrático de Direito.
Há que se dizer que os objetivos estabelecidos, inicialmente, para esta pesquisa foram alcançados, assim como sendo capaz de responder à hipótese levantada que buscou responder o problema da pesquisa, sobre a aplicabilidade da IA e que esta ferramenta pode violar a intimidade e os direitos basilares dos indivíduos, especialmente quando inexiste um marco regulatório claro sobre a sua aplicação. Havendo a possibilidade de que a IA nos mecanismos de RF contribua para uma justiça mais eficaz, auxiliando nas investigações criminais sem comprometer as garantias fundamentais dos envolvidos. Visto que, as ameaças e limitações associados a essa inovação tecnológica, pode trazer falhas na tecnologia conduzindo a erros judiciários e a condenações injustas, com consequências graves aos indivíduos envolvidos.
Conclui-se, portanto, que a investigação criminal deve buscar o equilíbrio entre eficiência e garantias fundamentais, buscando a promoção de uma justiça penal mais moderna, célere e eficiente, sendo amparada pelos princípios da legalidade, da dignidade da pessoa humana, da igualdade e da presunção de inocência. O reconhecimento facial e demais tecnologias baseadas em IA podem ser utilizados como aliados do sistema de justiça, desde que sua aplicabilidade seja direcionada por valores éticos e constitucionais, preservando os direitos humanos.
REFERÊNCIAS
ADEWUMI, Tosin et al. A IA não deve ser totalmente autônoma. ArXiv, 2025. Disponível em: https://arxiv.org/html/2507.23330v1. Acesso em: 22 set. 2025.
ALMEIDA, Eduarda Costa. Os grandes irmãos: o uso de tecnologias de reconhecimento facial para persecução penal. Rev. bras. segur. Pública. São Paulo v. 16, n. 2, 264-283, fev/mar 2022. Disponível em: https://doi.org/10.31060/rbsp.2022.v16.n2.1377. Acesso em: 15 abr. 2025.
ALMEIDA, Juliana Evangelista; PENAFORTE, Gabriela Mundim. Marco civil da internet (Lei nº 12.965/14) e os desafios contemporâneos à responsabilidade civil dos provedores na era das fake News. Revista de Ciências do Estado, Belo Horizonte, Vol. 10, N. 1, 2025. Disponível em: https://periodicos.ufmg.br/index.php/revice/article/view/e54425/e54425. Acesso em: 15 abr. 2025.
ANDRADE, Alessandra Regina de. Segurança pública e tecnologia: seletividade racial e sistema penal discriminatório. 2021. Disponível em: https://direitopublico.com.br/wp content/uploads/2021/12/Seguranca-publica-e-tecnologia-no-sistema-penal discriminatorio2.pdf. Acesso em: 15 abr. 2025.
ARAUJO, Romulo de Aguiar; CARDOSO, Naiara Deperon; PAULA, Amanda Marcélia de. Regulação e uso do reconhecimento facial na segurança pública do Brasil. Revista de Doutrina Jur., Brasília, DF, v. 112, e021009, 2021. Disponível em: https://revistajuridica.tjdft.jus.br/index.php/rdj/article/view/734/135. Acesso em: 15 abr. 2025.
BADA, Murilo Maffioletti; OLIVEIRA, Marlon. Inteligência artificial na segurança pública: o uso do reconhecimento facial para identificação de infratores. 2024. Disponível em: http://repositorio.unesc.net/bitstream/1/10986/1/Murilo%20Maffioletti%20Bada.pdf. Acesso em: 26 maio 2025.
BEZERRA, João Manoel de Vasconcelos. Aplicabilidade da lei nº 12.737/12 sobre crimes cibernéticos. Centro Universitário Vale do Salgado – UniVS. Revista Interdisciplinar Encontro das Ciências – RIEC. ISSN: 2595-0959 Icó-Ceará, v.5, n.2, p. 41 – 68, Maio-Ago. 2022.
BRASIL. Constituição da República Federativa do Brasil de 1988. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 05 mar. 2025.
BRASIL. Portaria nº 148, de 31 de maio de 1995. Aprova a Norma nº 004/95 – Uso da Rede Pública de Telecomunicações para acesso à Internet. Agência Nacional de Telecomunicações. Disponível em: https://informacoes.anatel.gov.br/legislacao/normas-do mc/78-portaria-148. Acesso em: 20 set. 2025.
BRASIL. Lei nº 12.737, de 30 de novembro de 2012. Dispõe sobre a invasão de dispositivos informáticos, a fim de obter, adulterar ou destruir dados sem autorização do titular. Diário Oficial da União, Brasília, DF, 30 nov. 2012.
BRASIL. Superior Tribunal de Justiça. HABEAS CORPUS Nº 712781 – RJ (2021/0397952- 8). Habeas corpus. Roubo majorado e corrupção de menores. Reconhecimento fotográfico de pessoa realizado na fase do inquérito policial. Inobservância do procedimento previsto no art. 226 do cpp. Prova inválida como fundamento para a condenação. Absolvição que se mostra devida. Partes: Wanderson da Conceicao Silva Vs. Ministério Público do Estado do Rio de Janeiro. Relator: Min. Rogerio Schietti Cruz. Data do Julgamento: 27 de outubro de 2020. Disponível em: https://processo.stj.jus.br/processo/julgamento/eletronico/documento/mediado/?documento_ti po=integra&documento_sequencial=148227668®istro_numero=202103979528&peticao_ numero=&publicacao_data=20220322&formato=PDF. Acesso em: 21 out. 2025.
BUOLAMWINI, Joy; GEBRU, Timnit. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, v. 81, p. 1–15, 2018. Disponível em: https://proceedings.mlr.press/v81/buolamwini18a.html. Acesso em: 26 maio 2025.
CONJUR. Uso de IA foi um dos principais marcos para a advocacia em 2023, dizem escritórios. 2023. Disponível em: https://www.conjur.com.br/2024-mar-05/uso-de-ia-foi-um dos-principais-marcos-para-a-advocacia-em-2023-dizemescritorios/#:~:text=’O%20foco%20em%202023%20foi,Alexandre%20Lauria%2C%20s%C3 %B3cio%20da%20banca. Acesso em: 13 mar. 2025.
DENNY, Danielle Mendes Thame. Internet Legal. Livro didático para as disciplinas: Direito da Informática e Relações Privadas e Internet. São Paulo. 2019. Disponível em: https://www.researchgate.net/publication/336871607_Internet_Legal_Livro_de_Direito_da_I nformatica_e_de_Relacoes_Privadas_e_Internet. Acesso em: 20 set. 2025.
DIONÍSIO, Cristiano. Marco civil da internet, neutralidade de rede e sua relação com a liberdade como direito da personalidade. R. Tecnol. Soc., Curitiba, v. 14, n. 33, p. 16-30, jul./set. 2018. Disponível em: https://periodicos.utfpr.edu.br/rts/article/view/7109/5249. Acesso em: 20 maio 2025.
EUROPEAN PARLIAMENT. Resolution on artificial intelligence in criminal law and its use by the police and judicial authorities in criminal matters, 2021. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2021-0405_EN.html. Acesso em: 26 maio 2025.
FERREIRA, Luís Henrique Costa. Inteligência artificial na gestão da investigação criminal. Revista do Instituto brasileiro de Segurança Pública. RIBSP-Vol. 7n. 19 –Set/Dez 2024. Disponível em: https://revista.ibsp.org.br/index.php/RIBSP/article/view/253/189. Acesso em: 10 out. 2025.
GARVIE, Clare; BADOYA, Álvaro; FRANKLE, Jonathan. The Perpetual Line-Up: Unregulated Police Face Recognition in America. Georgetown Law Center on Privacy & Technology. 2016. Disponível em: https://www.perpetuallineup.org/. Acesso em: 20 maio 2025.
GRECO, Rogério. Curso de Direito Processual Penal. 24. ed. Rio de Janeiro: Impetus, 2022.
GROSS, Paige. O reconhecimento facial no policiamento está a ganhar proteções em cada estado. 2025. Disponível em: https://wisconsinexaminer.com/2025/02/03/facial recognition-in-policing-is-getting-state-by-stateguardrails/#:~:text=Katie%20Kinsey%2C%20chief%20of%20staff,identifying%20the%20cul prits%2C%20Kinsey%20said. Acesso em: 10 out. 2025.
GROSSI, Márcia Gorett Ribeiro. Inteligência Artificial e Segurança Pública: um estudo de caso na Academia de Polícia Civil de Minas Gerais. Revista Avante, Belo Horizonte, V. 1, n. 8, 2025. Disponível em: https://doi.org/10.70365/2764-0779.2025.131. Acesso em: 10 out. 2025.
HUMAN RIGHTS WATCH. China’s Algorithms of Repression: Reverse Engineering a Xinjiang Police Mass Surveillance App. 2019. Disponível em: https://www.hrw.org/report/2019/05/01/chinas-algorithms-repression/reverse-engineering xinjiang-police-mass. Acesso em: 26 maio 2025.
LEMOS, Ronaldo. Inteligência artificial e reconhecimento facial: questões teóricas e práticas para o direito. Revista Brasileira de Políticas Públicas, v. 11, n. 2, 2021.
LIMA, Marco Antonio; BARRETO JUNIOR, Irineu Francisco. Marco civil da internet: limites da previsão legal de consentimento expresso e inequívoco como proteção jurídica dos dados pessoais na internet. Revista de Direito, Governança e Novas Tecnologias. Brasília, v. 1, n. 2, p. 241 – 260, Jan/Jun. 2016. Disponível em: https://indexlaw.org/index.php/revistadgnt/article/download/831/826. Acesso em: 20 maio 2025.
LIMA, Luciano de Almeida. Diretrizes para aperfeiçoamento e interpretação da lei do marco civil da internet com vistas à garantia do direito à privacidade nas redes sociais. Prisma Jurídico, vol. 17, núm. 1, 2018. Disponível em: https://periodicos.uninove.br/prisma/article/view/8084/pdf_78. Acesso em: 20 maio 2025. LOPES JUNIOR, Aury. Direito Processual Penal. 18. ed. São Paulo: Saraiva, 2021.
LUDGERO, Paulo Ricardo. Reconhecimento facial em sistemas de segurança pública no brasil: legalidade e ética em debate. 2024. Disponível em: https://www.jusbrasil.com.br/artigos/reconhecimento-facial-em-sistemas-de-seguranca publica-no-brasil-legalidade-e-etica-em-debate/2557159610. Acesso em: 26 maio 2025.
LÖWENMARK, Karl et al. Agent-based Condition Monitoring Assistance with Multimodal Industrial Database Retrieval Augmented Generation. ArXiv. 2025. Disponível em: https://arxiv.org/pdf/2506.09247v1. Acesso em: 22 set. 2025.
MATIDA, Janaína; CECCONELLO, William Weber. Reconhecimento fotográfico e presunção de inocência. Revista Brasileira de Direito Processual Penal, 7(1), 409. 2021. Disponível em: https://doi.org/10.22197/rbdpp.v7i1.506. Acesso em: 26 maio 2025.
NABESHIMA, Yuri. Uso do reconhecimento facial na segurança pública. 2024. Disponível em: https://www.conjur.com.br/2024-jan-06/uso-do-reconhecimento-facial-na seguranca-publica/. Acesso em: 26 maio 2025.
NAKASHIMA, Maurício. Desvendando o potencial e os desafios da inteligência artificial na Polícia Militar do Paraná: estratégias para predição e prevenção de crimes. Revista Ibero Americana de Humanidades, Ciências e Educação. São Paulo, v.10.n.01. jan. 2024. Disponível em: https://periodicorease.pro.br/rease/article/view/13019/6250. Acesso em: 26 maio 2025.
PEREIRA, Sara Matias Ferrari; OLIVEIRA, Tarsis Barreto. O uso da inteligência artificial no direito penal e seus reflexos sobre os direitos fundamentais da não discriminação e da privacidade. Revista do Instituto de Direito Constitucional e Cidadania, 9(1), e099. Disponível em: https://doi.org/10.48159/revistadoidcc.v8n2.e099. Acesso em: 01 mar. 2025.
POLÍCIA FEDERAL. Dados da Polícia Federal no combate a crimes cibernéticos. DCIBER – Diretoria de Combate a Crimes Cibernéticos. 2023. Disponível em: eyJrIjoiZjUzMDRkYzYtYmZiOC00ZWMzLTg2YTQtNTdiYTU1MzJiMTNhIiwidCI6IjU2 YzFlMmZiLTg3YzEtNGRlMC1hNmFjLWQwNTY2YzA4Y2U2NiJ9. Acesso em: 21 out. 2025.
POLÍCIA FEDERAL. Dados da Polícia Federal no combate a crimes cibernéticos. DCIBER – Diretoria de Combate a Crimes Cibernéticos. 2024. Disponível em: eyJrIjoiZjUzMDRkYzYtYmZiOC00ZWMzLTg2YTQtNTdiYTU1MzJiMTNhIiwidCI6IjU2 YzFlMmZiLTg3YzEtNGRlMC1hNmFjLWQwNTY2YzA4Y2U2NiJ9. Acesso em: 21 out. 2025.
PONTES, Marco Aurelio Muniz de; SILVA, Diogo Severino Ramos da. O impacto da tecnologia de reconhecimento facial na eficiência da prova pericial e na garantia dos direitos individuais. 2023. Disponível em: https://derechoycambiosocial.org/index.php/revista/article/view/2835/2217. Acesso em: 01 mar. 2025.
RODRIGUES, Alex. Estudo aponta riscos de tecnologias de reconhecimento facial. Agência Brasil. 2025. Disponível em: https://agenciabrasil.ebc.com.br/geral/noticia/2025-05/estudo aponta-riscos-das-tecnologias-de-reconhecimentofacial#:~:text=%E2%80%9CO%20reconhecimento%20facial%20vem%20sendo,membros%2 0do%20CESeC%2C%20referindo%2Dse. Acesso em: 20 maio 2025.
STJ. Sexta Turma anula condenação baseada em reconhecimento por imagens de outro crime. Superior Tribunal de Justiça. 2021. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/02122021-Sexta-Turma anula-condenacao-baseada-em-reconhecimento-por-imagens-de-outrocrime.aspx/?utm_source=chatgpt.com. Acesso em: 10 out. 2025.
RUSSELL, Stuart J.; NORVIG, PETER. Artificial Intelligence: A Modern Approach. 3rd ed. Upper Saddle River, NJ: Prentice Hall, 2010. Disponível em: https://repository.unimal.ac.id/1022/1/Artificial%20Intelligence%20-%20A%20Modern%20Approach%203rd%20Ed%20-%20Stuart%20Russell%20and%20Peter%20Norvig%2C%20Berkeley%20%282010%29.pdf. Acesso em: 15 set. 2025.
SABANE, Thiago Motizuki et al. Inteligência Artificial e sua relação com o Direito no Brasil. Disponível em: https://unisalesiano.com.br/aracatuba/wpcontent/uploads/2022/08/Artigo-Inteligencia-Artificial-e-sua-relacao-com-o-Direito-no Brasil-Pronto.pdf. Acesso em: 09 mar. 2025.
SANTOS, Miriam Cristina Fava; CATARINO, Maria Elisabete. 25 anos da web e o marco civil da internet: apontamentos sobre o livre acesso à informação, a liberdade de expressão e a privacidade. Comun. & Inf., Goiânia, GO, v. 19, n. 1, p. 05-19, jan./jun. 2016. https://revistas.ufg.br/ci/article/view/31855/21869. Acesso em: 15 set. 2025.
YAMADA, Kazunori D. Constitutive Components for Human-Like Autonomous Artificial Intelligence. arXiv, 2025. Disponível em: https://arxiv.org/pdf/2506.12952. Acesso em: 20 set. 2025.
VENOSA, J. A Lei Geral de Proteção de Dados e seus impactos na segurança pública. São Paulo: Revista Jurídica, 2020.
1Acadêmica de Direito. E-mail: acadossantos@hotmail.com. Artigo apresentado às Faculdades Integradas Aparício Carvalho – FIMCA, como requisito para obtenção do título de Bacharel em Direito, Porto Velho/RO, 2025.
2Acadêmico de Direito. E-mail: arthur.lima731@gmail.com. Artigo apresentado às Faculdades Integradas Aparício Carvalho – FIMCA, como requisito para obtenção do título de Bacharel em Direito, Porto Velho/RO, 2025.
3Acadêmica de Direito. E-mail: boaventurajus@gmail.com. Artigo apresentado às Faculdades Integradas Aparício Carvalho – FIMCA, como requisito para obtenção do título de Bacharel em Direito, Porto Velho/RO, 2025.
4Professora Orientadora. Professora do curso de Direito. E-mail: profmarinabento@gmail.com.
