RECONHECIMENTO FACIAL E DIREITOS FUNDAMENTAIS: A LEGALIDADE DO USO DA INTELIGÊNCIA ARTIFICIAL NA INVESTIGAÇÃO CRIMINAL 

FACIAL RECOGNITION AND FUNDAMENTAL RIGHTS: THE LEGALITY OF USING ARTIFICIAL INTELLIGENCE IN CRIMINAL INVESTIGATIONS

REGISTRO DOI: 10.69849/revistaft/dt10202510311908


Adriana Cristina Aguiar dos Santos1
Arthur Caldeira Simões Lima2
Janielly Gomes de Souza3
 Marina Pereira Bento Welika4


RESUMO 

O presente estudo teve como objetivo analisar a legalidade do uso da tecnologia de reconhecimento facial baseada em inteligência artificial na investigação criminal à luz dos direitos fundamentais,  considerando que as inovações tecnológicas estão inseridas na investigação criminal. Os  procedimentos metodológicos utilizados para nortear esta pesquisa foram por meio de uma abordagem  qualitativa e objetivo exploratório e descritiva, com uma revisão bibliográfica realizando um  levantamento de doutrinas jurídicas sobre reconhecimento facial, a fim de relacionar os métodos com  o problema de pesquisa. A coleta de dados foi fundamentada por intermédio de livros, artigos  científicos, dissertações de mestrado e teses de doutorado, nas plataformas de bases de dados: Science  Direct, Scielo, Google Acadêmico. Os resultados apontaram que a utilização da Inteligência Artificial  (IA) e do reconhecimento facial (RF) nas investigações criminais tem representado um relevante  avanço tecnológico para a justiça, sendo capaz de promover rapidez e eficiência nas ações policiais e  judiciais. Entretanto, essas inovações tecnológicas levantam grande e sérias preocupações concernente  à proteção das garantias fundamentais, especialmente no que se refere à privacidade, à presunção de  inocência e ao devido processo legal. Observa-se que os recentes julgados pelo Superior Tribunal de  Justiça (STJ) evidenciaram que a utilização indevida do reconhecimento facial sem um  direcionamento dos procedimentos legais, pode resultar em erros judiciais e violações de direitos.  Deste modo, conclui-se que, a aplicabilidade das inovações tecnológicas nas investigações criminais  devem ser pautadas por critérios éticos, técnicos e legais rigorosos, fazendo uso de mecanismos de  controle, supervisão humana e regulamentações. Evidenciando que o equilíbrio entre eficiência  investigativa e o respeito aos direitos humanos é ponto fulcral para a contribuição da Inteligência  Artificial de maneira responsável e justa para o sistema penal. 

Palavras-chave: Inovações tecnológicas. Reconhecimento facial. Investigação criminal. Direitos fundamentais.

ABSTRACT 

This study aimed to analyze the legality of using artificial intelligence-based facial recognition  technology in criminal investigations in light of fundamental rights, considering that technological  innovations are integrated into criminal investigations. The methodological procedures used to guide  this research were through a qualitative approach with an exploratory and descriptive objective,  including a literature review of legal doctrines on facial recognition, in order to relate the methods to  the research problem. Data collection was based on books, scientific articles, master’s dissertations,  and doctoral theses, accessed through the following database platforms: Science Direct, SciELO, and  Google Scholar. The results indicated that the use of Artificial Intelligence (AI) and facial recognition  (FR) in criminal investigations represents a significant technological advancement for the justice  system, promoting speed and efficiency in police and judicial actions. However, these technological  innovations raise significant and serious concerns regarding the protection of fundamental rights,  especially regarding privacy, the presumption of innocence, and due process. Recent rulings by the  Superior Court of Justice (STJ) have shown that the misuse of facial recognition without proper legal  procedures can result in judicial errors and rights violations. Therefore, it is concluded that the  applicability of technological innovations in criminal investigations must be guided by rigorous  ethical, technical, and legal criteria, utilizing control mechanisms, human oversight, and regulations.  This highlights that the balance between investigative efficiency and respect for human rights is  crucial for Artificial Intelligence’s responsible and fair contribution to the criminal justice system. 

Keywords: Technological innovations. Facial recognition. Criminal investigation. Fundamental  rights. 

1. INTRODUÇÃO 

A temática proposta para este artigo aborda uma preocupação com o reconhecimento  facial e direitos fundamentais: a legalidade do uso da inteligência artificial na investigação  criminal. Considerando que a evolução da inteligência artificial (IA) no sistema de justiça  criminal está revolucionando a maneira como as investigações de crimes são realizadas. A IA é  uma parceira das autoridades na avaliação de grandes volumes de dados, reconhecimento de  padrões e até na previsão de comportamentos suspeitos. 

Pereira & Oliveira (2024) apontam que a IA está revolucionando a verificação e  levantamento de provas no campo do direito penal. Programas de reconhecimento facial (RF),  algoritmo e avaliação de padrões vocais que analisam grandes volumes de dados estão  auxiliando os investigadores a reconhecerem suspeitos e comportamentos criminosos com  rapidez e exatidão nunca antes alcançadas. Essas ferramentas não apenas agilizam as  investigações, mas também elevam as suas probabilidades de êxito. 

A aplicação de recursos tecnológicos de IA na repressão e investigação de crime tem  sido realizada em diversas áreas de investigação criminal, incluindo: exame de vídeos e  imagens: Instrumentos de identificação facial auxiliam na descoberta de suspeitos em gravações  de segurança; rastreamento de mensagens e ligações: algoritmos examinam mensagens e  ligações em investigações de delitos financeiros e grupos criminosos; prevenção de delitos; sistemas examinam tendências criminais para antecipar regiões e períodos de maior perigo e  análise forense digital; a IA colabora em casos de recuperação e compreensão de informações  de aparelhos eletrônicos.  

Nessa perspectiva, Nakashima (2024) aponta que a IA se destaca como uma excelente  ferramenta de confronto ao crime, por intermédio de sistemas que utilizam técnicas avançadas  para a avaliação das informações históricas e atuais sobre as ocorrências criminais. Geram  mapas de calor ou alertas sobre determinadas áreas ou em períodos de maior probabilidade  dessas ocorrências. Tais mecanismos auxiliam no planejamento e na reserva de recursos  policiais, possibilitando eficácia na prevenção ou repressão aos crimes. 

Todavia, apesar dos benefícios proporcionados pelo uso da IA na segurança pública, a  normatização do RF na investigação criminal no Brasil não possui uma disposição legal que  determine detalhadamente a sua aplicabilidade por agentes de sistema de segurança  governamental. A utilização dessa tecnologia está baseada em normas infralegais ou projetos piloto, ora desenvolvidos pelas secretarias estaduais de segurança. É preocupante, pois suscitam  questionamentos quanto à legalidade e a proporcionalidade no uso da referida ferramenta na  área da investigação criminal (SABANE, 2021). Deste modo, questiona-se: o uso de  reconhecimento facial na investigação criminal fere direitos fundamentais como a privacidade  e a presunção de inocência? 

Torna-se premente e precípuo que sejam estabelecidas salvaguardas em conformidade  com os princípios legais e éticos para resguardar os civis e individuais, a fim de mitigar os  efeitos negativos associados ao RF, na privacidade e nos direitos fundamentais. Nesse sentido,  Almeida (2022) complementa que os riscos são maiores que as vantagens, é necessário a  implementação de mecanismos efetivos para minimizar as ameaças de violação dos registros  pessoais. Dentre os riscos existentes, que não correspondem aos princípios da especificidade  e da adequação, estão: vigilância massiva, erros de acurácia e incidente de viés no  algoritmo. 

Sendo assim, este artigo traz como objetivo geral: analisar a legalidade do uso da  tecnologia de reconhecimento facial baseada em inteligência artificial na investigação  criminal à luz dos direitos fundamentais. E como objetivos específicos: examinar conceitos e  apresentar um breve histórico sobre o Marco Civil da internet; verificar a ligação entre a IA e  a investigação criminal; analisar a legislação brasileira vigente e a necessidade de  regulamentação específica para o uso da IA na investigação criminal; identificar os  princípios constitucionais e legais que podem ser afetados pelo uso da IA na persecução penal; e, avaliar os riscos e benefícios da utilização do reconhecimento facial para fins de  segurança pública.  

A presente pesquisa justifica-se pela grande relevância social, visto que hoje, traz um  tema de grande impacto na sociedade, pois o uso do RF pode afetar diretamente a liberdade e  a privacidade dos cidadãos. Garvie, Bedoya & Frankle (2016) mencionam que a aplicação do  RF pelas forças de segurança, especialmente em contextos urbanos e de alta vigilância, pode  reforçar padrões de seletividade penal e intensificar a estigmatização de pessoas que fazem  parte dos grupos vulneráveis, como negros e pobres. E ter efeitos relevantes na sociedade  relacionados à segurança e privacidade. A relevância teórica favorece para o aprofundamento  dos estudos a respeito da interação entre a tecnologia e as garantias fundamentais, analisando  as repercussões do RF no direito penal e constitucional. Conforme leciona Lemos (2021), a aplicação da IA ao reconhecimento facial levanta questões relevantes sobre a construção  algorítmica no processo de identificação e aos riscos associados ao viés nos processos  automatizados de decisão, sobretudo quando utilizados pelo Estado. Justifica-se, ainda, pois o  uso dessas ferramentas tecnológicas por autoridades policiais implica na consideração e no  respeito ao devido processo legal, à presunção de inocência, a garantia da proteção dos dados  individuais e ao respeito à privacidade. 

Deste modo, esta pesquisa justifica-se perante os desafios envolvidos no uso do RF em  virtude de ser uma tecnologia complexa que tem relevância teórica, social e jurídica na  investigação criminal. É essencial que sejam estabelecidas regulamentações claras e  mecanismos adequados tanto na preservação da privacidade quanto na precisão dos  resultados. 

Este estudo está subdividido em seções. A seção 2 traz os procedimentos  metodológicos utilizados nesta pesquisa. Na seção 3 apresenta os resultados obtidos. Já na  seção 4 foi apresentada a discussão da temática objeto de estudo desta pesquisa. E na seção 5  traz as considerações finais. 

2. REVISÃO DA LITERATURA 

A internet pode ser compreendida como uma rede de computadores de grande escala,  que proporciona acesso amplo e irrestrito aos recursos disponíveis no ciberespaço. Nem toda  rede de computadores, contudo, configura a internet: por exemplo, uma rede interna de uma  empresa restringe o acesso apenas aos usuários autorizados (DENNY, 2019).

Nesse contexto, a Norma nº 004/95, publicada pelo Ministério das Comunicações e  aprovada pela Portaria nº 148/95 do Ministério da Ciência e Tecnologia, que regulamenta o  uso da rede pública de telecomunicações para acesso à internet, define a internet como: termo  genérico que designa o conjunto de redes, meios de transmissão, roteadores, equipamentos e  protocolos necessários à comunicação entre computadores, incluindo o software e os dados  armazenados nesses dispositivos (BRASIL, 1995). 

A internet chegou ao Brasil no final da década de 1980, com início em 1988 a partir de  um projeto acadêmico entre a FAPESP e a UFRJ, que conectou pesquisadores a instituições  nos Estados Unidos e na Europa. Em 1989, o Ministério da Ciência e Tecnologia criou a Rede  Nacional de Pesquisa (RNP), e, em 1994, a Embratel iniciou a operação comercial da internet  no país, posteriormente expandida com avanços como dispositivos móveis e banda larga  (OLIVEIRA, 2011 apud DIONISIO, 2018). 

Nesse cenário, os avanços em telecomunicações e computação, no final da década de  1990, intensificaram o desenvolvimento digital, favorecendo novas formas de comunicação e  impactando práticas sociais e relações humanas, em um contexto marcado pela busca por  hiperinformação e integração ao espaço digital (LIMA, 2018). A trajetória da internet também  reflete a combinação de expertise e necessidade de organização, exemplificada por Timothy  John Berners-Lee, que, em 1989, no CERN, desenvolveu um sistema capaz de transmitir  informações entre computadores incompatíveis, respondendo simultaneamente à demanda de  gerenciar cientistas e experimentos de forma eficiente (SANTOS & CATARINO, 2016). 

Esse desenvolvimento evidencia que o progresso digital possui uma relação estreita  entres as dimensões tecnológicas e socioculturais, visto que há uma influência nos  comportamentos dos indivíduos reconfigurando as interações entre sujeitos e instituições. 

No Congresso Nacional brasileiro, os primeiros projetos voltados à regulamentação da  internet concentraram-se na esfera penal, com destaque para a Lei nº 12.735/2012 (Lei de  Cybercrime ou Lei Azeredo). A escolha de iniciar a regulamentação por meio de normas  penais surpreendeu, já que a expectativa era que a primeira legislação fosse civil, definindo  direitos e deveres de governo, empresas e usuários de forma mais equilibrada (ALMEIDA &  PENAFORTE, 2025). No entanto, a limitação inicial ao enfoque punitivo deixou transparecer  uma necessidade de um marco normativo mais amplo, com a capacidade de disciplinar a  utilização da internet sob o ângulo dos direitos fundamentais e da cidadania digital. 

Em resposta a essa lacuna, no Brasil, o Marco Civil da Internet – MCI (Lei nº  12.965/2014) surgiu para regulamentar o uso da internet, definindo direitos e deveres de  usuários, provedores e do Estado. Criado em um contexto de rápida expansão tecnológica e diante de desafios como fake news e debates sobre liberdade de expressão, o MCI também foi  motivado por escândalos de espionagem eletrônica, evidenciando a necessidade de proteção  de dados e privacidade. A lei contou com ampla participação de organizações civis e políticas,  consolidando princípios e normas que equilibram liberdade, segurança e responsabilidade no  ambiente digital (ALMEIDA & PENAFORTE, 2025; LIMA & BARRETO JÚNIOR, 2016). 

Deste modo, o Marco Civil da Internet no Brasil revela a preocupação em determinar  um equilíbrio entre liberdade, segurança e responsabilidade no ambiente digital. Refletindo  como a rápida expansão tecnológica apresentou novos desafios, tais como a proteção de dados  pessoais, a privacidade e o combate à desinformação. Destacando a importância do papel dos  indivíduos na participação social e na construção de normas que orientam a convivência e a  interação no espaço virtual. 

A Lei nº 12.737/2012 (BRASIL, 2012), denominada como “Lei Carolina Dieckmann”,  foi elaborada com o objetivo de suprir lacunas legislativas relacionadas ao uso de meios  cibernéticos. Recentemente, sua aplicação prática tem sido amplamente debatida por juristas  especializados em Direito Penal e Direito Eletrônico, especialmente no que se refere à  eficácia da norma. Tais discussões evidenciam tensões entre especialistas dessas áreas quanto  à interpretação e implementação da lei frente aos desafios contemporâneos do ambiente  digital. 

Para alguns autores, esse dispositivo não oferece uma proteção plenamente eficaz,  devido a certas peculiaridades relacionadas à conduta do criminoso e à previsão relativamente  tímida das penas. O diploma legal, que acrescenta ao Código Penal brasileiro o art. 154-A,  referente à invasão de dispositivos informáticos, apresenta aspectos que podem ser  considerados, em certa medida, antagônicos (BEZERRA, 2022). 

Percebe-se que a referida lei representa um esforço do ordenamento jurídico para  atualizar a legislação diante das novas demandas do ambiente digital, criando mecanismos  para punir a invasão de dispositivos eletrônicos. No entanto, sua eficácia prática tem sido alvo  de debate, apontando limitações na proteção oferecida, como a definição restrita das condutas  criminosas e a previsão relativamente branda das penalidades.  

Nesse ambiente de constantes evoluções tecnológicas e desafios normativos, a Inteligência Artificial (IA) ganha destaque e pode ser entendida como o campo tecnológico  que busca simular habilidades humanas, como raciocínio, aprendizado e criatividade, por  meio do processamento de grandes volumes de dados. Ao automatizar tarefas cognitivas,  torna-se um recurso universal e indispensável em diversas áreas da atividade humana  (RUSSELL & NORVIG, 2010).

A autonomia da Inteligência Artificial (IA) tem se mostrado uma característica central  na evolução tecnológica contemporânea. Conforme Yamada (2025), a autonomia depende de  uma estrutura funcional hierárquica, permitindo que agentes realizem avaliação integrativa e  auto-modificação, resultando em comportamentos semelhantes aos humanos.  

Não obstante, a autonomia da IA oferecer benefícios operacionais e eficiência, também há riscos significativos, principalmente no que diz respeito a decisões desalinhadas, erros  ou possíveis manipulações. Sendo assim, a supervisão humana contínua é primordial para  garantir a segurança e a credibilidade desses sistemas, destacando que mecanismos de controle e intervenção humana são indispensáveis. 

Diante disso, o progresso da IA no campo da segurança pública tem promovido  transformações substanciais nas práticas investigativas e judiciais, com sua inserção acelerada no sistema de justiça criminal, incluindo o jurídico. A adoção da IA no Direito está  revolucionando práticas convencionais e gerando novas possibilidades para os advogados e o  sistema de justiça. Este texto investiga a implementação da biometria facial na área jurídica,  os dilemas éticos decorrentes dessa inovação e as consequências futuras para os especialistas  do setor (SABANE, 2021). 

No âmbito judicial, podem-se destacar vários efeitos que o emprego desse sistema  inteligente provocou. Por exemplo, na esfera criminal, o maior impacto potencial para a  prática de crimes com o uso da IA; na esfera civil, levantando debates sobre potenciais  prejuízos de danos provocados pela IA; inclusive, na recente Lei Geral de Proteção de Dados  (LGPD), visto que no contexto da IA, os dados são considerados coletados e guardados na sua  agenda (CONJUR, 2023). O uso da IA no âmbito judicial deixa claro os desafios legais a  serem enfrentados, tanto na prevenção de crimes quanto na responsabilização por danos civis,  o que reforça a relevância da LGPD na proteção de dados e na regulação do ambiente digital. 

O reconhecimento facial representa uma maneira de tecnologia biométrica que utiliza  características faciais únicas para identificar indivíduos. Essa tecnologia envolve a captura e  análise de imagens faciais usando algoritmos complexos, que comparam as características do  rosto para confrontá-las com um banco de dados de faces conhecidas (BUOLAMWINI &  GEBRU, 2018). A tecnologia do RF permite a identificação por meio da análise de traços  únicos. No entanto, levanta debates sobre a privacidade e apesar de ter potencial para  aprimorar segurança, controle de acesso e serviços personalizados, há grandes riscos de vieses  nos algoritmos utilizados. O que reforça a necessidade de regulamentações apropriadas e  práticas responsáveis.

O processo de atuação dos algoritmos de RF possui alguns desafios técnicos. Nas  considerações de Garvie, Badoya & Frankle (2016) embora possuam grande potencial, os  algoritmos enfrentam limitações técnicas relevantes, como variações de iluminação, posição  do rosto, envelhecimento, uso de acessórios (óculos, máscaras) e imagens capturadas de baixa  resolução. Esses fatores influenciam de forma direta a acurácia e a incidência de erros do tipo  falsos positivos e negativos nos sistemas de identificação. 

A integração entre o RF e a IA constitui uma evolução importante nas práticas de  investigação criminal e segurança pública. No entanto, sua aplicação no contexto jurídico  impõe desafios complexos e multidimensionais, que envolvem não apenas a eficácia técnica  da ferramenta, mas, sobretudo, a preservação dos direitos fundamentais, dentre eles: a  privacidade, a igualdade, o devido processo legal e a autodeterminação informativa. 

3. METODOLOGIA  

A pesquisa foi baseada em revisão de literatura, envolvendo a pesquisa bibliográfica,  qualitativa e exploratória.  

A pesquisa qualitativa objetiva compreender, de forma aprofundada, os significados,  percepções e implicações sociais e jurídicas do uso do RF como instrumento nas  investigações criminais. Já a pesquisa com uma abordagem exploratória pretende  compreender a necessidade de aprofundar o debate acadêmico sobre os impactos no sistema  penal, particularmente no que tange ao respeito aos direitos fundamentais, à proteção da  privacidade e à observância do devido processo legal. 

Na pesquisa bibliográfica foi realizado um levantamento de doutrinas jurídicas sobre  reconhecimento facial, IA e as garantias fundamentais. Envolvendo a análise de normas  legais, doutrina especializada, jurisprudência nacional, bem como relatórios técnicos e artigos  científicos que abordam o tema. Entende-se que a comparação entre os diferentes arcabouços  regulatórios permite identificar as lacunas presentes no sistema jurídico brasileiro e  proposituras para aprimorá-la, considerando as melhores práticas internacionais. 

Por intermédio da pesquisa documental foi feita uma análise da legislação brasileira,  incluindo a CF, o CPP e a LGPD. Visto que a pesquisa documental é uma modalidade de  investigação científica que se baseia na análise de documentos previamente elaborados, sejam  eles oficiais, institucionais ou particulares, com o objetivo de obter informações relevantes  para o entendimento de determinado fenômeno ou problema de pesquisa.

A análise jurisprudencial constitui uma etapa fundamental dessa pesquisa, sendo  realizada mediante estudo crítico de deliberações judiciais em âmbito nacional que dizem  respeito ao uso do RF no âmbito das investigações criminais. Esse método permite identificar  como os tribunais têm interpretado e aplicado os princípios constitucionais, os direitos  fundamentais e as normas legais diante da incorporação de tecnologias de identificação  biométrica no processo penal. 

O estudo comparado tem como finalidade conduzir uma análise detalhada das  regulamentações internacionais que disciplinam o uso da IA aplicada à segurança pública.  Essa abordagem permite compreender como diferentes jurisdições em todo o mundo  enfrentam os desafios éticos, jurídicos e sociais decorrentes da implementação dessas  tecnologias, especialmente em ações voltadas à salvaguarda dos direitos fundamentais dos  cidadãos. 

O método de raciocínio mais adequado para essa pesquisa foi o método dialético e  dedutivo, pois envolve: O método dialético permite o confronto entre a urgência de segurança  pública e a garantia dos direitos essenciais, apresentando diferentes argumentos, teorias e  abordagens relativas ao emprego do reconhecimento facial e da IA na investigação criminal,  possibilitando uma compreensão aprofundada dos conflitos, contradições e convergências  existentes no campo jurídico e tecnológico. Com uma análise dos argumentos a favor e contra  a aplicação do reconhecimento facial na investigação criminal. O método dedutivo parte da  análise dos princípios constitucionais e das normas legais para verificar a conformidade  jurídica do uso da IA na persecução penal. Examina os perigos e benefícios do  reconhecimento facial fundamentado em estudos e casos práticos.  

Com essa abordagem, a pesquisa pode avaliar criticamente o uso do RF na  investigação criminal, propondo diretrizes para analisar a legitimidade do emprego que  garanta a eficiência na segurança pública sem comprometer os direitos fundamentais dos  cidadãos. 

4. RESULTADOS E DISCUSSÕES  

4.1 Inteligência artificial e investigação criminal 

A Inteligência Artificial representa um avanço significativo na tecnologia,  considerando que simula habilidades cognitivas humanas e automatiza tarefas complexas, tornando-se um recurso essencial em múltiplas áreas. Sua autonomia é um fator central,  permitindo adaptação e ajustes de comportamento de forma independente nos processos de  tomada de decisão humana. 

Entretanto, essa independência operacional traz riscos significativos. Nas palavras de  Adewumi et al. (2025) ou autores alertam que sistemas totalmente autônomos podem  apresentar valores desalinhados, engano ou manipulação, exigindo supervisão humana  contínua. Esse ponto é reforçado por Löwenmark et al. (2025), que demonstram, no contexto  industrial, que embora os sistemas possam operar de forma autônoma, a intervenção humana é  essencial para garantir segurança e confiabilidade.  

Alvarenga & Torres (2024) trazem a definição de Inteligência Artificial como uma  tecnologia com capacidade para simular habilidades humanas na tomada de decisão e  solucionar problemas, por intermédio da análise de dados pelos algoritmos, aprendendo e  fazendo previsões ou gerando respostas automáticas. Na investigação criminal, a IA pode ser  adotada no exame de grandes volumes de informações, avaliando riscos, identificando  padrões, projetando a possibilidade da reincidência criminal dos suspeitos, proporcionando  celeridade processual, otimizando a distribuição de recursos e assegurando a consistência das  decisões. 

Ao conduzir essa reflexão para o campo jurídico e penal, pode-se observar que  existem alguns desafios que surgem quando a IA é implementada em processos de  identificação e investigação criminal, fato este que exige uma análise crítica sobre as  implicações éticas e legais.  

Nesse contexto, Ferreira (2024) destaca que, as decisões complexas e os elevados  volumes de dados que predominam na área da investigação criminal, a adoção de sistemas  computacionais inteligentes emerge como uma alternativa propulsora que potencializará a  celeridade, e, por conseguinte, a qualidade das análises efetivadas pelos investigadores. O  conhecimento tácito dos profissionais de polícia judiciária, quando incorporados aos sistemas  inteligentes, configura um marco no aperfeiçoamento da gestão das atividades investigativas. 

Esse desenvolvimento tecnológico, no entanto, ultrapassa a esfera operacional, visto  que sua crescente implementação por entes de segurança pública no Brasil e em outros países, percebe-se que tem ocorrido uma grande expansão globalmente. Essa ferramenta está presente  nas medidas de segurança no território nacional, e internacionalmente em países como Reino  Unido, China e Estados Unidos que têm liderado a implementação do RF (GARVIE,  BADOYA & FRANKLE, 2016; LUDGERO, 2024).

Nesse cenário, enquanto Grossi et al. (2025) ressalta benefícios da IA, dentro de uma  corporação, posto que é uma ferramenta valiosa, sendo estratégica para auxiliar a investigação  e prevenção de crimes, cooperando para o RF, otimização de recursos, cibersegurança, análise  preditiva das áreas de risco e apoio para tomada de decisão, Alvarenga & Torres (2024)  destacam que, no campo do direito penal e processual penal, a utilização da inovação  tecnológica desencadeia um conflito entre a proteção integral dos direitos e garantias  fundamentais dos suspeitos e implementação de novas tecnologias de informação e  comunicação, envolvendo as questões de celeridade, coleta de provas, transparência e  privacidade dos indivíduos. 

Dessa forma, percebe-se que a utilização da IA no âmbito da investigação criminal  promove avanços relevantes no que tange a exatidão na análise dos dados, celeridade e  eficiência. É imprescindível que haja regulamentação adequada para uma conciliação entre as  inovações tecnológicas e as garantias constitucionais, para que a sua adoção não gere desafios  sociais, éticos e jurídicos, principalmente relacionados à proteção de direitos fundamentais,  privacidade e transparência dos processos.  

4.2 Reconhecimento facial e direito à privacidade 

O reconhecimento facial é uma inovação tecnológica muito utilizada na investigação  criminal, mediante seu potencial para identificar indivíduos com características faciais únicas.  Todavia, essa tecnologia levanta questões teóricas, sociais e jurídicas importantes. No entanto,  a utilização do RF em investigações criminais levanta questões importantes sobre o princípio  da presunção de inocência e o devido processo legal. Matida & Cecconello (2021) ressaltam  que o reconhecimento fotográfico é um instrumento útil, mas precisa ser usado com cuidado  para evitar erros e assegurar a presunção de inocência. 

Historicamente, a investigação criminal era dependente de pistas físicas e depoimentos  de testemunhas que possibilitassem a identificação dos suspeitos. Antes do advento das  tecnologias avançadas, tais como: câmeras de segurança e sistemas de reconhecimento facial,  o processo de investigação era moroso e dependente das evidências e provas tradicionais.  Com o acesso às ferramentas tecnológicas, a polícia passou a identificar de forma mais rápida  os suspeitos com maior probabilidade de acerto (GROSS, 2025). 

O impacto do RF na localização de suspeitos e no monitoramento de espaços públicos  levou à consolidação como uma das inovações tecnológicas mais importantes utilizadas na  esfera da segurança pública. Principalmente, com a detecção de suspeitos, no monitoramento de espaços públicos e como prevenção de crimes. No entanto, a aplicação do RF na segurança  estatal requer um equilíbrio atencioso intrinsecamente ligado à eficiência na repressão ao  crime e na defesa dos direitos civis (PONTES & SILVA, 2023). 

Nessa esteira, Buolamwini & Gebru (2018) reforçam que o reconhecimento facial  pode apresentar falhas e trazer resultados com falsas acusações, especialmente na utilização  do banco de informações onde há treinamento e poderá ser tendenciosa ou a tecnologia carece  de precisão. 

Apesar dessas limitações, há possibilidades de que a IA aplicada aos mecanismos de  RF contribua para uma justiça mais eficaz, auxiliando nas investigações criminais sem  comprometer as garantias fundamentais dos envolvidos. Para tanto, é necessário oferecer uma  fundamentação para diretrizes que incentivem a utilização com responsabilidade e equitativo  da IA na justiça penal, promovendo um cenário de justiça mais moderno e acessível, mas  sempre atento aos direitos humanos. 

A lacuna na literatura traz a ausência de norma regulatória específica e a recente  integração da referida tecnologia pelas autoridades brasileiras torna necessária uma análise  crítica sobre sua legalidade e implicações jurídicas. Araujo, Cardoso & Paula (2021)  ressaltam que essa deficiência normativa para a aplicação do RF em investigações criminais  cria uma lacuna na literatura, sendo necessária uma análise crítica sobre sua legalidade e as  implicações jurídicas relativas à proteção dos direitos fundamentais. 

A proporção da privacidade e da intimidade está expressa no art. 5º, inciso X, da  Constituição da República Federativa do Brasil (CF) de 1988, estabelecendo que “são  invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas, assegurado o direito  à indenização pelo dano material ou moral decorrente de sua violação” (BRASIL, 1988, p.  13).  

A CF, no artigo 5º, inciso LVII, determina quanto ao princípio da presunção de  inocência e o rito processual adequado: “ninguém será considerado culpado até o trânsito em  julgado de sentença penal condenatória” (BRASIL, 1988, p. 16). 

Conforme Buolamwini & Gebru (2018), a garantia de equidade é um princípio  fundamental cujo cumprimento se impõe nas dimensões da vida social, inclusive no sistema  penal. A seletividade penal, a qual se refere à aplicação desigual da lei penal a diversos  grupos sociais, é uma temática relevante que afeta diretamente esse direito. 

Nessa conjuntura, a adoção do RF na esfera da segurança pública e da persecução  penal deve estar rigorosamente coerente aos princípios constitucionais e aos direitos  fundamentais consagrados na CF de 1988. Princípios como a legalidade, o devido processo legal, a dignidade da pessoa humana, a igualdade e a presunção de inocência não devem ser  relativizados em favor da eficiência estatal ou da evolução tecnológica. 

4.3 Riscos jurídicos e éticos da automatização da justiça penal 

O reconhecimento facial desafia os sistemas legais a encontrarem o equilíbrio entre  eficiência investigativa e resguardo de garantias fundamentais. O uso dessas ferramentas  tecnológicas por autoridades policiais implica na consideração e no respeito ao devido  processo legal, à presunção de inocência, a garantia da proteção dos dados individuais e ao  respeito à privacidade. Buolamwini & Gebru (2018) salientam que o reconhecimento facial  levanta questões importantes acerca da segurança de dados de identificação e a privacidade. 

Tais questões tornam indispensável uma reflexão crítica sobre os limites éticos da  utilização do RF, principalmente quando as inovações tecnológicas se sobrepõem à tutela das  garantias, dos direitos e liberdades individuais. 

A exigência de regulamentação para garantir transparência e segurança frente aos abusos  é urgente, considerando que um erro na identificação do cidadão poderá suceder em  consequências graves. A legislação brasileira deve ter diretrizes transparentes no emprego do  RF objetivando a preservação da privacidade e dos direitos civis. O marco regulatório trará  equilíbrio à segurança e às garantias dos cidadãos (ARAUJO, CARDOSO & PAULA, 2021;  BADA & OLIVEIRA, 2024). 

Em todo esse cenário, existem ameaças de segregação injusta na abordagem com a  tecnologia de RF. Na pesquisa realizada por Buolamwini & Gebru (2018), do Laboratório MIT  Media, evidenciaram-se taxas de erros de 34% no momento do RF em rostos de mulheres  negras, já a taxa de erro em homens brancos era inferior a 1%. Estudos empíricos atestam que  os índices de erro nos algoritmos passam a ser mais altos para pessoas negras, mulheres e  indivíduos não brancos. Os mesmos autores apontam que o impacto do viés algorítmico e a  probabilidade de reforço da desigualdade penal ocorrem em função do banco de dados passar  por um treinamento enviesado. Destarte, os sujeitos que já são marginalizados estão mais  suscetíveis a erros, a abordagens policiais indevidas e a prisões injustificadas (BUOLAMWINI  & GEBRU, 2018). 

Nas considerações de Andrade (2021) no Estado da Bahia, na micareta de 2019, em  Feira de Santana, 1,3 milhões de indivíduos passaram pelo reconhecimento facial. Dessas,  903 alertas foram emitidos como possíveis criminosos, porém somente 3,6% se tornaram mandados de prisão. Observa-se que a margem de erro da IA para essa tecnologia é muito  elevada, criando falsos positivos. 

Dessa forma, com casos de falsos positivos há riscos de erro judiciário, considerando  que o reconhecimento facial coleta dados biométricos indiscriminadamente afetando o direito à  intimidade e privacidade do cidadão que não é investigado na esfera criminal (PEREIRA, 2021). Tais circunstâncias revelam que o uso indiscriminado dessa ferramenta poderá  comprometer os direitos fundamentais, especialmente quando há ocorrência de detenções  indevidas e constrangimentos ilegítimos.  

Araújo, Cardoso & Paula (2021) mencionam o caso ocorrido no Rio de Janeiro, em  2019, quando uma mulher foi identificada como uma que era acusada de cometer delito de  homicídio e ocultação de cadáver, motivando assim a sua prisão. Entretanto, os agentes  perceberam o equívoco quando souberam que a mulher procurada já estava presa. De modo  semelhante, Pitasse (2024) ressalta que, no Rio de Janeiro, as abordagens realizadas pela Polícia Militar com o reconhecimento facial, por ocasião da comemoração do dia 31 de  dezembro de 2023, tiveram um índice de 10% de falsas identificações.  

O controle e auditoria sobre a referida tecnologia ser utilizada pelo estado precisam de  medidas urgentes, mediante a regulamentação de sua utilização, protocolos padronizados a fim  de certificar-se de que o sistema seja consistente e justo, com a efetivação de auditorias  autônomas que são indispensáveis para a utilidade do RF de maneira responsável e respeitosa  com os direitos individuais (RODRIGUES, 2025; DEFENSORIA PÚBLICA DA UNIÃO,  2025). No entanto, mesmo com tais mecanismos de controle, perduram desafios associados  aos vieses algorítmicos e ao risco da persistência de desigualdades raciais e sociais no âmbito  penal. Matida & Cecconello (2021) alertam que a aplicação da IA no sistema de justiça  criminal sem critérios legais e técnicos claros ameaça a garantia do devido processo legal,  podendo gerar decisões enviesadas, desproporcionais ou sem base empírica adequada,  particularmente em situações de reconhecimento facial e análise preditiva. 

Falsos positivos e erro judiciário em investigações criminais, segundo Araújo, Cardoso  & Paula (2021) ocorrem no uso de técnicas de RF que estão mal calibrado ou operado com  bancos de dados incompleto, aumenta significativamente o perigo de falsos positivos, com  identificações equivocadas que levam à prisão de inocentes. 

É relevante considerar as ameaças e limitações associadas a essa inovação tecnológica  que é o reconhecimento facial, sobretudo em circunstâncias de investigação criminal, pois a  falha na tecnologia pode conduzir a erros judiciários e a condenações injustas, com  consequências graves aos indivíduos envolvidos.

4.4 A legislação brasileira e internacional sobre o reconhecimento facial na investigação criminal 

Concernente ao Direito comparado e o cenário internacional, a adoção do RF em  investigações criminais já existem nos Estados Unidos da América (EUA), China e União  Europeia. Nabeshima (2024) aponta que nos Estados Unidos, o uso da tecnologia de  reconhecimento facial (FRT) em investigações criminais é um tema controverso. Alguns  estados têm adotado instrumentos legais que viabilizam a aplicação em circunstâncias  particulares. Já na China, conforme o relatório da Human Rights Watch (2019), o governo  chinês utiliza reconhecimento facial para rastrear e controlar pessoas em regiões como  Xinjiang, o que levanta sérias questões sobre autoritarismo digital, monitoramento massivo e  desrespeito aos direitos humanos. 

Nas considerações de Nabeshima (2024), observa-se que a União Europeia, tem a  adoção da FRT regulamentado pelo Regulamento Geral de Proteção de Dados (GDPR) e pela  Convenção 108+. A GDPR define diretrizes estritas para o manuseio de dados das pessoas,  incluindo dados biométricos. Segundo o autor, a União Europeia tem uma postura preventiva  e regulatória mais rígida, concernente ao reconhecimento facial. Nos EUA, nas cidades de  São Francisco, Oakland e Boston proibiram totalmente o sistema de RF pelas agências  governamentais, já em Massachusetts e Washington aprovaram leis que exigem mandado  judicial, auditoria independente e supervisão humana para a utilização dessa ferramenta pela  polícia. No Reino Unido há exigência de critérios legais mais precisos, controle humano  qualificado, avaliação de proporcionalidade e prestação de contas (NABESHIMA, 2024). 

Deste modo, é primordial o estabelecimento de restrições e regulamentações claras  objetivando a garantia dos direitos individuais e a privacidade. Os países que já enfrentaram  desafios com essa tecnologia têm adotado medidas para assegurar os direitos dos indivíduos e  dar transparência na execução da tecnologia de RF. 

O Código de Processo Penal brasileiro (CPP), apesar de ter sido promulgado em 1941,  tem enfrentado reformas pontuais para se adaptar às exigências do Estado Democrático de  Direito e à incorporação de novas tecnologias. Segundo Greco (2022), o CPP necessita de  uma análise à luz da Constituição de 1988, impondo limites para o uso tecnológico que  afetem os direitos fundamentais como a intimidade, a privacidade e o devido processo legal. 

A doutrina contemporânea também alerta que as tecnologias atuais não podem ser  usadas como atalho para atender a uma falta de investigação robusta. Conforme defende Lopes Junior (2021), as tecnologias devem ser utilizadas como uma ferramenta de reforço à  legalidade e não um mecanismo de exceção para assegurar os direitos fundamentais.

A LGPD n. 13.709/2018 configura-se como um marco primordial no ordenamento  jurídico do Brasil no tocante ao tratamento de dados individuais, impondo obrigações que  preservem a proteção e a garantia dos titulares. Nas considerações de Venosa (2020), no  âmbito da segurança pública, a utilização de tecnologias baseadas em IA, como  reconhecimento facial, deve observar os princípios da finalidade, necessidade, transparência e  segurança previstos na legislação, para evitar usos abusivos ou discriminatórios.

A adoção da IA, no campo jurídico, suscita questões relevantes acerca da privacidade e  da proteção de dados. A IA, frequentemente, demanda a acessibilidade a grandes volumes de  dados sensíveis, podendo elevar a possibilidade da violação de dados. Os profissionais em  Direito precisam estar familiarizados com as normas de proteção aos dados e assegurar que as  práticas apropriadas estejam implementadas para salvaguardar informações sigilosas  (SABANE, 2021). 

Sobre as regulamentações internacionais sobre o RF e vigilância, sabe-se que: em  2021, o Parlamento Europeu aprovou resolução criticando o emprego do RF ao vivo por  forças policiais, recomendando a proibição dessa prática em espaços públicos, pois entende  que ela compromete os princípios da presunção de inocência, da proporcionalidade e da não  discriminação (EUROPEAN PARLIAMENT, 2021). 

De acordo com o relatório da organização Human Rights Watch (2019), países que  adotam sistemas de RF em escala ampliada, como China e Rússia, demonstram os perigos da  vigilância massiva não regulamentada, com consequências severas no que diz respeito à  liberdade de expressão, ao direito de manifestação e à liberdade religiosa. 

Já nos Estados Unidos, a inexistência de uma legislação federal específica na  utilização do RF tem gerado um cenário regulatório fragmentado. Segundo Garvie, Badoya & Frankle (2016), essa lacuna permite que agências policiais utilizem os sistemas de RF sem  supervisão pública efetiva, o que compromete direitos como privacidade, liberdade de  associação e devido processo legal. 

O exame do sistema jurídico brasileiro e internacional quanto a aplicação do RF na  investigação criminal revela um cenário ainda caracterizado por omissões legais, tensionado  entre as inovações tecnológicas e a exigência de assegurar os direitos fundamentais. Dessa  maneira, o reconhecimento facial aplicado à investigação criminal exige regulamentação  específica, transparente e democrática, com critérios objetivos, instrumentos de fiscalização e  salvaguardas legais eficazes. 

4.4 Jurisprudência nacional e dados da Polícia Federal 

No ano de 2023, no Superior Tribunal de Justiça (STJ), das 377 decisões que  revogaram a prisão provisória ou os réus foram absolvidos, 281 – ou seja, 74,6% do  quantitativo geral foram decididas pelas falhas ocorridas no reconhecimento dos supostos  infratores. Essas decisões estão fundamentadas na existência de erros durante a identificação  por intermédio de fotografias (STJ, 2024). 

De acordo com o Superior Tribunal de Justiça:

Nos casos que foram revistos pelo STJ em 2023, as instâncias de origem haviam entendido, em geral, que o artigo 226 do CPP traria apenas uma “recomendação”, de modo que o descumprimento do dispositivo legal não seria motivo para declarar a nulidade da prova colhida. A jurisprudência do STJ, contudo, é outra: para a corte – na esteira de precedentes do Supremo Tribunal Federal (STF) –, o artigo 226 do CPP é de observância obrigatória, servindo como uma garantia mínima para quem está na posição de suspeito do cometimento de um crime (HC 598.886). Ainda segundo o STJ, mesmo que o reconhecimento seja realizado em conformidade com o artigo 226 do CPP, o procedimento tem valor probatório relativo, não podendo, por si só, levar à certeza sobre a autoria do delito (HC  712.781) (STJ, 2024, p. 1).

A consolidação do entendimento do Superior Tribunal de Justiça (STJ) de que o artigo  226 do Código de Processo Penal (CPP) não é somente recomendatório, mas tem caráter  obrigatório, pois traz a uma garantia mínima ao sujeito que se encontra em momento de  reconhecimento. O descumprimento desse dispositivo poderá invalidar a prova, mesmo  seguindo um procedimento correto, o reconhecimento deverá ser validado por outras  evidências.  

Na Figura 1 estão apresentados os resultados das decisões que absolveram ou  revogaram as prisões tendo como base o tipo de reconhecimento do suspeito.

Figura 1 – Absolvição/Revogação da prisão – Resultado por Tipo de Reconhecimento

Fonte: Superior Tribunal de Justiça (2023).

O resultado aponta que 19 acórdãos e 358 decisões monocráticas tiveram como  resultado a revogação da prisão ou a absolvição do indivíduo, perfazendo um total de 377  julgados. De acordo com a Figura 1, o elemento de prova que resultou na maior parte de  julgados absolvidos e revogadas tiveram o reconhecimento fotográfico, este fato se deve a  inobservância dos procedimentos legais previstos na legislação.  

Fica evidente a adoção de uma postura mais cautelosa por parte da jurisprudência mais  recente, visto que os tribunais superiores estão buscando a validação do reconhecimento facial  como provas a serem utilizadas, a fim de coibir as condenações advindas de procedimentos  ilegais. 

Nesse contexto, um precedente de grande relevância da Sexta Turma do Superior  Tribunal de Justiça (STJ), que anulou uma condenação baseada em reconhecimento por  imagens de outro crime, tendo a seguinte decisão: 

No que refere especificamente à prova de reconhecimento, a preservação do mito da ‘memória máquina filmadora’ significa aquiescer a falsos negativos e a falsos positivos, isto é, à absolvição de culpados e à condenação de inocentes. De outro lado, compreender as limitações constitutivas da memória humana torna necessária a tomada de uma série de providências no âmbito probatório – seja no que refere à produção, seja no que refere à valoração probatória, seja, finalmente, no que se refere à adoção de uma decisão sobre os fatos…’ (RHC 206.846/SP, Rel. Ministro GILMAR MENDES, DJe 29/09/2021). Por isso concluiu o Relator que, no caso concreto, era nulo o “reconhecimento fotográfico realizado por WhatsApp, somado ao fato de que nenhuma outra prova há nos autos no sentido de confirmar a autoria sobre o recorrente” (BRASIL, 2021, p. 6). 

Os dois indivíduos foram absolvidos por unanimidade, pela Sexta Turma do Superior  Tribunal de Justiça (STJ). Ambos foram acusados de roubo, após a vítima ter realizado a  denúncia e o reconhecimento fotográfico baseado em um vídeo de outro crime. O  entendimento do colegiado foi fundamento na inobservância dos procedimentos legais para a  realização do reconhecimento facial. 

Diante desse contexto jurisprudencial, pode-se observar que o cumprimento dos  procedimentos legais é condição primordial para garantir a validade das provas e a proteção  das garantias fundamentais no processo penal. Essa mesma observância torna-se precípua e  premente quanto a legalidade e a efetividade das ações investigativas, que refletem na esfera  das operações voltadas aos crimes digitais. 

A Figura 2 apresenta o quantitativo de Mandados de Busca e Apreensão (MBAs) no  combate aos crimes cibernéticos, em todo o território nacional no ano de 2023.

Figura 2 – Mandados de Busca e Apreensão (MBAs) expedidos no ano de 2023

Fonte: Adaptado da Polícia Federal (2023).

Conforme a figura acima se percebe que houve uma maior quantidade de MBAs no Distrito Federal (DF) com 103, em Minas Gerais (MG) com 83, no Pará (PA) com 70, na  Paraíba (PB) com 82, no Paraná (PR) com 132, Rio Grande do Sul (RS) com 70 e em São  Paulo (SP) com 154 mandados. 

No ano de 2023 houve 770 operações da Polícia Federal em todo o Brasil, resultando  em 237 prisões em flagrante, 7 prisões temporárias expedidas, 103 prisões preventivas  expedidas, 1216 MBAs expedidos (POLÍCIA FEDERAL, 2023). 

Na Figura 3 está demonstrado o quantitativo de Mandados de Busca e Apreensão  (MBAs) no combate aos crimes cibernéticos, em todo o território nacional no ano de 2024. 

Figura 3 – Mandados de Busca e Apreensão (MBAs) expedidos no ano de 2024

Fonte: Adaptado da Polícia Federal (2024).

Na análise da figura acima, percebe-se que houve uma maior quantidade nos Estados do Paraná com 141, Rio de Janeiro com 70, Minas Gerais com 83, Rio Grande do Sul com 80  e São Paulo com 313 mandados. 

No ano de 2024 houve 1150 operações da Polícia Federal em todo o Brasil, resultando  em 386 prisões em flagrante, 42 prisões temporárias expedidas, 183 prisões preventivas  expedidas, 1430 MBAs expedidos, conforme Figura 1, e, 99 vítimas resgatadas (POLÍCIA  FEDERAL, 2024). 

Dessa forma, evidencia-se que os avanços tecnológicos e sua utilização no campo  investigativo criminal deverão ser acompanhados de mecanismos de controle, transparência e  regulamentação, buscando assegurar que essas ferramentas contribuam de maneira eficiente  para a justiça, sem, contudo, violar os direitos fundamentais do cidadão. Pois, o  reconhecimento facial, compromete a validade das provas quando utilizado sem critérios  técnicos e jurídicos rigorosos, e, principalmente, afronta os princípios constitucionais, como o  devido processo legal e a presunção de inocência. 

5. CONSIDERAÇÕES FINAIS 

É importante anotar que o referido trabalho aqui apresentado, teve por objetivo central, analisar a legalidade do uso da tecnologia de reconhecimento facial baseada em inteligência  artificial na investigação criminal à luz dos direitos fundamentais. Para tanto, foi realizada  uma vasta pesquisa bibliográfica com os teóricos da área, análise da legislação e  jurisprudências para obter uma melhor visão do tema proposto. 

Os resultados responderam a problemática aventada nesta pesquisa, apontando que o uso de reconhecimento facial na investigação criminal quando não segue os devidos  procedimentos legais, fere os direitos fundamentais dos indivíduos, como a privacidade e a  presunção de inocência. 

Ao verificar a ligação entre a IA e a investigação criminal, os resultados apontaram  que a inserção da Inteligência Artificial, especificamente, do reconhecimento facial nas  investigações criminais tem representado um avanço tecnológico relevante para o sistema de  segurança pública e o processo penal contemporâneo. As ferramentas tecnológicas abarcam  um grande potencial para aperfeiçoar a eficiência das investigações, acelerando a persecução  penal e ampliando a capacidade estatal de resposta mais imediata frente ao aumento da  criminalidade, principalmente no que diz respeito aos crimes cibernéticos.

Quanto ao objetivo de identificar os princípios constitucionais e legais que podem ser  afetados pelo uso da IA na persecução penal, observou-se os avanços tecnológicos não podem  se sobrepor aos princípios da legalidade, da dignidade da pessoa humana, da igualdade e da  presunção de inocência, pois são garantias fundamentais que fazem parte do Estado  Democrático de Direito. 

Há que se dizer que os objetivos estabelecidos, inicialmente, para esta pesquisa foram  alcançados, assim como sendo capaz de responder à hipótese levantada que buscou responder  o problema da pesquisa, sobre a aplicabilidade da IA e que esta ferramenta pode violar a  intimidade e os direitos basilares dos indivíduos, especialmente quando inexiste um marco  regulatório claro sobre a sua aplicação. Havendo a possibilidade de que a IA nos mecanismos  de RF contribua para uma justiça mais eficaz, auxiliando nas investigações criminais sem  comprometer as garantias fundamentais dos envolvidos. Visto que, as ameaças e limitações  associados a essa inovação tecnológica, pode trazer falhas na tecnologia conduzindo a erros  judiciários e a condenações injustas, com consequências graves aos indivíduos envolvidos. 

Conclui-se, portanto, que a investigação criminal deve buscar o equilíbrio entre  eficiência e garantias fundamentais, buscando a promoção de uma justiça penal mais  moderna, célere e eficiente, sendo amparada pelos princípios da legalidade, da dignidade da  pessoa humana, da igualdade e da presunção de inocência. O reconhecimento facial e demais  tecnologias baseadas em IA podem ser utilizados como aliados do sistema de justiça, desde  que sua aplicabilidade seja direcionada por valores éticos e constitucionais, preservando os direitos humanos. 

REFERÊNCIAS 

ADEWUMI, Tosin et al. A IA não deve ser totalmente autônoma. ArXiv, 2025. Disponível  em: https://arxiv.org/html/2507.23330v1. Acesso em: 22 set. 2025. 

ALMEIDA, Eduarda Costa. Os grandes irmãos: o uso de tecnologias de reconhecimento  facial para persecução penal. Rev. bras. segur. Pública. São Paulo v. 16, n. 2, 264-283,  fev/mar 2022. Disponível em: https://doi.org/10.31060/rbsp.2022.v16.n2.1377. Acesso em:  15 abr. 2025. 

ALMEIDA, Juliana Evangelista; PENAFORTE, Gabriela Mundim. Marco civil da internet  (Lei nº 12.965/14) e os desafios contemporâneos à responsabilidade civil dos provedores na  era das fake News. Revista de Ciências do Estado, Belo Horizonte, Vol. 10, N. 1, 2025. Disponível em: https://periodicos.ufmg.br/index.php/revice/article/view/e54425/e54425.  Acesso em: 15 abr. 2025.

ANDRADE, Alessandra Regina de. Segurança pública e tecnologia: seletividade racial e  sistema penal discriminatório. 2021. Disponível em: https://direitopublico.com.br/wp content/uploads/2021/12/Seguranca-publica-e-tecnologia-no-sistema-penal discriminatorio2.pdf. Acesso em: 15 abr. 2025. 

ARAUJO, Romulo de Aguiar; CARDOSO, Naiara Deperon; PAULA, Amanda Marcélia de.  Regulação e uso do reconhecimento facial na segurança pública do Brasil. Revista de  Doutrina Jur., Brasília, DF, v. 112, e021009, 2021. Disponível em: https://revistajuridica.tjdft.jus.br/index.php/rdj/article/view/734/135. Acesso em: 15 abr. 2025. 

BADA, Murilo Maffioletti; OLIVEIRA, Marlon. Inteligência artificial na segurança  pública: o uso do reconhecimento facial para identificação de infratores. 2024. Disponível  em: http://repositorio.unesc.net/bitstream/1/10986/1/Murilo%20Maffioletti%20Bada.pdf.  Acesso em: 26 maio 2025. 

BEZERRA, João Manoel de Vasconcelos. Aplicabilidade da lei nº 12.737/12 sobre crimes  cibernéticos. Centro Universitário Vale do Salgado – UniVS. Revista Interdisciplinar  Encontro das Ciências – RIEC. ISSN: 2595-0959 Icó-Ceará, v.5, n.2, p. 41 – 68, Maio-Ago.  2022. 

BRASIL. Constituição da República Federativa do Brasil de 1988. Disponível em:  http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 05 mar.  2025. 

BRASIL. Portaria nº 148, de 31 de maio de 1995. Aprova a Norma nº 004/95 – Uso da Rede  Pública de Telecomunicações para acesso à Internet. Agência Nacional de  Telecomunicações. Disponível em: https://informacoes.anatel.gov.br/legislacao/normas-do mc/78-portaria-148. Acesso em: 20 set. 2025. 

BRASIL. Lei nº 12.737, de 30 de novembro de 2012. Dispõe sobre a invasão de dispositivos  informáticos, a fim de obter, adulterar ou destruir dados sem autorização do titular.  Diário Oficial da União, Brasília, DF, 30 nov. 2012. 

BRASIL. Superior Tribunal de Justiça. HABEAS CORPUS Nº 712781 – RJ (2021/0397952- 8). Habeas corpus. Roubo majorado e corrupção de menores. Reconhecimento fotográfico de  pessoa realizado na fase do inquérito policial. Inobservância do procedimento previsto no art.  226 do cpp. Prova inválida como fundamento para a condenação. Absolvição que se mostra  devida. Partes: Wanderson da Conceicao Silva Vs. Ministério Público do Estado do Rio de  Janeiro. Relator: Min. Rogerio Schietti Cruz. Data do Julgamento: 27 de outubro de 2020. Disponível em: https://processo.stj.jus.br/processo/julgamento/eletronico/documento/mediado/?documento_ti po=integra&documento_sequencial=148227668&registro_numero=202103979528&peticao_ numero=&publicacao_data=20220322&formato=PDF. Acesso em: 21 out. 2025. 

BUOLAMWINI, Joy; GEBRU, Timnit. Gender Shades: Intersectional Accuracy Disparities  in Commercial Gender Classification. Proceedings of Machine Learning Research, v. 81, p.  1–15, 2018. Disponível em: https://proceedings.mlr.press/v81/buolamwini18a.html. Acesso  em: 26 maio 2025.

CONJUR. Uso de IA foi um dos principais marcos para a advocacia em 2023, dizem  escritórios. 2023. Disponível em: https://www.conjur.com.br/2024-mar-05/uso-de-ia-foi-um dos-principais-marcos-para-a-advocacia-em-2023-dizemescritorios/#:~:text=’O%20foco%20em%202023%20foi,Alexandre%20Lauria%2C%20s%C3 %B3cio%20da%20banca. Acesso em: 13 mar. 2025. 

DENNY, Danielle Mendes Thame. Internet Legal. Livro didático para as disciplinas: Direito  da Informática e Relações Privadas e Internet. São Paulo. 2019. Disponível em:  https://www.researchgate.net/publication/336871607_Internet_Legal_Livro_de_Direito_da_I nformatica_e_de_Relacoes_Privadas_e_Internet. Acesso em: 20 set. 2025. 

DIONÍSIO, Cristiano. Marco civil da internet, neutralidade de rede e sua relação com a  liberdade como direito da personalidade. R. Tecnol. Soc., Curitiba, v. 14, n. 33, p. 16-30,  jul./set. 2018. Disponível em: https://periodicos.utfpr.edu.br/rts/article/view/7109/5249.  Acesso em: 20 maio 2025. 

EUROPEAN PARLIAMENT. Resolution on artificial intelligence in criminal law and its  use by the police and judicial authorities in criminal matters, 2021. Disponível em:  https://www.europarl.europa.eu/doceo/document/TA-9-2021-0405_EN.html. Acesso em: 26  maio 2025. 

FERREIRA, Luís Henrique Costa. Inteligência artificial na gestão da investigação criminal.  Revista do Instituto brasileiro de Segurança Pública. RIBSP-Vol. 7n. 19 –Set/Dez 2024.  Disponível em: https://revista.ibsp.org.br/index.php/RIBSP/article/view/253/189. Acesso em:  10 out. 2025. 

GARVIE, Clare; BADOYA, Álvaro; FRANKLE, Jonathan. The Perpetual Line-Up:  Unregulated Police Face Recognition in America. Georgetown Law Center on Privacy &  Technology. 2016. Disponível em: https://www.perpetuallineup.org/. Acesso em: 20 maio  2025. 

GRECO, Rogério. Curso de Direito Processual Penal. 24. ed. Rio de Janeiro: Impetus,  2022. 

GROSS, Paige. O reconhecimento facial no policiamento está a ganhar proteções em  cada estado. 2025. Disponível em: https://wisconsinexaminer.com/2025/02/03/facial recognition-in-policing-is-getting-state-by-stateguardrails/#:~:text=Katie%20Kinsey%2C%20chief%20of%20staff,identifying%20the%20cul prits%2C%20Kinsey%20said. Acesso em: 10 out. 2025. 

GROSSI, Márcia Gorett Ribeiro. Inteligência Artificial e Segurança Pública: um estudo de  caso na Academia de Polícia Civil de Minas Gerais. Revista Avante, Belo Horizonte, V. 1, n.  8, 2025. Disponível em: https://doi.org/10.70365/2764-0779.2025.131. Acesso em: 10 out.  2025. 

HUMAN RIGHTS WATCH. China’s Algorithms of Repression: Reverse Engineering a  Xinjiang Police Mass Surveillance App. 2019. Disponível em: https://www.hrw.org/report/2019/05/01/chinas-algorithms-repression/reverse-engineering xinjiang-police-mass. Acesso em: 26 maio 2025.

LEMOS, Ronaldo. Inteligência artificial e reconhecimento facial: questões teóricas e práticas  para o direito. Revista Brasileira de Políticas Públicas, v. 11, n. 2, 2021. 

LIMA, Marco Antonio; BARRETO JUNIOR, Irineu Francisco. Marco civil da internet:  limites da previsão legal de consentimento expresso e inequívoco como proteção jurídica dos  dados pessoais na internet. Revista de Direito, Governança e Novas Tecnologias. Brasília,  v. 1, n. 2, p. 241 – 260, Jan/Jun. 2016. Disponível em: https://indexlaw.org/index.php/revistadgnt/article/download/831/826. Acesso em: 20 maio  2025. 

LIMA, Luciano de Almeida. Diretrizes para aperfeiçoamento e interpretação da lei do marco  civil da internet com vistas à garantia do direito à privacidade nas redes sociais. Prisma  Jurídico, vol. 17, núm. 1, 2018. Disponível em: https://periodicos.uninove.br/prisma/article/view/8084/pdf_78. Acesso em: 20 maio 2025. LOPES JUNIOR, Aury. Direito Processual Penal. 18. ed. São Paulo: Saraiva, 2021. 

LUDGERO, Paulo Ricardo. Reconhecimento facial em sistemas de segurança pública no  brasil: legalidade e ética em debate. 2024. Disponível em: https://www.jusbrasil.com.br/artigos/reconhecimento-facial-em-sistemas-de-seguranca publica-no-brasil-legalidade-e-etica-em-debate/2557159610. Acesso em: 26 maio 2025. 

LÖWENMARK, Karl et al. Agent-based Condition Monitoring Assistance with Multimodal  Industrial Database Retrieval Augmented Generation. ArXiv. 2025. Disponível em:  https://arxiv.org/pdf/2506.09247v1. Acesso em: 22 set. 2025. 

MATIDA, Janaína; CECCONELLO, William Weber. Reconhecimento fotográfico e  presunção de inocência. Revista Brasileira de Direito Processual Penal, 7(1), 409. 2021.  Disponível em: https://doi.org/10.22197/rbdpp.v7i1.506. Acesso em: 26 maio 2025. 

NABESHIMA, Yuri. Uso do reconhecimento facial na segurança pública. 2024.  Disponível em: https://www.conjur.com.br/2024-jan-06/uso-do-reconhecimento-facial-na seguranca-publica/. Acesso em: 26 maio 2025. 

NAKASHIMA, Maurício. Desvendando o potencial e os desafios da inteligência artificial na  Polícia Militar do Paraná: estratégias para predição e prevenção de crimes. Revista Ibero Americana de Humanidades, Ciências e Educação. São Paulo, v.10.n.01. jan. 2024.  Disponível em: https://periodicorease.pro.br/rease/article/view/13019/6250. Acesso em: 26  maio 2025. 

PEREIRA, Sara Matias Ferrari; OLIVEIRA, Tarsis Barreto. O uso da inteligência artificial no  direito penal e seus reflexos sobre os direitos fundamentais da não discriminação e da  privacidade. Revista do Instituto de Direito Constitucional e Cidadania, 9(1), e099.  Disponível em: https://doi.org/10.48159/revistadoidcc.v8n2.e099. Acesso em: 01 mar. 2025. 

POLÍCIA FEDERAL. Dados da Polícia Federal no combate a crimes cibernéticos.  DCIBER – Diretoria de Combate a Crimes Cibernéticos. 2023. Disponível em: eyJrIjoiZjUzMDRkYzYtYmZiOC00ZWMzLTg2YTQtNTdiYTU1MzJiMTNhIiwidCI6IjU2 YzFlMmZiLTg3YzEtNGRlMC1hNmFjLWQwNTY2YzA4Y2U2NiJ9. Acesso em: 21 out.  2025.

POLÍCIA FEDERAL. Dados da Polícia Federal no combate a crimes cibernéticos.  DCIBER – Diretoria de Combate a Crimes Cibernéticos. 2024. Disponível em: eyJrIjoiZjUzMDRkYzYtYmZiOC00ZWMzLTg2YTQtNTdiYTU1MzJiMTNhIiwidCI6IjU2 YzFlMmZiLTg3YzEtNGRlMC1hNmFjLWQwNTY2YzA4Y2U2NiJ9. Acesso em: 21 out.  2025. 

PONTES, Marco Aurelio Muniz de; SILVA, Diogo Severino Ramos da. O impacto da  tecnologia de reconhecimento facial na eficiência da prova pericial e na garantia dos  direitos individuais. 2023. Disponível em: https://derechoycambiosocial.org/index.php/revista/article/view/2835/2217. Acesso em: 01  mar. 2025. 

RODRIGUES, Alex. Estudo aponta riscos de tecnologias de reconhecimento facial. Agência  Brasil. 2025. Disponível em: https://agenciabrasil.ebc.com.br/geral/noticia/2025-05/estudo aponta-riscos-das-tecnologias-de-reconhecimentofacial#:~:text=%E2%80%9CO%20reconhecimento%20facial%20vem%20sendo,membros%2 0do%20CESeC%2C%20referindo%2Dse. Acesso em: 20 maio 2025. 

STJ. Sexta Turma anula condenação baseada em reconhecimento por imagens de outro  crime. Superior Tribunal de Justiça. 2021. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/02122021-Sexta-Turma anula-condenacao-baseada-em-reconhecimento-por-imagens-de-outrocrime.aspx/?utm_source=chatgpt.com. Acesso em: 10 out. 2025. 

RUSSELL, Stuart J.; NORVIG, PETER. Artificial Intelligence: A Modern Approach. 3rd  ed. Upper Saddle River, NJ: Prentice Hall, 2010. Disponível em: https://repository.unimal.ac.id/1022/1/Artificial%20Intelligence%20-%20A%20Modern%20Approach%203rd%20Ed%20-%20Stuart%20Russell%20and%20Peter%20Norvig%2C%20Berkeley%20%282010%29.pdf.  Acesso em: 15 set. 2025. 

SABANE, Thiago Motizuki et al. Inteligência Artificial e sua relação com o Direito no  Brasil. Disponível em: https://unisalesiano.com.br/aracatuba/wpcontent/uploads/2022/08/Artigo-Inteligencia-Artificial-e-sua-relacao-com-o-Direito-no Brasil-Pronto.pdf. Acesso em: 09 mar. 2025. 

SANTOS, Miriam Cristina Fava; CATARINO, Maria Elisabete. 25 anos da web e o marco  civil da internet: apontamentos sobre o livre acesso à informação, a liberdade de expressão e a  privacidade. Comun. & Inf., Goiânia, GO, v. 19, n. 1, p. 05-19, jan./jun. 2016.  https://revistas.ufg.br/ci/article/view/31855/21869. Acesso em: 15 set. 2025. 

YAMADA, Kazunori D. Constitutive Components for Human-Like Autonomous Artificial  Intelligence. arXiv, 2025. Disponível em: https://arxiv.org/pdf/2506.12952. Acesso em: 20  set. 2025.

VENOSA, J. A Lei Geral de Proteção de Dados e seus impactos na segurança pública. São Paulo: Revista Jurídica, 2020.


1Acadêmica de Direito. E-mail: acadossantos@hotmail.com. Artigo apresentado às Faculdades Integradas Aparício Carvalho – FIMCA, como requisito para obtenção do título de Bacharel em Direito, Porto Velho/RO, 2025.

2Acadêmico de Direito. E-mail: arthur.lima731@gmail.com. Artigo apresentado às Faculdades Integradas  Aparício Carvalho – FIMCA, como requisito para obtenção do título de Bacharel em Direito, Porto Velho/RO, 2025.

3Acadêmica de Direito. E-mail: boaventurajus@gmail.com. Artigo apresentado às Faculdades Integradas Aparício Carvalho – FIMCA, como requisito para obtenção do título de Bacharel em Direito, Porto Velho/RO, 2025.

4Professora Orientadora. Professora do curso de Direito. E-mail: profmarinabento@gmail.com.