DIREITO, NOVAS TECNOLOGIAS E O BIG DATA: DESAFIOS ÉTICOS NA UTILIZAÇÃO DA INTELIGÊNCIA ARTIFICIAL

LAW, NEW TECHNOLOGIES, AND BIG DATA: ETHICAL CHALLENGES IN THE USE OF ARTIFICIAL INTELLIGENCE

REGISTRO DOI: 10.69849/revistaft/ni10202503221458


Thainá Loise Grangeiro Campos1


Resumo

A Inteligência Artificial (IA) emergiu como uma força transformadora na sociedade contemporânea, permeando diversos aspectos da vida cotidiana e desempenhando um papel crucial na chamada “Quarta Revolução Industrial”. Esta revolução, caracterizada pela fusão de tecnologias digitais, físicas e biológicas, promete revolucionar a maneira como vivemos, trabalhamos e interagimos. No entanto, essa aceleração tecnológica não vem sem seus desafios e preocupações significativas. A rápida expansão da IA traz consigo o potencial de violar direitos fundamentais, agravar desigualdades sociais e perpetuar preconceitos. O Big Data se refere a uma alta dimensão e à diversidade dos dados, coletados, armazenados e manipulados, por entes públicos e privados, gerando alto risco de violação do direito fundamental à proteção de dados, incluído pela Emenda Constituicional nº 115/2022 e previsto no art. art. 5º, inciso LXXIX da Constituição Federal. Ademais, essa interação entre inteligência artificial, Big Data e algoritmos revela ainda a tendência a vieses discriminatórios que influenciam decisões cruciais, desde sistemas de crédito até justiça criminal. A falta de regulamentação adequada pode resultar em discriminação e injustiças, comprometendo direitos individuais e exacerbando disparidades já existentes. É imperativo que o Direito acompanhe essa evolução tecnológica, estabelecendo normas éticas robustas que garantam uma aplicação justa e equitativa da IA. No contexto jurídico, a IA está sendo cada vez mais utilizada, desde a automação na redação de contratos até a assistência em decisões judiciais complexas. No entanto, a implementação dessas tecnologias deve ser acompanhada por mecanismos rigorosos de transparência e responsabilidade, especialmente no sistema penal, onde erros podem ter consequências devastadoras para indivíduos e comunidades. Para mitigar esses desafios, é essencial também um diálogo contínuo entre legisladores, profissionais do direito e especialistas em tecnologia, visando desenvolver políticas que protejam os direitos fundamentais, promovam a justiça e garantam a equidade. A ética deve estar no centro dessas discussões, assegurando que os algoritmos de IA sejam desenvolvidos e implementados de maneira a evitar discriminações e respeitar princípios universais de direitos humanos.

Palavras-chave: 1. Tecnologia. 2. Big Data. 3. Inteligência artificial. 4. Viés Algorítmico. 5. Regulamentação.

Abstract

Artificial Intelligence (AI) has emerged as a transformative force in contemporary society, permeating various aspects of daily life and playing a crucial role in the so-called “Fourth Industrial Revolution.” This revolution, characterized by the fusion of digital, physical, and biological technologies, promises to reshape the way we live, work, and interact. However, this rapid technological acceleration is not without significant challenges and concerns. The swift expansion of AI carries the potential to infringe upon fundamental rights, exacerbate social inequalities, and perpetuate biases.Big Data refers to the vast volume and diversity of data collected, stored, and processed by public and private entities, posing a significant risk of violating the fundamental right to data protection, which was incorporated into the Brazilian Federal Constitution through Constitutional Amendment No. 115/2022 and is enshrined in Article 5, item LXXIX. Furthermore, the interaction between artificial intelligence, Big Data, and algorithms reveals a tendency toward discriminatory biases that influence critical decisions, from credit systems to criminal justice. The lack of adequate regulation may result in discrimination and injustices, compromising individual rights and exacerbating preexisting disparities.It is imperative that the legal system keeps pace with this technological evolution by establishing robust ethical standards that ensure the fair and equitable application of AI. In the legal field, AI is increasingly used, from contract drafting automation to assisting in complex judicial decisions. However, the implementation of these technologies must be accompanied by stringent transparency and accountability mechanisms, particularly within the criminal justice system, where errors can have devastating consequences for individuals and communities. To mitigate these challenges, a continuous dialogue among legislators, legal professionals, and technology experts is essential to develop policies that protect fundamental rights, promote justice, and ensure fairness. Ethics must be at the core of these discussions, ensuring that AI algorithms are designed and deployed in a manner that prevents discrimination and upholds universal human rights principles.

Keywords: Technology. Big Data. Artificial Intelligence. Algorithmic Bias. Regulation.

Introdução

A Inteligência Artificial (IA) está cada vez mais presente na vida cotidiana das pessoas e é aplicada em várias áreas do conhecimento. Atualmente, é quase impossível pensar no mundo sem a tecnologia, a internet e até mesmo a inteligência artificial. Considerada uma tecnologia disruptiva, a IA tem provocado – e continuará provocando – mudanças significativas na sociedade, apontando para uma mudança de paradigma e um período de transição, consolidando-se como um dos pilares da chamada “Quarta Revolução Industrial” (Schwab, 2016). Esta revolução é caracterizada pela velocidade exponencial do avanço tecnológico, pela combinação de inovações em diversas áreas e pelo impacto global dessas mudanças.

Essa revolução digital é caracterizada pelo uso de sensores cada vez mais potentes e acessíveis, permitindo uma maior interação entre ambientes físicos e digitais através da IA. A atual revolução se espalha de forma ampla e rápida, superando as mudanças históricas conhecidas e provocando transformações profundas em todo o mundo. O progresso da IA é impressionante, e todas essas mudanças impactarão significativamente a maneira como a humanidade vive (Schwab, 2016, p. 23).

No entanto, muitas reflexões e desafios surgem nesse contexto de mudanças radicais como a possibilidade de o ritmo acelerado de crescimento da IA aumentar desigualdades sociais pré-existentes e levar a violações, como já ocorreu em algumas áreas onde a aplicação da IA apresentou erros, conhecidos como vieses. Exemplos citados incluem a IA que atribuiu alto risco de empréstimo a negros e hispânicos, o reconhecimento facial do Google que identificou pessoas negras como gorilas, o LinkedIn que favoreceu contatos masculinos, dentre outros (Dierle; Marques, 2018, p. 7). Nesse sentido, o Direito não pode se isentar dessa revolução, sendo impactado e transformado pela nova tecnologia, assim como todas as outras áreas do conhecimento.

A relevância do tema, especialmente diante dos desafios éticos discutidos por toda a sociedade, destaca os perigos de uma aplicação da IA sem reflexões, limites ou qualquer regulação e regulamentação. Embora os avanços e impactos dessa nova tecnologia possam melhorar a vida de muitas pessoas, eles também podem perpetuar e aprofundar desigualdades sociais e preconceitos, o que é preocupante se essa tecnologia for aplicada ao Direito.

Estão sendo desenvolvidas aplicações de IA para o Direito que variam desde a confecção de contratos até decisões judiciais. Em alguns países, a IA já é utilizada em decisões criminais. Portanto, este trabalho buscará trazer à tona algumas reflexões sobre os impactos da inteligência artificial no Direito.

1. Conceitos introdutórios à inteligência artificial, algoritmos e Big data

A intersecção entre o direito e novas tecnologias, especialmente o Big Data, tem transformado profundamente o cenário jurídico contemporâneo, tornando essencial entender a importância do direito nos processos de digitalização. Quanto ao termo “digitalização”, Hoffmann (2020, p.433) afirma que

refere-se inicialmente apenas às tecnologias da informação específicas que processam dados digitais e às infraestruturas (software e hardware) criadas para as tecnologias digitais.  No entanto, o termo também representa a mudança fundamental nas condições de vida desencadeada pela sua utilização em todo o mundo. Permite a utilização de sistemas ciberfísicos para novos processos de produção em rede e automatizados (por exemplo, na indústria 4.0), alterações na forma como as pessoas vivem as suas vidas (por exemplo, na “casa inteligente”), a criação e utilização de redes sociais (como o Google ou o Facebook) e outros novos serviços de comunicação (por exemplo, mensagens instantâneas), bem como novos sistemas de vigilância por empresas privadas e agências governamentais.

A digitalização e a revolução digital constituem um processo de transformação fundamental e abrangente que ocorre na sociedade, na economia e em diversos aspectos da vida cotidiana devido à adoção generalizada e ao impacto das tecnologias digitais. Assim, muito mais do que apenas digitalizar e automatizar processos, a transformação (ou revolução) digital é um conceito complexo e amplo que engloba uma série de mudanças – inclusive e, principalmente, culturais.

Os avanços tecnológicos cada vez mais numerosos e rápidos fomentaram uma cultura da inovação; como consequência, aumentando o estímulo à criação de novas soluções que transformassem ou melhorassem processos, até o surgimento das primeiras tecnologias digitais. Atualmente, o mundo vive sua quarta revolução industrial, a era da Inteligência Artificial, que coloca em evidência questionamentos sobre quais os limites para o que pode ser transformado digitalmente.

A inteligência artificial faz parte de um processo de revolução digital e vem ganhando cada vez mais protagonismo na sociedade. Alguns autores consideram a inteligência artificial como um dos desenvolvimentos centrais da chamada “quarta revolução industrial” (Schwab, 2016). Enquanto a primeira revolução industrial foi marcada pela invenção da máquina a vapor; a segunda revolução industrial foi impulsionada pelo advento da eletricidade e da linha de montagem, permitindo a produção em massa de produtos; a terceira revolução industrial iniciou a era digital na década de 1960, impulsionada pelo desenvolvimento de tecnologias como a internet e componentes de hardware computacional. Finalmente, a quarta revolução industrial, conforme Schwab (2016), é caracterizada por três vetores principais: o primeiro é a velocidade, avançando em ritmo exponencial com tecnologias que geram inovações cada vez mais rápidas e aprimoradas; o segundo é a amplitude e profundidade, combinando várias inovações em diferentes áreas e transformando a maneira como as coisas são feitas; e o terceiro é o impacto sistêmico, cujos efeitos abrangem não apenas uma sociedade local, mas o mundo inteiro, afetando negócios, política e relações sociais de modo geral.

Segundo Kaufman, “IA é a ciência e a engenharia de criar máquinas que tenham funções exercidas pelo cérebro dos animais”. (Kaufman, 2021, p. 75)

Sobre o termo “algoritmo”, ele surgiu anda no século IX e denominava o processo de cálculo de numerais, remetendo a ações que obedecem a padrões, como tricotar, por exemplo, como transformar algo em uma lei universal, um padrão exato, instruções precisas. (Kaufman, 2018, p. 26).

Segundo Norvig e Russell (2013 apud Araújo, 2021), Alan Turing propôs os testes de Turing para definir operacionalmente a inteligência: um computador seria considerado inteligente se um interrogador não conseguisse distinguir suas respostas das de um humano. Para isso, um computador deve possuir capacidades como processamento de linguagem natural, representação de conhecimento, raciocínio automatizado, aprendizado de máquina, visão computacional e robótica. Tais disciplinas continuam atuais e compõem a maior parte da Inteligência Artificial (IA).

É certo que a inteligência artificial (IA) inspira-se em mecanismos da inteligência humana, como raciocínio, aprendizado e predição, contudo, não busca replicar o cérebro humano. Ao contrário. De acordo com estudo elaborado pelo matemático Ronald Cicurel e o neurofisiologista Miguel Nicolelis (apud Araújo, 2021), elaborou-se a teoria do cérebro relativístico, prevista no livro “O cérebro relativístico: como ele funciona e por que ele não pode ser simulado por uma máquina de Turing”.

O que os cientistas se propuseram foi, de modo mais simples, comprovar que a inteligência artificial não reúne condições de funcionar como um cérebro humano, e, por conseguinte, é possível afirmar que não há tomada de consciência e vontade em suas ações. (Araújo, 2021, p. 100)

Importante destacar que atualmente a IA não possui o objetivo de emular o ser humano, mas apenas da resolução de problemas. Logo, hoje se vê um movimento para desvincular o conceito da definição da inteligência humana (Dierle; Marques, 2021, p.711-712).

Dentre as inovações trazidas pela transformação digital, destaca-se a utilização do Big Data. Conceitualmente, Hoffmann (2020, p. 434) afirma que

O termo refere-se à dimensão e à diversidade dos dados que podem ser utilizados para a aplicação das tecnologias digitais, bem como às várias possibilidades de as combinar e avaliar e de as tratar pelas autoridades públicas e privadas em diferentes contextos. Os megadados são utilizados para controlar comportamentos individuais e coletivos, para registar tendências de desenvolvimento, para permitir novos tipos de produção e distribuição, bem como tarefas do Estado, mas também para novas formas de ilegalidade, especialmente o cibercrime.

O potencial da digitalização e da utilização de grandes volumes de dados está atualmente a ser consideravelmente ampliado pelos avanços da inteligência artificial.  Em termos gerais, isto se refere a métodos que permitem aos computadores lidar com tarefas tão complexas que requerem inteligência quando resolvidas por humanos. O computador torna-se, por assim dizer, um instrumento técnico “pensante” que pode trabalhar em problemas de forma independente e – em sistemas de aprendizagem – desenvolver ainda mais os programas aplicados de forma independente.

Os algoritmos são onipresentes e essenciais para o funcionamento do mundo moderno. Segundo Domingos (2017, p. 20), “se todos os algoritmos parassem de funcionar inesperadamente, o mundo que conhecemos chegaria ao fim”. O deep learning permite avaliar grandes volumes de dados, retornando informações úteis, e está presente em atividades diárias como acessar um computador, pesquisar no Google, comprar na Amazon e escolher filmes na Netflix. O aprendizado da máquina se dá a partir de inferências retiradas dos dados e, quanto mais dados fornecidos à máquina, melhores serão essas inferências (Kaufman, 2018, p. 17-18), no entanto, Big Data gera novas informações a partir de dados, aceitando a desordem do mundo real e sacrificando a exatidão em favor da tendência geral (KAUFMAN, 2018, p. 24).

Nesse sentido, Domingos afirma que “O Homo sapiens é a espécie que adapta o mundo às suas necessidades e não uma espécie que se adapta ao mundo”, de modo que modifica o mundo conforme suas necessidades, e os algoritmos são utilizados para avaliar os desejos das pessoas (DOMINGOS, 2017, p. 12). Algoritmos de deep learning fazem previsões a partir de padrões e correlações que a análise humana não percebe; eles variam conforme o modelo de negócio, como os da Netflix e Amazon, que têm diferentes objetivos de recomendação (KAUFMAN, 2018, p. 26-29).

2. Desafios Jurídicos e Implicações Legais da Inteligência Artificial e Big Data

Como explorado até então, inegável que o Big Data se tornou uma ferramenta poderosa para coletar, armazenar e analisar grandes volumes de dados, trazendo consigo implicações legais significativas, oferecendo oportunidades e desafios, no contexto jurídico. Por um lado, as análises de dados em larga escala podem fornecer insights valiosos para advogados, juízes e pesquisadores, permitindo uma melhor compreensão de padrões jurídicos, precedentes e comportamentos legais. Essa análise de dados pode informar decisões judiciais, prever tendências legais e otimizar processos judiciais, tornando a administração da justiça mais eficiente e eficaz.

Por outro lado, o uso do Big Data na prática jurídica também levanta uma série de questões éticas e legais. A privacidade e proteção de dados pessoais dos usuários, por exemplo, é uma preocupação fundamental. A coleta e o armazenamento de grandes quantidades de dados podem aumentar os riscos de violações de privacidade e abusos de informações sensíveis. Questões relacionadas à segurança cibernética também surgem, considerando a necessidade de proteger os sistemas que lidam com dados judiciais e governamentais, evidenciando o que denominam de “sociedade do risco”.

A “sociedade de risco” é um conceito cunhado pelo sociólogo alemão Ulrich Beck, que descreve a contemporaneidade como uma era em que os riscos não são mais controlados apenas por instituições tradicionais, como governos e corporações, mas, resultado de avanços tecnológicos, industrialização e globalização, amplamente difundidos pela sociedade.

Vê-se uma substituição do conceito de ameaça latente, no qual não seria possível precisar quais as  ameaças possíveis, para  o  conceito  de  risco  em  que visualizam-se as ameaças antecipando-as por uma encenação no presente as catástrofes futuras, de modo que através das projeções científicas, ou das imagens simbólicas desenhadas pelos meios de comunicação permite-se trabalhar com o risco.

A sociedade em que o risco se tornou central, em virtude do avanço da ciência e da tecnologia, fez emergir novas situações de perigo diferentes das existentes em décadas anteriores, de  modo  que  a  anterior  sociedade  industrial  transfigura-se  na  sociedade  de risco.

Para o Beck, 4os riscos existem “por si” na sociedade mundial do risco global, isto porque a percepção dos riscos, e ele destaca os ecológicos globais, levam muitos a assumirem uma posição fatalista. (Da Silva; Guardia, 2019, p. 48-49)

A globalização e a tecnologia são grandes impulsionadores dessa sociedade de risco. Ela se refere à crescente interconexão e interdependência entre países, economias e culturas em todo o mundo. A globalização facilita o fluxo de pessoas, bens, serviços e informações, mas também traz consigo uma série de desafios, incluindo a disseminação rápida de riscos, como pandemias, crises financeiras e problemas ambientais; a tecnologia, por sua vez, embora traga uma série de benefícios também cria riscos imensuráveis como os riscos de um alimento geneticamente modificado  ou  as tecnologias atuais de engenharia genética (Da Silva; Guardia, 2019, p. 48-49).

Nesse contexto, a noção de privacidade e proteção de dados pessoais se torna fundamental, uma vez que a globalização e a tecnologia aumentam as oportunidades de coleta, armazenamento e compartilhamento de informações pessoais em uma escala sem precedentes, passando-se a discutir a necessidade de incluir o direito à proteção de dados pessoais e à privacidade como um direito constitucional, uma vez que, tais direitos são reconhecidos em muitos países como direitos fundamentais.

2.1 O desafio da proteção de dados na sociedade da informação

Inicialmente, pode-se dizer que o direito à proteção de dados pessoais e à privacidade derivava do direito à intimidade e à vida privada, consagrado em documentos como a Declaração Universal dos Direitos Humanos e em diversas constituições mundo afora. No Brasil, por exemplo, a Constituição Federal de 1988 garante o direito à intimidade e à vida privada (artigo 5º, inciso X), além de estabelecer a inviolabilidade da privacidade, da honra e da imagem das pessoas (artigo 5º, inciso XII). Esses dispositivos constitucionais forneciam a base para a proteção legal dos dados pessoais.

A Lei Geral de Proteção de Dados (LGPD) é uma legislação brasileira de natureza civil que foi aprovada em 2018 e entrou em vigor em 2020, estabelecendo princípios, diretrizes e regras para o tratamento de dados pessoais por organizações públicas e privadas. Ela visa proteger a privacidade dos cidadãos e garantir a segurança e a transparência no uso de seus dados. Entre os principais aspectos da LGPD estão: (i) Consentimento: as organizações devem obter o consentimento explícito dos titulares dos dados antes de coletar, usar ou compartilhar suas informações pessoais; (ii) Finalidade: os dados pessoais só podem ser tratados para fins específicos e legítimos, e não podem ser utilizados para outras finalidades sem o consentimento do titular; (iii) Transparência: as organizações devem informar claramente os titulares dos dados sobre como suas informações serão usadas e protegidas e (iv) Responsabilidade: as organizações são responsáveis pela segurança e integridade dos dados pessoais que tratam, devendo adotar medidas técnicas e organizacionais para protegê-los contra acessos não autorizados e uso indevido.

Contudo, com o avanço tecnológico e a necessidade de uma proteção mais dedicada, foi promulgada a Emenda Constitucional nº115 de 2022 (Brasil, 2022), que alterou a “Constituição Federal para incluir a proteção de dados pessoais entre os direitos e garantias fundamentais e para fixar a competência privativa da União para legislar sobre proteção e tratamento de dados pessoais”, a fim de garantir maior segurança jurídica na aplicação da Lei Geral de Proteção de Dados Pessoais no país, com isso, foi incluído no art. 5º o inciso LXXIX que prevê: “é assegurado, nos termos da lei, o direito à proteção dos dados pessoais, inclusive nos meios digitais” (Brasil, 1988). Tal emenda explicita as mudanças sociais no que toca à relação entre direitos individuais e tecnologia.

É notável que a regulamentação da proteção de dados pessoais no âmbito de investigação e persecução penal se revela urgente por ordem constitucional direta. Com a promulgação da Emenda Constitucional nº 115/2022, que acrescentou o inciso LXXIX ao artigo 5º da Constituição, o direito à proteção geral de dados foi alçado a nível de direito fundamental, “a ser assegurado nos termos da lei” (Fernandes; Meggiolaro; Prates, 2022).

A atual LGPD, é uma norma manifestamente civil e, segundo, Pedro Beretta

Sob o ponto de vista criminal, porém, optou a lei por nada dispor sobre o tema, pelo contrário. De forma deliberada (artigo 4º), impediu expressamente o tratamento de dados pessoais nos casos de: segurança pública, defesa nacional; segurança do Estado e/ou atividades de investigação e repressão de infrações penais (Beretta, 2021).

Assim, considerando-se a necessidade de uma proteção de dados também na seara penal, no ano de 2019 foi elaborado Anteprojeto de lei, chamado “LGPD Penal”, cujo, segundo Pedro Beretta, seu

principal desafio era (e ainda é), sem dúvida, conciliar o binômio privacidade x persecução penal, ou seja, de um lado garantir às autoridades e aos órgãos de controle estatal o que lhes é necessário para o uso e compartilhamento de dados pessoais no âmbito de suas atividades de investigação criminal e segurança pública, e, de outro, proteger o cidadão do uso desenfreado, clandestino e sem controle de seus dados pessoais (Beretta, 2021).

A chamada “LGPD Penal” foi organizada por meio de uma “Comissão de Juristas instituída por ato do Presidente da Câmara dos Deputados – com a presidência do Ministro Nefi Cordeiro, do Superior Tribunal de Justiça – cuja redação contou com a participação de diversas autoridades, acadêmicos de Direito e estudiosos do setor” (Beretta, 2021). Contudo, Carolina Cruz destaca em reportagem de janeiro de 2023 que em 2022,

o deputado Coronel Armando (PL/SC), propôs um projeto de lei que copia praticamente todo o texto do anteprojeto da comissão de juristas, com um acréscimo de sua autoria para definir o poder de tratamento de dados a cargos estratégicos do Executivo.

O texto de Armando defende que o tratamento de dados para fins de investigação pode ser realizado “nos diplomas legais exarados pelo Ministro de Estado Chefe do Gabinete de Segurança Institucional da Presidência da República, pelo Ministro de Estado da Defesa, pelo Diretor-Geral da Agência Brasileira de Inteligência e pelos Comandantes das Forças Armadas” (Cruz, 2023). 

Tanto o Projeto de Lei n.º 1.515/2022, conhecido como Lei de Proteção de Dados para Segurança Pública e Investigação Criminal, como o Anteprojeto de Lei da LGPD Penal, visam estabelecer normas específicas para o tratamento de dados pessoais por parte de autoridades e órgãos responsáveis pela segurança pública e pela investigação criminal no Brasil. Reconhecem a importância da proteção de dados na área de segurança pública, mas também buscam conciliar essa proteção com a necessidade de investigação e prevenção de crimes, estabelecendo procedimentos e garantias para o tratamento de dados pessoais nessas atividades, visando garantir a legalidade, a proporcionalidade e o respeito aos direitos fundamentais dos cidadãos. Contudo, havendo um anteprojeto elaborado por diversas autoridades, juristas, portanto, com participação da sociedade civil, não parece acertado levar adiante um projeto de “uma só mão”, que visa centralizar no Poder Executivo, de forma quase que autoritária, a competência para o tratamento dos dados pessoais dos cidadãos.

O compartilhamento de dados entre entidades e órgãos de persecução penal, como o COAF (Conselho de Controle de Atividades Financeiras), a Receita Federal, a ABIN (Agência Brasileira de Inteligência) e outros, é uma prática comum e importante para a investigação e o combate a crimes como lavagem de dinheiro, corrupção e terrorismo. No entanto, esse compartilhamento de dados também levanta uma série de questões e desafios relacionados à proteção da privacidade e dos direitos individuais. É necessário estabelecer limites claros e garantias adequadas para o uso e o acesso a esses dados, a fim de evitar abusos e violações dos direitos dos cidadãos.

O Supremo Tribunal Federal (STF) discutiu em 2019 a viabilidade do compartilhamento de provas entre a Receita Federal do Brasil, o COAF/UIF e os órgãos de persecução penal. No julgamento do RE 1.055.941/SP, a Corte decidiu que é permitido o compartilhamento de dados bancários e fiscais do contribuinte com o Ministério Público para fins penais, sem autorização prévia do Judiciário. No entanto, da leitura estrita, poder-se-ia compreender que a autorização ocorre apenas quando os órgãos de inteligência financeira identificam possíveis ilícitos e encaminham as informações de forma voluntária. Para a Receita Federal, isso implica que, ao encerrar um Procedimento Administrativo Fiscal e detectar indícios de crime, pode enviar uma “Representação Fiscal para Fins Penais” ao Ministério Público, sem violar o sigilo constitucional.

É nesse mesmo sentido é o entendimento da 6ª Turma do STJ, declarado no julgamento do RHC 83.233/SP, de relatoria do Min. Sebastião Reis, conforme trecho do acórdão a seguir:

A possibilidade de a Receita Federal valer-se da representação fiscal para fins penais, a fim de encaminhar, de ofício, os dados coletados no âmbito do procedimento administrativo fiscal, quando identificada a existência de indícios da prática de crime, ao Ministério Público, para fins de persecução criminal, não autoriza o órgão da acusação a requisitar diretamente esses mesmos dados sem autorização judicial.

Ocorre que, em recente decisão, o STF adotou outro posicionamento: a 1ª Turma do Supremo Tribunal Federal (STF), em decisão mantida pelo ministro Cristiano Zanin, determinou que os relatórios de inteligência do Coaf podem ser compartilhados tanto espontaneamente quanto por solicitação dos órgãos de persecução penal para fins criminais, sem necessidade de autorização judicial. Ou seja, esta conclusão contradiz a decisão do Superior Tribunal de Justiça (STJ), que interpretou que o STF apenas autorizou o compartilhamento espontâneo de dados, não abordando casos de solicitação.

Zanin argumentou que o envio dos relatórios não precisa de ordem judicial, destacando que impedir o compartilhamento pode prejudicar investigações e vai contra padrões internacionais de combate à lavagem de dinheiro, evasão de divisas e tráfico de drogas. No caso específico, a disputa envolveu a instauração de um inquérito para investigar a prática de lavagem de dinheiro por dirigentes de uma empresa de bebidas, sem autorização judicial, a partir de solicitação do Ministério Público do Pará (Conjur, 2024).

Não obstante o posicionamento mais recente da Corte Suprema, este trabalho chama atenção para a necessidade de cautela na manipulação de dados pessoais, incluindo-se o Estado, por seus órgãos e autoridades. Conforme Catiane Steffen, sobre a responsabilidade do Estado quanto aos dados pessoais armazenados

A Comissão Europeia já se manifestou pelo desenvolvimento de uma inteligência artificial – com extensibilidade às demais técnicas computacionais modernas de manipulação de dados – dentro da legalidade, projetada e implementada de modo a refle tir um processamento de dados ético e tecnicamente robusto, que respeite os valores democráticos, os direitos humanos e o Estado de Direito (Steffen, 2023, p. 113).

Assim, a proteção de dados e privacidade não se dá apenas entre particulares, sendo oponível inclusive (se não, principalmente) com relação ao Estado, ainda mais, depois da Emenda Constitucional nº115 de 2022 que tornou a proteção de dados pessoais um direito fundamental.

2.2 O viés algorítmico e o risco de um positivismo tecnológico

Como já dito, a potencialidade dos algoritmos na sociedade moderna é resultado de um aumento contínuo da capacidade de processamento dos computadores. O armazenamento de grandes quantidades de dados permite que algoritmos identifiquem padrões imperceptíveis ao olho humano, transformando dados isolados em informações valiosas.

Os algoritmos recebem dados de entrada (inputs) e processam esses dados para gerar resultados (outputs). Assim como fórmulas matemáticas, algoritmos processam dados para obter resultados desejados e, a partir do aprendizado de máquina, permite que os “algoritmos sejam criados e modificados por eles mesmos, representando um vínculo auto nutritivo e duradouro entre as máquinas (dispositivos eletrônicos), os humanos, e o software” (Rocha et al., 2020, p. 5).

A aplicação da inteligência artificial (IA) nas práticas judiciais adiciona outra camada de complexidade. A IA pode ser usada para automatizar tarefas rotineiras, como triagem de documentos, pesquisa jurídica e análise de casos. No entanto, sua aplicação levanta questões sobre a transparência e a equidade dos algoritmos utilizados. O aprendizado de máquina redefine continuamente os parâmetros dos algoritmos, resultando em decisões automáticas baseadas em inputs e outputs frequentemente desconhecidos. A falta de transparência é uma preocupação, especialmente no contexto do mercado de trabalho da gig economy, onde algoritmos podem reforçar discriminações se mal implementados (Rocha et al., 2020, p. 9).

Segundo Rocha (2020), em referência a Pasquale, afirma que o autor do livro “The black box Society” alerta sobre a opacidade dos algoritmos, que podem tomar decisões que antes eram feitas por reflexão humana, tornando essencial a preocupação com a transparência e as consequências éticas dessa tecnologia.

Ao longo das décadas, os algoritmos têm desempenhado um papel fundamental na mediação dessas relações e interpretações em nosso cotidiano. Estes algoritmos, que trabalham com conjuntos de dados supostamente anônimos, influenciam a tomada de decisões em uma variedade de contextos da vida moderna e estão presentes em diversos contextos sociais, desde a comunicação direta e indireta pelas redes sociais, nos resultados médicos, em filtros de spam, no score de crédito (LYRA, 2021). A Inteligência Artificial, de certa forma, se torna mais próxima de nós do que outras tecnologias, dando origem ao campo conhecido como “filosofia da IA”.

Dentre as abordagens possíveis relacionadas à ética de inteligência artificial, destaca-se no presente trabalho a proposta de Ruha Benjamin, que relaciona as questões éticas com a raça, demonstrando como a evolução tecnológica foi estruturada sobre desigualdades sociais e racismo (Benjamin, 2019).

Assim, pode-se concluir que nem mesmo o desenvolvimento tecnológico e digital é alheio aos questionamentos morais e éticos presentes na coletividade. A complexidade das relações humanas é um objeto de estudo importante na ética. Compreender como ocorre a mediação e a regulação dessas interações, utilizando a moral como base, é de suma importância para o desenvolvimento tecnológico, principalmente, com relação às inteligências artificiais.

É nessa interação entre sociedade, desigualdades e tecnologia que emerge o que se denomina “viés algorítmico”. O viés algorítmico refere-se à parcialidade ou discriminação que pode ocorrer – propositalmente ou não2 – nos resultados produzidos por algoritmos devido a vários fatores, como os dados utilizados para treiná-los, as escolhas de design e as decisões tomadas durante o desenvolvimento do algoritmo. Esse viés pode levar a resultados injustos ou discriminatórios, impactando negativamente determinados grupos de pessoas.

Nessa toada, o viés algorítmico pode perpetuar preconceitos existentes no sistema jurídico, resultando não apenas em decisões injustas ou discriminatórias, mas também em condições de trabalho desiguais. Rocha et al. (2020, p. 2-3), ao tratar sobre a discriminação algorítmica no trabalho digital, afirma que

A disrupção irá transformar múltiplos aspectos do mercado de trabalho de tal forma que, “a longo prazo, nenhum setor da economia ficará fora do alcance dos algoritmos”4.  A adesão   às   tecnologias   da   Indústria   4.0   –   notadamente, Big   Data, Data   Analytics, Computação em Nuvem, I.A e Internet das Coisas –, não pode mais ser considerada neutra sobre diversidade, equidade e inclusão. Assim, Big Techs não podem mais permanecer isentas de responsabilidade pelas consequências antiéticas da utilização de recursos como algoritmos na automação de processos internos. Uma das inúmeras críticas a respeito da alta implementação de algoritmos na dinâmica de trabalho da gig economy é o viés racista que esses códigos podem manifestar na experiência do usuário nas redes sociais virtuais, as quais atualmente servem para uma multiplicidade de finalidades e, principalmente, como locais de conexão de pessoas a prestadores de serviços, lojas e os mais diversos bens adquiríveis, caracterizando um factual mercado de trabalho.

(…) recentemente, coletivos de blogueiras, influenciadoras, modelos e criadoras de conteúdo online negras passaram a trazer à tona práticas de shadowbanning e de disparidade salarial das quais se perceberam vítimas ao comparar seus ganhos financeiros com o histórico de contratos de suas colegas brancas. (Rocha et al., 2020, p. 2-3).

O texto discute a questão do viés algorítmico e a necessidade de questionar o “determinismo do sistema”, destacando como a tecnologia, muitas vezes, é vista como objetiva e imparcial, o que oculta suas falhas e distorções estruturais. Ao longo dos estudos sobre a relação de raça e tecnologia, é possível perceber uma tentativa da não reparação histórica, ao catalogar a tecnologia como determinística e objetiva, tirando as possibilidades de questionar a estrutura em que ela se formou e suas distorções decorrentes de tal estrutura.

Voltando-se, novamente, ao trabalho de Ruha Benjamin, a autora destaca que a vigilância, ainda mais latente na sociedade tecnológica, atua para manter a submissão e a inviabilização do negro. É nesse contexto que aumentam, cada vez mais, sistemas e ferramentas de vigilância, reconhecimento facial e policiamento preditivo.

A revisão da literatura revela que mesmo em sociedades tecnologicamente avançadas, a tomada de decisão baseada em algoritmos pode resultar em políticas discriminatórias e na instrumentalização do ser humano, gerando sociedades disfuncionais. Um cenário de aplicação potencialmente prejudicial é a persecução penal, onde o uso de reconhecimento facial e ferramentas de inteligência artificial (IA) pode violar direitos ao criar perfis criminosos baseados em características pessoais, aumentando a discriminação e a atuação policial em comunidades já estigmatizadas (Steffen, 2023).

Vale dizer que, embora frequentemente relacionado à discriminação racial, não é apenas neste aspecto que operam os vieses algorítmicos discriminatórios. Heloísa Helena Silva em seu trabalho “Algoritmos de reconhecimento facial e as discriminações contra pessoas transexuais” destaca os impactos desse tipo de tecnologia sobre estes indivíduos. A autora destaca a maior vulnerabilidade de certas populações, especialmente das pessoas transgênero. Este grupo, marcado por modificações corporais para alinhar sua identidade social e de gênero, enfrenta diversas dificuldades porque os algoritmos de reconhecimento facial frequentemente não conseguem classificá-las corretamente, resultando em diversas violações de direitos, dificuldade de acesso a informações e espaços específicos, e perpetuação de discriminação e exclusão social, posto que

A falha na classificação ou falsas indicações podem, por exemplo, impedir a entrada de pessoas trans em espaços físicos, como banheiros e vestiários destinados a determinado gênero, ou dificultar seu acesso a serviços em geral, como informações, propagandas ou benefícios direcionados a um gênero específico ou mesmo a serviços bancários e benefícios governamentais de titularidade da própria pessoa que porventura não seja reconhecida pelo algo ritmo. Essas situações ocorrem não só pela falta de reconhecimento das identidades transgêneras e não binárias pelos sistemas automatizados, como também pelas possíveis falhas na identificação do indivíduo obtidas pela comparação de suas próprias imagens pré e pós transição de gênero eventualmente armazenadas nos bancos de dados, considerando as sucessivas modifica ções corporais pelas quais as pessoas trans tendem a passar (Silva, 2021, p. 59).

É claro que não se está aqui a negar os benefícios da tecnologia e da inteligência artificial, o que se pretende é apenas chamar atenção para o uso indiscriminado de tais ferramentas, a ponto de culminar na violação de direitos e garantias fundamentais. Como bem atestado por Catiane Steffen

o reconhecimento facial pode auxiliar as autoridades na localização de pessoas procuradas e na confirmação de autoria e de materialidade de crimes, porque permite objetivar e otimizar a produção da prova. Nesse sentido, a inteligência artificial, em conjunto com outras técnicas, permite analisar características, construir perfis e revelar relacionamentos entre diversas variáveis e atores de delitos.

No entanto, ao mesmo tempo em que se aumenta a capa cidade preventiva e punitiva do Estado, abre-se a possibilidade de se violar o direito dos cidadãos sobre os seus dados pessoais armazenados – com ou sem o seu consentimento – nas bases estatais de segurança pública (Steffen, 2023, p. 112-113).

A análise preditiva baseada em dados enviesados pode direcionar a atuação policial para comunidades já mais policiadas, ignorando causas subjacentes do crime, como pobreza e falta de investimento, além disso, algoritmos de inteligência artificial podem aumentar a vigilância e prisões em certas áreas, discriminando pessoas de determinadas comunidades, ao que se denomina “discriminação geográfica” (Steffens, 2023, p. 115).

Embora os efeitos de tal vigilância e policiamento preditivo sejam mais sensíveis na seara penal, em razão de eventual privação de liberdade, os impactos do viés algorítmico não repercutem apenas na persecução penal. Estudos mostram que algoritmos usados para determinar fiança e avaliar riscos podem ser enviesados, classificando desproporcionalmente afro-americanos como de alto risco (Steffens, 2023, p. 115).

Daniel Vianna Vargas e Luis Felipe Salomão, em artigo publicado em 2022, abordaram os riscos de se assumir um positivismo tecnológico. Os magistrados iniciam o artigo discorrendo sobre as inúmeras formas de utilização de IA no Poder Judiciário e seus benefícios. Contudo, não obstante os inúmeros benefícios, faz-se necessário atentar-se também aos riscos da utilização indiscriminada da inteligência artificial na prática judicial e jurisdicional, principalmente no processo de tomada de decisão, exemplificando:

Ao identificarmos no tópico anterior as atividades judiciais, não há qualquer obstáculo na utilização dos algoritmos, uma vez que praticamente todas as tarefas desenvolvidas podem ser inteiramente programadas. Ao adotar um mecanismo de inteligência artificial para contagem de prazos, v.g., é relativamente simples demonstrar publicamente todos os passos que serão tomados pela inteligência artificial, ficando a atividade do programador sob o crivo daqueles que experimentarão os efeitos da certificação de tempestividade ou intempestividade do ato processual praticado. O mesmo se diga quanto a um sistema para busca contínua de ativos financeiros, no qual os dados inseridos – valor, contas atingidas, período de busca – poderão ser expostos e submetidos ao contraditório.

Todavia, quando um sistema de inteligência artificial é utilizado para identificar a causa de pedir, o enquadramento jurídico de determinação pretensão ajuizada, delimitando o objeto de julgamento e, a partir da consulta a um banco de dados (jurisprudência), conduzir a uma conclusão sobre aquele conflito posto em juízo, a situação é consideravelmente distinta. A opacidade e os vieses algoritmos tornam essa tarefa de dificílimo (ou impossível) controle.

É notório o case ocorrido nos Estados Unidos, no Estado de Wiscosin, no qual a utilização do softwareprivado denominado COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) foi utilizado para a dosimetria da pena aplicada a um condenado em 2013. O algoritmo utilizado não é de conhecimento público, tendo o réu recorrido à Suprema Corte de Wisconsin para a explicitação e acesso aos critérios adotados pelo COMPAS – assumidamente utilizado pelo juiz do caso – que resultaram em sua condenação, com a conclusão de que possuía alto risco de violência, evasão e reincidência. Registre-se que tampouco os juízes que utilizam o sistema têm acesso ao código-fonte do algoritmo. No caso em tela, houve, inclusive, questionamento sobre o direcionamento do sistema em detrimento de afro-americanos.

A Suprema Corte de Winsconsin negou o recurso, extraindo-se da decisão que a sentença teria sido prolatada através de uma análise do juiz acerca do crime praticado e dos antecedentes do acusado. A Suprema Corte Americana não admitiu o writ de certiorari apresentado pelo condenado, que permanece preso.

Para os autores, o caso dos EUA ilustra categoricamente a hipótese levantada pelo trabalho,

qual seja: a utilização de sistemas de inteligência artificial no processo de tomada de decisão pode levar a um panorama equivalente ao positivismo clássico, com a tomada mecânica de decisões com base em padrão decisório previamente definido, dissociado do caso concreto e sem a fundamentação em contraditório pelo juiz do caso. Se no positivismo clássico, o juiz era simplesmente a boca que enunciava a vontade da lei, tendo o arcabouço legislativo todas as respostas para os conflitos, agora a inteligência artificial apresentará a solução do caso concreto, através de um complexo, opaco e incontrolável sistema randômico de tomada de decisão. O juiz simplesmente enunciará o resultado, chancelando-o. Uma espécie de positivismo tecnológico.

É inquestionável a necessidade de uma prestação jurisdicional menos formal, mais ágil, capaz de se adaptar à sociedade contemporânea. Essa transformação inevitavelmente acarretará mudanças nos critérios decisórios, na interpretação e na aplicação do Direito, assim como em suas formas de controle e a tecnologia desempenha um papel fundamental nesse processo. Contudo, o uso de algoritmos como parâmetros de fundamentação para atingir resultados numericamente satisfatórios pode ter consequências perniciosas no que toca à qualidade da prestação jurisdicional e ao respeito às garantias processuais fundamentais (Vargas; Salomão, 2022).

Ademais, a substituição do julgamento humano por algoritmos no sistema judicial é preocupante, pois “uma sentença não deve ser construída consubstanciada na simples consideração de aspectos objetivos, como a adequação de um fato a uma tipificação pelo teor do evento praticado” (Steffens, 2023, p. 116) e a inteligência artificial não possui a sensibilidade humana para considerar a complexidade dos casos individuais, podendo resultar em decisões rígidas e injustas (Aïmeur, 2021; Andrés, 2019 apud Steffens, 2023, p. 116-117).

Como já dito, tais limites não se restringem a um campo do Direito, mas, ao contrário, estende-se nas suas mais variadas formas de aplicação. Carolina Zancaner Zockun e Maurício Zockun (2023), já alertaram sobre os limites éticos e jurídicos à produção do ato jurídico estatal com base em inteligência artificial, quando produzido sem consciência ou vontade. Para os autores, não há impedimento jurídico ou lógico que impeça a produção do ato jurídico e ato administrativo por máquinas ou sistemas de IA. Entretanto, em observância aos princípios constitucionais da motivação,  da  publicidade,  da  transparência  e  da  boa-fé, que visam garantir o direito subjetivo de o administrado “acessar  os  dados  e  a  base  de  dados  que  serviram  de  suporte  para a construção do algoritmo no qual se funda e edifica a inteligência artificial” (Zockun, 2023, p. 52), exige-se do agente público a indicação dos fatos e o concatenamento lógico adotado para, em vista do sistema de direito positivo, produzir um ato jurídico qualquer. Ademais, concluem que isso só pode ocorrer relativamente a ato jurídico fundado em competência vinculada3 e, se produzido por meio de algoritmo, que não demande qualquer espécie de motivação, pois terá sido produzido por meio desprovido de consciência e vontade.

Outro desafio diz respeito à falta de transparência no processo decisório de inteligência artificial, que dificulta a auditoria e identificação e contestação de discriminação algorítmica, isso porque

No mundo fático, as violações de direitos costumam ser percebidas mais facilmente quando são materializadas pela ação ou omissão de agentes humanos do que quando são resultantes de processamento e de decisões produzidas por algoritmos. Isso porque, computacionalmente, as regras e as definições que estruturam a lógica dos programas e que podem determinar os resultados produzidos costumam estar encobertas pela opacidade (ausência de transparência), ou, ainda, pela imprevisibilidade e pela autonomia de alguns sistemas complexos (Steffens, 2023, p. 108).

Assim, a dificuldade em identificar e questionar a discriminação algorítmica se deve à baixa transparência desses sistemas. Isso torna difícil demonstrar como os algoritmos são estruturados para gerar respostas que podem violar direitos, de modo que as decisões podem ser direcionadas de maneira incorreta, atendendo a interesses específicos, seja político ou social, em vez de cumprir as disposições legais e os direitos humanos (Steffens, 2023, p. 116).

Considerações Finais

O presente trabalho pretendeu contribuir para o debate sobre a aplicação da Inteligência Artificial (IA) no Direito, focando especialmente na possível violação de direitos fundamentais como a proteção de dados, previsto no art. 5º, inciso LXXIX da Constituição Federal, na ocorrência de vieses algorítmicos e a discriminação a partir da utilização de novas tecnologias como Big Data e inteligência artificial.

O objetivo foi analisar a influência nas discussões jurídicas atuais, explorando conceitos introdutórios para o debate acerca da inteligência artificial, bem como eventuais impactos, possibilidades e necessidade de regulação. A interseção entre o direito e as novas tecnologias, especialmente o Big Data, tem transformado profundamente o cenário jurídico contemporâneo. A digitalização vai além de apenas processar dados; mais além, representa uma mudança fundamental nas condições de vida, influenciando desde processos de produção até a vigilância e as comunicações. Segundo Hoffmann (2020), a digitalização permite a criação de sistemas ciberfísicos e altera significativamente como as pessoas vivem, interagem e são monitoradas.

Não é preciso se aprofundar nos estudos acerca da transformação digital para perceber o nível de exposição de nossos dados pessoais e os desafios quanto ao armazenamento e utilização desses dados. Ademais, a velocidade e a amplitude dessas transformações tecnológicas trazem também desafios éticos e sociais. A noção de neutralidade algorítmica é contestada, dado que algoritmos podem incorporar vieses presentes na sociedade e nas decisões de seus desenvolvedores.

Contrariando a crença comum na neutralidade das tecnologias, os algoritmos podem refletir e perpetuar preconceitos existentes na sociedade. Estudos como os de Silva (2021) demonstram que tecnologias de reconhecimento facial frequentemente falham em identificar corretamente indivíduos de minorias raciais e pessoas transgênero, resultando em discriminação e exclusão.

No Brasil, essa problemática é evidenciada pelo estudo do CESeC (2019), que revela um viés racial significativo nos sistemas de reconhecimento facial utilizados na segurança pública, com uma alta taxa de erros na identificação de pessoas negras. Verifica-se que tais tecnologias, quando não reguladas adequadamente, podem aprofundar desigualdades sociais e preconceitos existentes.

A interseção entre o direito e as novas tecnologias é crucial para abordar esses desafios. O direito precisa acompanhar o ritmo das inovações tecnológicas para garantir que a aplicação da IA e do Big Data seja justa e equitativa. Neste contexto, a ética em IA e Robótica ganha importância central. A área ainda é relativamente nova, mas já produz pesquisas significativas que abordam as implicações éticas e políticas da tecnologia.

Ademais, a aplicação da IA no campo do direito, especialmente no sistema penal, exige uma análise cuidadosa dos vieses e das implicações éticas. A IA tem o potencial de aumentar a eficiência e a precisão das decisões judiciais, mas também pode perpetuar injustiças se não for regulada adequadamente. A utilização de IA em decisões criminais, como já ocorre em alguns países, deve ser acompanhada de medidas rigorosas para assegurar a transparência e a responsabilidade.

A crítica principal reside na necessidade de um desenvolvimento ético e regulamentado dos algoritmos de IA para prevenir discriminações e garantir que a tecnologia seja usada de maneira justa e equitativa, especialmente no contexto da justiça penal.

Inegável que a relação entre direito, novas tecnologias e Big Data apresenta oportunidades empolgantes, mas também desafios complexos. É crucial o diálogo entre legisladores, operadores do direito e especialistas em tecnologia para desenvolver políticas e práticas que garantam a proteção dos direitos individuais, a justiça e a equidade no uso dessas tecnologias inovadoras no campo jurídico.


2Sarlet et al., em referência a Sarlet, afirma que: “a IA pode ser enviesada propositalmente, pois, conforme alertado em outra oportunidade, os algoritmos podem ser utilizados para aumentar o controle exercido pelo Estado e/ou pelas big techs e outras grandes corporações sobre a população, “impactando direta e indiretamente os direitos e garantias fundamentais dos cidadãos, dentre os quais, a dignidade da pessoa humana, os direitos da personalidade” (Sarlet; Sarlet, 2022).”

3A competência vinculada se dá quando a lei determina ao agente um único e determinado comportamento, sendo discricionária quando a lei confere ao agente o poder/dever de optar, diante do caso concreto, entre comportamentos legalmente admitidos (Mello, 2013).

Referências bibliográficas

BENJAMIN, R. Race After Technology: The new Jim Code. [S.l.: s.n.], 2019

BERETTA, Pedro. LGPD e o tratamento de dados em Direito Penal. Análise,  14 de setembro de 2021. Disponível em: <https://analise.com/opiniao/lgpd-e-o-tratamento-de-dados-em-direito-penal>. Acesso em 13 de maio de 2024.

BRASIL. Constituição da República Federativa do Brasil de 1988. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/ConstituicaoCompilado.htm. Acesso em 09 jun 2024.

BRASIL. Emenda Constitucional nº 115, de 10 de Fevereiro de 2022. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/Emendas/Emc/emc115.htm#:~:text=EMENDA%20CONSTITUCIONAL%20N%C2%BA%20115%2C%20DE,e%20tratamento%20de%20dados%20pessoais. Acesso em 09 jun 2024.

CESEC. Levantamento revela que 90,5% dos presos por monitoramento facial no Brasil são negros. 21/11/2019. Online. Disponível em: https://cesecseguranca.com.br/artigo/levantamento-revela-que-905-dos-presos-por-monitoramento-facial-no-brasil-sao-negros/. Acesso em 10 jun 2024.

HOFFMANN-RIEM, W. BIG DATA E INTELIGÊNCIA ARTIFICIAL: desafios para o Direito. REI – REVISTA ESTUDOS INSTITUCIONAIS[S. l.], v. 6, n. 2, p. 431–506, 2020. DOI: 10.21783/rei.v6i2.484. Disponível em: https://www.estudosinstitucionais.com/REI/article/view/484. Acesso em 30 mar. 2024.

KAUFMAN, Dora. Dossiê: Deep learning: a Inteligência Artificial que domina a vida do século XXI. Teccogs: Revista Digital de Tecnologias Cognitivas, TIDD | PUC SP, São Paulo, n. 17, p. 17-30, jan-jun. 2018. Disponível em https://revistas.pucsp.br/index.php/teccogs/article/view/48585. Acesso em 14 de fevereiro de 2022.

KAUFMAN, Dora. Inteligência Artificial: caminhos para proteger a sociedade. Revista Interesse Nacional, Edição 56, dez 2021. Disponível em https://interessenacional.com.br/inteligencia-artificial-caminhos-para-proteger-a-sociedade/. Acesso em 05 jun 2024.

LYRA, E. Ética, Inteligência Artificial e Resistências. Publicado em 24 de nov. de 2021. Disponível em: https://youtu:be/ erNqT36Vb8Q. Acesso em 09 jun 2024.

MACEDO, Lírida. Direito ao esquecimento e a LGPD. Disponível em: https://www.migalhas.com.br/depeso/335739/direito-ao-esquecimento-e-a-lgpd. Acesso em 27 mai 2024.

MELLO, Celso Antônio Bandeira de. Curso de Direito Administrativo, 30. ed., rev., atual. – São Paulo: Malheiros, 2013.

NUNES, Dierle; LUCON, Paulo Henrique dos Santos; WOLKART, Erik Navarro. Decisão judicial e inteligência Artificial: é possível a automação da decisão? In: Inteligência Artificial e Direito Processual: os impactos da virada tecnológica no Direito Processual. Coordenadores: Dierle Nunes, Paulo Henrique dos Santos Lucon, Erik Navarro Wolkart – Salvador: JusPodivm, 2021, p. 703-748.

NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e direito processual: vieses algorítmicos e os riscos da atribuição de função decisória às máquinas. Revista de Processo [recurso eletrônico]. São Paulo, v. 285, p. 421 – 447, nov. 2018.

ROCHA, Cláudio Jannotti da; PORTO, Lorena Vasconcelos; ABAURRE, Helena Emerick. Discriminação algorítmica no trabalho digital. Revista de Direitos Humanos e Desenvolvimento Social[S. l.], v. 1, p. 1–21, 2020. DOI: 10.24220/2675-9160v1e2020a5201. Disponível em: https://seer.sis.puc-campinas.edu.br/direitoshumanos/article/view/5201. Acesso em 30 mar. 2024.

SARLET, Ingo Wolfgang; FILTER, Pedro Agão Seabra. A utilização da inteligência artificial como um instrumento de proteção climática. In: Direito e inteligência artificial: perspectivas para um futuro  ecologicamente sustentável [recurso eletrônico]. Casa Leiria, 2024. p. 35-54. Disponível em: http://www.guaritadigital.com.br/casaleirialivros/dia/dia.pdf. Acesso em 09 jun 2024

SCHWAB, Klaus. A quarta revolução industrial. São Paulo: Edipro, 2016.

SILVA, Heloísa Helena. Algoritmos de reconhecimento facial e as discriminações contra pessoas transexuais. In: Revista Internet & Sociedade [recurso eletrônico], v. 2, n. 2, dezembro de 2021, p. 47-66. Disponível em: https://revista.internetlab.org.br/algoritmos-de-reconhecimento-facial-e-as-discriminacoes-contra-pessoas-transexuais/. Acesso em 10 jun 2024.

STEFFEN, Catiane. A inteligência artificial e o processo penal: a utilização da técnica na violação de direitos. Revista da EMERJ, v. 25, n. 1, p. 105-129, 2023.

VARGAS, Daniel Vianna; SALOMÃO, Luis Felipe. Inteligência artificial no Judiciário. Riscos de um positivismo tecnológico. Justiça e Cidadania. Edição 260, 07/04/2022. Disponível em: https://www.editorajc.com.br/inteligencia-artificial-no-judiciario-riscos-de-um-positivismo-tecnologico/

ZANCANER ZOCKUN, C.; ZOCKUN, M. LIMITES ÉTICOS E JURÍDICOS À PRODUÇÃO DO ATO JURÍDICO ESTATAL COM BASE EM INTELIGÊNCIA ARTIFICIAL: O ATO JURÍDICO PRODUZIDO SEM CONSCIÊNCIA OU VONTADE: ETHICAL AND LEGAL LIMITS TO THE PRODUCTION OF THE STATE LEGAL ACT BASED ON ARTIFICIAL INTELLIGENCE: THE LEGAL ACT PRODUCED WITHOUT CONSCIENCE OR WILL. Cadernos de Dereito Actual, [S. l.], n. 20, p. 40–57, 2023.
Disponível em: https://cadernosdedereitoactual.es/ojs/index.php/cadernos/article/view/936. Acesso em: 2 abr. 2024.


1Mestranda pela Pontifícia Universidade Católica de São Paulo – PUCSP. Especialista em Direito Penal pela ESMP- SP. Graduada em Direito pela Pontifícia Universidade Católica de São Paulo (PUCSP). E-mail:thainaloise@hotmail.com. ORCID: https://orcid.org/0009-0001-1898-818X.