DISCRIMINATION IN THE VIRTUAL ENVIRONMENT BASED ON SENSITIVE DATA
REGISTRO DOI: 10.5281/zenodo.7241896
Fernanda Fernandes de Melo1
Júlio César Rodrigues Ugalde2
RESUMO
O presente artigo visa analisar o contexto de discriminação que pode ser criado no ambiente virtual com base nos dados pessoais, voltando-se para os dados pessoais sensíveis, uma especificidade definida pela LGPD, que tem maior potencial de lesividade, caso não sejam tratados da forma devida. Busca-se defender o princípio da antidiscriminação positivado desde a Constituição Federal e que tem se mostrado, atualmente, diante do tratamento de dados pessoais em larga escala, uma preocupação, vez que os algoritmos utilizam-se destes dados para tratar com desigualdade as pessoas no ambiente virtual e ainda, controlando e definindo seus consumos e acessos, através de características e informações pessoais. Objetivo geral: identificar as práticas discriminatórias abusivas e ilícitas provocadas pela inteligência artificial, na produção de algoritmos, com base nos dados pessoais sensíveis. Metodologia: método dedutivo, partindo de pontos com argumentos gerais para chegar-se às conclusões restritas. Resultado: trata-se de um problema provocado pela ausência do princípio de antidiscriminação desde o início da formulação de algoritmos.
Palavras-chave: Discriminação. Algoritmos. Dados Pessoais.
ABSTRACT
The present article analyzes the context of virtual discrimination, which can be created in the environment based on personal data, this specificity is defined by the LGPD, which has a greater potential for harm, if not treated properly. It seeks to defend the principle of anti-discrimination posited since the Federal Constitution and which has been shown, currently, in the face of large-scale processing of personal data, a concern, since algorithms use these data to treat people in the country with inequality in the virtual environment and also, controlling and defining their consumption and access, through characteristics and personal information. General purpose: to identify abusive and illegal discriminatory practices caused by artificial intelligence in the production of algorithms, based on sensitive personal data. Methodology: deductive method, starting from points with general arguments to reach restricted conclusions. Result: this is a problem caused by the absence of the principle of anti-discrimination since the beginning of the algorithm formations.
Keywords: Discrimination. Algorithms. Personal Data.
1. INTRODUÇÃO
O artigo em questão aborda um dos principais problemas no ambiente virtual relacionados a proteção de dados no Brasil: a discriminação, que pode ser provocada pela disponibilidade e mal armazenamento dos dados dos titulares, os usuários da rede. Mais especificamente, o artigo orbita sobre os dados pessoais sensíveis, uma subclassificação do dado pessoal.
Por um lado, o dado pessoal, é a “informação relacionada a pessoa natural identificada ou identificável”3. Já o dado pessoal sensível, assim denominado na própria Lei Geral de Proteção de Dados (LGPD), em seu art. 5°, II, é aquele:
Dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural4.
Estes dados considerados sensíveis possuem regramento diferenciado em razão de suas particularidades, reconhecendo a necessária sensibilidade à tratar deles. A própria Lei se constitui em uma atual realidade que necessita da proteção de dados no ambiente virtual, visto que o processamento e armazenamento desses dados ocorrem em larga escala.
Compreendida a necessidade de proteção de todo e qualquer dado pessoal, há de se entender que a falha no armazenamento dos dados tidos como sensíveis podem provocar uma discriminação ou segregação como resultados abusivos e ilícitos que podem afetar tanto os titulares destes dados quanto a própria sociedade. Neste sentido, o artigo 6° da LGPD5, firma como princípio na atividade de tratamento de dados, a não discriminação, o que também já vem positivado na Constituição Federal/886, e o que defendemos no presente trabalho.
O estudo está diretamente ligado ao Direito Digital, área do Direito que cresce cada dia mais. Com a promulgação da Lei de proteção de dados, se pôde reconhecer a necessidade e obrigação de proteger os dados pessoais na internet, uma vez que o uso ilícito e indevido desses dados pode gerar danos irreversíveis. Tendo em vista que o mundo atual já não vive mais sem a interferência de algoritmos ao navegar na internet, padronizando resultados, atos, reações e gerando a exclusão de pessoas, usando como base os dados pessoais, vê-se a relevância em defender o princípio da antidiscriminação neste meio.
A discriminação na realidade é, por vezes, ato automático e involuntário do ser humano. Pensando nisso no lado virtual, onde os algoritmos que apresentam resultados com base naquilo que lhes é apresentado, entende-se que recorrentemente acontecem atos discriminatórios provocados por falhas ou mesmo por vieses preconceituosos inseridos em seu desenvolvimento. O trabalho busca resolver o problema respondendo a pergunta: Como ocorrem as práticas discriminatórias com base nos dados sensíveis?
Dessa forma, o objetivo geral deste trabalho é identificar as práticas discriminatórias abusivas e ilícitas provocadas pela inteligência artificial, na produção de algoritmos, com base nos dados pessoais sensíveis no ambiente virtual. Em segundo plano, os objetivos específicos se subdividem da seguinte forma: Avaliar como são armazenados e protegidos os dados pessoais sensíveis que possibilitam a discriminação; Demonstrar as possíveis consequências da discriminação com base nos dados sensíveis, provocadas ao titular; Propor ao titular mais atenção na disponibilização desses dados e ao controlador e operador de dados pessoais sensíveis maior responsabilidade.
Por fim, o trabalho será apresentado primeiramente expondo a metodologia de estudo utilizada para obtenção de resultados, após, serão coletadas informações ao que se refere o problema. Encontrados os resultados, através da pesquisa científica, passará à fase de discussão acerca das informações obtidas e as respectivas análises que englobam o problema central e, para finalizar, serão abordados os objetivos gerais e específicos com respectivas conclusões do estudo sobre estes.
2. METODOLOGIA DE ESTUDO
O método de raciocínio aplicado ao presente artigo é o dedutivo, partindo de um ponto composto por argumentos gerais, conceitos e consequências para chegar-se às conclusões restritas através da análise deste contexto amplo, com a finalidade de garantir um raciocínio lógico e claro.
A pesquisa terá natureza básica, visando gerar novos conhecimentos e sua abordagem será qualitativa, com base nos dados coletados. Esta coleta será realizada por meio de conhecimentos já existentes, contendo o objetivo de descrever os apontamentos relevantes ao tema utilizando-se de bibliografia e documentos através da análise qualitativa de conteúdo.
3. A DEFESA PELA ANTIDISCRIMINAÇÃO
A Constituição Federal/887 disciplina em seu artigo 5° os direitos fundamentais aos indivíduos, o caput deste artigo determina que todos são iguais perante a lei, sem qualquer distinção. Diante da necessidade de proteger os dados pessoais, foi acrescentado, pela Emenda Constitucional n°1158, o inciso LXXIX do artigo 5° da CF/88, que visa assegurar o direito à proteção dos dados pessoais, inclusive nos meios digitais.
Considerando o contexto de inserção do inciso prevendo a proteção de dados no mesmo artigo em que se determina que não deverá haver qualquer distinção entre os brasileiros e estrangeiros residentes no país, devendo, portanto, serem todos considerados e tratados como iguais, compreende-se a necessidade de prezar pela antidiscriminação, pela igualdade, princípio que nasce na própria Carta Magna.
Mais especificamente, a Lei n° 13.709/2018, a LGPD, ao tratar das atividades de tratamento de dados pessoais, em seu artigo 6°, estabelece princípios que deverão ser observados juntamente com a boa fé, dentre eles, está a não discriminação. Vejamos:
Art. 6º As atividades de tratamento de dados pessoais deverão observar a boa-fé e os seguintes princípios:
IX – não discriminação: impossibilidade de realização do tratamento para fins discriminatórios ilícitos ou abusivos;
Diante deste cenário que visa coibir a prática de atos discriminatórios com fins ilícitos e abusivos, cabe aqui, associar que as únicas formas permitidas de tratamentos dos dados considerados sensíveis estão previstas no rol do artigo 11 da LGPD, que consiste ou na autorização do titular ou de seu representante legal ou nas hipóteses específicas descritas no artigo. Dessa forma, entende-se que a intenção é deixar o acesso a estes dados mais restritos em face de sua característica suscetível e da possibilidade de danos, caso não sejam tratados na devida forma.
4. DISCRIMINAÇÃO E DADOS PESSOAIS SENSÍVEIS
De acordo com Rafael Zanatta9, a ação de “encaixar uma pessoa” a determinado perfil ou inferir algo sobre esta pessoa, a partir de seus dados pessoais implica em três tipos de obrigações. A primeira refere-se a informar o titular do dado e dar transparência, a segunda à obrigação de não discriminar utilizando parâmetros de dado sensível e por fim a obrigação de explicar às pessoas afetadas como este processo funciona.
Cathy O’Neil, mencionado por Zanatta10, elencando exemplos de discriminação que carregam sérias consequências, menciona a situação de um birô de crédito conseguir caracterizar pessoas de determinado bairro periférico e com certas características (como idade e nível de instrução) e classificá-las como grupo de risco. Além deste exemplo, relata casos de bases de dados utilizadas por empresas de recursos humanos para selecionar pessoas que estão buscando emprego, sem o conhecimento destas, discriminando, por exemplo, com base em pontuação de crédito (score) e grupo social.
Conforme Leonardo Roscoe Bessa, no ainda estudo de Zanatta11, ao analisar os aspectos do Cadastro Positivo (histórico de crédito) identificou problemas como tratamento discriminatório e o acesso a informações sensíveis. Neste sentido, o posicionamento do Superior Tribunal de Justiça12 é que sistemas de crédito podem fazer análise de risco, mas é vedada a utilização de dados sensíveis, devendo as empresas garantir transparência quanto aos dados utilizados em seu sistema e assumir o compromisso de não discriminar, podendo responder por danos morais.
Maria Regina Korkmaz13 desenvolveu dissertação em estudo da proteção dos dados pessoais sensíveis e aponta como uma de suas principais referências, Stefano Rodotà, conforme o professor, diante de uma realidade sem forte tutela das informações, há sempre a possibilidade de discriminação, o que afasta um elemento fundamental: a igualdade. Baseando-se em Rodotà, Korkmaz pontua:
Para além da privacidade e da proteção de dados pessoais, ganha relevância a tutela dos dados pessoais sensíveis como a defesa do princípio da igualdade material, na medida em que está em questão não somente a esfera privada da pessoa, mas a sua posição na organização social, política e econômica.
Neste sentido, Caitlin Sampaio Mulholland14 propõe um pensamento no sentido de considerar a proteção de dados sensíveis uma questão fundamental para o exercício dos demais direitos fundamentais como a igualdade, a liberdade e a privacidade, por exemplo.
Mulholland15 também apresenta alguns exemplos reais de discriminação baseando-se nos dados sensíveis, como o caso do vazamento de dados pessoais por uma prestadora de serviços de coleta de sangue na Austrália, os quais além de disponibilizar dados públicos como nome e gênero, continham informações sobre os comportamentos sexuais dos doadores. Além deste, pode-se mencionar o caso de uma empresa do Canadá que disponibilizou no mercado vibrador, para uso sexual, de uso remoto (conectado à internet e à bluetooth) e que recebia todos os dados de correspondentes ao uso do aparelho sexual, como por exemplo: tempo de uso, frequência de vibração e temperatura corporal. Neste último caso, a empresa não tinha um sistema de segurança destes dados e nem mesmo informava aos usuários que existia a coleta desses dados. Diante da situação, os consumidores judicializaram ação coletiva contra a empresa que foi obrigada a não mais coletar dados sigilosos.
A partir do pensamento de Carlos Nelson Konder, Maria Regina Korkmaz16 chegou a esta afirmativa:
O conceito complexo de privacidade se conjuga com o reconhecimento da construção dinâmica da identidade pessoal como ‘novas formas de manifestação da proteção jurídica da pessoa humana contra as ameaças de estigmatização e discriminação oriundas do desenvolvimento tecnológico’.
Tal assertiva, num contexto de análise da privacidade, faz referência à demonstração de como o desenvolvimento tecnológico transforma a realidade jurídica, devendo a partir desta dinâmica, proteger a pessoa humana das possíveis discriminações provenientes desta modernidade.
Korkmaz17 ainda apresenta, conforme Danilo Doneda que qualquer dado pode ter característica possível de gerar discriminação, no entanto, o dado sensível, pela sua natureza apresenta maior risco, tanto para a pessoa afetada, quanto para a coletividade. Segundo o autor citado por Korkmaz, a categoria de dado sensível refere-se a uma análise de potencialidade lesiva entre estes e os demais dados. Considera-se, dessa forma, que todos os dados podem configurar potencialidade de discriminação, no entanto, categorizar todos eles como sensíveis poderia gerar uma insegurança jurídica capaz de comprometer várias atividades, o que não é o objetivo da regulação.
Seguindo este mesmo pensamento, Carla Moulin18 afirma:
Deve-se ter em mente, no entanto, que outros dados pessoais, embora não citados na definição legal, podem se transformar em dados pessoais sensíveis, a depender do uso que se faz deles. Isto porque um determinado tratamento de dados pode trazer à tona características personalíssimas que podem expor o seu titular a práticas discriminatórias, configurando-se assim como dados sensíveis e impondo que seu tratamento observe as restrições legais específicas dessa categoria de dados.
Neste mesmo sentido, Mulholland19, expõe o que sustenta Rodotà, que a formação de perfis com base em dados sensíveis podem gerar discriminação, e, que mesmo não se tratando de dados sensíveis, podem assim se tornar, dependendo de sua contribuição na elaboração de um perfil ou mesmo de como esse perfil tenha sido elaborado, se houver conotações negativas.
Diante do ponto em que chegamos, entendendo que qualquer dado pode ter característica sensível, a depender de como ele é utilizado, partimos para análise de como esses dados se refletem no ambiente virtual por meio da inteligência virtual na produção de algoritmos.
5. DISCRIMINAÇÃO E A INTELIGÊNCIA ARTIFICIAL
Caitlin Mulholland20, em seu estudo sobre a lei, demonstrou que a proteção de dados pessoais é essencial para a tutela da pessoa humana, sendo inclusive, nas palavras dele, requisito de democracia. O tratamento de dados pessoais de naturezas diversas vem aumentando cada vez mais, principalmente em razão do largo armazenamento de dados em decorrência das tecnologias avançadas de inteligência artificial, que utilizam algoritmos sempre mais aprimorados.
Este cenário significa um aumento no tratamento de dados e que, diante de técnicas computacionais podem chegar a análises e resultados prováveis, que atingem a população e até mesmo lhes retiram autonomia e controlam seus acessos, como o acesso ao consumo, por exemplo.
É neste sentido que Mulholland21 reconhece mais uma vez a importância da LGPD, que define como os dados devem ser tratados, armazenados e prevê princípios que deverão ser respeitados no ambiente virtual, por exemplo. Segundo ele, a não discriminação deve ter reflexo em todas as circunstâncias de uso de dados pessoais, em que possa gerar qualquer desvalor ou resultados equivocados.
Baseando-se em Celina Bodin e Chiara de Teffé, Mulholland22 demonstra que contendo informações pessoais, poderá haver uma espécie de rotulação, pelos mecanismos de inteligência artificial, classificando, assim, cada pessoa a um padrão comportamental, o que pode gerar discriminações graves, como dificultar o acesso de produtos e serviços, retirando da pessoa sua autonomia, sendo, portanto, controlada por mecanismos automatizados de decisões.
Dois exemplos prejudiciais desta “rotulação” que os algoritmos discriminam foram mencionados pelo autor. O primeiro ocorreu nos Estados Unidos e tratavam-se de serviços médicos e seguridade social. Neste caso, algumas seguradoras, com base nos dados coletados em relação a vítimas de violência doméstica, discriminaram que estas não poderiam contratar seguros de vida, saúde e invalidez. Outro exemplo de caso mencionado, foi também relacionado à saúde, sugerindo que, quando uma pessoa tem derrame e essa informação chega aos bancos aos quais possuem empréstimos, os bancos começam a cobrar o pagamento dos empréstimos.
Vale lembrar, conforme já conceituados aqui, que dados relacionados à saúde são considerados sensíveis pela LGPD no Brasil, os quais são as referências para as discriminações exemplificadas pelo autor, embora sejam casos que ocorreram em outros países, servindo neste estudo apenas como parâmetros.
A partir de um conceito de big data, que em português significa grandes bases de dados, referente ao alto armazenamento, análise, tratamento, interpretação e compartilhamento, por exemplo, dos dados em geral no ambiente virtual, Moulin23 reforça que os sistemas de inteligência artificial promovem decisões automatizadas, que, em que pese sejam facilitadoras, nem sempre observam todos os cuidados que deveriam.
Para Maria Cristine Lindoso24, por sua vez, big data é um dado capaz de processar diversas informações em um único sistema e se caracteriza por tratar dados de forma rápida e menos onerosa. Referente a este dado com grande potencial, é importante perceber as facilidades que vem oferecendo na coleta de dados, traçando perfis cada vez mais complexos, conseguindo até mesmo reconhecer interesses específicos de cada usuário.
Conforme Eduardo Tomasevicius Filho25, diante da facilidade da coleta de todos os tipos de dados, além do armazenamento e análise por meios desenvolvidos pela inteligência artificial, as violações à privacidade e à honra aumentaram exponencialmente. De acordo com o autor, existe a possibilidade destes mecanismos tecnológicos controlarem a sociedade, tornando uma situação em que “a vida imita a arte”.
Filho26, ao compreender a capacidade da inteligência artificial em controlar e sugerir baseando-se em um padrão resultado de diferentes dados, dá o seguinte exemplo correspondente:
[…] ao saber que determinadas pessoas têm o hábito de compras de impulso de comida no horário do almoço, enviam-se sugestões de compras do setor alimentício para seus alvos. Cada micro particularidade deixaria o consumidor ainda mais vulnerável, tendo em vista o número de acessos, às particularidades de cada caso, como a sua especificidade para critérios psicológicos, influenciando de forma direta na capacidade livre de escolha desse consumidor.
No entanto, são várias as formas que esses padrões são construídos. Se por um lado um algoritmo facilita o encontro da comida desejável na hora do almoço, outro algoritmo pode ter viés preconceituoso ao definir a partir de uma análise de custos de sáude entre brancos e negros, que negros seriam menos doentes do que os brancos. Conforme Moulin27, determinado algoritmo usado no sitema de saúde dos Estados Unidos conclui erroneamente que pacientes negros são mais saudáveis do que brancos e através deste resultado, o sistema automatizado encaminha menos da metade dos negros que precisariam de cuidados de saúde para o seu atendimento adequado.
Trata-se até então, da existência de discriminação algorítimica que nem sempre é benéfica.
5.1 Algoritmos
Patrícia Peck Pinheiro28 conceitua os algoritmos como uma sequência de passos a serem executados de forma lógica e organizada com a finalidade de chegar mais facilmente ao resultado de um problema.
De forma semelhante, Lindoso29 define os algoritmos desenvolvidos pela inteligência artificial como estruturas matemáticas que organizam a automatização de processos no ambiente virtual e viabiliza análise de dados para que chegue a previsão de resultados e, como consequência, às decisões automatizadas.
A autora, ao referir-se à possibilidade de discriminação por meios técnicos, destaca que a automatização já é resultado de escolhas e definições feitas por seu programador e agentes que a manipula. Dessa forma, a estrutura matemática usada e como essa automatização é manipulada pode influenciar na lesividade discriminatória das decisões automatizadas. Fica claro que esses personagens, por vezes, não respondem pelas práticas discriminatórias, pois há o argumento de que a tecnologia encontra determinados resultados sozinha.
É frequente a obtenção de resultados discriminatórios que são justificados pelos agentes como sendo resultados que não poderiam ter sido previstos ou esperados, já que foram frutos de elementos alheios à programação em si, como as correlações estatísticas30.
Diante disso, a partir da LGPD passou-se a responsabilizar o agente tratador de dados pessoais e responsável por resultados discriminatórios ilícitos e abusivos, tornando estes argumentos sem forças. Dessa forma, compreende-se que existam falhas técnicas, mas o agente precisa estar atento e mantendo controle sobre os meios que desenvolve a fim de evitar resultados discriminatórios que criem impactos para os usuários e titulares dos dados envolvidos.
A partir do estudo feito por Laura Schertel Mendes e Marcela Mattiuzzo31, alguns autores, como Pasquale e Citron, defendem que a solução para a discriminação algorítmica é a transparência. Eles afirmam que as ameaças à dignidade são suficientes para abertura da base de dados, de seu funcionamento, do código e modelação dos algoritmos para as autoridades e para o público em geral. Entre estes autores, existe a defesa de que a transparência é uma ferramenta capaz de facilitar a responsabilização.
No entanto, alguns autores abordados pelas autoras32, apontam que a transparência na produção e uso dos algoritmos pode gerar a possibilidade de o público julgar a qualidade destes meios e permitir que elas próprias controlem o mercado através destes mecanismos. Além disso, demonstram que a transparência pode não ser atingível e suficiente para resolução do problema. E ainda, que a transparência nada garante quando algoritmos assumem função de aleatoriedade ou por se tratarem de sistemas inteligentes, se adaptam ao contexto, mudando com o tempo. Dessa forma, outra possibilidade proposta para facilitar a responsabilização pelas práticas discriminatórias pelos algoritmos seria a prestação de contas.
No sentido de defender a pessoa humana de processos discriminatórios automatizados, de acordo com os estudos de Mendes e Mattiuzzo33:
Como ressalta Cathy O’Neil, é essencial que as pessoas que desenharão tais sistemas sejam capacitadas não só para compreender seus aspectos técnicos, mas também para visualizar os efeitos do uso daquele mecanismo no mundo real. Treiná-las para compreender aspectos éticos e morais de sua tomada de decisão, portanto, é fundamental.
Moulin34, também citando O’Neil, defende que para que os algoritmos sejam justos, é preciso haver uma fiscalização, reparação e aprimoração. Devendo, para tanto, que o princípio da antidiscriminação esteja presente desde a elaboração dos algoritmos, em sua parte técnica e na diversidade de responsáveis por seu desenvolvimento, considerando que são eles que aplicam conotações desde sua produção.
Compreendidas as ações automatizadas que se utilizam de dados pessoais, faremos uma análise de toda a sistemática organizada até aqui, fazendo relações entre os assuntos abordados.
6 DISCUSSÃO SOBRE O CARÁTER DISCRIMINATÓRIO AUTOMATIZADO NO TRATAMENTO DE DADOS SENSÍVEIS
Como foi explanado no início do artigo, a antidiscriminação é princípio positivado desde a Constituição Federal e seguiu a mesma finalidade ao proteger os dados pessoais no ambiente virtual. Consideradas as peculiaridades dos dados pessoais definidos pela LGPD como sensíveis, entende-se que este princípio deve, mais do que nunca, ser respeitado. Dessa forma, em um país que, em tese, preza pela igualdade de todos, não faria nenhum sentido permitir que discriminações em razão de origem racial ou étnica, convicção religiosa, opinião política, caráter religioso, entre outros aspectos definidos como dados sensíveis, acontecesse de modo a prejudicar indivíduos e a coletividade.
Diante do estudo voltado para os dados sensíveis, percebe-se que não é necessário que o dado pessoal tenha caráter sensível para que seja tratado com cuidado. Ainda, entende-se que qualquer que seja o dado pessoal pode ser transformado em dado sensível a depender de seu tratamento e uso. A segregação que tenha viés prejudicial, pode afetar áreas importantes da vida de uma pessoa, como o acesso à saúde, por exemplo. No caso do exemplo demonstrado por Rafael Zanatta35 (ver tópico 4) em que através de informações relacionadas à pessoa natural, ou seja, de dados pessoais genéricos, como bairro de moradia e idade, chegou-se a conclusão que aqueles perfis que se enquadram, na padronização criada, em grupos de risco, gerando, dessa forma, um olhar diferenciado à essas pessoas.
Ainda, é importante mencionar como os algoritmos atuam com base nas informações que recebem. Outro exemplo apresentado trata-se da restrição ao acesso à saúde para pessoas vítimas de violência doméstica. Sabe-se que a saúde é importante para toda e qualquer pessoa, sendo também um direito básico e fundamental, não devendo, portanto, ser afastado de ninguém. No entanto, os algoritmos, ao receberem as informações de que uma determinada pessoa sofreu ou sofre violência doméstica, conclui que não poderá contratar serviços de saúde. Não se sabe com base em que se faz esta discriminação, seja pela ideia de que estas pessoas necessitariam de mais cuidados de saúde ou se trariam um trabalho a mais aos planos de saúde. O que interessa é que o desenvolvimento de tal algoritmo e a sua atividade pode provocar malefícios ao seu titular e à sociedade.
Diferente seria se, ao identificar situações diversas ou de vulnerabilidade, com base nos dados pessoais, os algoritmos buscassem soluções para compreender e auxiliar aquelas pessoas já discriminadas em seu contexto social.
É importante ter em mente que os algoritmos, embora ajam por si só com as informações que recebem e conforme são programados, possui em seu desenvolvimento e produção a apresentação de vieses que, por vezes, podem ser preconceituosos, transformando o que deveria ser um simples resultado conclusivo em uma situação de discriminação. Dessa forma, se por um lado, os mecanismos de inteligência artificial vieram para facilitar a vida da sociedade, de outro lado, possui a capacidade de segregar e excluir pessoas em razão de algumas características ou informações, e pior, em razão de dados pessoais sensíveis.
Os algoritmos têm, em geral, a função rotuladora, que consiste em encaixar pessoas a padrões previamente estipulados e definir, através de um perfil, resultados que variam de acordo com a finalidade de sua modulação. Esta funcionalidade, apesar de benéfica em vários sentidos no ambiente virtual, pode causar, conforme exemplos reais apresentados anteriormente, situações de discriminação.
As discriminações possíveis de ocorrer neste meio virtual, tendo como base os dados pessoais e especificamente os dados sensíveis, podem se subdividir, gerando dois tipos de consequências: uma reforçando a desigualdade no acesso de serviços e a outra no sentido de retirar autonomia do usuário da internet, controlando suas decisões, baseando-se também em informações sensíveis. Primeiramente, observa-se a possibilidade de diferenciar o tratamento de usuário para usuário, de acordo com suas informações e através disso, concluir erroneamente ou ainda, de forma preconceituosa, quais os bens, serviços, direitos, gostos, aquisições que aquele titular do dado poderá ou não ter acesso.
É preciso compreender que não se trata aqui de uma forma de criticar a função dos algoritmos. Entende-se sua importância, facilidade e relevância para desenvolvimento de diversas atividades no meio virtual e fora dele. No entanto, ocorrendo situações como algumas das descritas no estudo, em que o algoritmo trabalha afastando do titular do dado pessoal determinados serviços, os quais são necessários, dadas as particularidades de cada pessoa, podem gerar danos irreversíveis, além de moldar a sociedade a ter os mesmos olhares através dos padrões criados.
Em segundo plano, partindo também de informações disponíveis às ferramentas automatizadas, podem ocorrer discriminações ao diferenciar os usuários e retirar-lhes autonomia nas decisões daquilo que consomem, findando por discriminar através dos resultados que as decisões automatizadas encontram. Portanto, refere-se mais uma vez à discriminação, ou seja, tratar com desigualdade os usuários de acordo com seus dados.
Como visto, os algoritmos são desenvolvidos e produzem resultados de acordo como foram programados. Dessa forma, ao compreender que a discriminação com base nos dados sensíveis são provocadas pela utilização dos algoritmos e por sua produção baseada apenas em encontrar soluções e resultados rápidos e técnicos, sem que seja identificados vieses morais e que também prezem pela antidiscriminação, encontra-se a resposta sobre como ocorrem essas discriminações. Além de a disponibilidade de dados, há com força maior, a produção de algoritmos que nem sempre respeitam o cuidado com esses dados.
Dessa forma, a discriminação com base nos dados sensíveis ocorrem através de ferramentas criadas pela inteligência artificial e que, por vezes, em sua produção e desenvolvimento não obedecem o que preceitua a LGPD ao definir princípios para tratar qualquer tipo de dado, a antidiscriminação.
7 CONSIDERAÇÕES FINAIS
Por fim, através da pesquisa, conclui-se que os dados pessoais sensíveis são regulamentados pela LGPD de forma a manter o maior cuidado a esses dados e a garantia dessa proteção não apresenta falhas, quando se analisa o texto da lei. Dessa forma, na perspectiva da lei, esta se apresenta de forma suficiente para proteger os dados pessoais sensíveis, vez que, reconhecendo o potencial de lesividade destes dados, a LGPD vem regulamentando de acordo com sua especificidade o cuidado que deve ser tomado com as informações sensíveis, definindo princípios que devem acompanhar todo o tratamento e armazenamento dos dados, dando autonomia para o titular do dado ter ciência de como seus dados são utilizados e ainda, garantindo que, se houver qualquer dano proveniente de tratamento de dados pessoais, existe a responsabilidade de reparação e ressarcimento.
No entanto, a pesquisa demonstrou que a problemática envolvendo a discriminação de maneira maléfica de pessoas, em razão de seus dados pessoais não é apenas provocado pelo mal armazenamento, não deixando de ser ponto extremamente importante para efetiva proteção, mas se trata de uma questão proveniente do desenvolvimento e programação de ferramentas computacionais de origem de inteligência artificial, os algoritmos. Essas ferramentas podem oferecer risco ao padronizar resultados tidos como verdadeiros e transformar a realidade conforme o molde criado, se utilizando de dados pessoais e dados pessoais sensíveis sem uma prévia análise do contexto que esses resultados podem gerar.
Ainda, foi possível reconhecer que para sanar o problema da discriminação no ambiente virtual é necessário que exista, desde a formulação dos algoritmos, o enraizamento do princípio da antidiscriminação, positivado na legislação e essencial na prática de atividades no meio virtual.
As consequências analisadas em razão das práticas discriminatórias com base nos dados sensíveis se resumiram, no estudo, a duas. A primeira, tratando-se do tratamento desigual das pessoas em razão de suas informações ou características, e assim, afastando, por exemplo, serviços de saúde, de consumo, e entre outros aspectos básicos e necessários à uma vida digna. E a segunda, interligada à primeira, tratando-se de um controle de decisões dos usuários e titulares dos dados, retirando autonomia das pessoas no ambiente virtual, definindo automaticamente o “melhor” e “certo” a cada pessoa, a partir dos dados coletados. Ainda neste sentido, das duas consequências apuradas findam-se em uma e mais perigosa, tornar essas práticas como comuns e com reflexo na realidade e na sociedade.
Por fim, reconhecido o perigo e prejuízos que podem ser provenientes desta discriminação e todos os direitos e garantias advindos com a Lei de Proteção de Dados, é inegável a importância de todos os usuários conhecerem e se atentarem ao que dispõe à lei e cobrarem dos operadores de dados pessoais, especificamente dos dados sensíveis, um tratamento que condiz com sua particularidade. Além disso, cabe aos operadores dos dados pessoais e dos desenvolvedores de algoritmos que utilizam esses dados, mais atenção e responsabilidade não só em sua modulação, mas também ao resultado que seus trabalhos podem trazer ao ambiente virtual e também real.
REFERÊNCIAS
BRASIL. [Constituição (1988)]. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, [2022]. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em 30 set. 2022.
BRASIL. Constituição (1988). Emenda Constitucional n° 115 de 10 de fevereiro de 2022. Brasília, DF: Presidência da República, [2022]. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/emendas/emc/emc115.htm. Acesso em: 01 out. 2022.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, 2018. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em 29 de set. 2022.
BRASIL. Superior Tribunal de Justiça. Recurso Especial no 1.419.697. “Trata-se de recurso especial afetado ao rito do art. 543-C do Código de Processo Civil para a consolidação do entendimento desta Corte sobre a “a natureza dos sistemas de scoring (SPC SCORE CRÉDITO) e a possibilidade de violação a princípios e regras do Código de Defesa do Consumidor capaz de gerar indenização por dano moral”. Brasília, DF: Superior Tribunal de Justiça, [2013]. Disponível em: https://www.jusbrasil.com.br/jurisprudencia/stj/152068666/relatorio-e-voto-152068681. Acesso em: 03. out. 2022.
FILHO, Eduardo Tomasevicius. A Lei Geral de Proteção de Dados Brasileira. Grupo Almedina. Portugal, 2021.
KORKMAZ, Maria Regina D. C. R. Dados sensíveis na Lei Geral de Proteção de Dados Pessoais: mecanismos de tutela para o livre desenvolvimento da personalidade. Juiz de Fora, 2019.
LINDOSO, Maria Cristine Branco. Discriminação de Gênero em Processos Decisórios Automatizados. Brasília, 2019.
MENDES, L. S; MATTIUZZO, M. Discriminação Algorítmica: Conceito, Fundamento Legal e Tipologia. Porto Alegre, 2019.
MOULIN, Carla da Silva. O princípio da não discriminação na LGPD e as decisões automatizadas. Rio de Janeiro, 2020.
MULHOLLAND, Caitlin Sampaio. Dados pessoais sensíveis e a tutela de direitos fundamentais: uma análise à luz da lei geral de proteção de dados (Lei 13.709/18). Revista de Direitos e Garantias Fundamentais, 2018.
PINHEIRO, Patrícia Peck. Direito Digital. 7. ed. São Paulo: Editora Saraiva, 2021.
ZANATTA, Rafael A. F. Perfilização, Discriminação e Direitos: do Código de Defesa do Consumidor à Lei Geral de Proteção de Dados Pessoais. 2019. São Paulo.
3BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, 2018. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em 29 de set. 2022.
4BRASIL, 2018.
5 Ibidem.
6BRASIL. [Constituição (1988)]. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, [2022]. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em 30 set. 2022.
7 BRASIL, 1988.
8BRASIL. Constituição (1988). Emenda Constitucional n° 115 de 10 de fevereiro de 2022. Brasília, DF: Presidência da República, [2022]. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/emendas/emc/emc115.htm. Acesso em: 01 out. 2022.
9ZANATTA, Rafael A. F. Perfilização, Discriminação e Direitos: do Código de Defesa do Consumidor à Lei Geral de Proteção de Dados Pessoais. 2019. São Paulo.
10Ibidem.
11Ibidem.
12BRASIL. Superior Tribunal de Justiça. Recurso Especial no 1.419.697. “Trata-se de recurso especial afetado ao rito do art. 543-C do Código de Processo Civil para a consolidação do entendimento desta Corte sobre a “a natureza dos sistemas de scoring (SPC SCORE CRÉDITO) e a possibilidade de violação a princípios e regras do Código de Defesa do Consumidor capaz de gerar indenização por dano moral”. Brasília, DF: Superior Tribunal de Justiça, [2013]. Disponível em: https://www.jusbrasil.com.br/jurisprudencia/stj/152068666/relatorio-e-voto-152068681. Acesso em: 03. out. 2022.
13KORKMAZ, Maria Regina D. C. R. Dados sensíveis na Lei Geral de Proteção de Dados Pessoais: mecanismos de tutela para o livre desenvolvimento da personalidade. JF, 2019.
14MULHOLLAND, Caitlin Sampaio. Dados pessoais sensíveis e a tutela de direitos fundamentais: uma análise à luz da lei geral de proteção de dados (Lei 13.709/18). Revista de Direitos e Garantias Fundamentais, 2018.
15Ibidem.
16KORKMAZ, Maria Regina D. C. R. 2019.
17Ibidem.
18MOULINN, Carla da Silva. O princípio da não discriminação na LGPD e as decisões automatizadas. Rio de Janeiro, 2020.
19MULHOLLAND, Caitlin Sampaio, 2018.
20 Ibidem.
21 Ibidem.
22 Ibidem.
23MOULIN, Carla da Silva, 2020.
24LINDOSO, Maria Cristine Branco. Discriminação de Gênero em Processos Decisórios Automatizados. Brasília, 2019.
25FILHO, Eduardo Tomasevicius.A Lei Geral de Proteção de Dados Brasileira. Grupo Almedina. Portugal, 2021.
26Ibidem.
27MOULIN, Carla da Silva, 2020.
28PINHEIRO, Patrícia Peck. Direito Digital. 7. ed. São Paulo: Editora Saraiva, 2021.
29 LINDOSO, Maria Cristine Branco, 2019.
30Ibidem.
31MENDES, L. S; MATTIUZZO, M. Discriminação Algorítmica: Conceito, Fundamento Legal e Tipologia. Porto Alegre, 2019.
32Ibidem.
33Ibidem.
34MOULIN, Carla da Silva, 2020.
35 ZANATTA, Rafael A. F, 2019.
1Acadêmica de Direito. Artigo apresentado à Faculdade Interamericana de Porto Velho – UNIRON, como requisito para obtenção do título de Bacharel em Direito Porto Velho, 2022.
2Prof. Orientador (Especialista). Professor de Direito