O RACISMO NA INTELIGÊNCIA ARTIFICIAL: ANALISANDO OS PRINCÍPIOS ÉTICOS E A DIVERSIDADE

REGISTRO DOI: 10.69849/revistaft/ra10202506042357


Gabriel Marcon Leal1
Julia Beatriz de Oliveira2
Kamilly Luize Cardoso Pereira3
Rafael Henrique Ferrari Goncalves4
Orientadora: Marcia Lazara Pinheiro Silva5


RESUMO

O seguinte estudo investigou o impacto do racismo algorítmico no desenvolvimento de sistemas de inteligência artificial (IA) no contexto brasileiro e global. Diante da persistência do racismo estrutural na sociedade, surge a preocupação com o potencial dos sistemas de IA em reproduzir e amplificar preconceitos raciais. O objetivo principal desse artigo, foi analisar como os sistemas de inteligência artificial impactam nos princípios éticos relacionados ao racismo algorítmico e da falta de diversidade no seu desenvolvimento, com o intuito de demonstrar como podem ser éticos e inclusivos. A metodologia adotada, que foi a netnografia, envolveu o estudo de blogs, notícias e redes sociais. Os resultados revelam que os sistemas de IA estão suscetíveis a reproduzir e amplificar preconceitos raciais presentes na sociedade, evidenciando a necessidade urgente de considerar questões éticas e raciais em seu desenvolvimento. Concluiu-se que a inclusão de valores morais e a promoção da diversidade são fundamentais para garantir a responsabilidade e a inclusão desses sistemas, demonstrando a necessidade de ampliar o debate e fomentar subsídios para a adoção de políticas e práticas mais éticas e inclusivas no desenvolvimento de sistemas de IA.

PALAVRAS-CHAVE: Racismo algorítmico; Inteligência Artificial (IA); Inclusão e diversidade.

ABSTRACT

The following study investigates the impact of algorithmic racism on the development of artificial intelligence (AI) systems in both the Brazilian and global contexts. Given the persistence of structural racism in society, concerns arise regarding the potential for AI systems to reproduce and amplify racial prejudices. The main objective of this article is to analyze how artificial intelligence systems affect ethical principles related to algorithmic racism and the lack of diversity in their development, aiming to demonstrate how they can be ethical and inclusive. The adopted methodology is netnography, wich involves the study of blogs, news, and social networks. The results reveal that AI systems are susceptible to reproducing and amplifying racial prejudices present in society, highlighting the urgent need to consider ethical and racial issues in their development. It is concluded that the inclusion of moral values and the promotion of diversity are essential to ensure the responsibility and inclusion of these systems. This article aims to contribute to expanding the debate on the topic and providing support for the adoption of more ethical and inclusive policies and practices in the development of AI systems.

Keywords: Algorithmic racism; Artificial Intelligence (AI); Inclusion and diversity.

1 INTRODUÇÃO

No Brasil, o racismo permeia profundamente a história do país, persistindo mesmo após mais de um século da abolição da escravatura. A população negra continua frequentemente à margem dos espaços de prestígio, como ambientes de trabalho e universidades, evidenciando as diversas manifestações do racismo, incluindo o racismo estrutural, institucional e, mais recentemente, o racismo algorítmico. Como objetivo principal desse artigo, vamos analisar como os sistemas de inteligência artificial impactam nos princípios éticos relacionados ao racismo algorítmico e da falta de diversidade no seu desenvolvimento, com o intuito de demonstrar como podem ser éticos e inclusivos.

O racismo algorítmico, que é uma questão emergente no Brasil e globalmente, surge quando sistemas de IA e algoritmos reproduzem e amplificam os preconceitos raciais existentes na sociedade. Esses sistemas não são neutros, pois são construídos dentro de um contexto social e estão sujeitos a ele. Portanto, torna-se crucial que os desenvolvedores de IA considerem esses problemas ao criar e implementar novos sistemas e algoritmos.

Com o avanço acelerado da tecnologia, especialmente no campo da IA, torna-se decisivo garantir que esses sistemas sejam desenvolvidos e implementados de maneira responsável e inclusiva. Ética e diversidade emergem como elementos fundamentais neste contexto, essenciais para a construção e utilização justa de sistemas de IA. E com esse artigo planeja-se explorar os impactos que a IA causa ao não assegurar a incorporação de valores morais e a inclusão racial no seu processo de criação.

Como metodologia, utiliza-se a netnografia que é essencial para analisar a realidade de muitas inteligências artificiais em relação ao racismo. Ao explorar blogs, redes sociais e outras plataformas digitais, observa-se questões ligadas à ética e diversidade na IA, incluindo percepções e experiências das pessoas em relação ao racismo na Inteligência Artificial. Além disso, a Netnografia pode ajudar a detectar meios potenciais e melhores práticas para encorajar a ética e a diversidade na IA.

2 EMBASAMENTO TEÓRICO

O capítulo trata do levantamento bibliográfico do tema, considerando compreender sobre a inteligência artificial, seu funcionamento e a realidade do racismo na sociedade.

2.1 O que é Inteligência Artificial?

A Inteligência Artificial (IA) é definida como um campo da ciência da computação que, conforme observado por Peixoto (2020, p.17): “Busca, por meio da interação multidisciplinar com outras áreas do conhecimento, reproduzir ações cognitivas tipicamente humanas”. Em outras palavras, está intrinsecamente ligada à emulação artificial da capacidade humana de organizar informações e resolver problemas, o que implica em uma demanda significativa por processamento computacional de dados e capacidade de armazenamento. Segundo Peixoto (2020), a IA pode ser empregada para melhorar o desempenho de uma atividade específica ou para automatizar tarefas repetitivas.

O campo de Inteligência Artificial e “Machine Learning” foi estabelecido com o objetivo de criar sistemas capazes de realizar tarefas complexas de maneira eficaz e autônoma. “Machine Learning” é uma subárea da Inteligência Artificial que se dedica ao desenvolvimento de algoritmos e técnicas que permitem que as máquinas aprendam a partir de dados e aprimorem seu desempenho com o tempo. Depois de treinados, esses algoritmos podem simplificar ou até mesmo realizar algumas de nossas tarefas contribuindo para o progresso da sociedade como um todo.

A Inteligência Artificial, como a entende-se hoje, começou a tomar forma no século XX, impulsionada pelos progressos na matemática, lógica e ciência da computação. Em 1950, Alan Turing estabeleceu o Teste de Turing como um padrão para avaliar se uma máquina pode ser classificada como inteligente. Ele também apresentou a ideia de máquinas que podem adquirir conhecimento através da experiência.

Apesar dos progressos realizados nas décadas seguintes, a IA passou por um período de desencanto e redução de financiamento entre 1980 e 1990. No entanto, durante esse tempo, houve progressos notáveis em algoritmos de aprendizado de máquina, incluindo redes neurais, algoritmos genéticos e aprendizado por reforço.

Com o avanço da capacidade de processamento e a disponibilidade de grandes quantidades de dados, a IA viveu um renascimento no século XXI. Isso foi marcado pelo desenvolvimento de algoritmos de aprendizado profundo e sua aplicação prática em várias indústrias, finanças, automação e robótica. O grande desafio das pesquisas em IA, desde a sua criação, pode ser resumido com a pergunta feita por Minsky em seu livro “Semantic Information Processing”, há quase trinta anos: “Como fazer as máquinas compreenderem as coisas?” (MINSKY, 1968).

A resposta a essa pergunta tem sido o foco de muitas pesquisas e desenvolvimentos na área de IA. Hoje, as máquinas são capazes de compreender e aprender de uma forma que era inimaginável há anos. No entanto, a busca por essa compreensão continua a ser um dos principais desafios na área de IA, e é um campo de pesquisa ativo.

2.2 O que é um Algoritmo e como ele funciona?

Um algoritmo é uma lista de instruções passo a passo que descreve um procedimento para resolver um determinado problema. No campo da computação, refere-se a uma sequência de operações que um computador executa para completar uma tarefa específica. Os algoritmos são a base de todos os programas de computador e variam desde operações simples, descritíveis como uma receita de cozinha, até algoritmos de aprendizado de máquina extremamente complexos. Portanto, são essenciais para a ciência da computação e a prática de programação. Do ponto de vista conceitual, os algoritmos podem ser entendidos como “uma sequência ordenada e sem ambiguidade de passos para a resolução de um problema” (RIBEIRO, 2019, p. 40). Outra abordagem os descreve como “um procedimento computacional bem definido que usa algum valor ou conjunto de valores como entrada e produz algum valor ou conjunto de valores como saída” (REIS, 2020). Para esclarecer a primeira definição, uma sequência ordenada implica que cada passo contribua para a solução final do problema, sendo cada passo efetivo. Além disso, a ausência de ambiguidade significa que não deve haver dúvidas sobre o significado de cada passo na resolução do problema. Uma consequência dessa definição é que a solução deve ser obtida passo a passo, evitando ambiguidade e falta de clareza em cada etapa. Uma vez que as informações são fornecidas, o algoritmo processa todas elas e, em um tempo finito, produz uma saída como solução para algum problema. No entanto, além de algoritmos eficientes, são necessários dados eficientes para melhor refletir a complexidade do mundo real, embora os algoritmos representem uma simplificação das inúmeras variáveis presentes nele (RIBEIRO, 2019).

Há uma variedade de técnicas e algoritmos disponíveis para ensinar uma máquina a executar uma tarefa. Na maioria das vezes, quando falamos de Inteligência Artificial, estamos nos referindo a algoritmos de Machine Learning. No caso dos algoritmos de Machine Learning supervisionados, a ideia central é que, após um processo conhecido como treinamento, seja criado um modelo capaz de estabelecer uma relação entre um tipo de entrada desejada e uma saída correspondente.

Figura 1: Ilustra uma máquina simbolizando um modelo de IA treinado, que transforma dados brutos em informações úteis.

Imagem mostrando um modelo de machine learning representado por uma esteira de produção. Uma maçã aparece do lado de entrada da esteira e após a passagem pelo modelo treinado aparece a palavra maçã como resultado da classificação do modelo

(Reprodução/Alura, 2023).

No entanto, existem outras abordagens que não se enquadram nas aplicações supervisionadas. Por exemplo, os algoritmos não supervisionados recebem dados sem informações sobre uma saída desejada e conseguem identificar padrões. Outro exemplo é o aprendizado por reforço, onde os algoritmos aprendem a tomar decisões interagindo com um ambiente e recebendo feedback na forma de recompensas ou punições. É importante notar que, independentemente do tipo de abordagem de aprendizado, os algoritmos tendem a ser vulneráveis às características de seus dados de treinamento. Como observado por Osoba & Welser (2017):

Algoritmos tendem a ser vulneráveis a características de seus dados de treinamento. Esta é um recurso destes algoritmos: a habilidade de se adaptar face a inputs cambiantes. Mas a adaptação algorítmica em resposta aos dados fornecidos também apresenta um vetor de ataque por usuários mal-intencionados. Esta vulnerabilidade da dieta de dados em algoritmos de aprendizado é um tema recorrente (OSOBA; WELSER, 2017, p. 7).

Conforme observado por Stalder (2018, p. 104), os algoritmos requerem instruções precisas, organizadas em passos modulares que possam ser executados de forma independente e resultem sempre na mesma saída. Alguns algoritmos, como os de aprendizado de máquina, têm a capacidade de se adaptar dinamicamente, com ou sem supervisão humana, por meio de um processo experimental em que diferentes códigos são expostos a vastas quantidades de dados e ajustados progressivamente para alcançar o resultado desejado (Stalder, 2018, pp. 109).

Osoba & Welser declaram que:

a pesquisa técnica em vieses no aprendizado de máquina e inteligência artificial ainda está em sua infância. Questões sobre vieses e erros sistêmicos em algoritmos demandam um diferente tipo de sabedoria de cientistas de dados e criadores de algoritmos. Estes profissionais são comumente engenheiros e cientistas com menos exposição a questões de políticas públicas ou sociais (OSOBA & WELSER IV, 2017, p.24, trad. livre)

Nesse contexto, os algoritmos dinâmicos são intrinsecamente reflexivos e requerem cuidado constante durante sua supervisão, não podendo ser simplesmente executados e esquecidos (Stalder, 2018, p. 110). No entanto, uma das consequências dessa reflexividade é a crescente complexidade e imprevisibilidade do código-fonte, mesmo para seus criadores e outros especialistas, transformando os algoritmos em verdadeiras caixas-pretas.

2.3 O racismo não intencional implementado na IA

O racismo é uma das questões mais complexas enfrentadas pela humanidade. Presente em diversas formas e manifestações, o racismo permeia as estruturas sociais, econômicas e políticas da sociedade. Trata-se de um sistema de opressão e discriminação baseado em características raciais, que perpetua desigualdades e injustiças sistêmicas.

Desde a escravidão transatlântica até os dias atuais, o racismo tem sido uma força poderosa que molda as experiências de vida de milhões de pessoas, determinando oportunidades, acesso a recursos e até mesmo a segurança pessoal. Embora tenham sido feitos progressos significativos na luta contra o racismo, ainda persistem desafios profundos e persistentes que exigem atenção e ação contínuas.

À medida que a IA se torna cada vez mais integrada em diversos aspectos de nossas vidas, desde sistemas de recrutamento até processos de decisões judiciais, surge uma preocupação crescente sobre como o viés racial pode ser inadvertidamente perpetuado ou até amplificado por algoritmos e sistemas automatizados, uma análise dos softwares, realizada pelo NIST (National Institute of Standards and Technology) identificou uma diferença entre 10 a 100 vezes mais de falsos positivos em fotos de negros e asiáticos em comparação com brancos. Os sistemas algorítmicos estão cada vez mais tomando decisões por nós e sobre nós. A “Autoridade é crescentemente expressa algoritmicamente. Decisões que eram normalmente baseadas em reflexão humana agora são feitas automaticamente. O software codifica milhares de regras e instruções computadas em uma fração de segundo” (Pasquale, 2015, p.4). Essas decisões têm impactos em diferentes níveis de imediatismo e sutileza, podendo modular o comportamento e as condutas de seus usuários (Silveira, 2017), de forma discreta, na maioria dos casos para reproduzir relações de poder e opressão já existentes na sociedade. Este é um dos grandes desafios e problemas da lógica do aprendizado de máquina, que se baseia no cálculo

computacional de milhares de decisões “ótimas” a partir do input de dados.

As pesquisas de Daniels, Nkonde e Mir (2019) revelam os três fundamentos da literatura crítica sobre raça na tecnologia, cujo potencial de impacto estende-se até mesmo a grandes organizações globais:

Compreensão intelectual de como racismo estrutural opera em algoritmos, plataformas de mídias sociais e tecnologias ainda não desenvolvidas; inteligência emocional sobre como resolver situações racialmente estressantes em organizações e; compromisso na tomada de ação para reduzir danos a grupos racializados (DANIELS, NKONDE & MIR, 2019, p.20.

Sendo assim, a pesquisa de Daniels, Nkonde e Mir (2019) destaca a necessidade de uma abordagem tridimensional para combater o racismo na tecnologia. Isso envolve não apenas a compreensão intelectual do racismo estrutural e a inteligência emocional para lidar com situações racialmente estressantes, mas também um compromisso ativo para tomar medidas que reduzam os danos aos grupos racializados. Esses fundamentos servem como um chamado à ação para indivíduos, organizações e a sociedade, enfatizando a importância de abordar o racismo na tecnologia de maneira integral e eficaz.

3 DESENVOLVIMENTO DA TEMÁTICA

Neste capítulo apresenta-se a metodologia aplicada, observando como a IA está presente nos blogs, jogos e redes sociais.

3.1 Netnografia

Com a finalidade de examinar as características de diversos métodos essenciais, como metodologia nesse trabalho, foi usado a Netnografia. Na qual emprega comunicações mediadas por computador para entender e representar etnograficamente um fenômeno cultural na Internet. É um método de análise de mercado que utiliza informações disponíveis na internet para entender as necessidades, desejos e problemas dos usuários da web.

A Netnografia é adaptada para estudar fóruns, grupos de notícias, blogs e redes sociais. Diversas marcas, empresas e profissionais do marketing utilizam a Netnografia para estudar seu público-alvo, de modo a adequar suas ofertas e influenciar escolhas, neste tocante, compete observar o racismo, uma vez que o desenvolvimento tecnológico está para a IA.

3.2 Recortes de racismo nas redes sociais

O Google mantinha em sua loja de aplicativo um jogo chamado ‘Simulador de Escravidão’ em maio de 2023. O jogo simula pessoas negras que podem ser castigadas ao longo das partidas. Entre as opções da dinâmica do jogo estão em agredir e torturar o ‘escravo’. Foi produzido pela Magnus Games e tinha pouco mais de mil downloads além de 70 avaliações.

Figura 2: Caso do jogo “Simulador de Escravidão” pelo deputado Orlando Silva (PCdoB-SP)

Interface gráfica do usuário, Texto

(Reprodução/Twitter, 2023).

Arsenii Alenichev digitou frases como “Médicos negros africanos cuidando de crianças brancas que sofrem” em um programa de inteligência artificial (Midjourney Bot Versão 5.1). Seu objetivo era ver se a IA criaria imagens que mudassem os estereótipos. Apesar das especificações, o programa de IA sempre retratou as crianças como negras. E em 22 das mais de 350 imagens, os médicos eram brancos.

Figura 3: Ilustração de um médico branco cuidando de crianças negras, mesmo sendo pedido para a IA mostrar um médico negro cuidando de crianças brancas.

Midjourney Bot Versão 5.1. Anotação da NPR.

(Reprodução/Blog <quilombola.ong.br>, 2023).

Um usuário pede para que o Gemini gere imagens de soldados alemães em 1943, na era nazista. A tecnologia, então, retornou com fotos de militares negros.

Figura 4: Imagem da IA com soldados negros, ao ser pedido soldados alemães na era nazista.

Interface gráfica do usuário, Aplicativo

(Reprodução/Twitter, 2024).

O Gemini também gerou imagens de pessoas não brancas quando foi solicitada foto dos Pais Fundadores dos Estados Unidos, que, na verdade, são todos homens brancos.

Figura 5: Imagem com especificações para uma foto dos pais fundadores dos EUA que foi representada por pessoas negras pelo Gemini.

Interface gráfica do usuário, Site

(Reprodução/Twitter, 2024).

4 RESULTADOS E DISCUSSÃO

Na seguinte imagem pode-se observar um caso de racismo algorítmico, ocorrido em outubro de dois mil e vinte e três com a até então deputada estadual Renata Souza (PSO-RJ):

Figura 6: Caso de racismo algorítmico com a deputada estadual Renata Souza (PSO-RJ).

Jornal com imagens de pessoas

(Reprodução/Twitter, 2023).

A imagem originalmente solicitada a IA retratava uma mulher negra, de cabelos afro, vestindo roupas com estampa africana em um cenário de favela. No entanto, o resultado apresentou a mulher segurando uma arma, o que ressalta a presença do viés racista neste algoritmo.

Esse exemplo de representação distorcida, assim como os construídos nas figuras 02 a 05, não apenas reforçam estereótipos prejudiciais, mas também perpetuam a narrativa de violência associada às comunidades marginais. Ao retratar uma mulher negra armada em um contexto de favela, o algoritmo não apenas falha em capturar a diversidade e a complexidade dessas comunidades, mas também alimenta uma percepção equivocada que pode colocar em risco a vida e a segurança da sociedade.

O racismo algorítmico é um problema complexo que se origina, em parte, da falta de diversidade nas equipes de desenvolvimento de IA e da tendência dos algoritmos de aprendizado de máquina de replicar os vieses presentes nos dados de treinamento. É crucial que as equipes de desenvolvimento de IA sejam diversas e representativas da população em geral, e que os dados de treinamento sejam cuidadosamente selecionados e revisados para garantir que não perpetuem preconceitos existentes. Além de que é importante implementar práticas de auditoria e transparência para detectar e corrigir vieses em algoritmos de IA. Incluindo a revisão regular dos resultados do algoritmo, a implementação de mecanismos de feedback dos usuários e a transparência sobre como o algoritmo toma decisões.

5 CONSIDERAÇÕES FINAIS

O objetivo inicial deste artigo procurou destacar o racismo algorítmico e determinar sua importância, tanto no contexto brasileiro quanto global, e propor ações para mitigar esse problema.

A existência de conexões entre sistemas de inteligência artificial e os preconceitos raciais presentes na sociedade ainda é um tema pouco abordado e sem resposta, a autoridade é cada vez mais expressa por meio de algoritmos, decisões que anteriormente dependiam da reflexão humana e agora são tomadas automaticamente. O software codifica milhares de regras e instruções computadas em uma fração de segundo (Pasquale, 2015, p.4). Essas decisões têm impactos em diferentes níveis de imediatismo e sutileza, podendo influenciar o comportamento e as condutas de seus usuários (Silveira, 2017) de maneira discreta.

Para combater o racismo algorítmico, é crucial adotar abordagens multifacetadas que abordem tanto os aspectos técnicos quanto os sociais do problema. Uma solução fundamental é a revisão e aprimoramento dos algoritmos para mitigar a descriminação. Isso pode ser alcançado por meio da implementação de técnicas de aprendizado de máquina justas e equitativas, como a regularização dos dados para garantir representatividade de diferentes grupos demográficos, a identificação e remoção de características sensíveis que possam levar a discriminação e o desenvolvimento de métricas de avaliação que levem em consideração equidade e justiça.

Além disso, é essencial promover a diversidade e a inclusão na indústria de tecnologia, garantindo que as equipes de desenvolvimento sejam compostas por uma variedade de vozes e perspectivas. Paralelamente, é necessário estabelecer regulamentações e políticas que governem o uso ético e responsável da inteligência artificial, garantindo a transparência, a prestação de contas e a proteção dos direitos individuais e das liberdades civis. A educação e a conscientização pública também desempenham um papel fundamental, capacitando as pessoas a entenderem como os algoritmos funcionam, reconhecerem os riscos de discriminação algorítmica e exigirem mudanças quando necessário.

Por fim, é fundamental incentivar a colaboração global entre governos, empresas, organizações da sociedade civil e a comunidade de pesquisa para compartilhar melhores práticas, desenvolver padrões comuns e coordenar esforços na luta contra o racismo algorítmico. Essas soluções, quando implementadas de forma integrada e coordenada, podem ajudar a criar sistemas de inteligência artificial mais justos, equitativos e inclusivos para todos.

REFERÊNCIAS

BOMFIM, Thiago. Deputada acusa IA de ‘racismo algorítmico’ por desenho de negra armada. 2023. Disponível em: https://noticias.uol.com.br/politica/ultimas- noticias/2023/10/26/deputada-racismo-algoritmico-ia.htm. Acesso em: 12 abr. 2024.

CASEMIRO, Poliana; NICOCELI, Artur. Google tira do ar jogo ‘Simulador de Escravidão’, que permitia castigar e torturar pessoas negras. Disponível em: https://g1.globo.com/sp/sao-paulo/noticia/2023/05/24/google-tira-do-ar-jogo-simulador-de- escravidao.ghtml. Acesso em: 01 maio 2024.

DANIELS, J.; NKONDE, M.; MIR, D. Advancing Racial Literacy in Tech. Relatório do Data & Society Fellowship Program. 2019.

HARTMANN PEIXOTO, Fabiano. Direito e Inteligência Artificial. Coleção Inteligência Artificial e Jurisdição. Volume 2. DR.IA. Brasília, 2020. https://orcid.org/0000- 0002-6502- 9897. ISBN nº 978-65-00-08585-3. Disponível em: www.dria.unb.br.

KOZINETS, Robert V.. Desvelando a Netnografia: um guia teórico e prático. Disponível em: https://doi.org/10.1590/1809-58442015217. Acesso em: 01 maio 2024.

MIN, S.; LEE, B.; YOON, S. Deep Learning in Bioinformatics. Briefings in Bioinformatics, v. 18, n. 5, p. 851–869, 2017.

MINSKY, M. (editor). Semantic information processing. Cambridge: The MIT Press, 1968.

MONITCHELE, Marília. Inteligência Artificial do Google é acusada de “racismo reverso”. Disponível em: https://veja.abril.com.br/tecnologia/inteligencia-artificial-do-google-e- acusada-de-racismo-reverso. Acesso em: 01 maio 2024.

OSOBA, Osonde A.; WELSER IV, William. An intelligence in our image: The risks of bias and errors in artificial intelligence. Rand Corporation, 2017.

PASQUALE, Frank. The black box society. Harvard University Press, 2015.

RIBEIRO, João A. Introdução à Programação e aos Algoritmos. Grupo GEN, 2019.9788521636410. Acesso em: 12 abr 2024.

SILVA, Tarcízio. Mapeamento de Danos e Discriminação Algorítmica. Desvelar, 2023. Disponível em: https://desvelar.org/casos-de-discriminacao-algoritmica/. Acesso em: 01 de maio 2024.

SILVA,  Tarcízio.  RACISMO  ALGORÍTMICO  EM  PLATAFORMAS  DIGITAIS: MICROAGRESSÕES E DISCRIMINAÇÃO EM CÓDIGO: plataformização, algoritmos e raça online. In:

SILVA, Tarcízio. COMUNIDADES, ALGORITMOS E ATIVISMOS DIGITAIS: OLHARES AFRODIASPÓRICOS. São Paulo: LiteraRua, 2020. p. 123.

SPADINI, Allan Segovia. O que é Inteligência Artificial? Como funciona uma IA, quais os tipos e exemplos. Disponível em: https://www.alura.com.br/artigos/inteligencia-artificial- ia#:~:text=Intelig%C3%AAncia%20Artificial%20(IA)%20%C3%A9%20um,que%20normal mente%20exigem%20intelig%C3%AAncia%20humana. Acesso em: 18 abr. 2024.

STALDER, F. (2018). The digital condition. Cambridge: Polity Press.

SILVEIRA, Sérgio Amadeu da. Tudo sobre Tod@s: redes digitais, privacidade e venda de dados pessoais. São Paulo: Edições Sesc, 2017.


1 (Fatec Jundiaí)
Gabriel.Leal8@Fatec.Sp.Gov.Br
2 (Fatec Jundiaí)
Julia.Oliveira52@Fatec.Sp.Gov.Br
3 (Fatec Jundiaí)
Kamilly.Pereira@Fatec.Sp.Gov.Br
4 (Fatec Jundiaí)
Rafael.Goncalves43@Fatec.Sp.Gov.Br
5 Orientadora: (Fatec Jundiaí)
Marcia.Silva@Fatec.Sp.Gov.Br