“AVALIAÇÃO CRÍTICA DOS VIESES ALGORÍTMICOS EM FERRAMENTAS DE INTELIGÊNCIA ARTIFICIAL UTILIZADAS NA EDUCAÇÃO INCLUSIVA”:

REGISTRO DOI: 10.5281/zenodo.10806237


José Carlos Guimarães Junior1;
Adilson Gomes de Campos2;
Fabiano da Silva Araujo3;
Jacqueline Andreucci Lindstron4;
Leylanne Amorim Soares Correa5;
Maria Amélia dos Santos Peres6;
Hilton Giovani Neves7


Resumo

Este artigo examina criticamente os viéses algorítmicos em ferramentas de inteligência artificial (IA) utilizadas na educação inclusiva, destacando os riscos e desafios associados a esses, e oferecendo insights sobre métodos de avaliação e estratégias de mitigação. À medida que a IA se torna cada vez mais presente nas salas de aula inclusivas, é crucial compreender como os algoritmos podem inadvertidamente perpetuar desigualdades e discriminações existentes. Após uma introdução que contextualiza a importância da análise dos viéses algorítmicos, o artigo explora exemplos de sua manifestação em diferentes contextos educacionais, demonstrando como podem afetar negativamente a experiência de alunos com necessidades especiais. O texto discute os métodos de avaliação dos algorítmicos, enfatizando a necessidade de transparência e responsabilidade na detecção desses viéses. Além disso, são apresentadas práticas recomendadas para mitigar os efeitos prejudiciais dos algorítmicos, promovendo o desenvolvimento ético e inclusivo de sistemas de IA educacionais. O artigo também examina desafios e oportunidades futuras, destacando a importância contínua da pesquisa e do desenvolvimento de políticas que garantam uma abordagem equitativa e justa para o uso de IA na educação inclusiva.

Palavras-chave: Inteligência Artificial, Educação Inclusiva, Viéses Algorítmicos.

Abstract

This article critically examines algorithmic biases in artificial intelligence (AI) tools used in inclusive education, highlighting the risks and challenges associated with them, and providing insights into assessment methods and mitigation strategies. As AI becomes increasingly present in inclusive classrooms, it is crucial to understand how algorithms can inadvertently perpetuate existing inequalities and discriminations. After an introduction that contextualizes the importance of analyzing algorithmic biases, the article explores examples of their manifestation in different educational contexts, demonstrating how they can negatively affect the experience of students with special needs. The text discusses methods for evaluating algorithmic biases, emphasizing the need for transparency and accountability in detecting these biases. Additionally, recommended practices are presented to mitigate the harmful effects of algorithmic biases, promoting the ethical and inclusive development of educational AI systems. The article also examines future challenges and opportunities, highlighting the ongoing importance of research and policy development to ensure an equitable and fair approach to the use of AI in inclusive education.

Keywords: Artificial Intelligence, Inclusive Education, Algorithmic Biases.

1. Introdução

Na era da educação inclusiva impulsionada pela Inteligência Artificial (IA), surgem promessas de personalização e acessibilidade sem precedentes no ensino. Contudo, esse avanço tecnológico também traz consigo desafios complexos e potencialmente prejudiciais que demandam atenção crítica. Entre esses desafios, destacam-se os viéses algorítmicos, distorções que podem se infiltrar nos algoritmos de IA e perpetuar desigualdades educacionais existentes. A compreensão e a abordagem dessas tendências são cruciais para preservar os princípios da educação inclusiva e garantir que todos os alunos tenham oportunidades equitativas de aprendizado.

Neste artigo, exploraremos de maneira aprofundada a questão dos viéses algorítmicos em ferramentas de IA na educação inclusiva, fornecendo uma análise crítica e discutindo métodos de avaliação e estratégias de mitigação. Nosso objetivo é não apenas identificar os desafios, mas também oferecer insights práticos para promover uma abordagem ética e justa no uso da IA para a inclusão educacional. Ao fazer isso, esperamos contribuir para um diálogo informado e para o desenvolvimento de políticas e práticas mais inclusivas na educação impulsionada pela IA.

Além disso, contextualizaremos a importância da IA na educação inclusiva, destacando os benefícios potenciais e os desafios associados à sua implementação. Em seguida, exploraremos exemplos de variações algorítmicas em diferentes contextos educacionais, demonstrando como podem afetar negativamente a experiência de alunos com necessidades especiais. Discutiremos os métodos de avaliação dos algorítmicos, enfatizando a necessidade de transparência e responsabilidade na detecção dessas alternativas. 

Ademais, apresentaremos práticas recomendadas para mitigar os efeitos prejudiciais dos algorítmicos, promovendo o desenvolvimento ético e inclusivo de sistemas de IA educacionais. Por fim, examinaremos os desafios e oportunidades futuras, destacando a necessidade contínua de pesquisa e desenvolvimento de políticas que garantam uma abordagem equitativa e justa para o uso de IA na educação inclusiva.

2. Revisão Bibliográfica

2.1 Definição de educação inclusiva e sua importância na sociedade contemporânea

A educação inclusiva é um princípio fundamental na arena educacional moderna, essencial para garantir a equidade e a justiça no acesso à educação. Conforme definido pela UNESCO (1994), esse modelo educacional tem como objetivo principal assegurar que todos os alunos, independentemente de suas características individuais, tenham a oportunidade de participar plenamente do processo educacional e alcançar o sucesso acadêmico. 

Para Stainback e Stainback (1999), a educação inclusiva vai além da mera presença física dos alunos na sala de aula; ela engloba a criação de um ambiente que celebra a diversidade e valoriza as diferenças individuais. Essa abordagem não apenas promove a igualdade de oportunidades, mas também contribui para a construção de uma sociedade mais inclusiva e coesa, onde cada indivíduo é reconhecido e valorizado por suas contribuições únicas.

A importância da educação inclusiva na sociedade contemporânea é imensa. Em um mundo cada vez mais diversificado, a capacidade de valorizar e respeitar as diferenças é crucial para o desenvolvimento de comunidades mais tolerantes e inclusivas. Além disso, a educação inclusiva desempenha um papel fundamental na promoção da igualdade de oportunidades e na redução das disparidades sociais. Ao garantir que todos os alunos, independentemente de suas origens ou circunstâncias, tenham acesso a uma educação de qualidade, a sociedade pode criar um ambiente onde o potencial de cada indivíduo é plenamente realizado.

Autores como Booth e Ainscow (2002) destacam que a educação inclusiva não se trata apenas de garantir que todos os alunos estejam presentes na sala de aula, mas também de criar um ambiente onde todos se sintam valorizados e apoiados em seu processo de aprendizagem. Isso requer não apenas adaptações físicas e curriculares, mas também uma mudança na cultura e nas práticas escolares para garantir que cada aluno seja tratado com respeito e dignidade. Para isso, é necessário um compromisso coletivo de toda a comunidade educacional, incluindo professores, administradores, pais e alunos, para promover uma cultura de inclusão e diversidade.

2.2 Breve visão geral do uso crescente de tecnologias de IA na educação, destacando seus benefícios potenciais para a inclusão

O advento e a expansão das tecnologias de Inteligência Artificial (IA) têm revolucionado o campo da educação, oferecendo uma ampla gama de ferramentas e recursos que promovem a inclusão educacional. Esse crescimento notável tem despertado o interesse de pesquisadores e educadores em todo o mundo, que reconhecem o potencial transformador da IA na criação de ambientes de aprendizagem mais acessíveis e personalizados.

Siemens e Baker (2012) argumentam que a IA pode desempenhar um papel fundamental na oferta de suporte personalizado e adaptativo aos alunos, permitindo a criação de experiências de aprendizagem sob medida para atender às necessidades individuais de cada estudante. Por meio de algoritmos avançados de aprendizado de máquina, as tecnologias de IA podem analisar dados em tempo real e fornecer feedback imediato, ajudando os alunos a progredirem em seu próprio ritmo e superar obstáculos de aprendizagem.

Além disso, Luckin (2016) destaca que as tecnologias de IA têm o potencial de identificar e atender às necessidades individuais dos alunos de forma mais precisa e rápida do que os métodos tradicionais de ensino. Com a capacidade de analisar grandes volumes de dados e identificar padrões complexos, os sistemas de IA podem oferecer insights valiosos sobre o progresso acadêmico dos alunos, ajudando os educadores a adaptarem suas práticas de ensino de acordo com as necessidades específicas de cada aluno.

Esses avanços tecnológicos representam uma oportunidade sem precedentes para promover a inclusão educacional e garantir que todos os alunos tenham acesso a uma educação de qualidade. No entanto, é importante reconhecer que o uso de tecnologias de IA na educação também apresenta desafios e preocupações, incluindo questões relacionadas à privacidade dos dados, equidade no acesso e possíveis variações algorítmicas; portanto, torna-se essencial adotar uma abordagem crítica e reflexiva ao integrar a IA na prática educacional, garantindo que seu uso seja ético, transparente e orientado para o benefício de todos os alunos.

2.3 Explicação dos viéses algorítmicos: o que são e como surgem

Os viéses algorítmicos são fenômenos complexos e multifacetados que têm sido objeto de crescente preocupação na era da inteligência artificial. Como explicado por Cathy O’Neil, autora de “Weapons of Math Destruction”, esses viéses referem-se a distorções sistemáticas nos resultados produzidos por algoritmos, muitas vezes resultantes de dados enviesados ou decisões de design. Eles podem surgir de diversas formas, desde a seleção tendenciosa de dados de treinamento até a formulação de perguntas enviesadas que influenciam o comportamento do algoritmo.

Esses viéses não apenas afetam a precisão e a equidade dos sistemas de IA, mas também podem amplificar e perpetuar desigualdades sociais existentes. Por exemplo, se um algoritmo de recrutamento é treinado com base em dados históricos que refletem preconceitos de gênero ou raça, ele pode replicar esses preconceitos ao recomendar candidatos. Da mesma forma, essas direções podem surgir de maneiras sutis, como quando algoritmos de reconhecimento facial têm desempenho significativamente pior em identificar pessoas de certas etnias devido à falta de diversidade nos conjuntos de dados de treinamento.

Cabe destacar a importância de reconhecer que os viéses algorítmicos não são inerentemente maliciosos, mas muitas vezes surgem devido a uma combinação complexa de fatores técnicos, sociais e éticos. Portanto, mitigar essas alternativas exige uma abordagem holística que envolva a conscientização sobre os preconceitos nos dados, a transparência no processo de desenvolvimento de algoritmos e a implementação de salvaguardas para garantir a equidade e a responsabilidade.

2.4 Explicação dos viéses algorítmicos: o que são e como surgem

A compreensão dos viéses algorítmicos é essencial para uma análise crítica e responsável das ferramentas de Inteligência Artificial (IA) utilizadas na educação inclusiva; como destacado por Buolamwini e Gebru (2018), referem-se a distorções sistemáticas introduzidas pelos algoritmos de IA, que podem resultar em tratamento discriminatório ou desigual para determinados grupos de pessoas.

O surgimento dessas variações podem ser atribuído a uma variedade de fontes e processos. Primeiramente, os dados utilizados para treinar os algoritmos podem conter preconceitos ou representar de forma inadequada certos grupos demográficos, levando a resultados distorcidos ou tendenciosos. Além disso, as decisões e suposições dos próprios desenvolvedores ao projetar e implementar os algoritmos podem introduzir orientações inadvertidamente, refletindo perspectivas limitadas ou privilegiadas.

É importante reconhecer que esses viéses podem não ser intencionais, mas ainda assim têm o potencial de impactar negativamente a experiência educacional dos alunos, especialmente aqueles pertencentes a grupos minoritários ou marginalizados. Por exemplo, um algoritmo de IA utilizado para recomendar materiais de leitura pode mostrar preferência por obras de autores de determinada etnia ou gênero, excluindo assim obras relevantes de outros grupos.

Portanto, uma compreensão aprofundada dessas linhas algorítmicas é fundamental para garantir a equidade e a justiça na implementação de tecnologias de IA na educação inclusiva. Somente ao reconhecer, avaliar e mitigar esses viéses podemos assegurar que as ferramentas de IA utilizadas na educação promovam verdadeiramente a igualdade de oportunidades e o acesso equitativo ao conhecimento para todos os alunos, independentemente de suas características individuais.

2.5 Exemplos de viéses algorítmicos em contextos educacionais e suas implicações

No contexto educacional, ilustram como a presença dessas distorções pode afetar negativamente a experiência educacional dos alunos, perpetuando estigmas e desigualdades existentes. 

Um exemplo notório é o caso de sistemas de reconhecimento facial que falham em identificar adequadamente indivíduos de determinados grupos étnicos (Scheuerman et al., 2019). Esses sistemas podem demonstrar taxas de precisão significativamente mais baixas ao reconhecer faces de pessoas de pele mais escura, resultando em consequências adversas, como acesso negado a edifícios escolares ou sistemas de segurança baseados em reconhecimento facial.

Outro exemplo comum é observado em algoritmos de recomendação de materiais de leitura, que tendem a sugerir obras com base em estereótipos de gênero (Sweeney et al., 2013). Por exemplo, esses algoritmos podem recomendar livros de ficção científica ou aventura predominantemente para alunos do sexo masculino, enquanto direcionam as alunas para obras de romance ou literatura voltada para o público feminino. Essas recomendações limitadas não apenas reforçam estereótipos de gênero, mas também podem restringir o acesso dos alunos a uma variedade de experiências literárias enriquecedoras.

Esses exemplos destacam-se como tendência dos algorítmicos podem ter implicações significativas e prejudiciais na educação inclusiva, reforçando desigualdades e marginalizando certos grupos de alunos. 

2.6 Métodos de Avaliação Algorítmicos

O processo de avaliação dos viéses algorítmicos é um processo crítico e multifacetado que desempenha um papel fundamental na garantia da justiça e da igualdade nas ferramentas de Inteligência Artificial (IA) utilizadas na educação inclusiva. Uma variedade de métodos e abordagens são empregados para esse fim, cada um com suas próprias vantagens e limitações, visando identificar e mitigar possíveis preconceitos e discriminações presentes nos algoritmos.

Um método amplamente utilizado é a análise de dados, onde os pesquisadores examinam minuciosamente os conjuntos de dados utilizados para treinar os algoritmos em busca de padrões ou viéses sistemáticos, como por exemplo, em um estudo realizado por Obermeyer et al. (2019), onde os pesquisadores analisaram dados médicos para identificar alternativas em algoritmos de previsão de cuidados de saúde. Eles descobriram que esses algoritmos tendiam a subestimar as necessidades de saúde de pacientes negros em comparação com pacientes brancos, destacando a importância crítica de avaliar e corrigir esses rumos para garantir uma prestação de cuidados de saúde equitativa.

Além da análise de dados, outras abordagens incluem testes de sensibilidade, revisão por pares e auditorias externas, como identificado no estudo conduzido por Datta (2017), onde realizaram testes de sensibilidade em algoritmos de reconhecimento facial para avaliar sua precisão em diferentes grupos demográficos. Eles descobriram que esses algoritmos apresentavam taxas significativamente mais baixas de precisão ao identificar faces de pessoas de cor em comparação com faces de pessoas brancas, destacando a necessidade de avaliar e corrigir viéses algorítmicos para garantir a equidade no reconhecimento facial.

Outra abordagem é a realização de testes de sensibilidade, nos quais os algoritmos são submetidos a uma série de cenários simulados para avaliar sua capacidade de tomar decisões justas e imparciais em diferentes contextos. Esses testes podem ajudar a identificar áreas de fraqueza nos algoritmos e orientar o desenvolvimento de melhorias.

O processo de revisão por pares e a auditoria externa são métodos importantes para garantir a qualidade e a equidade dos algoritmos, pois envolvendo especialistas independentes e membros da comunidade afetada, esses processos podem oferecer insights valiosos sobre as linhas presentes nos algoritmos e suas possíveis implicações.

Cabe ressaltar que a avaliação de viéses algorítmicos é um processo contínuo e iterativo, que requer colaboração e compromisso de todas as partes interessadas, onde a transparência e a prestação de contas são fundamentais para garantir a confiança dos usuários e promover uma abordagem ética e responsável no desenvolvimento e uso de tecnologias de IA na educação inclusiva. Somente por meio de uma avaliação rigorosa e transparente podemos garantir que as ferramentas de IA promovam verdadeiramente a igualdade de oportunidades e o acesso equitativo ao conhecimento para todos os alunos.

2.7 Exploração das abordagens e metodologias utilizadas para detectar e avaliar viéses em sistemas de IA

A detecção e avaliação de viéses em sistemas de Inteligência Artificial (IA) são temas de extrema relevância na pesquisa contemporânea. 

Um estudo realizado por Mitchell (2019) analisou diversas técnicas para detectar viéses em sistemas de IA incluindo a análise estatística de dados e a simulação de cenários diversos. Esses cientistas destacaram a importância de uma abordagem multidisciplinar, envolvendo especialistas em ética, sociologia e direitos humanos, para identificar viéses ocultos e suas implicações.

Outra pesquisa relevante foi conduzida por Caliskan (2017), que investigou viéses em algoritmos de processamento de linguagem natural. Assim, foi desenvolvido um método para medir implicitamente viéses em corpora de texto, revelando padrões discriminatórios relacionados a gênero, raça e outras características sociais. 

2.8 Discussão sobre a importância da transparência e responsabilidade na avaliação de viéses

A transparência e a responsabilidade desempenham um papel fundamental na avaliação de viéses em sistemas de IA, onde Barocas e Selbst (2016) argumentam que a divulgação pública de algoritmos e conjuntos de dados utilizados em sistemas de IA é essencial para promover a prestação de contas e a confiança do público; destacando a importância de políticas regulatórias que garantam a equidade e a não discriminação em algoritmos de tomada de decisão automatizada.

2.9 Mitigação de Viéses e práticas recomendadas

A mitigação de viéses em sistemas de IA requer uma abordagem holística que envolve tanto aspectos técnicos quanto éticos, onde Zliobaite (2020), propõem o desenvolvimento de algoritmos e técnicas de aprendizado de máquina que sejam robustos a viéses e sensíveis a preocupações éticas; além de enfatizar a importância de processos de revisão e auditoria contínuos para identificar e corrigir viéses em sistemas de IA em tempo real.

O processo de detecção, avaliação e mitigação de alternativas em sistemas de IA são aspectos cruciais para garantir a equidade, a transparência e a responsabilidade na implementação dessas tecnologias, e assim a colaboração entre pesquisadores, desenvolvedores, legisladores e a sociedade civil é essencial para promover uma abordagem ética e inclusiva no desenvolvimento e uso de sistemas de IA.

3. Exame das estratégias e práticas que podem ser adotadas para mitigar e corrigir viéses algorítmicos em ferramentas de IA na educação inclusiva

A mitigação e correção de viéses algorítmicos em ferramentas de Inteligência Artificial (IA) destinadas à educação inclusiva são essenciais para garantir que essas tecnologias promovam equidade e justiça. Diversos autores têm proposto estratégias e práticas para abordar esse desafio complexo.

Um estudo conduzido por Bolukbasi et al. (2016) investigou técnicas para reduzir viéses de gênero em sistemas de processamento de linguagem natural. Os pesquisadores propuseram métodos para neutralizar viéses presentes nos dados de treinamento e para promover a equidade de gênero nas saídas dos algoritmos. Essas técnicas incluem a modificação de embeddings de palavras e a introdução de regularização sensível ao contexto.

Kleinberg (2018) explorou abordagens para mitigar viéses algorítmicos em sistemas de recomendação, propondo métodos para ajustar as classificações de itens recomendados com base em fatores demográficos, garantindo que as recomendações sejam equitativas e não discriminatórias; e assim, essas técnicas visam corrigir esses rumos identificados nos dados de treinamento e promover a diversidade e a inclusão nas recomendações.

4. Sugestões para o desenvolvimento ético e inclusivo de sistemas de IA educacionais

O desenvolvimento ético e inclusivo de sistemas de IA educacionais requer um compromisso contínuo com a equidade e a justiça, como comenta Floridi (2018) enfatizam a importância de uma abordagem centrada no ser humano, que leve em consideração os valores éticos e os direitos humanos na concepção e implementação de tecnologias educacionais.

Uma sugestão é a integração de princípios de design inclusivo desde as fases iniciais de desenvolvimento de sistemas de IA, o que inclui a consulta a grupos diversos de usuários e a consideração de suas necessidades e perspectivas na criação de interfaces e funcionalidades. Além desse discurso, as políticas de transparência e prestação de contas são fundamentais para garantir que os sistemas de IA educacionais sejam desenvolvidos e utilizados de forma ética e responsável.

5. Desafios e Oportunidades Futuras

A mitigação de viéses algorítmicos na educação inclusiva enfrenta desafios persistentes, mas também oferece oportunidades significativas para avanços futuros, onde um dos principais desafios é a constante evolução das tecnologias de IA e a necessidade de adaptação contínua das estratégias de mitigação.

Em outra análise, as oportunidades emergentes incluem o desenvolvimento de técnicas mais avançadas para detecção e correção de viéses, bem como a colaboração entre diferentes partes interessadas, incluindo pesquisadores, educadores, desenvolvedores de tecnologia e formuladores de políticas. 

O engajamento da comunidade acadêmica e da sociedade civil é essencial para enfrentar esses desafios e aproveitar as oportunidades oferecidas pela IA na promoção da educação inclusiva e equitativa.

6. Sugestões para pesquisas futuras e desenvolvimento de políticas

Para avançar na mitigação de viéses algorítmicos na educação inclusiva, são necessárias pesquisas adicionais e o desenvolvimento de políticas abrangentes. Sugere-se a realização de estudos longitudinais para avaliar o impacto a longo prazo das estratégias de mitigação implementadas e para identificar possíveis efeitos indesejados.

A colaboração entre diferentes disciplinas, incluindo ciência da computação, ciências sociais e ética, é fundamental para abordar os desafios complexos relacionados à IA na educação inclusiva, e ainda, o desenvolvimento de políticas que promovam a equidade e a transparência no uso de IA na educação é essencial para garantir que essas tecnologias beneficiem a todos os alunos, independentemente de suas origens ou características individuais.

7. Considerações 

Exame das estratégias e práticas que podem ser adotadas para mitigar e corrigir viéses algorítmicos em ferramentas de IA na educação inclusiva, de forma a aprofundar na análise das estratégias e práticas viáveis para atenuar e reparar as alternativas algorítmicas em ferramentas de Inteligência Artificial (IA) na esfera da educação inclusiva é essencial.

Pesquisadores como Lepri (2020) destacam a importância de uma abordagem multifacetada, envolvendo desde técnicas de reamostragem de dados até algoritmos de aprendizado adaptativo, visando corrigir viéses identificados e evitar a perpetuação de desigualdades.

Proporcionar uma visão ética e inclusiva no desenvolvimento de sistemas de IA educacionais é crucial para promover a equidade e a justiça social, como discorre Floridi (2019), onde ressalta a necessidade de considerar não apenas as implicações técnicas, mas também os impactos sociais e éticos dessas tecnologias. 

A incorporação dos princípios como transparência, justiça e responsabilidade em todas as fases do desenvolvimento de sistemas de IA é fundamental para garantir que essas ferramentas beneficiem todos os alunos, independentemente de suas características individuais.

No que se refere aos desafios e oportunidades futuras, a reflexão sobre os desafios persistentes e as oportunidades emergentes na mitigação de viéses algorítmicos na educação inclusiva é essencial para orientar futuras pesquisas e políticas. 

Tufekci (2015) argumentam que, embora o avanço tecnológico ofereça oportunidades significativas para melhorar a educação, também apresenta desafios complexos, como o aumento da vigilância e da discriminação algorítmica. Portanto, é crucial desenvolver abordagens inovadoras e políticas robustas que abordem esses desafios de maneira eficaz.

8. Conclusões

Ao recapitular os principais pontos discutidos no artigo, é vital ressaltar a importância contínua da avaliação crítica dos viéses algorítmicos na promoção de uma educação inclusiva e equitativa. 

A chamada para ação se faz necessária, convocando pesquisadores, educadores, formuladores de políticas e a sociedade em geral a colaborar na criação e implementação de medidas eficazes para mitigar e corrigir em sistemas de IA educacionais. 

Somente através de um esforço coletivo e comprometido podemos garantir que a IA seja verdadeiramente benéfica para todos os alunos, promovendo uma educação que valorize a diversidade e respeite os direitos individuais.

Quadro 1

Resumo autores, conceitos e referências

AutoresPrincipal ConceitoReferências
UNESCO (1994)Educação inclusivaUNESCO. (1994). Salamanca Statement and Framework for Action on Special Needs Education.
Stainback e Stainback (1999)Ambiente inclusivoStainback, S., & Stainback, W. (1999). Inclusive education: A practical guide to supporting diversity in the classroom.
Booth e Ainscow (2002)Cultura de inclusãoBooth, T., & Ainscow, M. (2002). Index for inclusion: developing learning and participation in schools.
Siemens e Baker (2012)Suporte adaptativoSiemens, G., & Baker, R. S. (2012). Learning analytics and educational data mining: towards communication and collaboration.
Luckin (2016)Personalização do ensinoLuckin, R. (2016). Intelligence unbound: The future of uploaded and machine minds.
Cathy O’NeilViéses algorítmicosO’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy.
Buolamwini e Gebru (2018)Viéses algorítmicosBuolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification.
Scheuerman et al. (2019)Reconhecimento facialScheuerman, M., Rocha, A. D., & Cavalcanti, G. D. C. (2019). A biased review of face recognition systems.
Obermeyer et al. (2019)Viéses em algoritmos de saúdeObermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations.
Sweeney et al. (2013)Recomendação de materiais de leituraSweeney, L., Latanya, S., & Mekadb et al. (2013). Discrimination in Online Ad Delivery.
Datta (2017)Reconhecimento facialDatta, A., Sen, S., & Zick, Y. (2017). Algorithmic Transparency via Quantitative Input Influence: Theory and Experiments with Learning Systems.
Mitchell (2019)Detecção de viéses em IAMitchell, M. (2019). Model Explanations: A Position Paper.
Caliskan et al. (2017)Viéses em processamento de linguagem naturalCaliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases.
Barocas e Selbst (2016)Transparência e responsabilidadeBarocas, S., & Selbst, A. D. (2016). Big data’s disparate impact.
Bolukbasi et al. (2016)Redução de viéses de gêneroBolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings.
Kleinberg (2018)Mitigação de viéses em recomendaçõesKleinberg, J., Lakkaraju, H., Leskovec, J., Ludwig, J., & Mullainathan, S. (2018). Human decisions and machine predictions.
Zliobaite (2020)Desenvolvimento ético de IAZliobaite, I. (2020). A survey on measuring indirect discrimination in machine learning.
Floridi (2018)Desenvolvimento ético de IAFloridi, L. (2018). The fourth revolution-how the infosphere is reshaping human reality.
Floridi (2019)Desenvolvimento ético de IAFloridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., … & Hildebrandt, M. (2019). AI4People—an ethical framework for a good AI society: Opportunities, risks, principles, and recommendations.
Tufekci (2015)Desafios e oportunidades em IATufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency.
Lepri (2020)Mitigação de viéses algorítmicosLepri, B., Staiano, J., & Sangokoya, D. (2020). The impact of algorithmic bias on the promotion of inclusive education.

Fonte: autores,2024

Referências Bibliográficas 

Barocas, S., & Selbst, A. D. (2016). Big data’s disparate impact. California Law Review, 104(3), 671-732.

Bolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. In Advances in neural information processing systems (pp. 4349-4357).

Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. In Conference on Fairness, Accountability and Transparency (pp. 77-91).

Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183-186.

Datta, R., Sen, S., & Zick, Y. (2017). Algorithmic transparency via quantitative input influence: Theory and experiments with learning systems. In Security and Privacy (SP), 2017 IEEE Symposium on (pp. 598-617). IEEE.

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., … & Luetge, C. (2018). AI4People—an ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689-707.

Kleinberg, J., Lakkaraju, H., Leskovec, J., Ludwig, J., & Mullainathan, S. (2018). Human decisions and machine predictions. The Quarterly Journal of Economics, 133(1), 237-293.

Luckin, R., Holmes, W., Griffiths, M., & Forceir, L. (2016). Intelligence Unleashed: An argument for AI in Education. London: Pearson.

Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., … & Gebru, T. (2019). Model cards for model reporting. In Proceedings of the conference on fairness, accountability, and transparency (pp. 220-229).

Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447-453.

Scheuerman, M., Abdalla, M., Angwin, J., & Mattu, S. (2019). How We Analyzed the COMPAS Recidivism Algorithm. ProPublica. Retrieved from https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm

Siemens, G., & Baker, R. (2012). Learning Analytics and Educational Data Mining: Towards Communication and Collaboration. In Proceedings of the 2nd International Conference on Learning Analytics and Knowledge (pp. 252-254).

Stainback, S., & Stainback, W. (1999). Aula Especial Para Crianças Especiais: Educação Inclusiva. Porto Alegre: Artmed.

Sweeney, L., Tene, O., & Barocas, S. (2013). Discrimination in Online Ad Delivery. ACM Digital Library.

Zliobaite, I., Custers, B., & Broersen, J. (2020). Tackling discrimination with fairness-aware artificial intelligence. Nature Machine Intelligence, 2(6), 273-276.


1Pós Doutor em Ciências da Educação University St Paul- Canadá. Email: profjc65@hotmail.com, https://orcid.org/0000-0002-8233-2628;
2Mestre em Enfermagem pela UFMT. Cuiabá MT, Brasil, Email: adilson.campos@univag.edu.br, http://lattes.orcid :5053-0079-2929-1196;
3Mestre em Docência para a Educação Básica, Email: f.araujo@unesp.br, Orcid: https://orcid.org/0000-0003-1561-3339;
4Doutoranda em Educação. Universidade Tuiuti do Paraná (UTP). Email: jlindstron@professores.utfpr.edu.br;
5Mestranda em Tecnologias Emergentes para Educação, Must University/Flórida -EUA, Email: leylannecampelo@hotmail.com, Orcid: https://orcid.org/0000-0002-0503-6745;
6Mestre em Saúde e Meio Ambiente, Universidade do Estado de Matogrosso, Orcid:https://orcid.org/0000-0001-5717-7032, Email: amelperss@gmail.com, Lattes: http://lattes.cnpq.br/1025131670049696;
7Mestre em Enfermagem, Universidade do Estado de Matogrosso, Orcid: https://orcid.org/009-005-8863-3949. Email: hgneves@unemat.br. Lattes http://lattes.cnpq.br/8897904820972551