INCLUSÃO E DESIGUALDADES NO USO DE ALGORITMOS EDUCACIONAIS: FUNDAMENTOS DA JUSTIÇA ALGORÍTMICA E IMPLICAÇÕES PARA A PRÁTICA PEDAGÓGICA

REGISTRO DOI: 10.69849/revistaft/ma10202601310840


Sueli Cristina Garcia Ferreira1
Urana Menezes Santana2
Ruth Leia Trindade Ramos Santos3
Ana Alice Nunes Santos4
Sônia Barbosa dos Santos Silva5
Deiler Fraga Rabelo6
Zaqueu Dantas dos Santos7
Ana Kellis Lacerda Gentil8


RESUMO: O artigo discute como algoritmos educacionais, cada vez mais presentes em plataformas digitais de aprendizagem, avaliação e gestão escolar, podem produzir efeitos desiguais sobre estudantes quando operam com dados históricos marcados por assimetrias sociais. A partir dos fundamentos da justiça algorítmica, o texto analisa riscos de vieses, opacidade e naturalização de classificações automatizadas, destacando que promessas de personalização podem restringir trajetórias formativas e reforçar exclusões. No campo da prática pedagógica, argumenta-se que o uso responsável dessas tecnologias depende de transparência, possibilidade de auditoria e mediação docente, evitando a substituição do julgamento pedagógico por decisões automatizadas. Também se enfatiza a relevância de políticas institucionais para governança de dados, formação continuada e critérios de adoção de sistemas educacionais baseados em inteligência artificial, com foco em equidade e proteção de direitos. Conclui-se que a inclusão no contexto algorítmico exige uma abordagem crítica e contextualizada, capaz de transformar a tecnologia em objeto de reflexão pedagógica e de controle social, reduzindo riscos de reprodução de desigualdades e fortalecendo práticas educativas mais justas.  

Palavras-chave: Justiça Algorítmica; Algoritmos Educacionais; Desigualdades; Inclusão; Prática Pedagógica.  

ABSTRACT: This article discusses how educational algorithms, increasingly embedded in digital learning, assessment, and school management platforms, may generate unequal effects on students when they rely on historical data shaped by structural social asymmetries. Drawing on the foundations of algorithmic justice, the paper examines risks related to bias, opacity, and the normalization of automated classifications, arguing that promises of personalization can constrain learning trajectories and intensify exclusion. From the perspective of pedagogical practice, it contends that responsible use of these technologies requires transparency, auditability, and teacher mediation, preventing automated decisions from replacing professional pedagogical judgment. The discussion also highlights the importance of institutional policies for data governance, continuing teacher education, and clear criteria for adopting AI-based educational systems, with an emphasis on equity and the protection of rights. The article concludes that inclusion in algorithm-mediated contexts depends on a critical and contextualized approach that turns technology into an object of pedagogical reflection and social oversight, reducing the reproduction of inequalities and strengthening fairer educational practices. 

Keywords: Algorithmic Justice; Educational Algorithms; Inequalities; Inclusion; Pedagogical Practice. 

RESUMEN: El artículo analiza cómo los algoritmos educativos, cada vez más presentes en plataformas digitales de aprendizaje, evaluación y gestión escolar, pueden producir efectos desiguales sobre el alumnado cuando operan con datos históricos atravesados por asimetrías sociales. A partir de los fundamentos de la justicia algorítmica, el texto examina riesgos de sesgos, opacidad y naturalización de clasificaciones automatizadas, señalando que las promesas de personalización pueden restringir trayectorias formativas y reforzar exclusiones. En el ámbito de la práctica pedagógica, se sostiene que el uso responsable de estas tecnologías depende de transparencia, posibilidad de auditoría y mediación docente, evitando la sustitución del juicio pedagógico por decisiones automatizadas. Asimismo, se destaca la relevancia de políticas institucionales orientadas a la gobernanza de datos, la formación continua y criterios claros para la adopción de sistemas educativos basados en inteligencia artificial, con foco en equidad y protección de derechos. Se concluye que la inclusión en contextos mediados por algoritmos exige un enfoque crítico y contextualizado, capaz de transformar la tecnología en objeto de reflexión pedagógica y de control social, reduciendo riesgos de reproducción de desigualdades y fortaleciendo prácticas educativas más justas.  

Palabras clave: Justicia Algorítmica; Algoritmos Educativos; Desigualdades; Inclusión; Práctica Pedagógica. 

INTRODUÇÃO  

A crescente incorporação de algoritmos e sistemas automatizados nos contextos educacionais tem provocado transformações profundas nos modos de ensinar, aprender, avaliar e gerir processos pedagógicos. Plataformas adaptativas, sistemas de recomendação de conteúdos, ferramentas de análise de desempenho e soluções baseadas em inteligência artificial vêm sendo amplamente utilizadas tanto na educação básica quanto no ensino superior, frequentemente justificadas por promessas de personalização da aprendizagem, eficiência administrativa e apoio à tomada de decisão docente. No entanto, tais tecnologias não operam de forma neutra, pois são construídas a partir de dados históricos, escolhas técnicas e pressupostos socioculturais que podem reproduzir ou ampliar desigualdades já existentes no sistema educacional. 

Nesse cenário, emerge com força o debate sobre justiça algorítmica, entendido como o conjunto de princípios, práticas e critérios voltados à identificação, prevenção e mitigação de vieses discriminatórios em sistemas automatizados. Autores como O’Neil (2016) e Noble (2018) demonstram que algoritmos amplamente utilizados em diferentes áreas sociais tendem a reforçar padrões de exclusão, especialmente quando aplicados a grupos historicamente marginalizados. No campo educacional, tais riscos tornam-se ainda mais sensíveis, pois envolvem direitos fundamentais, trajetórias escolares e oportunidades de desenvolvimento humano. 

A literatura recente indica que o uso de algoritmos educacionais pode impactar de forma desigual estudantes de diferentes origens sociais, raciais e territoriais. Sistemas de avaliação automatizada, por exemplo, podem favorecer determinados perfis linguísticos e culturais, enquanto plataformas adaptativas podem limitar o acesso a conteúdos mais complexos com base em inferências preditivas que naturalizam baixos desempenhos. Segundo Selwyn (2019), a adoção acrítica de tecnologias educacionais digitais tende a deslocar decisões pedagógicas para modelos computacionais opacos, reduzindo a possibilidade de contestação e reflexão ética por parte de educadores e gestores. 

No contexto brasileiro, essas questões ganham contornos específicos diante das desigualdades estruturais que marcam o acesso à educação e às tecnologias digitais. Pesquisas do Cetic.br (2022) evidenciam que fatores como renda, localização geográfica e escolaridade familiar influenciam diretamente o modo como estudantes se relacionam com plataformas digitais. Quando algoritmos educacionais são implementados sem considerar tais assimetrias, corre-se o risco de aprofundar processos de exclusão sob a aparência de inovação e neutralidade técnica. 

Além disso, a prática pedagógica passa a ser atravessada por decisões algorítmicas que afetam o planejamento, a avaliação e o acompanhamento da aprendizagem. Docentes são frequentemente convidados a confiar em sistemas que classificam estudantes, sugerem intervenções pedagógicas ou apontam riscos de evasão, nem sempre com clareza sobre os critérios utilizados. Como argumenta Williamson (2017), a governança algorítmica da educação redefine relações de poder no interior das instituições escolares, deslocando o protagonismo pedagógico para infraestruturas digitais controladas por grandes empresas de tecnologia. 

Diante desse panorama, torna-se fundamental analisar de que modo os fundamentos da justiça algorítmica podem contribuir para uma reflexão crítica sobre o uso de algoritmos educacionais e suas implicações para a prática pedagógica. Tal análise exige a articulação entre aportes teóricos da educação, da sociologia, da ética e dos estudos críticos da tecnologia, permitindo compreender os algoritmos não apenas como ferramentas técnicas, mas como dispositivos sociotécnicos carregados de valores e efeitos sociais. 

Assim, o presente artigo tem como objetivo discutir as relações entre inclusão, desigualdades e uso de algoritmos educacionais, à luz dos princípios da justiça algorítmica, examinando suas implicações para a prática pedagógica na educação básica. Busca-se contribuir para o debate acadêmico ao evidenciar a necessidade de uma abordagem ética, crítica e contextualizada na adoção de tecnologias algorítmicas no campo educacional. 

DESENVOLVIMENTO  

A compreensão dos algoritmos educacionais como artefatos sociotécnicos constitui um ponto de partida essencial para a análise das desigualdades associadas ao seu uso. Algoritmos são frequentemente apresentados como sequências neutras de instruções matemáticas, mas, conforme destacam Gillespie (2018) e Kitchin (2017), eles incorporam escolhas humanas desde a definição dos dados utilizados até os objetivos que orientam suas operações. No campo educacional, tais escolhas refletem concepções específicas de aprendizagem, desempenho e sucesso escolar. 

Os sistemas de recomendação de conteúdos, por exemplo, operam com base em modelos preditivos que classificam estudantes a partir de comportamentos anteriores. Embora essa lógica seja apresentada como personalização, ela pode restringir trajetórias de aprendizagem ao reforçar padrões já identificados. O’Neil (2016) argumenta que modelos algorítmicos de alto impacto tendem a penalizar indivíduos com menor capital social, pois utilizam dados históricos que refletem desigualdades estruturais. 

A noção de viés algorítmico é central nesse debate. Noble (2018) demonstra como sistemas automatizados podem reproduzir discriminações raciais e de gênero mesmo sem intenção explícita, a partir da forma como os dados são coletados e interpretados. No contexto educacional, esse viés pode se manifestar na avaliação automatizada de textos, no ranqueamento de estudantes ou na identificação de supostos riscos de evasão, afetando de maneira desproporcional estudantes de contextos vulneráveis. 

A justiça algorítmica surge, nesse sentido, como um campo interdisciplinar que busca estabelecer critérios de equidade, transparência e responsabilização no uso de sistemas automatizados. Segundo Floridi et al. (2018), princípios como explicabilidade, auditabilidade e justiça devem orientar o desenvolvimento e a aplicação de algoritmos, especialmente em áreas sensíveis como a educação. Tais princípios desafiam a lógica de opacidade que caracteriza muitas plataformas educacionais contemporâneas. 

No âmbito da prática pedagógica, a presença de algoritmos redefine o papel do docente. Selwyn (2019) aponta que professores passam a atuar em ambientes mediados por sistemas que sugerem decisões e classificações, o que pode limitar a autonomia pedagógica se não houver compreensão crítica dessas ferramentas. A formação docente, portanto, torna-se um elemento-chave para a justiça algorítmica na educação, pois permite que educadores questionem resultados automatizados e compreendam seus limites. 

Outro aspecto relevante diz respeito à governança dos dados educacionais. Williamson (2017) destaca que a coleta massiva de dados sobre estudantes alimenta modelos algorítmicos que operam fora do controle das instituições escolares. Essa dinâmica levanta questões éticas relacionadas à privacidade, ao consentimento e ao uso secundário dos dados, que impactam diretamente a confiança nos sistemas educacionais digitais. 

No contexto das políticas públicas, a adoção de algoritmos educacionais deve ser acompanhada de diretrizes claras voltadas à equidade. Estudos de Eubanks (2018) evidenciam que sistemas automatizados utilizados em políticas sociais tendem a reforçar desigualdades quando implementados sem mecanismos de controle social e participação democrática. Na educação, isso implica a necessidade de avaliações contínuas dos impactos algorítmicos sobre diferentes grupos de estudantes. 

A prática pedagógica orientada pela justiça algorítmica pressupõe, portanto, uma postura reflexiva diante das tecnologias digitais. Isso envolve reconhecer que algoritmos não substituem o julgamento pedagógico, mas podem, quando usados criticamente, apoiar processos educativos mais inclusivos. Para isso, é fundamental que docentes tenham acesso a informações claras sobre o funcionamento dos sistemas e possam intervir em suas decisões. 

Por fim, a promoção da inclusão no uso de algoritmos educacionais exige uma articulação entre formação docente, políticas públicas e participação da comunidade escolar. Conforme argumenta Freire (1996), práticas educativas comprometidas com a justiça social devem partir do diálogo e da problematização da realidade. Aplicado ao contexto algorítmico, esse princípio implica transformar tecnologias em objetos de reflexão pedagógica, e não apenas em instrumentos de controle e classificação. 

CONSIDERAÇÕES FINAIS 

A análise desenvolvida ao longo deste artigo evidenciou que o uso de algoritmos educacionais, embora frequentemente associado a promessas de inovação e personalização, apresenta desafios significativos relacionados à inclusão e às desigualdades no contexto educacional. Ao serem incorporados às práticas pedagógicas sem uma abordagem crítica, tais sistemas tendem a reproduzir vieses históricos e a reforçar assimetrias sociais já presentes na educação básica. 

Os fundamentos da justiça algorítmica oferecem um referencial teórico e ético essencial para repensar o papel dos algoritmos na educação. Princípios como transparência, equidade e responsabilização permitem deslocar o debate do campo estritamente técnico para uma perspectiva pedagógica e social, na qual os impactos das decisões automatizadas sobre estudantes e professores são cuidadosamente considerados. 

No âmbito da prática pedagógica, torna-se evidente a necessidade de fortalecer a formação docente para o uso crítico de tecnologias algorítmicas. Professores capacitados a compreender os limites e pressupostos desses sistemas estão mais aptos a utilizá-los como ferramentas de apoio, sem abdicar de seu papel mediador e de seu compromisso com a justiça educacional. 

Por fim, a construção de uma educação digitalmente inclusiva requer políticas públicas que reconheçam os riscos associados à governança algorítmica e promovam mecanismos de controle democrático. Somente a partir de uma articulação entre ética, formação docente e participação social será possível assegurar que os algoritmos educacionais contribuam para a redução, e não para o aprofundamento, das desigualdades educacionais.   

REFERÊNCIAS  

ALVES, Lynn; EUBANKS, Virginia. Automating inequality: how high-tech tools profile, police, and punish the poor. New York: St. Martin’s Press, 2018. 

BAROCAS, Solon; HARDT, Moritz; NARAYANAN, Arvind. Fairness and machine learning: limitations and opportunities. Cambridge: MIT Press, 2023. 

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil (Marco Civil da Internet). Diário Oficial da União: Brasília, DF, 24 abr. 2014. 

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União: Brasília, DF, 15 ago. 2018. 

CETIC.BR. TIC Educação 2022: pesquisa sobre o uso das tecnologias de informação e comunicação nas escolas brasileiras. São Paulo: Comitê Gestor da Internet no Brasil, 2023. 

DWORK, Cynthia et al. Fairness through awareness. In: INNOVATIONS IN THEORETICAL COMPUTER SCIENCE CONFERENCE (ITCS), 3., 2012, Cambridge. Proceedings. New York: ACM, 2012. p. 214-226. 

EUBANKS, Virginia. Automating inequality: how high-tech tools profile, police, and punish the poor. New York: St. Martin’s Press, 2018. 

FLORIDI, Luciano et al. AI4People—an ethical framework for a good AI society. Minds and Machines, Dordrecht, v. 28, n. 4, p. 689-707, 2018. 

GILLESPIE, Tarleton. Custodians of the internet: platforms, content moderation, and the hidden decisions that shape social media. New Haven: Yale University Press, 2018. 

KITCHIN, Rob. Thinking critically about and researching algorithms. Information, Communication & Society, London, v. 20, n. 1, p. 14-29, 2017. 

MITCHELL, Margaret et al. Model cards for model reporting. In: CONFERENCE ON FAIRNESS, ACCOUNTABILITY, AND TRANSPARENCY (FAT*), 2019, Atlanta. Proceedings. New York: ACM, 2019. p. 220-229. 

NOBLE, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018. 

O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Crown, 2016. 

SELWYN, Neil. Should robots replace teachers? AI and the future of education. Cambridge: Polity Press, 2019. 

UNESCO. Recommendation on the ethics of artificial intelligence. Paris: UNESCO, 2021. 

WILLIAMSON, Ben. Big data in education: the digital future of learning, policy and practice. London: SAGE, 2017. 

ZUBOFF, Shoshana. The age of surveillance capitalism: the fight for a human future at the new frontier of power. New York: PublicAffairs, 2019.


1Licenciada em Pedagogia. Pós graduada em Psicopedagogia. Mestranda em Tecnologias Emergentes em Educação.
2Licenciada em Pedagogia. Pós graduada em Tecnologias Educacionais. Mestranda em Tecnologias Emergentes na Educação.
3Pedagoga. Especialista em Psicopedagogia Institucional. Especialista em Alfabetização e Letramento. Especialista em Educação Especial e Inclusiva. Mestranda em Tecnologias Emergentes em Educação. 
4Licenciada em Pedagogia pela Universidade do Estado da Bahia UNEB. Pós-graduada em Arte-Educação. Mestrando em Tecnologias Emergentes em Educação pela Must University.
5Licenciada em Pedagogia. Especialista em Gestão Pública Municipal. Especialista em Alfabetização e Letramento. Especialista em Gestão e Coordenação da Educação Integral. Mestranda em Tecnologias Emergentes em Educação.
6Graduação em Biblioteconomia. Especialização em Biblioteconomia. Mestranda em Tecnologias Emergentes em Educação pela Must University. Flórida – Miami – E.U.A. Email: deilerrabelo11553@student.mustedu.com
7Licenciado em Matemática, graduado em Educação Matemática e Mestrando em Tecnologias Emergentes em Educação pela Must University.
8Licenciada em Pedagogia, pós-graduada em Psicopedagogia e graduada em Letras (Segunda Licenciatura). Mestranda no PROFEI – Universidade do Estado de Mato Grosso (UNEMAT), na área de Educação Inclusiva.