IMPLEMENTAÇÃO DA LGPD EM PLATAFORMAS EDUCACIONAIS DIGITAIS: DESAFIOS ÉTICOS E JURÍDICOS DO USO DE INTELIGÊNCIA ARTIFICIAL EM REDES PÚBLICAS DE ENSINO

REGISTRO DOI: 10.69849/revistaft/dt10202511302309


Irlane Lisley da Silva Passos1; Valquiria Xavier de Oliveira França2; Suzan Mesquita Felipe3; Suemirson Antônio Alcantara4; Elisandra Boscato Giuriatti5; Erika Ferreira Gomes Tasca6; Leandro Levi dos Santos Silva7; Ítalo Domingos Costa8


RESUMO

A expansão de plataformas educacionais digitais e de soluções de inteligência artificial em redes públicas de ensino intensificou o tratamento massivo de dados de estudantes, famílias e profissionais da educação. Nesse cenário, a implementação da Lei Geral de Proteção de Dados Pessoais, Lei nº 13.709, de 2018, torna-se um imperativo jurídico e ético, sobretudo em contextos marcados pela vulnerabilidade de crianças e adolescentes. Este artigo discute desafios e possibilidades da adequação de redes públicas de ensino à LGPD no uso de plataformas digitais e ferramentas de inteligência artificial. Trata-se de estudo de natureza bibliográfica e caráter analítico, fundamentado em legislação brasileira, documentos orientadores de organismos nacionais e internacionais, bem como em pesquisas recentes sobre proteção de dados, ética da inteligência artificial e governança de informação no setor educacional. Os resultados apontam que, embora haja avanços em termos de normativos, guias e manuais específicos para a educação, persistem fragilidades relacionadas à ausência de governança de dados, à opacidade algorítmica, à coleta excessiva de informações, à falta de avaliação de riscos e à baixa participação de comunidades escolares na definição de regras de uso das tecnologias. Defende-se que a efetiva implementação da LGPD em plataformas educacionais digitais exige a articulação entre segurança jurídica, responsabilidade ética e projeto pedagógico, com políticas de governança de dados, formação continuada, transparência e participação social. 

Palavras-chave: Lei Geral de Proteção de Dados; Plataformas educacionais digitais; Inteligência artificial; Ética; Redes públicas de ensino. 

ABSTRACT

The expansion of digital educational platforms and artificial intelligence solutions in public school systems has intensified the large-scale processing of data from students, families and education professionals. In this context, the implementation of Brazil’s General Data Protection Law, Law 13.709 of 2018, becomes a legal and ethical imperative, especially when dealing with children and adolescents as data subjects. This article discusses challenges and opportunities regarding compliance with the data protection framework in the use of digital platforms and AI tools in public education. It is a bibliographical and analytical study, based on Brazilian legislation, guidance documents from national and international organizations, and recent research on data protection, ethics of artificial intelligence and information governance in the educational sector. The findings indicate that, despite recent advances in laws, guidelines and manuals tailored to education, there are persistent weaknesses related to the lack of data governance, algorithmic opacity, excessive data collection, limited risk assessment and low participation of school communities in setting rules for technology use. The article argues that effective implementation of the data protection law in digital educational platforms requires an articulation between legal compliance, ethical responsibility and pedagogical projects, supported by data governance policies, continuing professional development, transparency and social participation.

Keywords: General Data Protection Law; Digital educational platforms; Artificial intelligence; Ethics; Public school systems.

RESUMEN

La expansión de plataformas educativas digitales y de soluciones de inteligencia artificial en redes públicas de enseñanza intensificó el tratamiento masivo de datos de estudiantes, familias y profesionales de la educación. En este escenario, la implementación de la Ley General de Protección de Datos Personales de Brasil, Ley nº 13.709 de 2018, se configura como un imperativo jurídico y ético, especialmente en contextos marcados por la vulnerabilidad de niños y adolescentes. Este artículo discute los desafíos y las posibilidades de adecuación de las redes públicas de enseñanza a dicha ley en el uso de plataformas digitales y herramientas de inteligencia artificial. Se trata de un estudio bibliográfico y analítico, basado en la legislación brasileña, en documentos orientadores de organismos nacionales e internacionales y en investigaciones recientes sobre protección de datos, ética de la inteligencia artificial y gobernanza de la información en el sector educativo. Los resultados señalan que, aunque existan avances en términos de normativas, guías y manuales específicos para la educación, persisten debilidades relacionadas con la ausencia de gobernanza de datos, la opacidad algorítmica, la recogida excesiva de información, la falta de evaluación de riesgos y la escasa participación de las comunidades escolares en la definición de las reglas de uso de las tecnologías. Se sostiene que la implementación efectiva de la ley de protección de datos en plataformas educativas digitales exige articular seguridad jurídica, responsabilidad ética y proyecto pedagógico, mediante políticas de gobernanza de datos, formación continua, transparencia y participación social. 

Palabras clave: Ley General de Protección de Datos; Plataformas educativas digitales; Inteligencia artificial; Ética; Redes públicas de enseñanza.

INTRODUÇÃO 

A digitalização acelerada da educação, intensificada pela pandemia de Covid 19 e pela expansão de programas de conectividade e dispositivos nas escolas, resultou na adoção generalizada de plataformas educacionais digitais e de soluções de inteligência artificial em redes públicas de ensino no Brasil. Ambientes virtuais de aprendizagem, sistemas de gestão escolar, plataformas adaptativas, aplicativos de comunicação com famílias e ferramentas de recomendação de conteúdo passaram a mediar de forma cotidiana processos pedagógicos, administrativos e avaliativos.

Esse movimento se articula a uma agenda global de inovação tecnológica na educação, na qual a inteligência artificial é apresentada como promessa de personalização do ensino, automatização de tarefas burocráticas e apoio à tomada de decisão por gestores e professores. Pesquisas recentes destacam o potencial da inteligência artificial para analisar grandes volumes de dados educacionais, identificar padrões de aprendizagem e oferecer intervenções mais ajustadas às necessidades dos estudantes. Ao mesmo tempo, alertam para riscos associados à opacidade dos algoritmos, à reprodução de desigualdades e à coleta intensiva de dados sensíveis.

No Brasil, a entrada em vigor da Lei Geral de Proteção de Dados Pessoais, LGPD, concluiu um processo de construção de um marco regulatório para o tratamento de dados, iniciado com o Marco Civil da Internet. A LGPD define dados pessoais, estabelece princípios e bases legais para o tratamento, prevê direitos para titulares e obrigações para controladores e operadores, além de instituir a Autoridade Nacional de Proteção de Dados como órgão responsável por zelar pela aplicação da lei.

O setor educacional é diretamente impactado por esse marco, uma vez que redes públicas de ensino tratam, de modo sistemático, dados pessoais e dados pessoais sensíveis de milhões de crianças, adolescentes, responsáveis e trabalhadores da educação. Manuais e guias produzidos por órgãos públicos e organizações da sociedade civil reconhecem que a LGPD se aplica a toda a trajetória escolar, desde a matrícula até o arquivamento de históricos e prontuários, abrangendo tanto documentos físicos quanto registros digitais em plataformas diversas.

A implementação da LGPD em redes públicas de ensino, entretanto, não se reduz ao cumprimento formal de exigências jurídicas. Trata-se de um desafio ético, político e pedagógico, que envolve revisar práticas de coleta, armazenamento e compartilhamento de dados, repensar relações com empresas de tecnologia educacional, construir políticas de governança de dados e fortalecer a cultura de proteção de direitos na escola. Esses desafios tornam-se ainda mais complexos quando se consideram soluções de inteligência artificial embarcadas em plataformas educacionais, muitas vezes desenvolvidas por fornecedores privados, com lógica de funcionamento pouco transparente para gestores e professores.

Neste artigo, busca-se analisar desafios éticos e jurídicos da implementação da LGPD no uso de plataformas educacionais digitais e ferramentas de inteligência artificial em redes públicas de ensino. Especificamente, examinam se: a) implicações da LGPD para o tratamento de dados em contextos educacionais; b) particularidades das plataformas digitais e da inteligência artificial na produção e circulação de dados escolares; c) dilemas éticos relativos a transparência, consentimento, vigilância e discriminação algorítmica; d) exigências jurídicas para a conformidade das redes públicas e caminhos possíveis para políticas de governança de dados voltadas à proteção de estudantes.

O texto se organiza em três partes, além desta introdução. No desenvolvimento, apresenta-se o marco jurídico da LGPD no contexto educacional e discutem se especificidades das plataformas digitais e da inteligência artificial, com foco em seus impactos sobre direitos fundamentais. Em seguida, analisam-se desafios éticos e jurídicos da implementação da lei em redes públicas, bem como iniciativas e diretrizes que apontam possibilidades de conformidade responsável. Nas considerações finais, sintetizam se os principais argumentos e indicam se recomendações e agendas de pesquisa futuras.

DESENVOLVIMENTO 

LGPD e proteção de dados em redes públicas de ensino.

A Lei Geral de Proteção de Dados estabelece princípios como finalidade, adequação, necessidade, transparência, segurança, prevenção e responsabilização, que devem orientar todas as etapas do tratamento de dados pessoais. No setor público, a lei admite como bases legais o cumprimento de obrigação legal ou regulatória, a execução de políticas públicas e a proteção da vida ou da incolumidade física, entre outras, mas não dispensa a observância dos princípios gerais nem exclui a necessidade de cuidado especial com grupos vulneráveis.

No campo educacional, isso significa que redes públicas de ensino podem tratar dados de estudantes sem depender exclusivamente do consentimento, desde que o façam para cumprir finalidades pedagógicas, administrativas ou legais claramente definidas, com transparência e respeito aos direitos dos titulares. O fato de o tratamento se apoiar em bases legais ligadas a políticas públicas não afasta a necessidade de informar de modo acessível às famílias, minimizar a coleta de dados, garantir segurança da informação e possibilitar o exercício de direitos como acesso, retificação e eliminação quando cabível.

Um ponto sensível é o tratamento de dados pessoais de crianças e adolescentes, que exige proteção reforçada. A LGPD estabelece que o tratamento de dados de crianças deve ser realizado em seu melhor interesse e, em regra, mediante consentimento específico e em destaque dado por pelo menos um dos pais ou responsável, ressalvadas hipóteses de necessidade para contatar os responsáveis ou para proteção da criança. Em redes públicas de ensino, há um cruzamento entre dever estatal de assegurar o direito à educação e obrigação de proteger a privacidade dos estudantes, o que demanda interpretações cuidadosas e políticas claras por parte de secretarias e escolas.

Manuais produzidos para gestores educacionais orientam que a adequação à LGPD envolve ações como mapeamento de fluxos de dados nas escolas, revisão de formulários de matrícula, definição de perfis de acesso em sistemas, elaboração de políticas de privacidade institucionais, designação de encarregado de dados, além de contratos específicos com fornecedores de tecnologias que prevejam cláusulas de proteção de dados e responsabilidade em caso de incidentes.

Plataformas educacionais digitais, inteligência artificial e dados escolares

Plataformas educacionais digitais reúnem diferentes tipos de sistemas, como ambientes virtuais de aprendizagem, plataformas de trilhas formativas, sistemas de gestão acadêmica, aplicativos de comunicação com pais e alunos, recursos de avaliação on-line e ferramentas de autoria de conteúdos multimídia. Esses sistemas coletam e processam dados cadastrais, registros de acesso, notas, desempenho em atividades, tempo de permanência em conteúdos, interações em fóruns, entre outras informações que compõem um extenso rastro digital da trajetória escolar de cada estudante.

O desenvolvimento recente de soluções de inteligência artificial intensificou essa dinâmica. Ferramentas de aprendizagem adaptativa, sistemas de recomendação de atividades, algoritmos de detecção de plágio, softwares de correção automatizada de respostas, chatbots educacionais e plataformas de proctoring automatizado são exemplos de aplicações que dependem de grandes volumes de dados para treinar modelos e oferecer respostas personalizadas. Em muitos casos, trata-se de inteligência artificial de caráter preditivo, que busca antecipar dificuldades de aprendizagem, estimar risco de evasão ou classificar estudantes em perfis.

Mais recentemente, ferramentas de inteligência artificial generativa, como assistentes de escrita, tradutores avançados e geradores de imagens e vídeos, passaram a ser utilizadas por professores e estudantes como apoio à produção de materiais e atividades. Órgãos reguladores e organismos internacionais têm alertado para riscos específicos dessas tecnologias, relacionados à coleta intensiva de dados, à reutilização de conteúdos para treinamento de modelos e à dificuldade de garantir rastreabilidade e explicabilidade das respostas.

Relatórios internacionais enfatizam que o uso de inteligência artificial em educação deve ser orientado por uma abordagem centrada em direitos, com salvaguardas que incluam proteção de dados, transparência, supervisão humana significativa, avaliação de impacto e mecanismos de responsabilização. Esses documentos recomendam que governos e sistemas educacionais desenvolvam políticas específicas para inteligência artificial em educação, integrando questões de proteção de dados e ética digital às estratégias de inovação pedagógica.

Desafios éticos da implementação da LGPD em ambientes educacionais digitais

Um dos desafios éticos fundamentais é conciliar o interesse público em ampliar o uso pedagógico de tecnologias digitais com a proteção dos direitos de crianças e adolescentes. A coleta massiva de dados escolares pode ser apresentada como condição para personalizar o ensino, monitorar trajetórias de aprendizagem ou produzir indicadores de gestão, mas pode também gerar riscos de vigilância excessiva, rotulação precoce e discriminação. Quando sistemas de inteligência artificial classificam estudantes com base em dados históricos, há o risco de reforçar estigmas associados a origem social, raça, gênero ou deficiência, caso os dados reflitam desigualdades estruturais.

Outra questão central diz respeito à transparência e à possibilidade de compreensão das decisões algorítmicas. Se plataformas educacionais utilizam modelos de inteligência artificial para recomendar conteúdos, priorizar determinados estudantes para intervenções ou sinalizar supostos riscos de evasão, professores, gestores, estudantes e famílias têm o direito de saber que critérios estão sendo usados, quais dados alimentam os modelos e como eventuais erros podem ser contestados. A opacidade de algoritmos proprietários dificulta o exercício desses direitos e coloca em tensão princípios de transparência previstos na LGPD e em recomendações internacionais sobre ética em inteligência artificial.

A própria ideia de consentimento enfrenta limites quando se trata de redes públicas de ensino. Em um contexto no qual o acesso à educação básica é um direito e um dever, a possibilidade de recusa ao tratamento de dados em certas plataformas pode ser meramente formal. Famílias podem sentir-se pressionadas a aceitar termos de uso extensos e pouco claros, sob pena de prejudicar a escolarização dos filhos. Isso reforça a necessidade de que o tratamento de dados se baseie menos em consentimentos genéricos e mais em desenhos institucionais responsáveis, que respeitem princípios de minimização de dados, limitação de finalidade e segurança, independentemente da assinatura de termos pelos responsáveis.

Há ainda dilemas relacionados à comercialização indireta de dados educacionais. Plataformas aparentemente gratuitas podem sustentar seu modelo de negócio em estratégias de monetização de dados, como a construção de perfis para fins de marketing ou a venda de insights a terceiros. Embora a LGPD estabeleça limites para o compartilhamento de dados com base em interesses legítimos, a assimetria informacional entre empresas de tecnologia e redes públicas de ensino aumenta o risco de que dados de estudantes sejam utilizados para finalidades alheias ao processo educativo, o que contraria princípios de finalidade e transparência.

Esses desafios indicam que a implementação da LGPD em ambientes educacionais digitais não pode se restringir à produção de documentos formais. Ela demanda uma ética da responsabilidade compartilhada, na qual gestores, professores, empresas de tecnologia, órgãos reguladores, estudantes e famílias participem da definição de limites e possibilidades para o uso de dados e de inteligência artificial na escola.

Desafios jurídicos e governança de dados em redes públicas

Do ponto de vista jurídico, redes públicas de ensino precisam desenvolver estratégias de governança de dados que articulem diferentes marcos normativos, como Constituição Federal, Estatuto da Criança e do Adolescente, Marco Civil da Internet, LGPD e eventuais leis específicas sobre proteção de crianças no ambiente digital ou regulação da inteligência artificial. Esse entrelaçamento normativo exige capacidade técnica para interpretar e aplicar princípios de proteção de dados no contexto de políticas educacionais concretas.

A governança implica mapear quais dados são coletados em cada processo, para quais finalidades, com que bases legais, por quanto tempo serão armazenados e com quem podem ser compartilhados. Envolve também definir papéis e responsabilidades de diferentes atores, como secretarias, escolas, empresas de tecnologia e outros órgãos públicos, além de instituir procedimentos para gestão de incidentes de segurança e resposta a solicitações de titulares. Sem esse arranjo, torna-se difícil demonstrar conformidade com a LGPD, como exigido pela própria lei e por guias orientadores.

A contratação de plataformas educacionais e soluções de inteligência artificial apresenta desafios específicos. Contratos entre redes públicas e empresas devem prever cláusulas claras sobre finalidade do tratamento de dados, limites ao uso para além do serviço contratado, medidas de segurança, procedimentos em caso de incidentes, possibilidade de auditoria e obrigações de exclusão ou anonimização ao término da relação contratual. A literatura jurídica aponta que, sem esses mecanismos, há risco de transferência indevida de responsabilidade ao fornecedor ou, em sentido oposto, de captura dos dados da rede por empresas, com pouca capacidade de controle por parte do poder público.

Outro aspecto emergente são as avaliações de impacto à proteção de dados, especialmente relevantes no caso de tecnologias de alto risco, como determinadas aplicações de inteligência artificial no ambiente escolar. Documentos técnicos destacam que tais avaliações podem identificar riscos específicos, como discriminação algorítmica, exclusão digital ou exposição indevida de dados sensíveis, e orientar decisões sobre adoção, configuração ou até rejeição de certas soluções tecnológicas.

Iniciativas recentes da Autoridade Nacional de Proteção de Dados e de órgãos educacionais têm buscado oferecer parâmetros para esse processo, mas ainda há lacunas na tradução dessas orientações para rotinas concretas de redes locais, especialmente em municípios com pouca capacidade técnica. Isso reforça a necessidade de cooperação federativa e de produção de materiais específicos para o contexto educacional, como o manual voltado a gestores públicos da educação.

Caminhos para uma implementação responsável

Diante dos desafios éticos e jurídicos descritos, algumas direções aparecem na literatura e em documentos orientadores como caminhos para uma implementação responsável da LGPD em plataformas educacionais digitais com uso de inteligência artificial.

Em primeiro lugar, destaca-se a importância de políticas de proteção de dados educacionais explicitamente vinculadas ao projeto pedagógico das redes. Em vez de tratar a proteção de dados apenas como exigência burocrática, essas políticas podem articular princípios de privacidade, segurança e participação com objetivos de promoção de autonomia, cidadania digital e equidade entre estudantes. Isso inclui envolver conselhos escolares, grêmios estudantis e associações de pais no debate sobre regras de uso de tecnologias e dados na escola.

Em segundo lugar, a formação continuada de gestores e professores em proteção de dados e ética da inteligência artificial é apontada como condição indispensável. Materiais produzidos por órgãos públicos e organizações especializadas indicam que muitos incidentes decorrem não apenas de falhas técnicas, mas de desconhecimento de princípios básicos, como minimização de dados, guarda segura de documentos, cuidado com compartilhamento em aplicativos de mensagens e atenção a termos de uso de plataformas supostamente gratuitas.

Em terceiro lugar, é necessário investir em soluções tecnológicas e arranjos institucionais que reduzam dependências assimétricas em relação a empresas e permitam maior controle público sobre dados educacionais. Isso pode incluir adoção de plataformas com código aberto, utilização de padrões interoperáveis que evitem aprisionamento tecnológico, exigência de que dados permaneçam sob controle da rede pública e desenvolvimento de capacidades internas de análise de dados com foco em melhoria educacional, e não em vigilância.

Por fim, a proteção de dados no uso de inteligência artificial na educação demanda diálogo constante com regulações mais amplas sobre ética em inteligência artificial, em âmbito nacional e internacional. A articulação entre LGPD, recomendações da UNESCO sobre inteligência artificial e direitos humanos e eventuais marcos específicos sobre inteligência artificial permite construir uma abordagem em que inovação tecnológica seja compatível com a proteção de direitos, evitando tanto o tecnocentrismo acrítico quanto o imobilismo.

CONSIDERAÇÕES FINAIS

A análise desenvolvida neste artigo evidencia que a implementação da LGPD em plataformas educacionais digitais e no uso de inteligência artificial em redes públicas de ensino envolve muito mais do que adequação formal a uma lei. Trata-se de um processo complexo, no qual se entrelaçam exigências jurídicas, responsabilidades éticas, disputas econômicas e escolhas pedagógicas.

Do ponto de vista jurídico, a LGPD oferece princípios e instrumentos importantes para proteção de dados, mas sua concretização depende da construção de arranjos de governança em redes públicas de ensino, capazes de mapear fluxos de dados, estabelecer bases legais adequadas, firmar contratos responsáveis com fornecedores, realizar avaliações de impacto e responder a incidentes com transparência e responsabilização.

Do ponto de vista ético, a discussão sobre plataformas digitais e inteligência artificial na educação não pode ser reduzida à retórica da inovação. A coleta intensiva de dados, a opacidade de algoritmos e a possibilidade de discriminação automatizada colocam em risco direitos fundamentais de crianças e adolescentes, sobretudo em contextos marcados por desigualdades. Nesse cenário, a implementação da LGPD pode funcionar como oportunidade para ressignificar a relação entre tecnologia e educação, colocando no centro a dignidade dos sujeitos e o compromisso com a equidade.

Ao reunir literatura especializada, documentos orientadores e marcos normativos, o artigo apontou desafios e caminhos possíveis para uma implementação responsável da LGPD em redes públicas. Destacam se, entre as direções indicadas, a necessidade de políticas específicas de proteção de dados educacionais articuladas ao projeto pedagógico, a formação continuada de gestores e professores, o fortalecimento de capacidades institucionais de governança de dados e a participação ativa de comunidades escolares nas decisões sobre uso de tecnologias.

Persiste uma agenda importante de pesquisa empírica, envolvendo estudos de caso em redes municipais e estaduais, análise de contratos e políticas de privacidade de plataformas educacionais, bem como investigações sobre percepções de estudantes e famílias a respeito do tratamento de seus dados. Avançar nessa agenda pode contribuir para a construção de referências sólidas para políticas públicas que conciliem inovação tecnológica, qualidade educacional e proteção de direitos na era digital.

Assim, mais do que um obstáculo, a LGPD pode ser compreendida como um convite à construção de uma cultura de cuidado com dados educacionais, na qual o direito à privacidade e à proteção de dados se integre ao direito à educação, compondo a base de uma escola pública democrática e comprometida com a proteção integral de crianças e adolescentes.

REFERÊNCIAS 

BARBOSA, M. O. Lei Geral de Proteção de Dados e a educação: desafios para o tratamento de dados pessoais em ambientes escolares. Revista Foco, [S. l.], v. 18, n. 2, 2025.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais. Diário Oficial da União, Brasília, 15 ago. 2018.

BRASIL. Ministério da Educação. Guia orienta adoção de dispositivos tecnológicos nas escolas. Brasília, 2025.

CIEB; UNESCO. Manual de proteção de dados pessoais para gestores e gestoras públicas educacionais. São Paulo, 2020.

DPOEXPERT. Proteção de dados nas instituições de ensino: impactos da LGPD. [S. l.], 2025.

GEEKIE. Segurança e privacidade dos dados na inteligência artificial educacional. [S. l.], 2025.

ISAAC. LGPD nas escolas: guia prático sobre proteção de dados de alunos. [S. l.], 2024.

OAB CAMPINAS. LGPD nas escolas: os impactos nos procedimentos e no cotidiano. Campinas, 2023.

OLIVEIRA, F. A inteligência artificial e a Lei Geral de Proteção de Dados. Revista do Ministério Público de Goiás, Goiânia, v. 2, n. 1, 2024.

PUCRS. Proteção de dados pessoais: avanços, desafios e o impacto da inteligência artificial. Porto Alegre, 2025.

SEDUC MT. Você conhece a Lei Geral de Proteção de Dados. Cuiabá: Secretaria de Estado de Educação de Mato Grosso, 2024.

UNESCO. AI and education: guidance for policy makers. Paris: UNESCO, 2021.

UNESCO. AI and education: protecting the rights of learners. Paris: UNESCO, 2025.

UNESCO. Guidance for generative AI in education and research. Paris: UNESCO, 2023.

UNESCO. Recomendação sobre a ética da inteligência artificial. Paris: UNESCO, 2018.

VARGAS, L.; SOUSA, R. Inteligência artificial na educação básica: possibilidades e limites. Cuadernos de Educación, [S. l.], v. 15, n. 1, 2025.


1Graduada em Pedagogia pela Universidade Federal de Uberlândia – UFU. Especializada em Psicopedagogia pela Universidade Federal de Uberlândia – UFU. Mestranda em Tecnologias Emergentes em Educação pela Must University.

2Graduação em Pedagogia pela Universidade Presidente Antônio Carlos. Especialização em Novas Tecnologias Aplicadas à Educação pela Faculdade Futura. Mestranda em Tecnologias Emergentes em Educação pela Must University.

3Licenciado em Pedagogia. Pós Graduação em Educação Especial Inclusiva. Mestrando em Tecnologias Emergentes em Educação.

4Licenciado em Matemática. Pós Graduação em Educação Matemática. Mestrando em Tecnologias Emergentes em Educação.

5Pedagoga. Pós graduada. Especialização em Educação Infantil e Séries Iniciais do Ensino Fundamental. Mestrando em Tecnologias Emergentes em Educação pela Must University

6Graduada em Fonoaudiologia , Especialista em Audiologia, Docente do curso de Fonoaudiologia do UNESC e Mestranda em Tecnologias Emergentes em Educação.

7Graduado em Direito. Especialista em Direito Público e em Direito Penal. Mestrando em Estudos Jurídicos pela Must University.

8Bacharel em Direito. Pós-graduado em Direito Penal e Processo Penal. Pós-graduado em Direito Penal Econômico. Mestrando em Ciências Jurídicas com ênfase em Direito Internacional.