ALGORITHMIC ADMINISTRATION AND LEGAL PROCESS: IMPACTS OF AUTOMATION ON TRANSPARENCY, MOTIVATION AND INSTITUTIONAL CONTROL
REGISTRO DOI: 10.69849/revistaft/fa10202508131918
Jairo Lima de Oliveira1
Ivoneide Pereira de Alencar2
RESUMO
A incorporação de tecnologias baseadas em algoritmos na Administração Pública tem transformado profundamente a lógica decisória estatal, gerando impactos relevantes sobre a transparência, a motivação dos atos administrativos e o controle institucional. A chamada administração algorítmica, embora prometa ganhos de eficiência e padronização, suscita tensões entre a racionalidade técnica e os fundamentos democráticos do processo legal. Este estudo examina as implicações jurídico-administrativas da automatização decisória, com foco nos riscos de opacidade, na fragilização da motivação dos atos e nas limitações dos mecanismos tradicionais de controle. A pesquisa adota metodologia qualitativa, com base em revisão bibliográfica e análise teórico-jurídica, articulando contribuições de Frank Pasquale sobre opacidade algorítmica, de Oscar Vilhena Vieira e Luís Roberto Barroso sobre legalidade e controle democrático, e de Guilherme Carboni no campo da regulação da inteligência artificial. Os resultados indicam que a ausência de critérios normativos específicos e de instrumentos de auditoria algorítmica compromete a efetividade do controle institucional e a legitimidade das decisões administrativas automatizadas. Conclui-se que a construção de uma governança algorítmica compatível com os princípios do Estado de Direito exige a reinterpretação de garantias processuais clássicas à luz das transformações tecnológicas em curso.
Palavras-chave: administração algorítmica; processo legal; motivação dos atos administrativos; transparência pública; controle institucional.
ABSTRACT
The incorporation of algorithm-based technologies into Public Administration has profoundly transformed state decision-making logic, generating significant impacts on transparency, the motivation behind administrative acts, and institutional oversight. While promising gains in efficiency and standardization, so-called algorithmic administration raises tensions between technical rationality and the democratic foundations of the legal process. This study examines the legal and administrative implications of automated decision-making, focusing on the risks of opacity, the weakening of the motivation behind actions, and the limitations of traditional oversight mechanisms. The research adopts a qualitative methodology, based on a literature review and theoretical-legal analysis, articulating contributions by Frank Pasquale on algorithmic opacity, Oscar Vilhena Vieira and Luís Roberto Barroso on legality and democratic oversight, and Guilherme Carboni on the regulation of artificial intelligence. The results indicate that the absence of specific normative criteria and algorithmic auditing tools compromises the effectiveness of institutional oversight and the legitimacy of automated administrative decisions. It is concluded that building algorithmic governance compatible with the principles of the rule of law requires reinterpreting traditional procedural guarantees in light of ongoing technological transformations.
Keywords: algorithmic administration; legal process; motivation for administrative acts; public transparency; institutional oversight.
1 INTRODUÇÃO
As transformações tecnológicas que atravessam o setor público nas últimas décadas têm redesenhado profundamente os modos de atuação da Administração Pública, especialmente no que se refere à produção, análise e uso massivo de dados. Um dos fenômenos mais relevantes desse contexto é a consolidação da chamada administração algorítmica, caracterizada pela incorporação de sistemas automatizados de tomada de decisão nos fluxos administrativos cotidianos. Ainda que promova avanços em termos de agilidade, economia e racionalização, tal processo suscita dilemas normativos e institucionais que afetam diretamente os fundamentos do Estado Democrático de Direito.
Ao contrário de modelos tradicionais baseados na racionalidade jurídica, a administração algorítmica opera sob lógicas estatísticas e computacionais que nem sempre são transparentes ou compreensíveis àqueles sujeitos aos seus efeitos. Sistemas de triagem, ranqueamento, cruzamento de dados e análise preditiva já são utilizados, por exemplo, na concessão automatizada de benefícios previdenciários, na priorização de processos fiscais, na vigilância sanitária e no monitoramento de políticas públicas. Essas experiências, embora heterogêneas, apontam para uma realidade emergente: decisões administrativas cada vez mais fundamentadas por parâmetros algorítmicos opacos, com efeitos significativos sobre os direitos dos administrados.
Nesse cenário, surgem tensões entre os ganhos de eficiência técnica e os compromissos democráticos de transparência, motivação e possibilidade de revisão dos atos administrativos.
A substituição (ou ocultação) da deliberação humana por modelos de decisão automatizados desafia os princípios estruturantes do processo legal, sobretudo no que tange ao contraditório, à ampla defesa, à publicidade e à necessidade de motivação racional. Quando não acompanhados de mecanismos adequados de governança e controle, tais sistemas podem consolidar zonas de irresponsabilidade institucional, inviabilizando a identificação de autoria e a responsabilização por decisões potencialmente injustas.
A crítica contemporânea à administração algorítmica, nesse sentido, não recai unicamente sobre a técnica em si, mas sobre o desequilíbrio entre racionalidade computacional e legitimidade democrática. A ausência de regulamentação específica, a dificuldade de auditoria dos modelos utilizados, a opacidade dos critérios de decisão e a ausência de um “direito à explicação” claro no ordenamento jurídico brasileiro são elementos que revelam um déficit de accountability e de proteção de garantias fundamentais. A legalidade administrativa, tradicionalmente alicerçada na previsibilidade e na motivação, passa a conviver com sistemas automatizados cujo funcionamento escapa ao controle institucional clássico.
A proposta deste artigo é contribuir para a compreensão crítica desse fenômeno. Assim, tem-se como objeto de análise os impactos da automatização da Administração Pública sobre os pilares do processo legal administrativo, com atenção especial às dimensões da transparência, da motivação dos atos e do controle institucional. Parte-se da hipótese de que, sem o desenvolvimento de normas específicas, critérios técnicos auditáveis e obrigações claras de responsabilização, os sistemas automatizados podem comprometer as garantias jurídicas do administrado e enfraquecer os mecanismos tradicionais de controle da atividade estatal.
A investigação é orientada pela seguinte pergunta: como a administração algorítmica afeta a efetividade do devido processo legal no âmbito administrativo, e quais os limites e possibilidades do controle institucional sobre decisões automatizadas no setor público? A reflexão parte da compreensão de que o processo legal, como expressão de um modelo democrático de administração pública, não pode ser dissociado dos princípios da legalidade, da publicidade e da possibilidade de revisão, ainda que em contextos tecnologicamente mediados.
O objetivo geral do artigo consiste em analisar as implicações jurídicas da administração algorítmica sobre os fundamentos do processo legal administrativo no Brasil. Entre os objetivos específicos, busca-se: (i) conceituar a administração algorítmica e suas formas de implementação na gestão pública; (ii) discutir os riscos de opacidade e de enfraquecimento da motivação administrativa em decisões automatizadas; e (iii) examinar alternativas jurídicas e institucionais para assegurar a accountability e a proteção de direitos no contexto da automatização estatal.
A relevância do tema decorre do fato de que a automação de decisões públicas não representa apenas um avanço técnico, mas uma inflexão normativa que exige reflexão crítica sobre os limites do poder administrativo em um Estado constitucional. Ao discutir a compatibilidade entre tecnologia, processo legal e controle institucional, este estudo pretende lançar luz sobre as bases jurídicas de uma governança algorítmica compatível com a democracia substancial e a proteção de direitos fundamentais.
A pesquisa adota abordagem qualitativa, com ênfase na revisão bibliográfica e na análise teórico-jurídica. O referencial teórico mobiliza autores como Frank Pasquale, que trata da opacidade dos sistemas de decisão automatizada; Oscar Vilhena Vieira e Luís Roberto Barroso, cujas obras discutem o constitucionalismo democrático e os limites do poder público; e Guilherme Carboni, que contribui para o debate sobre regulação da inteligência artificial. Normativamente, a análise baseia-se na Constituição Federal de 1988, na Lei de Processo Administrativo (Lei nº 9.784/1999), na Lei Geral de Proteção de Dados (Lei nº 13.709/2018), além de projetos legislativos recentes sobre o uso de inteligência artificial na administração pública.
A estrutura do artigo está dividida em cinco seções, além desta introdução. Inicialmente, trata da administração algorítmica no setor público, seus conceitos, aplicações e fundamentos técnicos. Em seguida, examina os impactos da automatização sobre os princípios do processo legal, com ênfase na motivação e na publicidade dos atos administrativos. Posteriormente, analisa os mecanismos de controle institucional e os limites da accountability diante da opacidade algorítmica. A quinta seção propõe caminhos normativos e institucionais para o aprimoramento da governança democrática em decisões automatizadas. Por fim, são apresentas as considerações finais, retomando os principais argumentos e propondo pontos para aprofundamento futuro.
Por meio desse percurso, o estudo busca contribuir para o debate sobre os limites jurídicos da inteligência artificial na administração pública, reafirmando que nenhuma inovação tecnológica pode prescindir da legitimidade, da motivação e do controle próprio de um Estado comprometido com os valores democráticos e com a proteção dos direitos fundamentais.
2 A ADMINISTRAÇÃO ALGORÍTMICA NA ESFERA PÚBLICA
A intensificação do uso de tecnologias digitais na gestão pública tem promovido mudanças estruturais nos modos de operar, decidir e interagir da Administração Pública com os cidadãos. Se, nas primeiras fases da informatização do Estado, o foco recaía sobre a digitalização de procedimentos e a automação de tarefas burocráticas, o cenário atual se distingue pela introdução de sistemas capazes de operar com autonomia relativa, realizar análises preditivas e tomar decisões baseadas em grandes volumes de dados. Trata-se da transição de uma administração eletrônica para uma administração algorítmica, marcada por uma racionalidade técnica que não apenas executa comandos humanos, mas participa ativamente da construção de juízos administrativos.
Esse novo modelo se insere no contexto do chamado Estado digital, no qual a atuação estatal passa a ser mediada por plataformas tecnológicas que organizam fluxos de informação, hierarquizam demandas, alocam recursos e classificam indivíduos ou grupos com base em parâmetros estatísticos. Ao automatizar partes cada vez mais centrais da tomada de decisão administrativa, a administração algorítmica opera como uma camada intermediária entre os dados e a ação pública, deslocando a centralidade da discricionariedade humana para sistemas de inteligência artificial, aprendizado de máquina (machine learning) e modelagens matemáticas complexas.
Ainda que seja possível reconhecer ganhos operacionais relevantes – como a agilidade no processamento de dados, a ampliação da capacidade de previsão de cenários e a racionalização de processos repetitivos –, não se pode ignorar o fato de que esse modelo também introduz novas formas de opacidade, assimetrias de informação e riscos de violação de direitos. A lógica probabilística que estrutura muitos desses sistemas tende a desconsiderar nuances do caso concreto, particularidades contextuais e dimensões subjetivas relevantes ao processo decisório público. Com isso, surge uma tensão entre a lógica da eficiência técnica e as exigências normativas do processo legal.
A análise da administração algorítmica exige, portanto, uma abordagem crítica que vá além da celebração instrumental da inovação tecnológica. É preciso compreender seus fundamentos conceituais, seus modos de operação e suas consequências jurídicas e institucionais. Essa seção dedica-se a esse esforço, buscando delimitar o conceito de administração algorítmica, suas características distintivas e suas aplicações no contexto brasileiro, com ênfase nos paradoxos entre eficiência, legalidade e controle democrático.
2.1 Conceito e características da administração algorítmica
O termo administração algorítmica refere-se à prática crescente de delegar funções decisórias da Administração Pública a sistemas computacionais baseados em algoritmos, capazes de processar grandes quantidades de dados, aplicar modelos estatísticos e emitir resultados com base em padrões identificados automaticamente. Mais do que uma simples informatização de tarefas, trata-se de uma mudança de paradigma na racionalidade administrativa: da lógica jurídico-normativa tradicional para uma racionalidade técnicocomputacional. Nesse novo cenário, decisões públicas passam a ser influenciadas – ou mesmo determinadas – por lógicas algorítmicas, muitas vezes de difícil compreensão ou controle pelos próprios agentes públicos (Pasquale, 2015).
Carboni (2023) faz a distinção entre automação simples e tomada de decisão algorítmica é fundamental para compreender essa transformação. Para o autor:
Enquanto a automação simples está vinculada à execução mecânica e repetitiva de tarefas previamente definidas por humanos (como emissão automática de boletos ou envio de notificações), a tomada de decisão algorítmica envolve certo grau de autonomia, baseada na análise preditiva de dados, classificação de perfis, recomendação de ações e priorização de políticas. A diferença reside, portanto, no grau de complexidade, autonomia operacional e opacidade do processo (Carboni, 2023, p. 89).
Esses sistemas operam a partir de modelos de inteligência artificial (IA) e machine learning, que permitem ao algoritmo “aprender” com dados históricos e aperfeiçoar suas decisões com base em padrões identificados. Como destaca a literatura crítica, esse tipo de automação gera uma “sociedade da caixa-preta” (black box society), em que decisões com forte impacto social são tomadas sem transparência, sem possibilidade de compreensão pública e sem garantias de revisão adequada (Pasquale, 2015). A ausência de critérios claros sobre como os algoritmos operam dificulta a verificação de legalidade, de proporcionalidade e de razoabilidade – princípios basilares do direito administrativo (Barroso, 2022).
Ademais, a utilização de big data amplia significativamente a capacidade estatal de coletar, cruzar e interpretar informações. No entanto, a posse de grandes volumes de dados não implica, por si só, decisões melhores ou mais justas. Pelo contrário, o uso não regulado de bases de dados massivas pode reforçar viéses sistêmicos, replicar desigualdades estruturais e produzir discriminações ocultas sob a aparência de neutralidade técnica (Floridi, 2014). É nesse ponto que se impõe o debate sobre a ética algorítmica e a governança democrática dos sistemas automatizados (Eubanks, 2018).
A administração algorítmica insere-se no contexto mais amplo do Estado digital, caracterizado pela incorporação de tecnologias digitais na formulação, implementação e avaliação de políticas públicas. Esse modelo, também chamado de datafied government, transforma os próprios fundamentos da gestão estatal, baseando-se na análise contínua de dados para tomada de decisão (Carboni, 2023). Essa lógica não apenas desafia os parâmetros clássicos da legalidade administrativa, mas também demanda novas formas de controle institucional e regulação legal capazes de garantir a compatibilidade entre inovação e proteção de direitos fundamentais (Vieira, 2019).
Outra característica central desse modelo é o deslocamento da centralidade decisória do servidor público para sistemas técnico-operacionais, muitas vezes gerenciados por empresas terceirizadas ou sem transparência sobre seu funcionamento interno. Isso compromete o princípio da motivação dos atos administrativos, pois dificulta a identificação de quais critérios foram considerados para determinada decisão, como no caso da concessão ou negativa de benefícios sociais. Além disso, torna-se difícil determinar quem é o responsável – juridicamente – por erros, discriminações ou violações que derivam de sistemas algorítmicos não auditáveis (Pasquale, 2015; Carboni, 2023).
Nesse sentido, cresce a importância do que se tem chamado de direito à explicação (right to explanation), previsto, por exemplo, no Regulamento Geral de Proteção de Dados da União Europeia (GDPR) e ainda sem previsão expressa no ordenamento jurídico brasileiro. Trata-se do direito do cidadão de compreender os fundamentos de uma decisão automatizada que o afeta, inclusive com possibilidade de revisão por agente humano. A ausência desse direito compromete a legitimidade democrática da ação estatal, tornando o administrado refém de decisões incompreensíveis e irrecorríveis (Pasquale, 2015; Barroso, 2022).
Assim, convém observar que o discurso de neutralidade e objetividade frequentemente atribuído aos algoritmos é, em muitos casos, ilusório. Algoritmos são produtos de escolhas humanas: refletem valores, prioridades, exclusões e limitações. Em vez de eliminar o erro ou o viés, podem apenas transferi-los para novas formas, menos visíveis e mais difíceis de contestar (O’Neil, 2016; Eubanks, 2018). A administração algorítmica, portanto, não prescinde de controle jurídico, mas exige sua atualização, especialmente para garantir que os princípios constitucionais – como legalidade, impessoalidade, publicidade e eficiência – sejam respeitados mesmo sob novas lógicas de operação (Carboni, 2023; Vieira, 2019).
2.2 Aplicações concretas no contexto brasileiro
No Brasil, a implementação de ferramentas algorítmicas no âmbito da Administração Pública tem se expandido de forma progressiva, especialmente a partir de iniciativas voltadas à modernização da gestão e à digitalização de serviços. Órgãos como a Dataprev, a Receita
Federal, o INSS e os Ministérios da Saúde e da Justiça já operam com sistemas de cruzamento de dados, classificação automatizada de perfis e decisões padronizadas por meio de regras preestabelecidas. Embora muitas dessas iniciativas não envolvam ainda inteligência artificial no sentido estrito, elas já representam formas avançadas de automatização decisória com implicações relevantes sobre direitos (Carboni, 2023).
Um dos exemplos emblemáticos dessa tendência é o uso da plataforma da Dataprev na concessão automatizada de benefícios previdenciários, como o auxílio emergencial, o seguro desemprego e o Benefício de Prestação Continuada (BPC). Nessas situações, o sistema cruza informações de diferentes bases de dados (como CadÚnico, Receita Federal, INSS e sistemas bancários) para avaliar critérios de elegibilidade. Embora eficiente em termos de celeridade, esse processo muitas vezes nega benefícios com base em regras opacas, sem garantir ao cidadão o direito à motivação adequada da decisão ou a possibilidade de revisão transparente (Pasquale, 2015; Eubanks, 2018).
Também a Receita Federal tem avançado na utilização de sistemas de análise preditiva e de risco para orientar a fiscalização tributária, selecionando contribuintes para auditoria com base em padrões de comportamento detectados por algoritmos. Ainda que esses sistemas aumentem a eficácia arrecadatória e racionalizem o uso de recursos, eles também geram preocupações quanto à seletividade das fiscalizações e à ausência de critérios públicos de definição de risco fiscal (Barroso, 2022).
No campo da saúde, destaca-se a integração de algoritmos nos sistemas de monitoramento de epidemias e priorização de atendimentos, como os utilizados pelo e-SUS e por plataformas estaduais de regulação de leitos hospitalares. Tais sistemas auxiliam gestores públicos na tomada de decisões clínicas e administrativas, mas podem incorrer em vieses geográficos, socioeconômicos ou raciais, caso os dados de entrada estejam contaminados por desigualdades estruturais (O’Neil, 2016; Carboni, 2023).
Outro caso relevante é o INSS Digital, que utiliza sistemas automáticos para concessão e revisão de benefícios, com análise documental baseada em reconhecimento de padrões e classificação de informações. Embora tenha reduzido o tempo médio de resposta aos requerimentos, o modelo apresenta fragilidades quanto à motivação das decisões automatizadas, à transparência dos critérios aplicados e ao acesso do cidadão aos fundamentos do indeferimento (Vieira, 2019; Pasquale, 2015).
Na área da fiscalização ambiental, alguns Estados e municípios adotaram sistemas inteligentes para identificação de desmatamentos ilegais, gestão de áreas de preservação e monitoramento de queimadas, como o uso de imagens de satélite e análise automatizada por meio de softwares de georreferenciamento. Ainda que esses mecanismos ampliem a capacidade de cobertura do poder público, eles podem gerar autuações administrativas automáticas com base em dados imprecisos, sem espaço para contraditório efetivo ou análise contextual do caso concreto (Floridi, 2014; Carboni, 2023).
A segurança pública também tem sido campo fértil para a adoção de tecnologias algorítmicas, como os sistemas de reconhecimento facial, mapeamento de áreas de risco, vigilância inteligente e identificação de padrões criminais por meio de dados georreferenciados. Essas práticas, muitas vezes justificadas pela promessa de prevenção e eficiência, reforçam práticas seletivas e discriminatórias, afetando desproporcionalmente grupos vulneráveis, especialmente a população negra e periférica (Eubanks, 2018; O’Neil, 2016).
Apesar dos argumentos de eficiência, economia de recursos e agilidade processual que sustentam a adoção desses sistemas, é necessário reconhecer que tais ganhos operacionais não podem ser dissociados de exigências normativas mínimas de legalidade, motivação e possibilidade de revisão das decisões. A ausência de legislação específica, de mecanismos de auditoria algorítmica e de garantia ao direito à explicação compromete a legitimidade democrática das decisões públicas automatizadas no Brasil (Pasquale, 2015; Carboni, 2023; Barroso, 2022).
3 PROCESSO ADMINISTRATIVO LEGAL E A OPACIDADE ALGORÍTMICA
O processo administrativo, enquanto instrumento de legalidade e controle da atuação estatal, ocupa papel central na estrutura constitucional brasileira. Fundamentado em princípios como o contraditório, a ampla defesa, a publicidade e a motivação, ele representa a materialização dos ideais de transparência e responsabilização na relação entre o Estado e o administrado. No entanto, com o advento da administração algorítmica, esses fundamentos vêm sendo tensionados por novas lógicas decisórias que escapam à racionalidade jurídica tradicional.
A automatização de decisões administrativas introduz uma mudança na forma como a legalidade é construída e aplicada. Em vez da fundamentação textual e normativa típica da atuação estatal, muitos sistemas operam com modelos estatísticos que não explicitam as premissas de suas decisões, nem permitem ao cidadão compreender, contestar ou revisar os fundamentos utilizados. Essa nova racionalidade técnica compromete a aplicabilidade imediata das garantias processuais consolidadas, gerando o que a doutrina tem chamado de opacidade algorítmica (Pasquale, 2015).
Em contextos decisórios mediados por algoritmos, a motivação dos atos administrativos deixa de ser um exercício argumentativo realizado por um agente humano e passa a depender de modelos computacionais cujos critérios são frequentemente ininteligíveis até mesmo para os próprios gestores públicos. Com isso, compromete-se o direito à informação, à ampla defesa e à possibilidade de revisão por instâncias superiores ou independentes, violando a estrutura democrática do processo legal (Floridi, 2014; Carboni, 2023).
Diante dessa realidade, impõe-se a necessidade de reinterpretação das garantias processuais clássicas à luz das tecnologias emergentes, sem permitir que a eficiência técnica seja utilizada como justificativa para o esvaziamento das exigências constitucionais de motivação, publicidade e controle. As subseções a seguir abordam, respectivamente, os fundamentos normativos do processo administrativo e os desafios específicos que a racionalidade algorítmica impõe à motivação dos atos públicos no contexto da inteligência artificial.
3.1 Fundamentos constitucionais do processo administrativo
O processo administrativo brasileiro é regulado por uma estrutura normativa que consagra garantias essenciais ao Estado Democrático de Direito, muitas delas diretamente previstas na Constituição Federal de 1988. Os princípios do contraditório, da ampla defesa, da publicidade e da motivação dos atos administrativos conformam um núcleo duro de proteção jurídica ao cidadão frente à atuação do Estado. Tais princípios não apenas orientam o funcionamento interno da Administração Pública, mas também limitam o exercício do poder estatal, exigindo que toda decisão administrativa com repercussão jurídica seja fundamentada, transparente e passível de revisão (Barroso, 2022).
O contraditório e a ampla defesa, consagrados expressamente no art. 5º, inciso LV, da Constituição, asseguram ao administrado o direito de conhecer previamente os fundamentos de qualquer ato que o afete, bem como a possibilidade de manifestação antes da consolidação da decisão. Essas garantias, antes restritas ao processo judicial, passaram a ser exigidas também no âmbito extrajudicial e administrativo, consolidando o entendimento de que o devido processo legal não se restringe à atuação do Judiciário, mas deve ser observado em todas as esferas de poder (Vieira, 2019).
A publicidade, prevista no art. 37 da Constituição como um dos princípios estruturantes da Administração Pública, impõe o dever de dar transparência aos atos administrativos, tanto para permitir o controle social quanto para assegurar a legitimidade institucional. Essa transparência não se restringe à mera divulgação formal dos atos, mas implica também compreensibilidade e acesso à motivação. O conteúdo da decisão deve ser inteligível para o cidadão comum, o que se torna um desafio crescente diante da utilização de sistemas automatizados e algoritmos opacos (Pasquale, 2015).
Outro princípio fundamental é o da motivação dos atos administrativos, segundo o qual toda decisão estatal que implique restrição de direitos, imposição de deveres ou concessão de benefícios deve ser fundamentada com base em critérios legais, racionais e verificáveis. A motivação é condição de legitimidade, pois permite o controle interno, externo e judicial da decisão, além de assegurar que ela decorreu de juízo ponderado e não de arbitrariedade (Carboni, 2023). Sua ausência ou insuficiência compromete a legalidade e abre espaço para abusos e discriminações encobertas.
No plano infraconstitucional, esses princípios encontram respaldo na Lei nº 9.784/1999, que regula o processo administrativo federal. O diploma normativo estabelece, em seus artigos 2º e 50, a obrigatoriedade de observância aos princípios do contraditório, da publicidade e da motivação, reforçando a centralidade do processo como instrumento de juridicidade e proteção de direitos. Ainda que essa lei não se aplique de forma direta a todos os entes federativos, seus preceitos servem como referência para a interpretação sistêmica dos deveres do poder público em matéria processual (Barroso, 2022; Vieira, 2019).
Em síntese, o processo administrativo é concebido como espaço institucional de realização de garantias fundamentais, especialmente em contextos de desigualdade estrutural, onde o poder público exerce papel dominante na definição de condutas, critérios e sanções. A presença desses princípios visa justamente limitar a assimetria entre Estado e administrado, promovendo accountability institucional, proteção contra arbitrariedades e legitimação do exercício da autoridade pública. Essa arquitetura jurídica, contudo, encontra novos obstáculos quando confrontada com as lógicas técnicas e opacas da administração algorítmica, como se verá na próxima subseção (Floridi, 2014; Carboni, 2023).
3.2 A racionalidade técnica e os limites da motivação algorítmica
A introdução da racionalidade algorítmica na Administração Pública desloca o centro da tomada de decisão do agente humano para sistemas baseados em padrões estatísticos, lógica computacional e modelagem preditiva. Esse novo paradigma decisório compromete a estrutura clássica da motivação administrativa, na medida em que as decisões passam a ser geradas por mecanismos cuja origem lógica e justificativa material não são facilmente identificáveis. A motivação, que antes era formalizada por juízos explicitamente redigidos por servidores públicos, é agora substituída por processos automatizados que operam sob lógicas internas não imediatamente acessíveis ao administrado (Pasquale, 2015; Carboni, 2023).
Uma das principais consequências dessa racionalidade técnica é a dificuldade em apontar quem ou o que está por trás da decisão administrativa. Como observa Luciano Floridi (2014):
Quando um benefício é indeferido, um serviço é bloqueado ou uma fiscalização é instaurada com base em um algoritmo, a ausência de uma autoridade humana identificável como responsável pela decisão fragiliza os mecanismos tradicionais de responsabilização. A responsabilidade tende a se dissipar na complexidade técnica dos sistemas algorítmicos, criando zonas cinzentas onde a responsabilidade jurídica é de difícil atribuição (Floridi, 2014, p. 87).
Outro fator crítico é a opacidade dos sistemas algorítmicos, muitas vezes referida na literatura como black box. Os modelos utilizados podem ser protegidos por segredo industrial, elaborados por empresas terceirizadas ou estruturados de forma que nem mesmo os técnicos públicos compreendam plenamente seu funcionamento. Como resultado, a explicação da decisão administrativa torna-se ininteligível tanto para o cidadão quanto para o próprio Estado. Essa situação inviabiliza o controle externo e judicial, além de violentar o princípio da motivação, que exige clareza e racionalidade na fundamentação dos atos administrativos (Pasquale, 2015; O’Neil, 2016).
A ausência de explicabilidade ameaça também o princípio do contraditório. Sem acesso aos critérios usados na decisão automatizada, o administrado não consegue exercer seu direito de defesa de forma adequada, nem formular recursos eficazes. Nesse sentido, Oscar Vilhena Vieira alerta:
Mesmo quando há previsão legal de instâncias recursais, estas se tornam inócuas se os fundamentos da decisão não forem inteligíveis. Sem compreensão pública das razões administrativas, o direito ao contraditório e à revisão deixa de ser garantia para se tornar mera formalidade (Vieira, 2019, p. 112).
Diante desses riscos, diversos autores e organismos internacionais têm defendido a incorporação do chamado direito à explicação (right to explanation), entendido como a obrigação de fornecer ao cidadão informações claras, suficientes e auditáveis sobre as decisões automatizadas que o afetam. Previsto no Regulamento Geral de Proteção de Dados da União Europeia (GDPR) e em projetos de lei em tramitação no Congresso Nacional, esse direito reafirma a centralidade da motivação como requisito de legitimidade das decisões públicas, mesmo em contextos de uso intensivo de tecnologias automatizadas (Carboni, 2023; Pasquale, 2015).
A motivação algorítmica, portanto, deve ser compreendida como uma nova fronteira do controle da Administração Pública. Sua ausência compromete não apenas a transparência e a accountability, mas também a própria ideia de Estado de Direito, ao permitir que decisões públicas com impacto jurídico e social sejam tomadas de maneira automatizada, ininteligível e irrecorrível. A incorporação da inteligência artificial na gestão pública exige, assim, a adaptação do marco jurídico para assegurar que os princípios constitucionais não sejam neutralizados pelo avanço tecnológico, mas reafirmados como parâmetros de legitimidade e justiça administrativa (Floridi, 2014; Barroso, 2022; Carboni, 2023).
4 CONTROLE INSTITUCIONAL E ACCOUNTABILITY NA ERA DA AUTOMAÇÃO
A expansão da administração algorítmica no setor público desafia os mecanismos tradicionais de controle institucional e exige a atualização das formas de responsabilização da atividade estatal. A opacidade dos sistemas automatizados, aliada à ausência de previsão normativa específica, compromete o funcionamento das estruturas de controle interno, externo e social, que foram desenhadas para atos praticados por agentes humanos identificáveis, e não por processos de decisão mediados por algoritmos.
Nesse cenário, ganha relevo o debate sobre a accountability algorítmica, entendida como a capacidade de atribuir responsabilidade por decisões automatizadas, exigir justificativas compreensíveis e viabilizar a contestação dessas decisões nos marcos do Estado Democrático de Direito. Para que o uso de tecnologias não comprometa os princípios constitucionais da legalidade, da publicidade e da motivação, é necessário repensar as formas de supervisão, controle e transparência à luz das novas dinâmicas tecnológicas da administração pública digital.
4.1 Formas tradicionais de controle e suas limitações
O ordenamento jurídico brasileiro prevê um sistema de controle da Administração Pública fundado em três eixos complementares: o controle interno, exercido por órgãos da própria administração; o controle externo, exercido especialmente pelos Tribunais de Contas e pelo Poder Judiciário; e o controle social, protagonizado pela sociedade civil, pela mídia e por mecanismos de participação cidadã. Esse arranjo institucional visa garantir que os atos administrativos sejam praticados dentro dos limites da legalidade, da moralidade, da eficiência e da impessoalidade (Barroso, 2022).
No entanto, essas formas tradicionais de controle foram concebidas para fiscalizar decisões tomadas por agentes públicos identificáveis, com base em fundamentações escritas, procedimentos previsíveis e critérios jurídicos explicitados nos autos. Quando o processo decisório é mediado por sistemas algorítmicos de alta complexidade técnica, que operam de maneira autônoma ou sem transparência suficiente, os instrumentos clássicos de controle tornam-se, em muitos casos, ineficazes ou excessivamente dependentes de conhecimento especializado. Como adverte Frank Pasquale:
[…] não podemos regular aquilo que não conseguimos ver, e não podemos responsabilizar aquilo que não conseguimos entender. Os órgãos de controle interno, como auditorias e corregedorias, enfrentam dificuldades para auditar sistemas automatizados cujos códigos e parâmetros operacionais são, por vezes, desenvolvidos por empresas terceirizadas e protegidos por sigilo comercial. (Pasquale, 2015, p. 9).
Isso limita a capacidade da administração pública de supervisionar os próprios instrumentos que utiliza, criando zonas de obscuridade institucional incompatíveis com os princípios da governança democrática (Carboni, 2023).
O controle externo também encontra obstáculos relevantes. Os Tribunais de Contas, por exemplo, têm competência para fiscalizar a legalidade, economicidade e eficiência dos atos administrativos, mas muitas vezes não dispõem de meios técnicos ou normativos adequados para auditar algoritmos ou exigir motivação compreensível das decisões automatizadas. Nesse sentido, Oscar Vilhena Vieira aponta que “o controle efetivo do poder público exige acesso a informações inteligíveis; decisões tecnicamente complexas não podem escapar ao exame das instituições democráticas sob o pretexto de neutralidade técnica” (Vieira, 2019, p. 106).
Por sua vez, o controle social – que se apoia na transparência dos atos administrativos para viabilizar a participação da sociedade civil – é duramente afetado pela ausência de explicabilidade dos sistemas de IA utilizados pela administração. A opacidade algorítmica compromete o princípio da publicidade e impossibilita o exercício pleno da cidadania informada, pois o cidadão não consegue identificar os critérios utilizados para decisões que impactam sua vida cotidiana. Assim, constata-se uma assimetria informacional crescente entre o Estado e o administrado, que ameaça os fundamentos do processo democrático (O’Neil, 2016; Pasquale, 2015).
4.2 Accountability algorítmica e governança de dados públicos
O conceito de accountability algorítmica surge como resposta à crescente dificuldade de responsabilizar decisões públicas mediadas por sistemas automatizados. Nesse contexto, não se trata apenas de identificar erros ou excessos na atuação administrativa, mas de garantir que os algoritmos utilizados estejam sujeitos a mecanismos formais de controle, auditoria, explicação e correção. A lógica da accountability, antes centrada em agentes humanos, precisa ser reinterpretada para abarcar sistemas técnicos cuja influência é crescente sobre a produção de efeitos jurídicos relevantes (Pasquale, 2015; Carboni, 2023).
A base dessa nova forma de controle reside na possibilidade de explicar o funcionamento dos sistemas algorítmicos, identificar seus critérios de decisão e atribuir responsabilidade às instituições que os operam ou contratam. Como aponta Luciano Floridi:
[…] a responsabilização de sistemas automatizados começa pela rastreabilidade das decisões e pela atribuição clara de deveres às entidades humanas responsáveis por seu uso. Sem rastreabilidade, a accountability torna-se um conceito vazio e inaplicável diante da opacidade técnica. (Floridi, 2014, p. 113).
Governar algoritmos implica também estabelecer uma política robusta de governança de dados públicos, que assegure a qualidade, a integridade, a transparência e o uso ético das bases de dados utilizadas nos processos decisórios. Dados enviesados, incompletos ou mal interpretados podem gerar decisões discriminatórias, mesmo quando o sistema aparentemente opera de forma neutra. Por isso, os princípios da administração pública devem orientar não apenas o resultado da decisão, mas também a origem e o tratamento dos dados que a fundamentam (Eubanks, 2018; O’Neil, 2016).
Diversos países e organismos internacionais têm proposto diretrizes para assegurar uma governança algorítmica compatível com o Estado de Direito. A União Europeia, por meio do AI Act, propõe a classificação de riscos dos sistemas de IA, exigindo transparência, explicabilidade e auditoria para aqueles de alto impacto. No Brasil, embora ainda falte uma legislação específica, a Lei Geral de Proteção de Dados (Lei nº 13.709/2018) já prevê, em seu art. 20, o direito à revisão de decisões automatizadas, antecipando o debate sobre limites jurídicos ao poder computacional do Estado (Carboni, 2023).
A consolidação da accountability algorítmica exige um redesenho institucional, que envolva tanto a criação de novos instrumentos legais e técnicos de controle, quanto o fortalecimento da cultura de transparência nos órgãos públicos. Como afirma Frank Pasquale, “não basta saber que um algoritmo funciona; é preciso saber como, por que e com que efeitos ele opera” (Pasquale, 2015, p. 51). O compromisso democrático da administração pública demanda, assim, que as tecnologias adotadas ampliem – e não limitem – os direitos dos cidadãos, reafirmando os valores constitucionais da legalidade, da publicidade e da justiça administrativa.
5 FUNDAMENTOS PARA UMA REGULAÇÃO DEMOCRÁTICA DA INTELIGÊNCIA ARTIFICIAL NA ADMINISTRAÇÃO PÚBLICA
A incorporação de sistemas algorítmicos à Administração Pública, embora inevitável diante dos avanços tecnológicos e das demandas por eficiência, não pode ocorrer à revelia dos princípios constitucionais que sustentam o Estado Democrático de Direito. A adoção de modelos automatizados de decisão requer não apenas atenção aos aspectos técnicos e operacionais, mas sobretudo um compromisso normativo com a legalidade, a transparência e a proteção dos direitos fundamentais. O desafio contemporâneo não reside em rejeitar a tecnologia, mas em integrá-la criticamente aos marcos jurídicos da administração pública, sem sacrificar os fundamentos do processo legal e do controle institucional.
Diante das tensões identificadas nas seções anteriores – especialmente quanto à motivação, à explicabilidade e à responsabilização das decisões automatizadas –, impõe-se a construção de uma governança algorítmica democrática, orientada por valores públicos e sustentada por instrumentos jurídicos eficazes. Para isso, são necessárias medidas em dois níveis complementares: (i) a formulação de normas específicas de regulação da inteligência artificial no setor público, e (ii) o redesenho institucional voltado à criação de estruturas técnicas e jurídicas capazes de supervisionar, auditar e revisar decisões algorítmicas com legitimidade e rigor. As subseções seguintes tratam dessas dimensões.
5.1 Regulamentação normativa da IA no setor público
A ausência de um marco normativo específico sobre o uso de inteligência artificial na Administração Pública brasileira representa uma das principais lacunas na construção de uma governança algorítmica compatível com os parâmetros constitucionais. Ainda que existam normas gerais sobre proteção de dados, como a Lei nº 13.709/2018 (LGPD), e dispositivos esparsos em atos administrativos, não há atualmente um regime jurídico consolidado que regule a adoção, operação, fiscalização e responsabilização de sistemas automatizados no âmbito estatal. Essa omissão normativa fragiliza os princípios da legalidade, da motivação e da publicidade dos atos administrativos (Carboni, 2023).
Diversos países já avançaram na construção de regulamentações específicas para enfrentar os riscos da inteligência artificial. O exemplo mais estruturado é o da União Europeia, com a proposta do AI Act, que classifica os sistemas de IA com base em seu grau de risco e impõe exigências proporcionais à criticidade de sua aplicação. Para sistemas considerados de alto risco – como aqueles utilizados para acesso a serviços públicos, crédito, educação ou segurança –, exige-se transparência, explicabilidade, documentação técnica, auditorias e supervisão humana contínua (European Union, 2021).
No contexto brasileiro, tramita no Congresso Nacional o Projeto de Lei nº 2.338/2023, que propõe um marco legal para a inteligência artificial. Embora o texto avance em relação a princípios éticos e diretrizes gerais, ainda carece de dispositivos específicos voltados à regulação da IA na Administração Pública, especialmente no que tange à transparência algorítmica, à motivação dos atos automatizados e à criação de instâncias independentes de revisão. A regulamentação do uso de IA no setor público exige tratamento jurídico diferenciado, dado o caráter coercitivo da atuação estatal e sua vinculação direta aos direitos fundamentais (Barroso, 2022).
Uma proposta normativa robusta deve contemplar, entre outros pontos, a obrigatoriedade de registro e divulgação dos sistemas utilizados pela administração, incluindo seus objetivos, parâmetros de funcionamento e bases de dados utilizadas; o dever de motivação algorítmica, com explicações compreensíveis e auditáveis; a previsão de canais para revisão humana das decisões automatizadas; e a instituição de autoridades técnicas com competência para fiscalizar e sancionar irregularidades. Tais medidas são fundamentais para garantir a compatibilidade entre inovação tecnológica e controle democrático (Pasquale, 2015; Vieira, 2019).
Como destaca Frank Pasquale, “[…] a automação da decisão pública não pode ser vista como um fim em si, mas como um meio subordinado aos valores constitucionais da justiça, da igualdade e da transparência” (Pasquale, 2015, p. 92). A adoção de uma legislação específica sobre IA deve, portanto, estar ancorada nos pilares do Estado de Direito, garantindo que a tecnologia atue como instrumento de ampliação de direitos e não de concentração de poder ou esvaziamento da accountability. A experiência internacional demonstra que, sem regulação clara, os riscos à democracia e à dignidade humana podem se intensificar.
É importante, diante desse contexto, reconhecer que a regulação da IA no setor público não se limita à edição de leis. Ela pressupõe a construção de infraestruturas institucionais capazes de assegurar sua implementação eficaz, com formação técnica de agentes públicos, engajamento da sociedade civil, produção de dados abertos e interoperabilidade entre sistemas. A normatização é o ponto de partida, mas sua efetividade dependerá da capacidade do Estado de criar mecanismos concretos de supervisão, responsabilização e participação (Floridi, 2014; Carboni, 2023).
5.2 Redesenho institucional e reinterpretação jurídica da motivação algorítmica
A regulação normativa da inteligência artificial no setor público, ainda que essencial, não é suficiente para garantir o controle democrático da administração algorítmica. É necessário pensar em mudanças institucionais estruturais, que envolvam tanto o reposicionamento de órgãos já existentes, quanto a criação de novos mecanismos e estruturas de controle técnico e jurídico. A efetivação dos princípios constitucionais frente à automatização das decisões administrativas exige que o próprio desenho do Estado seja ajustado à nova realidade tecnológica (Barroso, 2022).
Uma das principais propostas nesse sentido é a criação de instâncias especializadas de supervisão algorítmica no âmbito do Poder Executivo, com competência para aprovar, auditar e monitorar sistemas de inteligência artificial utilizados por órgãos públicos. Esses núcleos técnicos, compostos por equipes multidisciplinares, poderiam atuar preventivamente na avaliação de riscos à legalidade e à equidade, estabelecendo padrões mínimos de explicabilidade, rastreabilidade e não discriminação (Carboni, 2023).
Como afirma Oscar Vilhena Vieira, no campo jurídico, defende-se a necessidade de:
[…] desenvolver parâmetros interpretativos próprios para a motivação algorítmica, que reconheçam as especificidades da linguagem técnica sem abrir mão dos requisitos de clareza, coerência e possibilidade de revisão. Isso implica o fortalecimento da jurisprudência administrativa e judicial sobre o tema, com decisões que construam precedentes para aferir a compatibilidade entre sistemas automatizados e os direitos dos administrados. O desafio não está apenas em regular a tecnologia, mas em submeter sua lógica ao crivo do direito constitucional (Vieira, 2019, p. 115).
Também é fundamental que as instituições de controle – como Tribunais de Contas, Ministérios Públicos e Defensorias Públicas – sejam tecnicamente capacitadas e juridicamente autorizadas a fiscalizar algoritmos, com acesso aos códigos-fonte, às bases de dados e aos critérios utilizados pelos sistemas automatizados. A autonomia desses órgãos precisa ser preservada diante da pressão por sigilos comerciais ou barreiras técnicas levantadas por empresas fornecedoras, sob pena de tornar o controle institucional ineficaz diante do avanço da automação opaca (Pasquale, 2015; Eubanks, 2018).
O redesenho institucional deve ser acompanhado do fortalecimento do controle social, com transparência ativa sobre os algoritmos utilizados, canais acessíveis para denúncias e recursos, e participação cidadã nos processos decisórios sobre a adoção de tecnologias no setor público. Como destaca Cathy O’Neil, “[…] a opacidade algorítmica é uma escolha política, e não uma fatalidade técnica” (O’Neil, 2016, p. 43). Democratizar a inteligência artificial, portanto, não significa apenas torná-la mais eficiente, mas assegurar que seus usos estejam subordinados à ética pública, à legalidade e à justiça social.
6 CONSIDERAÇÕES FINAIS
A trajetória do constitucionalismo democrático consagrou o devido processo legal, a motivação dos atos administrativos e os mecanismos de controle institucional como pilares fundamentais da legitimidade do poder público. Tais princípios não operam isoladamente: integram um sistema normativo voltado à contenção do arbítrio, à proteção de direitos e à promoção da accountability. Com o avanço da inteligência artificial e a incorporação crescente de sistemas algorítmicos na gestão pública, essas garantias vêm sendo tensionadas por novas formas de racionalidade técnica, marcadas pela complexidade, opacidade e ausência de explicabilidade.
A emergência da administração algorítmica impõe uma inflexão no modo como se compreende a relação entre Estado, tecnologia e cidadania. Se, por um lado, a automação promete ganhos de eficiência e padronização, por outro, coloca em risco a inteligibilidade das decisões públicas, a possibilidade de contestação e a responsabilização institucional. Esses riscos não decorrem apenas de falhas técnicas, mas da falta de um arcabouço jurídico e institucional robusto que dê conta das transformações em curso. A lógica algorítmica, se não adequadamente regulada, tende a substituir a autoridade jurídica por decisões automáticas não passíveis de escrutínio público.
As análises desenvolvidas ao longo do artigo demonstraram que o uso de algoritmos na Administração Pública, em especial para finalidades decisórias, desafia diretamente os fundamentos do processo administrativo legal. A opacidade decisória, a dificuldade de atribuição de responsabilidade, a ausência de motivação adequada e a inviabilidade de contraditório efetivo configuram um cenário preocupante para a proteção de direitos no Estado de Direito. A ausência de um marco normativo específico e de mecanismos institucionalizados de supervisão agrava ainda mais esse cenário, favorecendo a consolidação de zonas de irresponsabilidade institucional.
Diante disso, torna-se essencial o desenvolvimento de um regime jurídico específico para a administração algorítmica, que articule os princípios constitucionais já consolidados com os desafios normativos da era digital. Isso inclui a previsão de deveres de transparência, o direito à explicação, a revisão humana de decisões automatizadas, a criação de estruturas técnicas de auditoria e a incorporação da temática no âmbito dos órgãos de controle tradicionais. Tais medidas não substituem o modelo vigente, mas atualizam seu alcance frente às novas configurações do poder administrativo.
A reinterpretação da motivação no contexto algorítmico, a construção de parâmetros normativos para responsabilização institucional e a formação de uma cultura de governança de dados públicos são elementos indispensáveis para que a tecnologia se torne aliada – e não obstáculo – à efetividade dos direitos. Como demonstrado, não basta incorporar inteligência artificial à máquina estatal: é preciso submeter seu uso aos limites jurídicos da legalidade, da publicidade, da justiça e da participação democrática. O controle da tecnologia é, também, controle do poder.
Nesse sentido, a efetividade do processo administrativo legal na era da automação exige a integração entre inovação tecnológica e garantias fundamentais. A administração algorítmica não é um problema em si, mas se torna perigosa quando opera sem regulação, sem justificativa e sem controle. Proteger os princípios que sustentam o Estado Democrático de Direito diante da transformação digital significa reafirmar que a legalidade não pode ser automatizada, e que o poder público, mesmo quando assistido por máquinas, deve continuar sendo responsável, transparente e contestável.
REFERÊNCIAS
BARROSO, Luís Roberto. O novo direito constitucional brasileiro: contribuições para a construção teórica e prática da jurisdição constitucional no Brasil. 10. ed. São Paulo: Saraiva Educação, 2022.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União: seção 1, Brasília, DF, ano 155, n. 157, p. 1, 15 ago. 2018.
BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o uso da inteligência artificial no Brasil. Senado Federal. Disponível em: https://www25.senado.leg.br/web/atividade/materias//materia/163691. Acesso em: 25 jun. 2025.
CARBONI, Guilherme M. Algoritmos e administração pública: desafios regulatórios da inteligência artificial no setor público. In: DONEDA, Danilo; MORAES, Gustavo Siqueira de (org.). Inteligência artificial e políticas públicas. Brasília: IPEA, 2023. p. 45-78.
EUBANKS, Virginia. Automating inequality: how high-tech tools profile, police, and punish the poor. New York: St. Martin’s Press, 2018.
EUROPEAN UNION. Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 (General Data Protection Regulation – GDPR). Official Journal of the European Union, L 119, p. 1-88, 4 may 2016.
EUROPEAN UNION. Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act). Brussels: European Commission, 2021. Disponível em: https://eur-lex.europa.eu/legalcontent/EN/TXT/?uri=CELEX:52021PC0206. Acesso em: 5 jul. 2025.
FLORIDI, Luciano. The ethics of information. Oxford: Oxford University Press, 2014.
O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Crown Publishing Group, 2016.
PASQUALE, Frank. The black box society: the secret algorithms that control money and information. Cambridge: Harvard University Press, 2015.
VIEIRA, Oscar Vilhena. Direitos fundamentais: uma leitura da jurisprudência do STF. 2. ed. São Paulo: Malheiros, 2019.
1Especialista em Gestão, Educação e Segurança no Trânsito. Bacharel em Direito pelo Centro Universitário Uninassau – Teresina Piauí. Bacharel em Segurança Militar pela Universidade Estadual do Piauí. Chefe do Serviço de Operações da Polícia Rodoviária Federal (PRF-PI).
2Pós-Doutora em Direito pela Università Degli Studi di Messina na Itália. Doutora em Educação pela Universidade Católica de Brasília (UCB). Mestra em Economia pela Universidade Federal do Ceará – (UFC). Bacharelada em Direito pela Faculdade das Atividades Empresariais de Teresina. Atualmente, exerce o cargo de Pró-Reitora de Extensão, Assuntos Estudantis e Comunitários na Universidade Estadual do Piauí (PREX UESPI). É Coordenadora do Programa extensionista em Direitos Humanos, Políticas Públicas e Participação Social. Orientadora de projetos PIBIC e ações extensionistas – PIBEU na Universidade Estadual do Piauí.
