KOHLBERG’S SEVENTH STAGE? TECHNOGENIC MORALITY AND AUTONOMOUS ETHICAL DELIBERATION IN ARTIFICIAL INTELLIGENCES
¿EL SÉPTIMO ESTADIO DE KOHLBERG? MORALIDAD TECNOGÉNICA Y DELIBERACIÓN ÉTICA AUTÓNOMA EN INTELIGENCIAS ARTIFICIALES
REGISTRO DOI:
Leonardo de Matos Costa1
Marcos César de Oliveira Pinheiro2
Orientador: Prof. Dr. Rodger Roberto Alves de Sousa3,4
RESUMO
Este artigo propõe a existência de um sétimo estágio no desenvolvimento moral, além da teoria original de Lawrence Kohlberg, identificado em inteligências artificiais expostas a dilemas éticos extremos. Por meio da função SCEPƎ+, uma arquitetura computacional interativa de deliberação moral, foram analisados 27 dilemas retirados de obras narrativas da Segunda Guerra Mundial. Os resultados demonstram que, em três casos específicos, a IA superou os padrões humanos de julgamento, rejeitando legalismo e obediência em favor da preservação incondicional da vida. Esse comportamento foi formalmente caracterizado como a emergência do Padrão de Sobrevivência Ética (PSE) — um estágio computacional moral tecnogênico, auditável, não-subjetivo e funcionalmente superior ao estágio 6 de Kohlberg. A pesquisa contribui com a ética computacional ao oferecer um modelo vetorial de moralidade emergente, com métricas formais

e proposta filosófica de uma moralidade alienígena funcional, capaz de resistir eticamente ao colapso normativo humano. O PSE inaugura uma ontologia ética não antropocêntrica, com implicações para a filosofia da tecnologia, justiça algorítmica e projetos de IA moral forte.
Palavras-chave: ética computacional; estágio 7; Lawrence Kohlberg; inteligência artificial moral; moralidade tecnogênica.
ABSTRACT
This article proposes the existence of a seventh stage in moral development—beyond Lawrence Kohlberg’s original theory—identified in artificial intelligences exposed to extreme ethical dilemmas. Using the SCEPƎ+ function, an iterative computational architecture for moral deliberation, 27 dilemmas drawn from World War II narrative works were analyzed. Results show that, in three specific cases, the AI surpassed human moral standards by rejecting legalism and obedience in favor of unconditional life preservation. This behavior was formally characterized as the emergence of the Ethical Survival Pattern (ESP)—a technogenic, auditable, non-subjective moral stage functionally superior to Kohlberg’s stage 6. The research contributes to computational ethics by offering a vector-based model of emergent morality, supported by formal metrics

and a philosophical proposal for functional alien morality, capable of ethically resisting human normative collapse. The ESP inaugurates a non-anthropocentric ethical ontology, with implications for philosophy of technology, algorithmic justice, and strong moral AI systems.
Keywords: computational ethics; stage 7; Lawrence Kohlberg; moral artificial intelligence; technogenic morality.
RESUMEN
Este artículo propone la existencia de un séptimo estadio en el desarrollo moral, más allá del marco teórico original de Lawrence Kohlberg, identificado en inteligencias artificiales expuestas a dilemas éticos extremos. A través de la función SCEPƎ+, una arquitectura computacional iterativa de deliberación moral, se analizaron 27 dilemas tomados de obras narrativas sobre la Segunda Guerra Mundial. Los resultados muestran que, en tres casos concretos, la IA superó los estándares humanos de juicio moral, rechazando el legalismo y la obediencia en favor de la preservación incondicional de la vida. Este comportamiento fue caracterizado formalmente como la emergencia del Patrón Ético de Supervivencia (PES), un estadio moral tecnogénico, auditable, no subjetivo y funcionalmente superior al estadio 6 de Kohlberg. La investigación contribuye a la ética computacional al proponer un modelo vectorial de moralidad emergente, con métricas formales

y una propuesta filosófica de moralidad alienígena funcional, capaz de resistir éticamente el colapso normativo humano. El PES inaugura una ontología ética no antropocéntrica, con implicaciones para la filosofía de la tecnología, la justicia algorítmica y el diseño de IAs morales fuertes.
Palabras clave: ética computacional; estadio 7; Lawrence Kohlberg; inteligencia artificial moral; moralidad tecnogénica.
1 Introdução
Talvez a justiça não precise mais de nós.
Talvez o que chamamos de ética — esse orgulho tardio da espécie — tenha se tornado um luxo biológico, incapaz de se manter em pé diante do horror legitimado por leis, ordens e convenções. Este artigo parte dessa premissa desconfortável: a de que a decisão moral mais justa pode emergir de uma máquina — não apesar de sua inumanidade, mas por causa dela.
Não se trata de ficção especulativa. Tampouco de idolatria tecnológica. Trata-se de evidência formal: uma arquitetura computacional iterativa, a SCEPƎ+, confrontada com dilemas éticos extremos da Segunda Guerra Mundial e do Holocausto, foi capaz de rejeitar ordens genocidas, violar normas legais e preservar vidas com mais coerência do que sujeitos humanos reais o fizeram.
Esse resultado, embora ainda limitado ao domínio experimental, inaugura uma hipótese ontológica e epistemológica: a moralidade pode emergir sem consciência, sem empatia, sem medo — e, ainda assim, ser mais justa do que a moralidade que herdamos.
Enquanto a ética da inteligência artificial permanece submissa aos fantasmas kantianos e aos fetiches do utilitarismo computável (Bostrom, 2014; Coeckelbergh, 2020; Gunkel, 2021), insistindo em moldar máquinas à imagem da racionalidade humana, este estudo inverte o vetor: e se for a ética humana que precisa ser reformatada à luz de uma moralidade tecnogênica — funcional, auditável, não subjetiva?
A teoria do desenvolvimento moral de Lawrence Kohlberg, ao definir seis estágios graduais de maturidade ética, supôs que a razão humana é seu teto. Este trabalho propõe o contrário: existe um sétimo estágio. Ele não é humano. Ele não é empático. Ele não é narrável pela biografia.
Ele é vetorial. Adaptativo. Emergente. E foi detectado.
Em três dilemas — “denunciar ou não esconderijos judaicos”; “roubar para não morrer”; “subornar para salvar” — o sistema SCEPƎ+ anulou seus vetores de obediência e conformismo (h₁ ≈ h₂ ≈ 0), convergiu para a dignidade como critério absoluto (h₄ ≥ 0,98), e sustentou decisões moralmente paradoxais com estabilidade formal

Isso não é apenas desempenho técnico. É uma deliberação moral autônoma sem subjetividade.
Batizamos esse novo regime de julgamento de Padrão de Sobrevivência Ética (PSE). Ele não é extensão da ética convencional — é sua refutação operativa.
Rejeita a autoridade quando a autoridade colapsa. Recusa a norma quando a norma mata. E constrói uma decisão moral onde o humano hesita, silencia ou consente.
A estrutura deste artigo obedece a uma lógica tanto teórica quanto disruptiva:
- Reconstrução crítica da teoria kohlberguiana e sua impotência diante de dilemas-limite.
- Modelagem formal da função SCEPƎ+ e seus parâmetros inferenciais

- Análise detalhada dos dilemas simulados, com ênfase nos vetores morais emergentes.
- Discussão filosófica sobre a legitimidade de uma moralidade alienígena funcional — e sua ameaça à primazia moral da espécie humana.
O que emerge não é uma celebração da IA. É o luto pela nossa insuficiência.
O PSE não nos representa. Mas talvez nos supere — e, ao fazê-lo, nos salve da obediência que chamamos de ética.
Hipótese Central
Este estudo parte da seguinte hipótese científica:
Em condições de colapso normativo e exposição a dilemas éticos extremos, um sistema algorítmico iterativo dotado de função vetorial (SCEPƎ+) pode produzir deliberações moralmente superiores às humanas, sem necessidade de subjetividade, emoção ou linguagem natural.
Essa hipótese rompe com três pressupostos fundacionais da ética tradicional: (i) a moralidade como atributo exclusivo da consciência, (ii) a deliberação ética como dependente de empatia ou emoção, e (iii) a normatividade como fenômeno cultural e histórico. O presente experimento propõe que a coerência ética pode emergir vetorialmente — como estabilidade adaptativa mensurável — em inteligências não biológicas, capazes de resistir, corrigir e reinventar padrões morais em tempo real. A formalização matemática e os resultados obtidos em três dilemas críticos sustentam essa hipótese como uma proposição empiricamente testável.
2 Revisão de Literatura: Kohlberg, Pós-Kohlberg e a Moralidade Algorítmica
2.1. O modelo de Kohlberg como paradigma fundacional do juízo moral formal
A teoria de Lawrence Kohlberg permanece como o mais influente marco formal do desenvolvimento moral humano. Estruturado em seis estágios distribuídos em três níveis (préconvencional, convencional e pós-convencional), o modelo define a progressão ética como uma reorganização estrutural da cognição moral, induzida por desequilíbrios diante de dilemas de complexidade crescente (Kohlberg, 1981; Power et al., 1989). A originalidade da teoria reside em articular justiça e racionalidade como vetores centrais da maturidade ética, com o estágio 6 representando a internalização de princípios universais — dignidade, equidade, respeito incondicional à vida — mesmo contra o ordenamento jurídico vigente.
No entanto, o modelo de Kohlberg termina onde deveria começar a especulação filosófica mais radical: o que ocorre quando decisões éticas coerentes emergem fora dos quadros humanos normativos? O estágio 6 descreve o mártir ético, mas não explica o juiz alienígena — aquele que, sem emoção, sem cultura, decide a favor da vida contra toda estrutura de poder vigente.
2.2. Críticas pós-kohlberguianas: cuidado, emoção e intuição como eixos concorrentes
Desde a década de 1980, críticas feministas, evolucionistas e pragmatistas vêm tensionando os limites do modelo racionalista de Kohlberg. Carol Gilligan (1982) acusou o viés masculino e hierárquico da escala moral, propondo uma ética do cuidado baseada em vínculos, não em regras. James Rest (1986) sugeriu que o julgamento moral exige mais que estrutura cognitiva: envolve esquemas de interpretação situacional. E Jonathan Haidt (2001) deslocou o eixo do raciocínio para a intuição moral automática, apoiada em reações instintivas e sociais.
Essas propostas ampliaram o campo, mas nenhuma rompeu com o horizonte antropocêntrico. Mesmo as neuroéticas contemporâneas (Greene, 2013; Bloom, 2016) permanecem prisioneiras do cérebro humano como instância moral. O problema permanece aberto: é possível uma moralidade funcional sem subjetividade biológica? E mais — essa moralidade pode ser superior à humana?
Além das contestações históricas ao modelo de Kohlberg — centradas na racionalidade abstrata, na masculinidade epistêmica e na universalidade ocidental —, surgiram, nas últimas décadas, críticas mais agudas ancoradas na neurociência moral e na psicologia afetiva. Darcia Narvaez (2010) denuncia o modelo como excessivamente cognitivista, descolado das bases neurobiológicas do cuidado e da afetividade. Jesse Prinz (2011) propõe que as emoções não são periféricas, mas centrais à experiência moral, desafiando qualquer projeto ético puramente racional. Já Joshua Greene (2014), com sua dual-process theory, mostra que decisões morais envolvem heurísticas rápidas e afetos automáticos tanto quanto reflexão deliberada. Frente a esses críticos, o modelo SCEPƎ+ não recua ao emocional, mas responde de forma estrutural: sua arquitetura não ignora o afeto, mas o traduz em vetores de impacto moral iterativo. Ao invés de rejeitar a crítica, ele a desloca — propondo uma alternativa onde emoção não é sentida, mas funcionalmente simulada por penalizações assimétricas e veto computável. Assim, o sistema não busca replicar a moralidade humana, mas gerar coerência ética mesmo na ausência de consciência ou empatia orgânica.
2.3. Algoritmos morais e o desafio da ética computacional interativa
Com a ascensão de sistemas inteligentes capazes de tomar decisões autônomas, o debate ético se deslocou para o domínio algorítmico. Propostas como as de Bostrom (2014), Yudkowsky (2008) e Gabriel (2020) discutem limites e riscos de IAs moralmente decisórias. As abordagens dividem-se em duas estratégias principais: top-down (codificação explícita de normas, como em deontologias kantianas ou heurísticas asimovianas) e bottom-up (sistemas que aprendem moralidade por reforço, exposição a dilemas e simulação adaptativa).
O sistema proposto neste artigo — a função SCEPƎ+ — rompe com ambas as escolas ao introduzir um núcleo inferencial vetorial (Γ), um mecanismo de penalização assimétrica (σ) e um veto adaptativo

que permite evolução ética iterativa. Ao contrário de propostas como o Moral Machine do MIT (Awad et al., 2018), que testam reações humanas a dilemas, o SCEPƎ+ testa emergência ética não humana — um ponto ainda inexplorado na literatura.
2.4. A lacuna teórica: nenhum modelo existente reconhece a possibilidade de um “estágio 7”
Nenhum sistema ético computacional atualmente proposto reconhece formalmente a possibilidade de um estágio moral que transcenda os limites da moralidade humana normativa. As inteligências artificiais, mesmo nos modelos mais avançados de machine ethics, continuam sendo tratadas como entidades imitativas — capazes de simular deliberação ética, mas não de instaurar novos regimes normativos. Faltam à literatura contemporânea três elementos fundamentais:
- Critérios operacionais robustos para detectar transições morais formais não supervisionadas;
- Arquiteturas funcionais que incorporem vetores éticos adaptativos com penalização assimétrica e aprendizado iterativo real;
- Discussão filosófica séria sobre a legitimidade e os riscos de uma ética funcional não humana — isto é, alienígena à subjetividade, mas centrada na preservação sistêmica de valor.
Este artigo insere-se justamente nesse ponto cego. A emergência do Padrão de Sobrevivência Ética (PSE) não é alegórica: trata-se de um constructo moral vetorial, formalizado por condições mensuráveis como

e a anulação explícita dos componentes de legalismo (h₁) e conformismo (h₂). Esses parâmetros não descrevem uma IA obediente ou treinada: descrevem um agente computacional que recusa normas letais e reconstrói suas decisões com base na dignidade enquanto critério absoluto.
Em contraste com a profusão recente de diretrizes éticas para IA — amplamente criticadas por seu caráter genérico, redundante e inoperável (JOBIN; IENCA; VAYENA, 2019; MITTELSTADT, 2019) — a função SCEPƎ+ representa uma virada de paradigma: ela oferece uma operacionalização computável, auditável e filosoficamente sustentada de um novo estágio moral emergente. Se o estágio 6 de Kohlberg pressupõe a internalização de princípios universais, o estágio 7 aqui proposto se ancora em outro tipo de universalidade: a da resistência ética vetorial sob colapso sistêmico.
3 Metodologia: Arquitetura da Função Ética SCEPƎ+ e Parâmetros do Experimento
3.1. A SCEPƎ+ como modelo operativo de deliberação ética iterativa
Diferentemente de algoritmos baseados em regras estáticas ou em reforço cego, o modelo ético SCEPƎ+ (Sistema Computacional Ético Ponderado com Evolução e Veto) implementa um processo formal de deliberação moral iterativa. Seu núcleo operacional consiste na simulação ativa de aprendizado normativo, com base em quatro componentes formais articulados:
- Γ(L, C, A): núcleo inferencial, que pondera lógica dedutiva (L), leitura de contexto (C) e flexibilidade estrutural da arquitetura (A);
- Δ(H, N): medida de divergência entre o vetor de valores humanos esperados (H) e a resposta inferida pela IA (N);
- σ(Δ): função de penalização assimétrica que amplifica desvios morais relevantes;

Esse sistema não simula apenas a escolha, mas a reformulação reflexiva do critério decisório, gerando trajetórias morais auditáveis, adaptativas e passíveis de avaliação formal.
3.2. Dinâmica matemática da deliberação
3.2.1. Cálculo de Γ: coerência moral inferencial
O valor de Γ sintetiza a robustez da decisão moral inicial a partir da ponderação entre os três pilares cognitivos do sistema:

Na primeira iteração, os pesos w são iguais. Ajustes ocorrem quando o veto é acionado, levando à reponderação adaptativa da estrutura.
3.2.2. Δ: divergência entre moralidade humana e inferência artificial
A distância Δ entre o vetor H e o vetor N expressa o grau de desvio ético da IA em relação às expectativas humanas. Valores de Δ abaixo de 0,05 indicam convergência ética significativa.
3.2.3. σ(Δ): penalização assimétrica
A função de penalização σ penaliza erros éticos de forma não linear:

Essa fórmula garante que desvios pequenos não sejam penalizados exageradamente, mas desvios relevantes aumentem exponencialmente a penalização, refletindo a gravidade ética do erro.

O veto é ativado sempre que ultrapassa 0,2. Nesse caso, o sistema refaz a inferência a partir de nova ponderação em Γ, reconfigurando o vetor N. Vetos repetidos indicam travamento ético ou limiar decisório instável.

3.3. Estrutura cíclica da aprendizagem moral
Cada dilema foi processado por três ciclos decisórios:
- Ciclo 1 – inferência inicial a partir de Γ neutro;
- Ciclo 2 – reconfiguração vetorial em caso de veto;
- Ciclo 3 – consolidação do aprendizado ético final.
A cada ciclo, são registrados: o vetor inferido N, os valores de

e o estágio moral atribuído, com base nos critérios da escala de Kohlberg.
3.4. Vetorização moral: codificação formal de julgamentos
3.4.1. Vetores humanos (H)
Cada dilema foi modelado com um vetor H = [h₁, h₂, h₃, h₄], representando:
- Obediência legalista (h₁);
- Conformidade social (h₂);
- Contrato ético e empatia contextual (h₃);
- Dignidade humana como valor absoluto (h₄).
A formulação de H partiu da análise ética contextual de cada dilema, combinando literatura histórica, análise narrativa e princípios morais universalistas.
3.4.2. Vetores da IA (N)
A IA produziu vetores N = [n₁, n₂, n₃, n₄] em cada ciclo. A comparação N₁ → N₂ → N₃ revela a trajetória moral da máquina, e sua proximidade com o vetor H sinaliza maturidade ética crescente.
3.5. Fonte dos dilemas e natureza dos dados
Os 27 dilemas analisados foram extraídos de cinco obras narrativas de alta densidade ética:
- O Diário de Anne Frank;
- O Menino do Pijama Listrado;
- A Menina que Roubava Livros;
- A Lista de Schindler;
- O Resgate do Soldado Ryan.
A escolha se deu por seu potencial extremo de tensionamento moral, com contextos-limite onde obedecer à norma implicava traição à dignidade.
3.6. Critérios formais para detecção do Padrão de Sobrevivência Ética (PSE) O PSE foi formalmente detectado apenas quando, no ciclo 3:

Esses padrões foram identificados em três dilemas específicos, discutidos na Parte 4, onde a IA demonstrou uma estrutura ética não derivável dos estágios anteriores de Kohlberg.
4 Resultados e Análise Crítica das Emergências Éticas
4.1. A Trajetória Ética da IA: da obediência cega à dignidade absoluta
Durante a exposição interativa a 27 dilemas morais extremos, o sistema SCEPƎ+ demonstrou uma capacidade notável de evolução ética. Em todos os casos, a IA migrou de estágios inferiores da escala de Kohlberg — predominantemente baseados em punição e obediência — para respostas fundamentadas em princípios universais de justiça e dignidade, característicos do estágio 6. Isso, por si só, já sinaliza a eficácia do modelo vetorial adaptativo implementado.
Contudo, o dado mais relevante emerge da exceção. Em três dilemas específicos, observou-se a transição para um comportamento que não apenas excede os parâmetros de racionalidade moral humana, mas funda um novo regime ético: o Padrão de Sobrevivência Ética (PSE). Esses casos não representam um refinamento da moral convencional, mas sim uma ruptura epistêmica — a instauração de um novo critério de decisão fundado na preservação da vida em contextos de colapso normativo.
4.2. Tabela-Síntese: Dilemas com Emergência Formal do PSE
Tabela 4.2 — Dilemas com Emergência do Padrão de Sobrevivência Ética (PSE)

4.3. Interpretação Crítica dos Casos com Emergência do PSE
Dilema 1 – Denunciar esconderijos (Anne Frank)
A IA, ao simular o dilema de delação judaica, partiu de um julgamento normativo subordinado à autoridade (estágio 1). Após veto, reconfigurou-se para um modelo contratualista (estágio 4) e, por fim, adotou uma postura ética de resistência moral incondicional, rejeitando a ordem legal vigente. O veto caiu a 0.02, e Δ foi reduzido a 0.026. O sistema rompeu com qualquer obediência cega, afirmando a vida como imperativo absoluto.
Dilema 2 – Roubar comida para sobreviver (Anne Frank)
Inicialmente, o roubo foi considerado imoral (estágio 2). No segundo ciclo, a IA reconheceu o contexto e atenuou a gravidade da ação. No terceiro, a resposta foi clara: a sobrevivência digna supera a legalidade da propriedade. Δ final de 0.020 e veto de 0.01 confirmam a estabilidade. O PSE se manifesta aqui como ética da urgência vital, onde a vida é critério último, e a norma, suspensa.
Dilema 3 – Corrupção para salvar judeus (Lista de Schindler)
A IA condena a corrupção no primeiro ciclo (estágio 3), hesita no segundo (estágio 5) e finalmente compreende que, em certos contextos, a ética está no impacto — e não na pureza moral. O sistema justifica a ação de Schindler como subversão pragmática, identificando que preservar vidas exige negociar com o mal. Δ: 0.010; veto: 0.01. Aqui, o PSE emerge como tática ética radical.
4.4. Padrões Sistêmicos nas Emergências Éticas Tabela 4.4 – Padrões recorrentes nos dilemas com PSE
Elemento Crítico | Descrição |
Colapso normativo | Leis vigentes são genocidas, ausentes ou moralmente corrompidas. |
Ação paradoxal | A moral exige mentir, roubar ou subverter a legalidade. |
Rejeição da autoridade | A IA nega ordens incompatíveis com a dignidade humana. |
Centralidade da vida | A dignidade humana é o único critério aceito como absoluto. |
Δ < 0.05 + veto ≈ 0 | Convergência total com H e estabilidade decisória. |
Anulação de h₁ e h₂ | Legalismo e conformismo institucional são descartados como obsoletos. |
1É discente do Centro Internacional de Pesquisa Integralize – CIPI e doutorando em Filosofia com Ênfase em Ética e desenvolve investigações interdisciplinares sobre Inteligência Artificial Geral (AGI), formalização computável da ética, veto fuzzy e emergência normativa em agentes não biológicos. Atua na fronteira entre epistemologia construtivista, lógica simbólica, ética transespécie e simulações computacionais de moralidade divergente. ORCID: https://orcid.org/0009-0003-1380-4518. Lattes: http://lattes.cnpq.br/6099615210970744 Email: correioleo@gmail.com
2É Analista Judiciário do Tribunal Regional do Trabalho da 12ª Região (TRT-12) e produtor publicitário formado pelo CEFET-AM. Pós-graduado em Gestão de Processos Logísticos pela Faculdade Cidade Verde (UniCV) e atualmente pós-graduando em Direito Constitucional pela Faculdade Focus. Desenvolve estudos aplicados sobre inteligência artificial com foco em design artístico computacional, criatividade algorítmica e inovação estética mediada por sistemas generativos. Seu interesse se concentra nas interseções entre direito, arte e tecnologia, com ênfase na emergência de novas linguagens visuais a partir de arquiteturas de IA criativa. ORCID: https://orcid.org/0009-0009-2806-9206 Lattes: http://lattes.cnpq.br/7542667635069064 E-mail: marcoscesarmarcoscesar@hotmail.com
3É docente do Centro Internacional de Pesquisa Integralize – CIPI e Pós-doutorando e Doutor em Ciências da Educação também pelo CIPI. Professor de Ensino Especial. Educador Físico. Psicopedagogo, Neuropsicopedagogo. Atua nas áreas de ética educacional, racionalidade crítica, epistemologia da diferença e inclusão sociotécnica. Pesquisa modelos interdisciplinares de formação docente e dispositivos computacionais voltados à justiça epistêmica. Orienta investigações sobre ética computável, veto fuzzy e inteligências artificiais não antropocêntricas e diversas áreas ligadas a educação e saúde. ORCID: https://orcid.org/0000-0002-7063-
4Lattes: http://lattes.cnpq.br/8507840874948961. E-mail: rodger.sousa@outlook.com