INTELIGÊNCIA ARTIFICIAL NEURO-SIMBÓLICA: ANÁLISE  CRÍTICA E AGENDA DE PESQUISA 

NEURO-SYMBOLIC ARTIFICIAL INTELLIGENCE: CRITICAL  ANALYSIS AND RESEARCH AGENDA 

REGISTRO DOI: 10.69849/revistaft/ch10202512121740


Thiago Mesquita Rolemberg1
Jefferson de Oliveira Silva2


Resumo 

A Inteligência Artificial (IA) tem avançado de forma exponencial, impulsionada pelo desenvolvimento  de redes neurais profundas e pela democratização do acesso à computação em nuvem. No entanto, apesar  desse progresso, pode se observar alguns desafios, tais como: modelos de LLM com alucinações,  interpretabilidade de modelos conexionistas, ética etc. Neste contexto, a Inteligência Artificial Neuro simbólica surge como uma abordagem híbrida promissora, combinando aprendizado profundo com  raciocínio lógico para superar essas limitações. Este artigo analisa as críticas e desafios da IA Neuro simbólica, incluindo sua complexidade de implementação, questões de transparência e viabilidade  prática, ao mesmo tempo que explora seus benefícios estruturais e aplicações escaláveis. Por fim, o  trabalho propõe uma agenda científica para consolidar a IA Neuro-simbólica como um campo de  pesquisa sólido, incluindo o desenvolvimento de arquiteturas híbridas padronizadas, frameworks  explicáveis, métodos eficientes de aprendizado e regulamentação ética. Com essa base, espera-se que a  IA Neuro-simbólica se torne um pilar central na próxima geração de sistemas inteligentes. 

Palavras-chave: Redes neurais. Conexionista. Neuro-simbólica. Inteligência Artificial. Aprendizado  Profundo. Aprendizado por Reforço. 

1 INTRODUÇÃO 

A inteligência artificial vem atravessando ciclos de grande ebulição desde as primeiras  décadas de pesquisa, alternando entre verões e invernos de entusiasmo (OMOHUNDRO,  2008). Atualmente estamos vivendo um grande movimento de utilização por todos do mundo corporativo ou por usuários finais, impulsionado pelo poder de processamento de GPUs e pela  democratização de serviços em nuvem. Redes neurais profundas alcançam níveis  impressionantes de acurácia em tarefas como reconhecimento de imagens e processamento de  linguagem natural, estabelecendo novos marcos históricos no campo. 

Apesar desses avanços, modelos puramente conexionistas ainda enfrentam limitações  que comprometem sua aplicação em ambientes críticos. A interpretabilidade reduzida  característica das chamadas “caixas-pretas” dificulta auditorias e explicações em áreas  reguladas. A generalização insuficiente faz com que redes aprendam padrões de treinamento  sem estender esse conhecimento a cenários inéditos. Além disso, pequenos ruídos nos dados de  entrada podem gerar erros graves, e grandes modelos de linguagem continuam suscetíveis a  alucinações, produzindo informações distorcidas ou factualmente incorretas. 

Nesse contexto, a inteligência artificial Neuro-simbólica surge como uma resposta  estratégica (COLELOUGH, 2024). Ao unir o aprendizado estatístico das redes neurais ao  raciocínio formal dos sistemas simbólicos, esse paradigma oferece um caminho para sistemas  mais transparentes, robustos e capazes de raciocinar sobre regras explícitas. Em vez de  depender exclusivamente de correlações extraídas de dados massivos, a abordagem híbrida  permite incorporar conhecimento prévio, garantindo explicações rastreáveis e comportamentos  consistentes. 

Para mapear o cenário atual, o artigo proposto por (COLELOUGH, 2024), realizou uma  revisão sistemática da literatura entre 2020 e 2024 em cinco bases de dados: IEEE Explore,  Google Scholar, arXiv, ACM Digital Library e SpringerLink. Do total de 1.428 artigos  inicialmente coletados, 641 foram excluídos por duplicações e outros 395 descartados após  triagem de título e resumo. Dos 392 candidatos restantes, 167 possuíam código aberto  disponível e, após análise detalhada, 158 compõem o núcleo desta revisão, assegurando rigor  metodológico e reprodutibilidade. 

Este artigo tem como objetivos: apresentar os principais desafios das abordagens  puramente conexionistas; analisar críticas e barreiras técnicas à integração simbólico conexionista; propor uma agenda científica para padronização de arquiteturas, explicabilidade,  eficiência de aprendizado e diretrizes éticas. 

2 AS LIMITAÇÕES E NECESSIDADE DE EVOLUÇÃO DA IA 

A ascensão das redes neurais trouxe avanços importantes que ocupam papel central na  transformação tecnológica contemporânea, principalmente em reconhecimento de imagem e  processamento de linguagem natural. Contudo, seu progresso expõe dilemas fundamentais  relacionados às suas limitações estruturais e à necessidade premente de evolução. Esses desafios se manifestam em múltiplas dimensões técnicas e éticas que comprometem a aplicação  dessas tecnologias em contextos críticos. 

A interpretabilidade limitada configura-se como o primeiro obstáculo significativo.  Modelos de aprendizado profundo funcionam essencialmente como caixas-pretas, tornando  difícil compreender e justificar as bases de suas decisões. Essa opacidade não é meramente um  inconveniente técnico: ela impede auditorias efetivas e mina a confiança necessária para adoção  em ambientes regulados. Almeida (2024) enfatiza que desenvolver modelos de IA que  permitam auditoria e explicação de decisões tornou-se fundamental para promover  responsabilidade e alinhamento ético. A transparência, nesse contexto, emerge não como  característica desejável, mas como requisito central para a adoção responsável da tecnologia. 

Intimamente relacionada à opacidade dos modelos está a questão da generalização  insuficiente. A capacidade de generalização das redes neurais artificiais refere-se à habilidade  desses modelos de fornecer respostas adequadas para dados que não foram apresentados durante  o processo de treinamento. Embora as redes neurais tenham demonstrado eficácia em aprender  diversos padrões estatísticos a partir de exemplos, elas apresentam limitações significativas  quando confrontadas com a necessidade de processar conceitos abstratos ou situações  desconhecidas. Fleck (2016) argumenta que isso ocorre porque, apesar de sua aptidão para  interpolar dentro do domínio dos dados de treinamento, as redes tendem a falhar na  extrapolação para contextos fora desse domínio, especialmente quando o problema exige  compreensão simbólica ou raciocínio lógico estruturado. 

O problema das alucinações em modelos de linguagem amplia significativamente esse  cenário de vulnerabilidades. Sol et al. (2024) definem alucinação como qualquer tipo de  informação distorcida ou incorreta gerada por modelos de inteligência artificial, propondo uma  taxonomia que identifica oito categorias principais: overfitting, erros de lógica, erros de  raciocínio, erros matemáticos, fabricação infundada, erros factuais, erros de saída textual e  outras categorias residuais. Crucialmente, os autores argumentam que não é correto caracterizar  todas as alucinações simplesmente como erros técnicos. Muitas vezes, tratam-se de respostas  plausíveis porém incorretas que podem enganar usuários sem conhecimento especializado no  assunto questionado. Compreender essas categorizações torna-se, portanto, imperativo para  melhorar a segurança e a confiabilidade dos sistemas de inteligência artificial. 

Por fim, as preocupações éticas emergem como consequência direta e amplificação  dessas limitações técnicas. À medida que a inteligência artificial assume funções anteriormente  executadas exclusivamente por seres humanos, frequentemente com velocidade, precisão e  eficiência superiores, intensificam-se as questões sobre as implicações dessa substituição. 

Brochado (2023) alerta que mitificar a performance das máquinas traz o risco de submeter o  humano ao império de uma suposta superioridade maquínica, o que pode desvalorizar o papel  do espírito humano e sua dimensão simbólica. Essa preocupação não é abstrata: ela se  materializa em decisões automatizadas que afetam vidas sem possibilidade de contestação ou  compreensão, em vieses algorítmicos que perpetuam discriminações históricas, e na erosão  gradual da agência humana em processos decisórios críticos. Logo, a importância de  compreender profundamente os processos de execução da inteligência artificial torna-se  necessária para mitigar essas preocupações éticas e estabelecer salvaguardas efetivas. 

Diante desses desafios multifacetados, a IA Neuro-simbólica surge como uma  alternativa promissora que pode superar essas limitações ao integrar o aprendizado estatístico  com a lógica formal, proporcionando maior eficiência, transparência e confiabilidade aos  sistemas inteligentes. 

2.1. Críticas e desafios da abordagem Neuro-simbólica 

Apesar de seu potencial transformador, a IA neuro-simbólica enfrenta ceticismo  acadêmico substancial e desafios técnicos que não podem ser ignorados (TADDEI, 2020). A  complexidade na implementação representa o primeiro obstáculo concreto: a integração entre  redes neurais e raciocínio simbólico frequentemente resulta em modelos com alta complexidade  computacional, dificultando tanto a escalabilidade quanto a eficiência operacional dos sistemas  resultantes. Essa complexidade não é meramente um problema de engenharia; ela reflete a  tensão fundamental entre dois paradigmas computacionais que operam segundo princípios  distintos. 

Esse problema técnico alimenta um ceticismo mais amplo sobre a eficácia prática da  abordagem. O número ainda limitado de publicações com resultados concretos e replicáveis  levanta dúvidas legítimas sobre a viabilidade da IA Neuro-simbólica em aplicações de larga  escala. A comunidade científica permanece, justificadamente, cautelosa diante de promessas  que não foram ainda extensivamente validadas em contextos industriais complexos e diversos. 

Paradoxalmente, mesmo que a combinação de paradigmas vise fundamentalmente  aumentar a interpretabilidade dos sistemas de IA, garantir explicações verdadeiramente claras  e rastreáveis das decisões permanece um desafio não trivial. A transparência prometida pela  integração simbólica pode ser obscurecida pela própria complexidade da arquitetura híbrida  resultante, especialmente em domínios críticos como saúde, finanças e direito, onde cada etapa  do raciocínio precisa ser auditável e justificável perante reguladores e usuários finais.

Ademais, como qualquer tecnologia de IA, a abordagem neuro-simbólica herda e  potencialmente amplifica riscos relacionados à ética, segurança e confiabilidade. A  possibilidade de decisões automatizadas incorretas ou enviesadas torna-se particularmente  preocupante quando essas decisões podem ser difíceis de detectar ou contestar sem  transparência adequada sobre a interação entre os componentes simbólicos e conexionistas do  sistema. Sistemas híbridos podem mascarar vieses tanto nos dados quanto nas regras lógicas  codificadas, criando camadas adicionais de opacidade. 

Esses desafios não invalidam a proposta neuro-simbólica, mas evidenciam a  necessidade de pesquisas mais aprofundadas, desenvolvimento tecnológico rigoroso e testes  extensivos em cenários práticos diversos para validar efetivamente a viabilidade e eficácia da  IA Neuro-simbólica como caminho sustentável para sistemas inteligentes mais robustos e  confiáveis. 

3 A IA NEURO-SIMBÓLICA COMO SOLUÇÃO 

O paradigma da inteligência artificial neuro-simbólica surge como resposta viável aos  principais desafios identificados na IA contemporânea. Ao unir o poder do aprendizado  profundo ao raciocínio simbólico interpretável, os sistemas neuro-simbólicos extraem conceitos  abstratos e regras lógicas a partir de poucos exemplos, promovendo uma generalização mais  robusta além dos dados vistos em treinamento. Essa combinação mostra-se essencial em  cenários complexos onde a simples memorização de padrões estatísticos revela-se insuficiente.  Além disso, a integração possibilita tarefas de raciocínio, planejamento e tomada de decisão  que se aproximam qualitativamente da cognição humana, razão pela qual já são exploradas em  áreas críticas como saúde, direito, engenharia e planejamento estratégico. 

Um exemplo paradigmático dessa aplicação encontra-se no Coupled Layer Architecture  for Robotics Autonomy (CLARAty), desenvolvido pela JPL/NASA (VOLPE, 2002). Essa  arquitetura combina componentes simbólicos de planejamento, como Planning Domain  Definition Language (PDDL), com modelos físicos e componentes baseados em aprendizado  de máquina, incluindo redes neurais, para conferir autonomia a rovers e sondas espaciais.  Embora não seja formalmente rotulado como neuro-simbólico, o CLARAty segue exatamente  a filosofia de hibridizar raciocínio lógico com componentes aprendidos, demonstrando a  viabilidade prática dessa abordagem em ambientes extremamente desafiadores (TRINH, 2024). 

A principal promessa da abordagem neuro-simbólica, e o foco de muitos estudos  recentes, reside justamente na superação das limitações de escalabilidade da IA simbólica  tradicional e na melhora simultânea da eficiência de dados e robustez das abordagens puramente conexionistas. Hitzler (2021) argumenta que a integração de métodos simbólicos e  conexionistas oferece múltiplos caminhos convergentes para ganhos substanciais de  escalabilidade. 

Primeiramente, sistemas neuro-simbólicos demonstram capacidade de aprender com  volumes significativamente menores de dados em comparação com métodos tradicionais de  aprendizado de máquina puramente conexionistas. Essa eficiência notável decorre  fundamentalmente da capacidade do componente simbólico de incorporar conhecimento prévio  estruturado e regras lógicas explícitas, reduzindo drasticamente a necessidade de aprender tudo  do zero a partir de exemplos empíricos. Tal característica torna-se crucial para a escalabilidade  em cenários onde a obtenção de grandes conjuntos de dados é cara, demorada ou simplesmente  inviável, como em domínios médicos especializados ou aplicações industriais de nicho. 

Complementarmente, a capacidade de raciocínio lógico proporcionada pela parte  simbólica permite que os modelos neuro-simbólicos generalizem efetivamente para situações  que não foram explicitamente vistas durante o treinamento. Isso significa que eles podem lidar  com novos cenários e variações de problemas de forma mais confiável, reduzindo  significativamente a necessidade de re-treinamento para cada nova condição ou contexto. Essa  generalização aprimorada não apenas diminui custos operacionais, mas também aumenta a  confiabilidade dos sistemas em ambientes imprevisíveis. 

A explicabilidade aprimorada, embora não constitua diretamente um ganho de  escalabilidade em termos de processamento computacional, contribui indiretamente mas  fundamentalmente para a escalabilidade dos sistemas em ambientes reais. Ao incorporar a  capacidade de raciocínio estruturado e a representação explícita de conhecimento da IA  simbólica, os sistemas neuro-simbólicos podem oferecer maior transparência sobre como  chegaram a uma decisão específica. Essa transparência não é meramente desejável: ela torna se fundamental para a confiança e adoção de sistemas de IA em domínios críticos como saúde  e direito, onde cada decisão pode ter consequências significativas e precisa ser justificável  perante autoridades reguladoras e usuários finais. 

Adicionalmente, a arquitetura híbrida permite melhor tratamento de incertezas e dados  incompletos, limitações históricas da IA simbólica tradicional. Enquanto sistemas puramente  simbólicos têm dificuldades estruturais com dados incertos, a parte conexionista pode extrair  padrões e informações significativas mesmo de dados imperfeitos, enquanto a parte simbólica  aplica raciocínio lógico sobre essas informações extraídas. Quando se utiliza Large Language  Models como controladores de solucionadores simbólicos, a abordagem neuro-simbólica  consegue combinar a compreensão de linguagem natural e o aprendizado a partir de dados dos LLMs com a precisão lógica e a interpretabilidade dos sistemas de raciocínio simbólico. Essa  sinergia pode levar a sistemas mais poderosos, confiáveis e escaláveis que superam as  limitações de cada paradigma isoladamente. 

Essas promessas teóricas já encontram validação em estudos empíricos com  aplicabilidade demonstrada e criação de frameworks específicos para aprimorar a  escalabilidade. Na área de Aprendizagem Relacional Estatística (Statistical Relational  Learning – SRL), pesquisadores combinam lógica de primeira ordem com métodos  probabilísticos e de aprendizado de máquina. Getoor e Taskar (2007) demonstram que o  objetivo dessa abordagem é construir modelos que possam simultaneamente raciocinar sobre  relações complexas entre entidades e aprender essas relações a partir de dados, escalando  efetivamente para domínios de alta complexidade estrutural. 

As Redes de Tensores Lógicos (Logical Tensor Networks – LTNs) representam outro  avanço significativo nessa direção. Serafini (2016) propõe que as LTNs representem conceitos  lógicos e relacionais como tensores, permitindo que sejam processados diretamente por redes  neurais profundas. Isso viabiliza a integração profunda de conhecimento simbólico em  estruturas de aprendizado profundo, com pesquisas subsequentes explorando sua aplicação em  problemas que exigem raciocínio temporal e demonstrando maior escalabilidade e generalidade  em comparação com abordagens puramente conexionistas. 

No âmbito de frameworks híbridos, pesquisas recentes mapeiam e desenvolvem  diferentes arquiteturas de integração, tanto compostas, onde os componentes simbólicos e  conexionistas funcionam de forma mais independente e se comunicam através de interfaces  definidas, quanto monolíticas, onde a integração é mais profunda e as representações são  unificadas em estruturas compartilhadas. Bhuyan et al. (2024) argumentam que o objetivo é  identificar as arquiteturas que otimizem simultaneamente performance computacional e  escalabilidade para diversas categorias de tarefas, reconhecendo que não existe uma solução  única que seja ótima para todos os contextos. 

A escalabilidade da abordagem neuro-simbólica também se manifesta em aplicações  práticas específicas de domínio. Em sistemas de recomendação na área de saúde, por exemplo,  a capacidade de integrar conhecimento médico estruturado com o aprendizado a partir de dados  de pacientes pode levar a recomendações mais precisas, personalizadas e explicáveis, escaláveis  para muitos usuários e volumes massivos de dados clínicos (BHUYAN, 2024). Esses sistemas  híbridos conseguem balancear a generalização estatística com a aderência a protocolos clínicos  estabelecidos, algo impossível para sistemas puramente conexionistas ou simbólicos.

A busca por uma inteligência artificial mais robusta, eficiente e que possa escalar para  problemas complexos do mundo real continua a impulsionar vigorosamente a pesquisa em  inteligência artificial neuro-simbólica. A combinação do raciocínio estruturado com o  aprendizado adaptativo é crescentemente vista como um caminho não apenas promissor, mas  necessário para superar as limitações fundamentais das abordagens puramente simbólicas ou  conexionistas. A escalabilidade, nesse contexto, emerge como um dos ganhos mais substanciais  e procurados nessa integração. Diante desses argumentos teóricos e evidências empíricas, a  inteligência artificial neuro-simbólica transcende o status de mera promessa futura,  consolidando-se como um paradigma viável que busca ser mais responsável e alinhado com os  valores humanos. Ela permite uma aproximação da criação de sistemas que não apenas são  inteligentes em termos de performance quantitativa, mas que também sejam compreensíveis,  confiáveis e eticamente defensáveis em suas operações e decisões. 

4 ESTUDO DE CASO 

A progressão acelerada dos modelos conexionistas de aprendizado profundo  revolucionou a análise de dados complexos, particularmente em domínios como imagens  médicas e registros eletrônicos de pacientes. Não obstante sua eficácia crescente, a natureza de  caixa-preta desses sistemas impõe um obstáculo intransponível à sua adoção plena em domínios  de alta criticidade como a saúde. Um sistema de diagnóstico médico deve ser não apenas preciso  em suas predições, mas fundamentalmente auditável em seus processos decisórios. 

A falta de transparência impede que clínicos e pacientes compreendam adequadamente  a base de uma recomendação ou estimativa de risco, minando a confiança necessária para a  prática médica e violando regulatórios estabelecidos. Para superar este dilema, onde a acurácia  estatística se choca frontalmente com a interpretabilidade clínica, a integração do raciocínio  lógico tornou-se um imperativo não apenas técnico, mas ético. A inteligência artificial neuro simbólica emerge é potencialmente capaz de conciliar o aprendizado de padrões do  conexionismo com o rigor e a coerência lógica exigidos pela prática clínica contemporânea. 

4.1 O Uso de Logical Neural Networks (LNNs) 

A viabilidade da inteligência artificial neuro-simbólica na resolução do problema de  explicabilidade na saúde pode ser ilustrada através da aplicação de arquiteturas híbridas  específicas, como as Logical Neural Networks propostas por Hong et al. (2025). O trabalho de  Lu et al. (2025), que utilizou LNNs para a previsão de diagnóstico de diabetes, serve como um modelo da metodologia neuro-simbólica em contexto clínico real. Esta abordagem híbrida  opera através de dois eixos complementares. 

O primeiro eixo consiste na incorporação simbólica de conhecimento clínico  estruturado. Inicialmente, o conhecimento médico de domínio, incluindo diretrizes clínicas  estabelecidas, protocolos terapêuticos e regras epidemiológicas de estratificação de risco, é  formalizado em uma base de conhecimento simbólica explícita. Por exemplo, regras do tipo  “se [idade > 45 anos] E [IMC > 30] E [histórico familiar positivo] ENTÃO [Risco Elevado  de Diabetes]” são codificadas logicamente. Esta lógica explícita atua como a fundação  estrutural e a espinha dorsal do raciocínio do modelo, garantindo que o sistema opere dentro de  parâmetros clinicamente validados. 

O segundo eixo complementar envolve o aprendizado conexionista para refinamento  empírico. O componente neural da LNN é então treinado com dados reais de pacientes,  permitindo que o modelo aprenda pesos estatísticos, limiares de decisão e nuances específicas  para as regras simbólicas pré-estabelecidas. Este processo refina o conhecimento prévio  existente e capacita o sistema a lidar efetivamente com a incerteza, a variabilidade individual e  o ruído inerentes aos dados clínicos reais, superando uma limitação crítica da inteligência  artificial puramente simbólica que tende a ser rígida demais para contextos complexos. 

A sinergia entre esses componentes resulta em um modelo que é simultaneamente  inerentemente lógico, por sua estrutura simbólica, e empiricamente fundamentado, por seu  aprendizado a partir de dados. O aprendizado estatístico não opera livremente, mas é restrito e  guiado pelo conhecimento médico formal, enquanto as regras lógicas não permanecem  estáticas, mas são refinadas e ponderadas pela evidência empírica. 

4.2 Análise dos Resultados 

O principal benefício da metodologia neuro-simbólica aplicada neste estudo de caso  reside na explicabilidade intrínseca do modelo, representando um avanço qualitativo  significativo em relação às técnicas posteriores de Explainable AI (XAI). Ao invés de gerar  uma explicação após a decisão, caracterizando explicabilidade externa ou post-hoc, a LNN  articula o diagnóstico como o resultado direto de uma inferência lógica cujos componentes  individuais são visíveis, rastreáveis e ajustáveis desde o início do processo. 

Por exemplo, quando o modelo diagnostica um paciente como de alto risco para  diabetes, ele é capaz de fornecer a justificativa exata e completa para essa classificação. O  sistema pode apontar precisamente quais regras simbólicas foram ativadas durante o processo  de inferência, qual foi o peso ou relevância estatística aprendida de cada fator clínico na decisão final, e como esses elementos se combinaram logicamente para produzir a conclusão. Esta não  é uma explicação aproximada ou simplificada gerada a posteriori, mas a própria estrutura de  raciocínio do modelo tornada transparente. 

Esta transparência tem impactos cruciais em múltiplas dimensões. Do ponto de vista da  validação clínica, médicos podem auditar a decisão, garantindo que o diagnóstico esteja  alinhado com o padrão de cuidado estabelecido e as diretrizes clínicas reconhecidas. Se o  sistema ativou uma regra inadequada ou atribuiu peso excessivo a um fator secundário, isso  torna-se evidente para o clínico revisor, que pode então questionar ou corrigir o processo. Esta  auditabilidade não é apenas tecnicamente desejável, mas frequentemente legalmente exigida  em contextos médicos regulados. 

Do ponto de vista da eficiência de dados, a incorporação de conhecimento prévio  simbólico reduz significativamente a necessidade de vastos datasets de treinamento,  melhorando a eficiência de aprendizado. Esta vantagem torna-se crucial em domínios médicos  especializados onde dados rotulados de alta qualidade são escassos, caros de obter, ou  eticamente sensíveis. Um modelo puramente conexionista poderia requerer dezenas de milhares  de casos para aprender padrões que um sistema neuro-simbólico pode capturar com centenas  de exemplos, graças à estrutura lógica que guia o aprendizado. 

Adicionalmente, a robustez intrínseca do modelo híbrido manifesta-se em sua  capacidade de generalização mais confiável. Como as decisões não se baseiam exclusivamente  em correlações estatísticas opacas, mas em regras lógicas validadas clinicamente e refinadas  empiricamente, o sistema tende a cometer erros mais “compreensíveis” e menos arbitrários que  modelos puramente neurais. Quando o modelo erra, o erro pode ser rastreado até sua origem  lógica ou estatística, permitindo correção sistemática ao invés de re-treinamento às cegas. 

O estudo de caso da inteligência artificial neuro-simbólica para diagnóstico explicável  em saúde, exemplificado pelo uso de Logical Neural Networks no contexto de predição de  diabetes, fornece uma validação empírica concreta da necessidade de transição para arquiteturas  híbridas em domínios críticos. Demonstra que a abordagem neuro-simbólica não é apenas uma  proposta teórica elegante, mas uma solução prática e implementável para a geração de sistemas  de IA que são simultaneamente altamente performáticos em termos quantitativos e confiáveis  em termos qualitativos em ambientes de alta criticidade. 

A capacidade demonstrada de integrar regras lógicas clinicamente validadas com o  aprendizado estatístico de padrões complexos valida diretamente a agenda de pesquisa proposta  neste artigo, especialmente no que tange ao desenvolvimento de arquiteturas híbridas  padronizáveis e frameworks de explicabilidade que possam ser aplicados em diversas áreas de forma escalável e ética. Este caso ilustra como a promessa teórica da inteligência artificial  neuro-simbólica pode materializar-se em aplicações reais que servem genuinamente aos  interesses de pacientes e profissionais de saúde. 

5 AGENDA PROPOSTA 

Para consolidar o campo da inteligência artificial neuro-simbólica e fomentar seu  desenvolvimento científico e tecnológico de forma sistemática e coordenada, propõe-se a  seguinte agenda estruturada. Esta proposta emerge como síntese dos desafios identificados na  Seção 2, das promessas de escalabilidade apresentadas na Seção 3, e da validação empírica  demonstrada na Seção 4, alinhando-se às recomendações de revisões sistemáticas recentes e  estudos sobre ética na IA. A agenda articula-se em oito frentes de ação prioritárias que, em  conjunto, podem estabelecer as bases para a maturação do campo. 

5.1. Arquiteturas Híbridas Padronizadas 

O desenvolvimento de arquiteturas padronizadas constitui prioridade fundamental para  facilitar a replicabilidade e comparação rigorosa entre modelos desenvolvidos por diferentes  grupos de pesquisa. Trabalhos como o de Bougzime et al. (2025) demonstram que  configurações específicas, como a arquitetura “Neuro-Symbolic-Neuro”, destacam-se por sua  capacidade de generalização, desempenho de raciocínio, transferibilidade e interpretabilidade.  No entanto, a ausência de padrões arquiteturais amplamente aceitos dificulta a comparação  objetiva de resultados e retarda o progresso cumulativo do campo. 

A padronização deve incorporar técnicas modernas como Graph Neural Networks, que  oferecem representações naturais para conhecimento estruturado, e Reinforcement Learning,  que permite aprendizado de estratégias de raciocínio através de interação. Mais criticamente, é  necessário estabelecer benchmarks comuns e datasets padronizados que permitam avaliação  comparativa justa entre diferentes abordagens. Isso inclui não apenas métricas de acurácia, mas  também métricas específicas de explicabilidade, eficiência de dados e robustez a perturbações.  A comunidade deve convergir em torno de competições e desafios compartilhados que  direcionem esforços para problemas bem definidos, similar ao que ocorreu historicamente com  ImageNet para visão computacional ou GLUE/SuperGLUE para processamento de linguagem  natural.

5.2. Escalabilidade e Eficiência Computacional 

A redução da complexidade computacional dos modelos híbridos emerge como  requisito essencial para viabilizar aplicações em larga escala além de ambientes de pesquisa  controlados. Esse esforço demanda não apenas otimizações algorítmicas sofisticadas, mas  também exploração estratégica de hardware especializado que possa acelerar simultaneamente  operações neurais e inferências simbólicas (HITZLER, 2021). A comunidade científica deve  investigar arquiteturas que equilibrem expressividade lógica com eficiência computacional,  reconhecendo que existe frequentemente um trade-off entre essas dimensões. 

Pesquisas devem focar em técnicas de aproximação que permitam raciocínio lógico  eficiente sem sacrificar correção em contextos críticos, bem como em métodos de poda e  compressão que preservem tanto componentes neurais quanto simbólicos. Adicionalmente, a  exploração de computação neuromórfica e hardware quântico pode oferecer caminhos  alternativos para superar limitações de escalabilidade dos processadores clássicos. Parcerias  entre academia e indústria tornam-se cruciais nesta frente, já que a otimização para implantação em produção frequentemente revela desafios não aparentes em ambientes de pesquisa. 

5.3. Ferramentas e Plataformas de Código Aberto 

A disseminação de ferramentas, bibliotecas e plataformas acessíveis que suportem o  desenvolvimento, treinamento e avaliação de modelos neuro-simbólicos mostra-se essencial para democratizar a pesquisa na área e acelerar a adoção prática. Plataformas de código aberto  não apenas aceleram o progresso científico através da eliminação de trabalho redundante, mas  também incentivam a colaboração entre grupos de pesquisa dispersos geograficamente,  permitindo validação independente de resultados e construção colaborativa de conhecimento  (BOUGZIME, 2025). 

É necessário desenvolver frameworks que abstraiam a complexidade da integração  simbólico-conexionista, permitindo que pesquisadores de diferentes backgrounds, sejam eles  especialistas em aprendizado de máquina ou em raciocínio lógico, possam contribuir  efetivamente. Essas plataformas devem incluir não apenas funcionalidades de treinamento e  inferência, mas também ferramentas de visualização de raciocínio, debugging de regras lógicas,  e análise de explicabilidade. Modelos pré-treinados e componentes modulares reutilizáveis  devem ser disponibilizados publicamente, seguindo o modelo de sucesso de bibliotecas como  HuggingFace para transformers ou PyTorch Geometric para redes neurais em grafos.

5.4. Aplicações Multimodais e Embodied AI 

A exploração da integração da inteligência artificial neuro-simbólica com sistemas  multimodais, capazes de processar e raciocinar sobre texto, imagens, áudio e outros tipos de  dados simultaneamente, representa uma fronteira promissora que amplia significativamente a  capacidade dos sistemas de interagir com o mundo real de forma mais cognitiva e adaptativa  (BOUGZIME, 2025). A combinação de percepção multimodal através de redes neurais com  raciocínio abstrato através de componentes simbólicos pode levar a sistemas que genuinamente  compreendem contextos complexos ao invés de meramente reconhecer padrões superficiais. 

Particularmente relevante é a aplicação em Embodied AI, onde agentes artificiais  precisam não apenas processar informações sensoriais, mas também planejar ações, raciocinar  sobre consequências, e adaptar-se a ambientes dinâmicos e parcialmente observáveis. Robôs  que operam em ambientes humanos, veículos autônomos que precisam seguir regras de trânsito  enquanto adaptam-se a situações imprevistas, e assistentes virtuais que compreendem contexto  conversacional multimodal representam aplicações onde a integração neuro-simbólica não é  apenas vantajosa, mas potencialmente necessária para operação segura. 

5.5. Governança, Ética e Regulação 

Estabelecer diretrizes éticas e regulatórias específicas para a inteligência artificial  neuro-simbólica torna-se imperativo para assegurar a responsabilidade, segurança e  confiabilidade dos sistemas, além de promover a inclusão e a mitigação ativa de vieses  algorítmicos (BROCHADO, 2023). Embora a maior explicabilidade dos sistemas neuro simbólicos ofereça vantagens para governança, ela não elimina automaticamente questões  éticas fundamentais relacionadas a vieses nos dados, justiça nas decisões e accountability em  caso de falhas. 

É necessário desenvolver frameworks de auditoria específicos que aproveitem a  estrutura híbrida desses sistemas para examinar tanto os componentes neurais quanto as regras  simbólicas em busca de vieses e problemas de fairness. Reguladores devem ser educados sobre  as capacidades e limitações específicas das abordagens neuro-simbólicas, para que possam  desenvolver políticas apropriadas que não sejam nem excessivamente permissivas nem  indevidamente restritivas. Adicionalmente, mecanismos de certificação e validação devem ser  estabelecidos para sistemas neuro-simbólicos em domínios críticos como saúde, justiça  criminal e finanças, garantindo que eles atendam a padrões rigorosos antes de deployment em  contextos que afetam vidas humanas.

A governança deve também abordar questões de propriedade intelectual relacionadas ao  conhecimento simbólico codificado em sistemas, transparência obrigatória em aplicações de  alto impacto social, e mecanismos de recurso para indivíduos afetados por decisões  automatizadas. A comunidade científica tem responsabilidade de engajar proativamente com  formuladores de políticas públicas e sociedade civil para assegurar que o desenvolvimento  tecnológico seja guiado por valores humanos compartilhados. 

5.6. Formação e Capacitação de Pesquisadores 

Incentivar programas educacionais multidisciplinares que combinem aprendizado  profundo, lógica simbólica, ciência cognitiva e ética da IA mostra-se essencial para preparar  profissionais capazes de avançar na pesquisa e aplicação da inteligência artificial neuro simbólica (HITZLER, 2021). A natureza intrinsecamente interdisciplinar do campo exige que  pesquisadores possuam competências que tradicionalmente eram desenvolvidas em silos  acadêmicos separados. 

Currículos universitários devem ser reformulados para incluir tantos fundamentos  teóricos de lógica formal, representação de conhecimento e raciocínio automatizado, quanto  habilidades práticas em arquiteturas de aprendizado profundo, otimização estocástica e  engenharia de software para sistemas de IA. Programas de doutorado devem encorajar  colaborações entre departamentos de ciência da computação, filosofia, psicologia cognitiva,  neurociência e domínios de aplicação específicos como medicina ou direito. 

Além da formação acadêmica formal, iniciativas de educação continuada para  profissionais já estabelecidos são cruciais para acelerar a adoção da abordagem neuro simbólica. Workshops, escolas de verão, tutoriais em conferências e cursos online massivos  podem disseminar conhecimento rapidamente e construir uma comunidade global de  praticantes. Materiais educacionais devem ser desenvolvidos não apenas para especialistas  técnicos, mas também para tomadores de decisão, reguladores e o público geral, promovendo  literacy sobre as capacidades e limitações dessas tecnologias. 

5.7. Fomento à Pesquisa Interdisciplinar 

Estimular colaborações sistemáticas entre áreas como ciência da computação,  neurociência, filosofia da mente, linguística e psicologia cognitiva pode enriquecer  fundamentalmente os modelos neuro-simbólicos com fundamentos teóricos e experimentais  sólidos que vão além de meras engenharias de sistemas (HITZLER, 2021). A inteligência  artificial neuro-simbólica, por sua própria natureza, situa-se na interseção de múltiplas disciplinas, e seu avanço depende criticamente de insights que atravessam fronteiras  tradicionais. 

Neurociência cognitiva pode informar arquiteturas híbridas através de compreensão de  como sistemas biológicos integram processamento subsimbólico e simbólico. Filosofia da  mente e epistemologia podem oferecer frameworks conceituais rigorosos para questões de  representação de conhecimento, raciocínio sob incerteza e natureza da explicação. Linguística  pode contribuir com teorias de semântica formal e pragmática que fundamentem o  processamento de linguagem natural em sistemas neuro-simbólicos. Psicologia cognitiva e  ciência cognitiva experimental podem fornecer dados comportamentais que validem ou refutem  claims sobre a natureza cognitivamente plausível de diferentes arquiteturas. 

Agências de fomento devem criar programas de financiamento específicos para  pesquisas interdisciplinares, que tradicionalmente enfrentam dificuldades em se encaixar em  divisões disciplinares estabelecidas. Conferências e journals devem ativamente encorajar submissões interdisciplinares e desenvolver processos de revisão por pares que sejam  adequados para trabalhos que atravessam múltiplas áreas. Centros de pesquisa dedicados à  inteligência artificial neuro-simbólica devem ser estabelecidos reunindo expertise diversa sob  um mesmo teto institucional. 

5.8. Avaliação e Benchmarking Padronizados 

Desenvolver benchmarks e métricas específicas para avaliar rigorosamente o  desempenho, interpretabilidade e robustez dos sistemas neuro-simbólicos torna-se fundamental  para promover comparações justas e estimular melhorias contínuas baseadas em evidências  (HITZLER, 2021). A ausência de padrões de avaliação aceitos dificulta o progresso científico  ao impedir a identificação objetiva de quais abordagens são superiores em quais contextos. 

Benchmarks devem ir além de métricas tradicionais de acurácia, incorporando  avaliações de explicabilidade (quão compreensíveis são as justificativas?), eficiência de dados  (quantos exemplos são necessários para aprender?), robustez (como o sistema performa sob  distribuições deslocadas ou ataques adversariais?), e fairness (o sistema apresenta vieses contra  grupos protegidos?). Métricas compostas que balanceiem múltiplos objetivos frequentemente  conflitantes devem ser desenvolvidas, reconhecendo que sistemas do mundo real precisam  satisfazer simultaneamente diversos requisitos. 

Crucialmente, benchmarks devem incluir tarefas que genuinamente requerem a  integração de percepção e raciocínio, não apenas problemas que podem ser resolvidos por  componentes isolados. Competições abertas com datasets públicos, protocolos de avaliação transparentes e leaderboards mantidos pela comunidade podem acelerar o progresso ao  canalizar esforços competitivos em direções produtivas. A comunidade deve também  estabelecer práticas de reporte padronizadas que exijam divulgação completa de arquiteturas,  hiperparâmetros, requisitos computacionais e limitações conhecidas, promovendo  reprodutibilidade e honestidade científica. 

Essa agenda estruturada, embora ambiciosa, é realizável através de esforços  coordenados da comunidade científica global. Ela pode orientar a construção de um campo  científico sustentável para a inteligência artificial neuro-simbólica, alinhando esforços  distribuídos para superar desafios técnicos, éticos e práticos, e consolidar sua posição como  uma abordagem central da inteligência artificial do futuro. O sucesso nessa empreitada coletiva  determinará se a promessa da inteligência artificial neuro-simbólica se materializa em sistemas  que são não apenas poderosos, mas também confiáveis, compreensíveis e alinhados com valores  humanos. 

6 CONCLUSÃO 

Este artigo demonstrou que a inteligência artificial neuro-simbólica representa não  apenas uma alternativa técnica às abordagens puramente conexionistas ou simbólicas, mas uma  necessidade estratégica para o avanço de sistemas inteligentes responsáveis. A análise  apresentada evidenciou como as limitações estruturais dos modelos de aprendizado profundo,  particularmente em interpretabilidade, generalização e tendência a alucinações, criam  obstáculos fundamentais para sua adoção em contextos críticos onde transparência e  auditabilidade são imperativas. 

A integração de aprendizado estatístico com raciocínio lógico formal, conforme  demonstrado através das evidências teóricas e do estudo de caso em diagnóstico médico,  oferece um caminho viável para superar essas limitações. Sistemas neuro-simbólicos não  apenas alcançam desempenho comparável ou superior aos modelos puramente neurais, mas o  fazem com eficiência de dados significativamente maior e, crucialmente, com explicabilidade  intrínseca que emerge da própria arquitetura do sistema ao invés de ser aproximada  posteriormente. Esta característica torna-se diferencial decisivo em domínios como saúde,  finanças e justiça, onde cada decisão automatizada precisa ser justificável e contestável. 

As críticas e desafios identificados, incluindo a complexidade computacional da  integração híbrida, o ceticismo acadêmico justificado pela ainda limitada base empírica, e os  riscos éticos inerentes a qualquer tecnologia de IA, não invalidam a proposta neuro-simbólica.  Ao contrário, eles definem precisamente o terreno sobre o qual a agenda científica proposta na Seção 5 deve operar. A padronização de arquiteturas, o desenvolvimento de ferramentas  acessíveis, a otimização para escalabilidade, e o estabelecimento de frameworks éticos robustos  constituem não objetivos abstratos, mas requisitos concretos para a maturação do campo. 

A transição da inteligência artificial neuro-simbólica de promessa teórica para  paradigma consolidado depende fundamentalmente de esforços coordenados da comunidade  científica global. Requer não apenas avanços técnicos em algoritmos e arquiteturas, mas  também investimento em formação interdisciplinar de pesquisadores, estabelecimento de  benchmarks padronizados que permitam comparação objetiva de resultados, e engajamento  proativo com reguladores e sociedade civil para assegurar que o desenvolvimento tecnológico  seja guiado por valores humanos compartilhados. 

À medida que as pesquisas se aprofundam e as soluções práticas são refinadas através  de aplicações em domínios diversos, a integração entre aprendizado profundo e raciocínio  simbólico consolida-se como pilar central na próxima geração da inteligência artificial.  Sistemas que combinam a capacidade de extrair padrões complexos de dados massivos com a  habilidade de raciocinar explicitamente sobre regras, conceitos abstratos e relações causais  aproximam-se qualitativamente da cognição humana, não por mimetizar biologicamente o  cérebro, mas por replicar funcionalmente a complementaridade entre processamento intuitivo  e deliberativo que caracteriza o pensamento humano. 

O sucesso dessa empreitada determinará se a inteligência artificial das próximas décadas  será caracterizada por sistemas opacos que exigem confiança cega, ou por sistemas  transparentes que merecem confiança justificada. A inteligência artificial neuro-simbólica  oferece o caminho para a segunda opção, mas realizá-lo exige mais do que entusiasmo  tecnológico: exige rigor científico, responsabilidade ética e comprometimento coletivo com o  desenvolvimento de tecnologias que amplificam capacidades humanas ao invés de  simplesmente substituí-las ou obscurecê-las. Este artigo buscou contribuir para esse objetivo ao  mapear o terreno, identificar os desafios e propor uma agenda para que a comunidade científica  possa, de forma coordenada e sistemática, construir as fundações de uma inteligência artificial  verdadeiramente robusta, explicável e alinhada com valores humanos. 

REFERÊNCIAS 

ALMEIDA, Virgílio. Desafios da IA responsável na pesquisa científica. In: INTELIGÊNCIA  Artificial na Pesquisa Científica. [S. l.: s. n.], [20–]. 

BHUYAN, Bikram Pratim et al. Neuro-symbolic artificial intelligence: a survey. [S. l.]:  Springer Nature, 2024. p. 12809-12844.

BOUGZIME, Oualid et al. Unlocking the potential of generative ai through neuro-symbolic  architectures: benefits and limitations. arXiv, [s. l.], 2025. Preprint. Disponível em:  https://arxiv.org/abs/2502.11269. Acesso em: 9 nov. 2025. 

BROCHADO, Mariah. Inteligência artificial e ética: um diálogo com Lima Vaz. Revista da  Universidade Federal de Minas Gerais, Belo Horizonte, v. 35, n. 2, p. 215-233, 2023. 

COLELOUGH, Brandon C.; REGLI, William. Neuro-symbolic AI in 2024: a systematic  review. [S. l.: s. n.], 2024. 

FLECK, Leandro et al. Redes neurais artificiais: princípios básicos. Revista Eletrônica  Científica Inovação e Tecnológica, [s. l.], v. 17, p. 14, 2016. 

GETOOR, Lise; TASKAR, Ben. Statistical relational learning. Cambridge: The MIT Press,  2007. 596 p. ISBN 978-0-262-07283-1. 

HITZLER, Pascal; SARKER, Md Kamruzzaman (ed.). Neuro-symbolic artificial intelligence:  the state of the art. Amsterdam: IOS Press, 2021. (Frontiers in Artificial Intelligence and  Applications, v. 342). ISBN 978-1-64368-244-0. 

HONG, S. N. et al. Logic neural network: a short survey. In: LE THI, H. A. et al. (ed.).  Advances in data science and optimization of complex systems. Cham: Springer Nature  Switzerland, 2025. p. [?]. (Lecture Notes in Networks and Systems, v. 1569). ISBN 978-3-032- 00267-9. 

LU, Qiuhao et al. Explainable diagnosis prediction through neuro-symbolic integration. arXiv,  [s. l.], 2025. Preprint. Disponível em: https://arxiv.org/abs/2410.01855. Acesso em: 9 nov.  2025. 

OMOHUNDRO, Steve. The nature of self-improving AI. In: CONFERENCE ON  ARTIFICIAL GENERAL INTELLIGENCE, 1., 2008, Memphis. Proceedings […]. Memphis:  [s. n.], 2008. p. [?]. 

SERAFINI, Luciano; GARCEZ, Artur d’Ávila. Logic tensor networks: deep learning and  logical reasoning from data and knowledge. arXiv, [s. l.], 2016. Preprint. Disponível em:  https://arxiv.org/abs/1606.04422. Acesso em: 9 nov. 2025. 

SOL, Yujie et al. Alucinação de IA: rumo a uma classificação abrangente de informações  distorcidas em conteúdo gerado por inteligência artificial. Comunicação em Ciências Humanas  e Sociais, [s. l.], n. 1278, 2024. 

TADDEI, Paulo Mendes; COSTA, Arthur Barbosa da; FURTADO JUNIOR, Robson Roberto  de Oliveira. A fenomenologia de Heidegger na crítica de Dreyfus à IA simbólica. Natureza  Humana, São Paulo, v. 22, n. 1, p. [?], 2020. 

TRINH, Trieu H. et al. Solving olympiad geometry without human demonstrations. Nature,  London, v. 625, p. 476-482, 2024.

VOLPE, R. et al. The CLARAty architecture for robotic autonomy. In: IEEE AEROSPACE  CONFERENCE, 2002, Big Sky. Proceedings […]. [S. l.]: IEEE, 2002. p. [?].


1Pontifícia Universidade Católica de São Paulo (PUC-SP). e-mail: trolemberg@gmail.com
2PUC-SP & Instituto de Tecnologia e Liderança (Inteli). e-mail: silvajo@pucsp.br