NEURO-SYMBOLIC ARTIFICIAL INTELLIGENCE: CRITICAL ANALYSIS AND RESEARCH AGENDA
REGISTRO DOI: 10.69849/revistaft/ch10202512121740
Thiago Mesquita Rolemberg1
Jefferson de Oliveira Silva2
Resumo
A Inteligência Artificial (IA) tem avançado de forma exponencial, impulsionada pelo desenvolvimento de redes neurais profundas e pela democratização do acesso à computação em nuvem. No entanto, apesar desse progresso, pode se observar alguns desafios, tais como: modelos de LLM com alucinações, interpretabilidade de modelos conexionistas, ética etc. Neste contexto, a Inteligência Artificial Neuro simbólica surge como uma abordagem híbrida promissora, combinando aprendizado profundo com raciocínio lógico para superar essas limitações. Este artigo analisa as críticas e desafios da IA Neuro simbólica, incluindo sua complexidade de implementação, questões de transparência e viabilidade prática, ao mesmo tempo que explora seus benefícios estruturais e aplicações escaláveis. Por fim, o trabalho propõe uma agenda científica para consolidar a IA Neuro-simbólica como um campo de pesquisa sólido, incluindo o desenvolvimento de arquiteturas híbridas padronizadas, frameworks explicáveis, métodos eficientes de aprendizado e regulamentação ética. Com essa base, espera-se que a IA Neuro-simbólica se torne um pilar central na próxima geração de sistemas inteligentes.
Palavras-chave: Redes neurais. Conexionista. Neuro-simbólica. Inteligência Artificial. Aprendizado Profundo. Aprendizado por Reforço.
1 INTRODUÇÃO
A inteligência artificial vem atravessando ciclos de grande ebulição desde as primeiras décadas de pesquisa, alternando entre verões e invernos de entusiasmo (OMOHUNDRO, 2008). Atualmente estamos vivendo um grande movimento de utilização por todos do mundo corporativo ou por usuários finais, impulsionado pelo poder de processamento de GPUs e pela democratização de serviços em nuvem. Redes neurais profundas alcançam níveis impressionantes de acurácia em tarefas como reconhecimento de imagens e processamento de linguagem natural, estabelecendo novos marcos históricos no campo.
Apesar desses avanços, modelos puramente conexionistas ainda enfrentam limitações que comprometem sua aplicação em ambientes críticos. A interpretabilidade reduzida característica das chamadas “caixas-pretas” dificulta auditorias e explicações em áreas reguladas. A generalização insuficiente faz com que redes aprendam padrões de treinamento sem estender esse conhecimento a cenários inéditos. Além disso, pequenos ruídos nos dados de entrada podem gerar erros graves, e grandes modelos de linguagem continuam suscetíveis a alucinações, produzindo informações distorcidas ou factualmente incorretas.
Nesse contexto, a inteligência artificial Neuro-simbólica surge como uma resposta estratégica (COLELOUGH, 2024). Ao unir o aprendizado estatístico das redes neurais ao raciocínio formal dos sistemas simbólicos, esse paradigma oferece um caminho para sistemas mais transparentes, robustos e capazes de raciocinar sobre regras explícitas. Em vez de depender exclusivamente de correlações extraídas de dados massivos, a abordagem híbrida permite incorporar conhecimento prévio, garantindo explicações rastreáveis e comportamentos consistentes.
Para mapear o cenário atual, o artigo proposto por (COLELOUGH, 2024), realizou uma revisão sistemática da literatura entre 2020 e 2024 em cinco bases de dados: IEEE Explore, Google Scholar, arXiv, ACM Digital Library e SpringerLink. Do total de 1.428 artigos inicialmente coletados, 641 foram excluídos por duplicações e outros 395 descartados após triagem de título e resumo. Dos 392 candidatos restantes, 167 possuíam código aberto disponível e, após análise detalhada, 158 compõem o núcleo desta revisão, assegurando rigor metodológico e reprodutibilidade.
Este artigo tem como objetivos: apresentar os principais desafios das abordagens puramente conexionistas; analisar críticas e barreiras técnicas à integração simbólico conexionista; propor uma agenda científica para padronização de arquiteturas, explicabilidade, eficiência de aprendizado e diretrizes éticas.
2 AS LIMITAÇÕES E NECESSIDADE DE EVOLUÇÃO DA IA
A ascensão das redes neurais trouxe avanços importantes que ocupam papel central na transformação tecnológica contemporânea, principalmente em reconhecimento de imagem e processamento de linguagem natural. Contudo, seu progresso expõe dilemas fundamentais relacionados às suas limitações estruturais e à necessidade premente de evolução. Esses desafios se manifestam em múltiplas dimensões técnicas e éticas que comprometem a aplicação dessas tecnologias em contextos críticos.
A interpretabilidade limitada configura-se como o primeiro obstáculo significativo. Modelos de aprendizado profundo funcionam essencialmente como caixas-pretas, tornando difícil compreender e justificar as bases de suas decisões. Essa opacidade não é meramente um inconveniente técnico: ela impede auditorias efetivas e mina a confiança necessária para adoção em ambientes regulados. Almeida (2024) enfatiza que desenvolver modelos de IA que permitam auditoria e explicação de decisões tornou-se fundamental para promover responsabilidade e alinhamento ético. A transparência, nesse contexto, emerge não como característica desejável, mas como requisito central para a adoção responsável da tecnologia.
Intimamente relacionada à opacidade dos modelos está a questão da generalização insuficiente. A capacidade de generalização das redes neurais artificiais refere-se à habilidade desses modelos de fornecer respostas adequadas para dados que não foram apresentados durante o processo de treinamento. Embora as redes neurais tenham demonstrado eficácia em aprender diversos padrões estatísticos a partir de exemplos, elas apresentam limitações significativas quando confrontadas com a necessidade de processar conceitos abstratos ou situações desconhecidas. Fleck (2016) argumenta que isso ocorre porque, apesar de sua aptidão para interpolar dentro do domínio dos dados de treinamento, as redes tendem a falhar na extrapolação para contextos fora desse domínio, especialmente quando o problema exige compreensão simbólica ou raciocínio lógico estruturado.
O problema das alucinações em modelos de linguagem amplia significativamente esse cenário de vulnerabilidades. Sol et al. (2024) definem alucinação como qualquer tipo de informação distorcida ou incorreta gerada por modelos de inteligência artificial, propondo uma taxonomia que identifica oito categorias principais: overfitting, erros de lógica, erros de raciocínio, erros matemáticos, fabricação infundada, erros factuais, erros de saída textual e outras categorias residuais. Crucialmente, os autores argumentam que não é correto caracterizar todas as alucinações simplesmente como erros técnicos. Muitas vezes, tratam-se de respostas plausíveis porém incorretas que podem enganar usuários sem conhecimento especializado no assunto questionado. Compreender essas categorizações torna-se, portanto, imperativo para melhorar a segurança e a confiabilidade dos sistemas de inteligência artificial.
Por fim, as preocupações éticas emergem como consequência direta e amplificação dessas limitações técnicas. À medida que a inteligência artificial assume funções anteriormente executadas exclusivamente por seres humanos, frequentemente com velocidade, precisão e eficiência superiores, intensificam-se as questões sobre as implicações dessa substituição.
Brochado (2023) alerta que mitificar a performance das máquinas traz o risco de submeter o humano ao império de uma suposta superioridade maquínica, o que pode desvalorizar o papel do espírito humano e sua dimensão simbólica. Essa preocupação não é abstrata: ela se materializa em decisões automatizadas que afetam vidas sem possibilidade de contestação ou compreensão, em vieses algorítmicos que perpetuam discriminações históricas, e na erosão gradual da agência humana em processos decisórios críticos. Logo, a importância de compreender profundamente os processos de execução da inteligência artificial torna-se necessária para mitigar essas preocupações éticas e estabelecer salvaguardas efetivas.
Diante desses desafios multifacetados, a IA Neuro-simbólica surge como uma alternativa promissora que pode superar essas limitações ao integrar o aprendizado estatístico com a lógica formal, proporcionando maior eficiência, transparência e confiabilidade aos sistemas inteligentes.
2.1. Críticas e desafios da abordagem Neuro-simbólica
Apesar de seu potencial transformador, a IA neuro-simbólica enfrenta ceticismo acadêmico substancial e desafios técnicos que não podem ser ignorados (TADDEI, 2020). A complexidade na implementação representa o primeiro obstáculo concreto: a integração entre redes neurais e raciocínio simbólico frequentemente resulta em modelos com alta complexidade computacional, dificultando tanto a escalabilidade quanto a eficiência operacional dos sistemas resultantes. Essa complexidade não é meramente um problema de engenharia; ela reflete a tensão fundamental entre dois paradigmas computacionais que operam segundo princípios distintos.
Esse problema técnico alimenta um ceticismo mais amplo sobre a eficácia prática da abordagem. O número ainda limitado de publicações com resultados concretos e replicáveis levanta dúvidas legítimas sobre a viabilidade da IA Neuro-simbólica em aplicações de larga escala. A comunidade científica permanece, justificadamente, cautelosa diante de promessas que não foram ainda extensivamente validadas em contextos industriais complexos e diversos.
Paradoxalmente, mesmo que a combinação de paradigmas vise fundamentalmente aumentar a interpretabilidade dos sistemas de IA, garantir explicações verdadeiramente claras e rastreáveis das decisões permanece um desafio não trivial. A transparência prometida pela integração simbólica pode ser obscurecida pela própria complexidade da arquitetura híbrida resultante, especialmente em domínios críticos como saúde, finanças e direito, onde cada etapa do raciocínio precisa ser auditável e justificável perante reguladores e usuários finais.
Ademais, como qualquer tecnologia de IA, a abordagem neuro-simbólica herda e potencialmente amplifica riscos relacionados à ética, segurança e confiabilidade. A possibilidade de decisões automatizadas incorretas ou enviesadas torna-se particularmente preocupante quando essas decisões podem ser difíceis de detectar ou contestar sem transparência adequada sobre a interação entre os componentes simbólicos e conexionistas do sistema. Sistemas híbridos podem mascarar vieses tanto nos dados quanto nas regras lógicas codificadas, criando camadas adicionais de opacidade.
Esses desafios não invalidam a proposta neuro-simbólica, mas evidenciam a necessidade de pesquisas mais aprofundadas, desenvolvimento tecnológico rigoroso e testes extensivos em cenários práticos diversos para validar efetivamente a viabilidade e eficácia da IA Neuro-simbólica como caminho sustentável para sistemas inteligentes mais robustos e confiáveis.
3 A IA NEURO-SIMBÓLICA COMO SOLUÇÃO
O paradigma da inteligência artificial neuro-simbólica surge como resposta viável aos principais desafios identificados na IA contemporânea. Ao unir o poder do aprendizado profundo ao raciocínio simbólico interpretável, os sistemas neuro-simbólicos extraem conceitos abstratos e regras lógicas a partir de poucos exemplos, promovendo uma generalização mais robusta além dos dados vistos em treinamento. Essa combinação mostra-se essencial em cenários complexos onde a simples memorização de padrões estatísticos revela-se insuficiente. Além disso, a integração possibilita tarefas de raciocínio, planejamento e tomada de decisão que se aproximam qualitativamente da cognição humana, razão pela qual já são exploradas em áreas críticas como saúde, direito, engenharia e planejamento estratégico.
Um exemplo paradigmático dessa aplicação encontra-se no Coupled Layer Architecture for Robotics Autonomy (CLARAty), desenvolvido pela JPL/NASA (VOLPE, 2002). Essa arquitetura combina componentes simbólicos de planejamento, como Planning Domain Definition Language (PDDL), com modelos físicos e componentes baseados em aprendizado de máquina, incluindo redes neurais, para conferir autonomia a rovers e sondas espaciais. Embora não seja formalmente rotulado como neuro-simbólico, o CLARAty segue exatamente a filosofia de hibridizar raciocínio lógico com componentes aprendidos, demonstrando a viabilidade prática dessa abordagem em ambientes extremamente desafiadores (TRINH, 2024).
A principal promessa da abordagem neuro-simbólica, e o foco de muitos estudos recentes, reside justamente na superação das limitações de escalabilidade da IA simbólica tradicional e na melhora simultânea da eficiência de dados e robustez das abordagens puramente conexionistas. Hitzler (2021) argumenta que a integração de métodos simbólicos e conexionistas oferece múltiplos caminhos convergentes para ganhos substanciais de escalabilidade.
Primeiramente, sistemas neuro-simbólicos demonstram capacidade de aprender com volumes significativamente menores de dados em comparação com métodos tradicionais de aprendizado de máquina puramente conexionistas. Essa eficiência notável decorre fundamentalmente da capacidade do componente simbólico de incorporar conhecimento prévio estruturado e regras lógicas explícitas, reduzindo drasticamente a necessidade de aprender tudo do zero a partir de exemplos empíricos. Tal característica torna-se crucial para a escalabilidade em cenários onde a obtenção de grandes conjuntos de dados é cara, demorada ou simplesmente inviável, como em domínios médicos especializados ou aplicações industriais de nicho.
Complementarmente, a capacidade de raciocínio lógico proporcionada pela parte simbólica permite que os modelos neuro-simbólicos generalizem efetivamente para situações que não foram explicitamente vistas durante o treinamento. Isso significa que eles podem lidar com novos cenários e variações de problemas de forma mais confiável, reduzindo significativamente a necessidade de re-treinamento para cada nova condição ou contexto. Essa generalização aprimorada não apenas diminui custos operacionais, mas também aumenta a confiabilidade dos sistemas em ambientes imprevisíveis.
A explicabilidade aprimorada, embora não constitua diretamente um ganho de escalabilidade em termos de processamento computacional, contribui indiretamente mas fundamentalmente para a escalabilidade dos sistemas em ambientes reais. Ao incorporar a capacidade de raciocínio estruturado e a representação explícita de conhecimento da IA simbólica, os sistemas neuro-simbólicos podem oferecer maior transparência sobre como chegaram a uma decisão específica. Essa transparência não é meramente desejável: ela torna se fundamental para a confiança e adoção de sistemas de IA em domínios críticos como saúde e direito, onde cada decisão pode ter consequências significativas e precisa ser justificável perante autoridades reguladoras e usuários finais.
Adicionalmente, a arquitetura híbrida permite melhor tratamento de incertezas e dados incompletos, limitações históricas da IA simbólica tradicional. Enquanto sistemas puramente simbólicos têm dificuldades estruturais com dados incertos, a parte conexionista pode extrair padrões e informações significativas mesmo de dados imperfeitos, enquanto a parte simbólica aplica raciocínio lógico sobre essas informações extraídas. Quando se utiliza Large Language Models como controladores de solucionadores simbólicos, a abordagem neuro-simbólica consegue combinar a compreensão de linguagem natural e o aprendizado a partir de dados dos LLMs com a precisão lógica e a interpretabilidade dos sistemas de raciocínio simbólico. Essa sinergia pode levar a sistemas mais poderosos, confiáveis e escaláveis que superam as limitações de cada paradigma isoladamente.
Essas promessas teóricas já encontram validação em estudos empíricos com aplicabilidade demonstrada e criação de frameworks específicos para aprimorar a escalabilidade. Na área de Aprendizagem Relacional Estatística (Statistical Relational Learning – SRL), pesquisadores combinam lógica de primeira ordem com métodos probabilísticos e de aprendizado de máquina. Getoor e Taskar (2007) demonstram que o objetivo dessa abordagem é construir modelos que possam simultaneamente raciocinar sobre relações complexas entre entidades e aprender essas relações a partir de dados, escalando efetivamente para domínios de alta complexidade estrutural.
As Redes de Tensores Lógicos (Logical Tensor Networks – LTNs) representam outro avanço significativo nessa direção. Serafini (2016) propõe que as LTNs representem conceitos lógicos e relacionais como tensores, permitindo que sejam processados diretamente por redes neurais profundas. Isso viabiliza a integração profunda de conhecimento simbólico em estruturas de aprendizado profundo, com pesquisas subsequentes explorando sua aplicação em problemas que exigem raciocínio temporal e demonstrando maior escalabilidade e generalidade em comparação com abordagens puramente conexionistas.
No âmbito de frameworks híbridos, pesquisas recentes mapeiam e desenvolvem diferentes arquiteturas de integração, tanto compostas, onde os componentes simbólicos e conexionistas funcionam de forma mais independente e se comunicam através de interfaces definidas, quanto monolíticas, onde a integração é mais profunda e as representações são unificadas em estruturas compartilhadas. Bhuyan et al. (2024) argumentam que o objetivo é identificar as arquiteturas que otimizem simultaneamente performance computacional e escalabilidade para diversas categorias de tarefas, reconhecendo que não existe uma solução única que seja ótima para todos os contextos.
A escalabilidade da abordagem neuro-simbólica também se manifesta em aplicações práticas específicas de domínio. Em sistemas de recomendação na área de saúde, por exemplo, a capacidade de integrar conhecimento médico estruturado com o aprendizado a partir de dados de pacientes pode levar a recomendações mais precisas, personalizadas e explicáveis, escaláveis para muitos usuários e volumes massivos de dados clínicos (BHUYAN, 2024). Esses sistemas híbridos conseguem balancear a generalização estatística com a aderência a protocolos clínicos estabelecidos, algo impossível para sistemas puramente conexionistas ou simbólicos.
A busca por uma inteligência artificial mais robusta, eficiente e que possa escalar para problemas complexos do mundo real continua a impulsionar vigorosamente a pesquisa em inteligência artificial neuro-simbólica. A combinação do raciocínio estruturado com o aprendizado adaptativo é crescentemente vista como um caminho não apenas promissor, mas necessário para superar as limitações fundamentais das abordagens puramente simbólicas ou conexionistas. A escalabilidade, nesse contexto, emerge como um dos ganhos mais substanciais e procurados nessa integração. Diante desses argumentos teóricos e evidências empíricas, a inteligência artificial neuro-simbólica transcende o status de mera promessa futura, consolidando-se como um paradigma viável que busca ser mais responsável e alinhado com os valores humanos. Ela permite uma aproximação da criação de sistemas que não apenas são inteligentes em termos de performance quantitativa, mas que também sejam compreensíveis, confiáveis e eticamente defensáveis em suas operações e decisões.
4 ESTUDO DE CASO
A progressão acelerada dos modelos conexionistas de aprendizado profundo revolucionou a análise de dados complexos, particularmente em domínios como imagens médicas e registros eletrônicos de pacientes. Não obstante sua eficácia crescente, a natureza de caixa-preta desses sistemas impõe um obstáculo intransponível à sua adoção plena em domínios de alta criticidade como a saúde. Um sistema de diagnóstico médico deve ser não apenas preciso em suas predições, mas fundamentalmente auditável em seus processos decisórios.
A falta de transparência impede que clínicos e pacientes compreendam adequadamente a base de uma recomendação ou estimativa de risco, minando a confiança necessária para a prática médica e violando regulatórios estabelecidos. Para superar este dilema, onde a acurácia estatística se choca frontalmente com a interpretabilidade clínica, a integração do raciocínio lógico tornou-se um imperativo não apenas técnico, mas ético. A inteligência artificial neuro simbólica emerge é potencialmente capaz de conciliar o aprendizado de padrões do conexionismo com o rigor e a coerência lógica exigidos pela prática clínica contemporânea.
4.1 O Uso de Logical Neural Networks (LNNs)
A viabilidade da inteligência artificial neuro-simbólica na resolução do problema de explicabilidade na saúde pode ser ilustrada através da aplicação de arquiteturas híbridas específicas, como as Logical Neural Networks propostas por Hong et al. (2025). O trabalho de Lu et al. (2025), que utilizou LNNs para a previsão de diagnóstico de diabetes, serve como um modelo da metodologia neuro-simbólica em contexto clínico real. Esta abordagem híbrida opera através de dois eixos complementares.
O primeiro eixo consiste na incorporação simbólica de conhecimento clínico estruturado. Inicialmente, o conhecimento médico de domínio, incluindo diretrizes clínicas estabelecidas, protocolos terapêuticos e regras epidemiológicas de estratificação de risco, é formalizado em uma base de conhecimento simbólica explícita. Por exemplo, regras do tipo “se [idade > 45 anos] E [IMC > 30] E [histórico familiar positivo] ENTÃO [Risco Elevado de Diabetes]” são codificadas logicamente. Esta lógica explícita atua como a fundação estrutural e a espinha dorsal do raciocínio do modelo, garantindo que o sistema opere dentro de parâmetros clinicamente validados.
O segundo eixo complementar envolve o aprendizado conexionista para refinamento empírico. O componente neural da LNN é então treinado com dados reais de pacientes, permitindo que o modelo aprenda pesos estatísticos, limiares de decisão e nuances específicas para as regras simbólicas pré-estabelecidas. Este processo refina o conhecimento prévio existente e capacita o sistema a lidar efetivamente com a incerteza, a variabilidade individual e o ruído inerentes aos dados clínicos reais, superando uma limitação crítica da inteligência artificial puramente simbólica que tende a ser rígida demais para contextos complexos.
A sinergia entre esses componentes resulta em um modelo que é simultaneamente inerentemente lógico, por sua estrutura simbólica, e empiricamente fundamentado, por seu aprendizado a partir de dados. O aprendizado estatístico não opera livremente, mas é restrito e guiado pelo conhecimento médico formal, enquanto as regras lógicas não permanecem estáticas, mas são refinadas e ponderadas pela evidência empírica.
4.2 Análise dos Resultados
O principal benefício da metodologia neuro-simbólica aplicada neste estudo de caso reside na explicabilidade intrínseca do modelo, representando um avanço qualitativo significativo em relação às técnicas posteriores de Explainable AI (XAI). Ao invés de gerar uma explicação após a decisão, caracterizando explicabilidade externa ou post-hoc, a LNN articula o diagnóstico como o resultado direto de uma inferência lógica cujos componentes individuais são visíveis, rastreáveis e ajustáveis desde o início do processo.
Por exemplo, quando o modelo diagnostica um paciente como de alto risco para diabetes, ele é capaz de fornecer a justificativa exata e completa para essa classificação. O sistema pode apontar precisamente quais regras simbólicas foram ativadas durante o processo de inferência, qual foi o peso ou relevância estatística aprendida de cada fator clínico na decisão final, e como esses elementos se combinaram logicamente para produzir a conclusão. Esta não é uma explicação aproximada ou simplificada gerada a posteriori, mas a própria estrutura de raciocínio do modelo tornada transparente.
Esta transparência tem impactos cruciais em múltiplas dimensões. Do ponto de vista da validação clínica, médicos podem auditar a decisão, garantindo que o diagnóstico esteja alinhado com o padrão de cuidado estabelecido e as diretrizes clínicas reconhecidas. Se o sistema ativou uma regra inadequada ou atribuiu peso excessivo a um fator secundário, isso torna-se evidente para o clínico revisor, que pode então questionar ou corrigir o processo. Esta auditabilidade não é apenas tecnicamente desejável, mas frequentemente legalmente exigida em contextos médicos regulados.
Do ponto de vista da eficiência de dados, a incorporação de conhecimento prévio simbólico reduz significativamente a necessidade de vastos datasets de treinamento, melhorando a eficiência de aprendizado. Esta vantagem torna-se crucial em domínios médicos especializados onde dados rotulados de alta qualidade são escassos, caros de obter, ou eticamente sensíveis. Um modelo puramente conexionista poderia requerer dezenas de milhares de casos para aprender padrões que um sistema neuro-simbólico pode capturar com centenas de exemplos, graças à estrutura lógica que guia o aprendizado.
Adicionalmente, a robustez intrínseca do modelo híbrido manifesta-se em sua capacidade de generalização mais confiável. Como as decisões não se baseiam exclusivamente em correlações estatísticas opacas, mas em regras lógicas validadas clinicamente e refinadas empiricamente, o sistema tende a cometer erros mais “compreensíveis” e menos arbitrários que modelos puramente neurais. Quando o modelo erra, o erro pode ser rastreado até sua origem lógica ou estatística, permitindo correção sistemática ao invés de re-treinamento às cegas.
O estudo de caso da inteligência artificial neuro-simbólica para diagnóstico explicável em saúde, exemplificado pelo uso de Logical Neural Networks no contexto de predição de diabetes, fornece uma validação empírica concreta da necessidade de transição para arquiteturas híbridas em domínios críticos. Demonstra que a abordagem neuro-simbólica não é apenas uma proposta teórica elegante, mas uma solução prática e implementável para a geração de sistemas de IA que são simultaneamente altamente performáticos em termos quantitativos e confiáveis em termos qualitativos em ambientes de alta criticidade.
A capacidade demonstrada de integrar regras lógicas clinicamente validadas com o aprendizado estatístico de padrões complexos valida diretamente a agenda de pesquisa proposta neste artigo, especialmente no que tange ao desenvolvimento de arquiteturas híbridas padronizáveis e frameworks de explicabilidade que possam ser aplicados em diversas áreas de forma escalável e ética. Este caso ilustra como a promessa teórica da inteligência artificial neuro-simbólica pode materializar-se em aplicações reais que servem genuinamente aos interesses de pacientes e profissionais de saúde.
5 AGENDA PROPOSTA
Para consolidar o campo da inteligência artificial neuro-simbólica e fomentar seu desenvolvimento científico e tecnológico de forma sistemática e coordenada, propõe-se a seguinte agenda estruturada. Esta proposta emerge como síntese dos desafios identificados na Seção 2, das promessas de escalabilidade apresentadas na Seção 3, e da validação empírica demonstrada na Seção 4, alinhando-se às recomendações de revisões sistemáticas recentes e estudos sobre ética na IA. A agenda articula-se em oito frentes de ação prioritárias que, em conjunto, podem estabelecer as bases para a maturação do campo.
5.1. Arquiteturas Híbridas Padronizadas
O desenvolvimento de arquiteturas padronizadas constitui prioridade fundamental para facilitar a replicabilidade e comparação rigorosa entre modelos desenvolvidos por diferentes grupos de pesquisa. Trabalhos como o de Bougzime et al. (2025) demonstram que configurações específicas, como a arquitetura “Neuro-Symbolic-Neuro”, destacam-se por sua capacidade de generalização, desempenho de raciocínio, transferibilidade e interpretabilidade. No entanto, a ausência de padrões arquiteturais amplamente aceitos dificulta a comparação objetiva de resultados e retarda o progresso cumulativo do campo.
A padronização deve incorporar técnicas modernas como Graph Neural Networks, que oferecem representações naturais para conhecimento estruturado, e Reinforcement Learning, que permite aprendizado de estratégias de raciocínio através de interação. Mais criticamente, é necessário estabelecer benchmarks comuns e datasets padronizados que permitam avaliação comparativa justa entre diferentes abordagens. Isso inclui não apenas métricas de acurácia, mas também métricas específicas de explicabilidade, eficiência de dados e robustez a perturbações. A comunidade deve convergir em torno de competições e desafios compartilhados que direcionem esforços para problemas bem definidos, similar ao que ocorreu historicamente com ImageNet para visão computacional ou GLUE/SuperGLUE para processamento de linguagem natural.
5.2. Escalabilidade e Eficiência Computacional
A redução da complexidade computacional dos modelos híbridos emerge como requisito essencial para viabilizar aplicações em larga escala além de ambientes de pesquisa controlados. Esse esforço demanda não apenas otimizações algorítmicas sofisticadas, mas também exploração estratégica de hardware especializado que possa acelerar simultaneamente operações neurais e inferências simbólicas (HITZLER, 2021). A comunidade científica deve investigar arquiteturas que equilibrem expressividade lógica com eficiência computacional, reconhecendo que existe frequentemente um trade-off entre essas dimensões.
Pesquisas devem focar em técnicas de aproximação que permitam raciocínio lógico eficiente sem sacrificar correção em contextos críticos, bem como em métodos de poda e compressão que preservem tanto componentes neurais quanto simbólicos. Adicionalmente, a exploração de computação neuromórfica e hardware quântico pode oferecer caminhos alternativos para superar limitações de escalabilidade dos processadores clássicos. Parcerias entre academia e indústria tornam-se cruciais nesta frente, já que a otimização para implantação em produção frequentemente revela desafios não aparentes em ambientes de pesquisa.
5.3. Ferramentas e Plataformas de Código Aberto
A disseminação de ferramentas, bibliotecas e plataformas acessíveis que suportem o desenvolvimento, treinamento e avaliação de modelos neuro-simbólicos mostra-se essencial para democratizar a pesquisa na área e acelerar a adoção prática. Plataformas de código aberto não apenas aceleram o progresso científico através da eliminação de trabalho redundante, mas também incentivam a colaboração entre grupos de pesquisa dispersos geograficamente, permitindo validação independente de resultados e construção colaborativa de conhecimento (BOUGZIME, 2025).
É necessário desenvolver frameworks que abstraiam a complexidade da integração simbólico-conexionista, permitindo que pesquisadores de diferentes backgrounds, sejam eles especialistas em aprendizado de máquina ou em raciocínio lógico, possam contribuir efetivamente. Essas plataformas devem incluir não apenas funcionalidades de treinamento e inferência, mas também ferramentas de visualização de raciocínio, debugging de regras lógicas, e análise de explicabilidade. Modelos pré-treinados e componentes modulares reutilizáveis devem ser disponibilizados publicamente, seguindo o modelo de sucesso de bibliotecas como HuggingFace para transformers ou PyTorch Geometric para redes neurais em grafos.
5.4. Aplicações Multimodais e Embodied AI
A exploração da integração da inteligência artificial neuro-simbólica com sistemas multimodais, capazes de processar e raciocinar sobre texto, imagens, áudio e outros tipos de dados simultaneamente, representa uma fronteira promissora que amplia significativamente a capacidade dos sistemas de interagir com o mundo real de forma mais cognitiva e adaptativa (BOUGZIME, 2025). A combinação de percepção multimodal através de redes neurais com raciocínio abstrato através de componentes simbólicos pode levar a sistemas que genuinamente compreendem contextos complexos ao invés de meramente reconhecer padrões superficiais.
Particularmente relevante é a aplicação em Embodied AI, onde agentes artificiais precisam não apenas processar informações sensoriais, mas também planejar ações, raciocinar sobre consequências, e adaptar-se a ambientes dinâmicos e parcialmente observáveis. Robôs que operam em ambientes humanos, veículos autônomos que precisam seguir regras de trânsito enquanto adaptam-se a situações imprevistas, e assistentes virtuais que compreendem contexto conversacional multimodal representam aplicações onde a integração neuro-simbólica não é apenas vantajosa, mas potencialmente necessária para operação segura.
5.5. Governança, Ética e Regulação
Estabelecer diretrizes éticas e regulatórias específicas para a inteligência artificial neuro-simbólica torna-se imperativo para assegurar a responsabilidade, segurança e confiabilidade dos sistemas, além de promover a inclusão e a mitigação ativa de vieses algorítmicos (BROCHADO, 2023). Embora a maior explicabilidade dos sistemas neuro simbólicos ofereça vantagens para governança, ela não elimina automaticamente questões éticas fundamentais relacionadas a vieses nos dados, justiça nas decisões e accountability em caso de falhas.
É necessário desenvolver frameworks de auditoria específicos que aproveitem a estrutura híbrida desses sistemas para examinar tanto os componentes neurais quanto as regras simbólicas em busca de vieses e problemas de fairness. Reguladores devem ser educados sobre as capacidades e limitações específicas das abordagens neuro-simbólicas, para que possam desenvolver políticas apropriadas que não sejam nem excessivamente permissivas nem indevidamente restritivas. Adicionalmente, mecanismos de certificação e validação devem ser estabelecidos para sistemas neuro-simbólicos em domínios críticos como saúde, justiça criminal e finanças, garantindo que eles atendam a padrões rigorosos antes de deployment em contextos que afetam vidas humanas.
A governança deve também abordar questões de propriedade intelectual relacionadas ao conhecimento simbólico codificado em sistemas, transparência obrigatória em aplicações de alto impacto social, e mecanismos de recurso para indivíduos afetados por decisões automatizadas. A comunidade científica tem responsabilidade de engajar proativamente com formuladores de políticas públicas e sociedade civil para assegurar que o desenvolvimento tecnológico seja guiado por valores humanos compartilhados.
5.6. Formação e Capacitação de Pesquisadores
Incentivar programas educacionais multidisciplinares que combinem aprendizado profundo, lógica simbólica, ciência cognitiva e ética da IA mostra-se essencial para preparar profissionais capazes de avançar na pesquisa e aplicação da inteligência artificial neuro simbólica (HITZLER, 2021). A natureza intrinsecamente interdisciplinar do campo exige que pesquisadores possuam competências que tradicionalmente eram desenvolvidas em silos acadêmicos separados.
Currículos universitários devem ser reformulados para incluir tantos fundamentos teóricos de lógica formal, representação de conhecimento e raciocínio automatizado, quanto habilidades práticas em arquiteturas de aprendizado profundo, otimização estocástica e engenharia de software para sistemas de IA. Programas de doutorado devem encorajar colaborações entre departamentos de ciência da computação, filosofia, psicologia cognitiva, neurociência e domínios de aplicação específicos como medicina ou direito.
Além da formação acadêmica formal, iniciativas de educação continuada para profissionais já estabelecidos são cruciais para acelerar a adoção da abordagem neuro simbólica. Workshops, escolas de verão, tutoriais em conferências e cursos online massivos podem disseminar conhecimento rapidamente e construir uma comunidade global de praticantes. Materiais educacionais devem ser desenvolvidos não apenas para especialistas técnicos, mas também para tomadores de decisão, reguladores e o público geral, promovendo literacy sobre as capacidades e limitações dessas tecnologias.
5.7. Fomento à Pesquisa Interdisciplinar
Estimular colaborações sistemáticas entre áreas como ciência da computação, neurociência, filosofia da mente, linguística e psicologia cognitiva pode enriquecer fundamentalmente os modelos neuro-simbólicos com fundamentos teóricos e experimentais sólidos que vão além de meras engenharias de sistemas (HITZLER, 2021). A inteligência artificial neuro-simbólica, por sua própria natureza, situa-se na interseção de múltiplas disciplinas, e seu avanço depende criticamente de insights que atravessam fronteiras tradicionais.
Neurociência cognitiva pode informar arquiteturas híbridas através de compreensão de como sistemas biológicos integram processamento subsimbólico e simbólico. Filosofia da mente e epistemologia podem oferecer frameworks conceituais rigorosos para questões de representação de conhecimento, raciocínio sob incerteza e natureza da explicação. Linguística pode contribuir com teorias de semântica formal e pragmática que fundamentem o processamento de linguagem natural em sistemas neuro-simbólicos. Psicologia cognitiva e ciência cognitiva experimental podem fornecer dados comportamentais que validem ou refutem claims sobre a natureza cognitivamente plausível de diferentes arquiteturas.
Agências de fomento devem criar programas de financiamento específicos para pesquisas interdisciplinares, que tradicionalmente enfrentam dificuldades em se encaixar em divisões disciplinares estabelecidas. Conferências e journals devem ativamente encorajar submissões interdisciplinares e desenvolver processos de revisão por pares que sejam adequados para trabalhos que atravessam múltiplas áreas. Centros de pesquisa dedicados à inteligência artificial neuro-simbólica devem ser estabelecidos reunindo expertise diversa sob um mesmo teto institucional.
5.8. Avaliação e Benchmarking Padronizados
Desenvolver benchmarks e métricas específicas para avaliar rigorosamente o desempenho, interpretabilidade e robustez dos sistemas neuro-simbólicos torna-se fundamental para promover comparações justas e estimular melhorias contínuas baseadas em evidências (HITZLER, 2021). A ausência de padrões de avaliação aceitos dificulta o progresso científico ao impedir a identificação objetiva de quais abordagens são superiores em quais contextos.
Benchmarks devem ir além de métricas tradicionais de acurácia, incorporando avaliações de explicabilidade (quão compreensíveis são as justificativas?), eficiência de dados (quantos exemplos são necessários para aprender?), robustez (como o sistema performa sob distribuições deslocadas ou ataques adversariais?), e fairness (o sistema apresenta vieses contra grupos protegidos?). Métricas compostas que balanceiem múltiplos objetivos frequentemente conflitantes devem ser desenvolvidas, reconhecendo que sistemas do mundo real precisam satisfazer simultaneamente diversos requisitos.
Crucialmente, benchmarks devem incluir tarefas que genuinamente requerem a integração de percepção e raciocínio, não apenas problemas que podem ser resolvidos por componentes isolados. Competições abertas com datasets públicos, protocolos de avaliação transparentes e leaderboards mantidos pela comunidade podem acelerar o progresso ao canalizar esforços competitivos em direções produtivas. A comunidade deve também estabelecer práticas de reporte padronizadas que exijam divulgação completa de arquiteturas, hiperparâmetros, requisitos computacionais e limitações conhecidas, promovendo reprodutibilidade e honestidade científica.
Essa agenda estruturada, embora ambiciosa, é realizável através de esforços coordenados da comunidade científica global. Ela pode orientar a construção de um campo científico sustentável para a inteligência artificial neuro-simbólica, alinhando esforços distribuídos para superar desafios técnicos, éticos e práticos, e consolidar sua posição como uma abordagem central da inteligência artificial do futuro. O sucesso nessa empreitada coletiva determinará se a promessa da inteligência artificial neuro-simbólica se materializa em sistemas que são não apenas poderosos, mas também confiáveis, compreensíveis e alinhados com valores humanos.
6 CONCLUSÃO
Este artigo demonstrou que a inteligência artificial neuro-simbólica representa não apenas uma alternativa técnica às abordagens puramente conexionistas ou simbólicas, mas uma necessidade estratégica para o avanço de sistemas inteligentes responsáveis. A análise apresentada evidenciou como as limitações estruturais dos modelos de aprendizado profundo, particularmente em interpretabilidade, generalização e tendência a alucinações, criam obstáculos fundamentais para sua adoção em contextos críticos onde transparência e auditabilidade são imperativas.
A integração de aprendizado estatístico com raciocínio lógico formal, conforme demonstrado através das evidências teóricas e do estudo de caso em diagnóstico médico, oferece um caminho viável para superar essas limitações. Sistemas neuro-simbólicos não apenas alcançam desempenho comparável ou superior aos modelos puramente neurais, mas o fazem com eficiência de dados significativamente maior e, crucialmente, com explicabilidade intrínseca que emerge da própria arquitetura do sistema ao invés de ser aproximada posteriormente. Esta característica torna-se diferencial decisivo em domínios como saúde, finanças e justiça, onde cada decisão automatizada precisa ser justificável e contestável.
As críticas e desafios identificados, incluindo a complexidade computacional da integração híbrida, o ceticismo acadêmico justificado pela ainda limitada base empírica, e os riscos éticos inerentes a qualquer tecnologia de IA, não invalidam a proposta neuro-simbólica. Ao contrário, eles definem precisamente o terreno sobre o qual a agenda científica proposta na Seção 5 deve operar. A padronização de arquiteturas, o desenvolvimento de ferramentas acessíveis, a otimização para escalabilidade, e o estabelecimento de frameworks éticos robustos constituem não objetivos abstratos, mas requisitos concretos para a maturação do campo.
A transição da inteligência artificial neuro-simbólica de promessa teórica para paradigma consolidado depende fundamentalmente de esforços coordenados da comunidade científica global. Requer não apenas avanços técnicos em algoritmos e arquiteturas, mas também investimento em formação interdisciplinar de pesquisadores, estabelecimento de benchmarks padronizados que permitam comparação objetiva de resultados, e engajamento proativo com reguladores e sociedade civil para assegurar que o desenvolvimento tecnológico seja guiado por valores humanos compartilhados.
À medida que as pesquisas se aprofundam e as soluções práticas são refinadas através de aplicações em domínios diversos, a integração entre aprendizado profundo e raciocínio simbólico consolida-se como pilar central na próxima geração da inteligência artificial. Sistemas que combinam a capacidade de extrair padrões complexos de dados massivos com a habilidade de raciocinar explicitamente sobre regras, conceitos abstratos e relações causais aproximam-se qualitativamente da cognição humana, não por mimetizar biologicamente o cérebro, mas por replicar funcionalmente a complementaridade entre processamento intuitivo e deliberativo que caracteriza o pensamento humano.
O sucesso dessa empreitada determinará se a inteligência artificial das próximas décadas será caracterizada por sistemas opacos que exigem confiança cega, ou por sistemas transparentes que merecem confiança justificada. A inteligência artificial neuro-simbólica oferece o caminho para a segunda opção, mas realizá-lo exige mais do que entusiasmo tecnológico: exige rigor científico, responsabilidade ética e comprometimento coletivo com o desenvolvimento de tecnologias que amplificam capacidades humanas ao invés de simplesmente substituí-las ou obscurecê-las. Este artigo buscou contribuir para esse objetivo ao mapear o terreno, identificar os desafios e propor uma agenda para que a comunidade científica possa, de forma coordenada e sistemática, construir as fundações de uma inteligência artificial verdadeiramente robusta, explicável e alinhada com valores humanos.
REFERÊNCIAS
ALMEIDA, Virgílio. Desafios da IA responsável na pesquisa científica. In: INTELIGÊNCIA Artificial na Pesquisa Científica. [S. l.: s. n.], [20–].
BHUYAN, Bikram Pratim et al. Neuro-symbolic artificial intelligence: a survey. [S. l.]: Springer Nature, 2024. p. 12809-12844.
BOUGZIME, Oualid et al. Unlocking the potential of generative ai through neuro-symbolic architectures: benefits and limitations. arXiv, [s. l.], 2025. Preprint. Disponível em: https://arxiv.org/abs/2502.11269. Acesso em: 9 nov. 2025.
BROCHADO, Mariah. Inteligência artificial e ética: um diálogo com Lima Vaz. Revista da Universidade Federal de Minas Gerais, Belo Horizonte, v. 35, n. 2, p. 215-233, 2023.
COLELOUGH, Brandon C.; REGLI, William. Neuro-symbolic AI in 2024: a systematic review. [S. l.: s. n.], 2024.
FLECK, Leandro et al. Redes neurais artificiais: princípios básicos. Revista Eletrônica Científica Inovação e Tecnológica, [s. l.], v. 17, p. 14, 2016.
GETOOR, Lise; TASKAR, Ben. Statistical relational learning. Cambridge: The MIT Press, 2007. 596 p. ISBN 978-0-262-07283-1.
HITZLER, Pascal; SARKER, Md Kamruzzaman (ed.). Neuro-symbolic artificial intelligence: the state of the art. Amsterdam: IOS Press, 2021. (Frontiers in Artificial Intelligence and Applications, v. 342). ISBN 978-1-64368-244-0.
HONG, S. N. et al. Logic neural network: a short survey. In: LE THI, H. A. et al. (ed.). Advances in data science and optimization of complex systems. Cham: Springer Nature Switzerland, 2025. p. [?]. (Lecture Notes in Networks and Systems, v. 1569). ISBN 978-3-032- 00267-9.
LU, Qiuhao et al. Explainable diagnosis prediction through neuro-symbolic integration. arXiv, [s. l.], 2025. Preprint. Disponível em: https://arxiv.org/abs/2410.01855. Acesso em: 9 nov. 2025.
OMOHUNDRO, Steve. The nature of self-improving AI. In: CONFERENCE ON ARTIFICIAL GENERAL INTELLIGENCE, 1., 2008, Memphis. Proceedings […]. Memphis: [s. n.], 2008. p. [?].
SERAFINI, Luciano; GARCEZ, Artur d’Ávila. Logic tensor networks: deep learning and logical reasoning from data and knowledge. arXiv, [s. l.], 2016. Preprint. Disponível em: https://arxiv.org/abs/1606.04422. Acesso em: 9 nov. 2025.
SOL, Yujie et al. Alucinação de IA: rumo a uma classificação abrangente de informações distorcidas em conteúdo gerado por inteligência artificial. Comunicação em Ciências Humanas e Sociais, [s. l.], n. 1278, 2024.
TADDEI, Paulo Mendes; COSTA, Arthur Barbosa da; FURTADO JUNIOR, Robson Roberto de Oliveira. A fenomenologia de Heidegger na crítica de Dreyfus à IA simbólica. Natureza Humana, São Paulo, v. 22, n. 1, p. [?], 2020.
TRINH, Trieu H. et al. Solving olympiad geometry without human demonstrations. Nature, London, v. 625, p. 476-482, 2024.
VOLPE, R. et al. The CLARAty architecture for robotic autonomy. In: IEEE AEROSPACE CONFERENCE, 2002, Big Sky. Proceedings […]. [S. l.]: IEEE, 2002. p. [?].
1Pontifícia Universidade Católica de São Paulo (PUC-SP). e-mail: trolemberg@gmail.com
2PUC-SP & Instituto de Tecnologia e Liderança (Inteli). e-mail: silvajo@pucsp.br
