EXPLICABILIDADE (XAI) DE RECOMENDAÇÕES DE INVESTIMENTOS E A IMPORTÂNCIA DA INTELIGÊNCIA  ARTIFICIAL NEURO-SIMBÓLICA 

EXPLAINABILITY (XAI) OF INVESTMENT RECOMMENDATIONS  AND THE IMPORTANCE OF NEURO-SYMBOLIC ARTIFICIAL  INTELLIGENCE 

REGISTRO DOI: 10.69849/revistaft/ch10202512121755


Bruno F. Perrone1
Jefferson de Oliveira Silva2


Resumo 

A crescente adoção de Inteligência Artificial (IA) em finanças trouxe ganhos significativos em predição  de preços e análise de risco, mas expôs um dilema persistente: modelos conexionistas oferecem alto  desempenho preditivo, porém permanecem opacos, enquanto sistemas simbólicos são transparentes,  mas carecem de flexibilidade frente à volatilidade e ao ruído dos mercados. Este artigo defende que a  superação desse dilema exige mais do que abordagens complementares; requer uma arquitetura  neurossimbólica integrada, em que aprendizado sub-simbólico e raciocínio simbólico evoluam juntos  para produzir recomendações intrinsecamente explicáveis. A partir de revisão crítica da literatura em  redes neurais, sistemas simbólicos e métodos de IA explicável (XAI), argumenta-se que a integração  neurossimbólica oferece um caminho promissor para conciliar desempenho, auditabilidade e confiança.  Propõe-se um modelo conceitual em dois níveis: (i) ancoragem de padrões conexionistas em conceitos  financeiros interpretáveis; e (ii) validação e inferência simbólica sobre esses conceitos, assegurando  conformidade regulatória e explicações adaptadas a diferentes perfis de usuários. As implicações dessa  abordagem incluem maior alinhamento a normas de transparência, redução do gullibility gap e  fortalecimento da confiança do investidor. Contudo, permanecem desafios técnicos, cognitivos e  institucionais, delineando uma agenda de pesquisa multidisciplinar. Conclui-se que avançar em direção  a arquiteturas neurossimbólicas não é apenas uma oportunidade científica, mas uma necessidade prática  e ética para um mercado financeiro mais transparente e robusto. 

Palavras-chave: Explicabilidade. Investimentos. Recomendações. Inteligência Artificial. Neurossimbólica. 

1 INTRODUÇÃO 

O mercado financeiro contemporâneo é um dos ambientes mais desafiadores para a  aplicação de Inteligência Artificial (IA). Decisões de investimento envolvem riscos elevados,  regulação rigorosa e um público heterogêneo que vai desde investidores altamente  especializados até milhões de pessoas físicas que ingressaram recentemente na bolsa de valores  brasileira (B3, 2024). Nesse cenário, a promessa da IA de identificar padrões sutis e antecipar  movimentos de mercado desperta enorme interesse. Contudo, essa promessa vem acompanhada  de uma preocupação fundamental: a falta de transparência dos resultados produzidos por esses  sistemas. 

O desafio é superar a opacidade das técnicas conexionistas, em especial das redes  neurais profundas. Embora esses modelos tenham capacidade inigualável de processar grandes  volumes de dados financeiros, suas previsões são frequentemente apresentadas como caixas pretas cujas justificativas permanecem inacessíveis ao investidor ou ao regulador. Essa ausência  de explicabilidade não é trivial. Pode levar a erros graves, a decisões enviesadas e ao chamado  gullibility gap (YAN; RUBIN, 2025), além de comprometer a confiança em sistemas  automatizados de recomendação. Em um setor que movimenta trilhões de reais, as  consequências da confiança cega em modelos opacos podem ser sistêmicas. 

A literatura tem buscado mitigar esse problema por pelo menos duas rotas. A primeira  consiste em aplicar métodos de interpretabilidade agnósticos a redes neurais já treinadas. Essas  técnicas pós-hoc buscam explicar o inexplicável, mas oferecem apenas insights parciais e,  muitas vezes, insuficientes (MANDEEP et al., 2022). A segunda rota privilegia sistemas  simbólicos, que operam com regras explícitas e explicações transparentes (DÍAZ RODRÍGUEZ et al., 2022). Contudo, esses sistemas falham ao lidar com dados ruidosos,  incompletos ou emergentes, cenários comuns em mercados financeiros voláteis. Nenhuma das duas abordagens é capaz de, simultaneamente, oferecer previsões eficazes  e explicações compreensíveis. Essa limitação evidencia uma lacuna relevante na literatura e  aponta para a necessidade de uma terceira via. 

Nossa posição é que a IA neurossimbólica representa esse caminho promissor. Ao  combinar a indução de padrões a partir de dados com a dedução baseada em regras explícitas,  essa integração arquitetural pode gerar recomendações de investimento que sejam  simultaneamente eficazes e compreensíveis. Mais do que isso, essa abordagem permite alinhar  os resultados às expectativas de diferentes perfis de usuários e aos requisitos de regulação e  confiança que caracterizam o setor financeiro. 

Este artigo está organizado da seguinte forma: na Seção 2, discutimos os trabalhos  relacionados, organizando a literatura em quatro eixos principais: modelos conexionistas em  finanças, abordagens simbólicas, métodos de explicabilidade (XAI) e a emergência da IA  neurossimbólica. Na Seção 3, apresentamos nossa proposta de integração neurossimbólica em dois níveis, um exemplo ilustrativo e as implicações dessa arquitetura. Na Seção 4, exploramos  os desafios técnicos, cognitivos e institucionais que essa abordagem enfrenta. Por fim, na Seção  5, apresentamos nossas conclusões e delineamos uma agenda de pesquisa multidisciplinar. 

2 TRABALHOS RELACIONADOS 

O uso de IA em finanças percorreu diferentes paradigmas ao longo das últimas décadas.  Para fins de clareza, organizamos a literatura em quatro eixos: modelos conexionistas,  abordagens simbólicas, métodos de explicabilidade (XAI) e a emergência de propostas neurossimbólicas. 

2.1 Modelos conexionistas em finanças 

As redes neurais e suas variantes tornaram-se dominantes na literatura aplicada a  finanças a partir dos anos 2000, em grande parte pela capacidade de processar grandes volumes  de dados heterogêneos. Esses dados incluem preços históricos, volumes de negociação,  indicadores macroeconômicos, notícias e até métricas de sentimento. Revisões sistemáticas  (AVELAR et al., 2022) mostram como esses modelos são empregados na previsão de preços  de ativos, na análise de risco e na identificação de oportunidades de investimento. Aplicações  recentes vão desde Long-Short Term Memory (LSTM) para séries temporais até Transformers  que integram múltiplas fontes de dados (YOSHINAGA; CASTRO, 2023). 

O desafio, entretanto, é a opacidade desses modelos. Mesmo quando complementados  por técnicas de interpretabilidade pós-hoc, como saliency maps ou feature importance, os  resultados são frequentemente insuficientes para usuários não técnicos (MANDEEP et al.,  2022). Além disso, estudos recentes chamam atenção para o risco de alucinações e para o  chamado gullibility gap, em que usuários superestimam a confiabilidade de saídas geradas por  IA sem compreender sua natureza probabilística (YAN; RUBIN, 2025). Esses riscos são  especialmente relevantes em finanças, onde uma decisão errada pode gerar prejuízos  sistêmicos. 

2.2 Abordagens simbólicas e baseadas em regras 

Antes da ascensão do conexionismo, sistemas simbólicos tiveram ampla aplicação em  finanças sob a forma de sistemas especialistas. Sua principal vantagem é a transparência: as  regras de decisão são codificadas explicitamente, permitindo auditoria e alinhamento a normas  regulatórias. Pesquisas recentes retomaram esse interesse no contexto de IA explicável. Díaz 

Rodríguez et al. (2022) destacam como representações simbólicas podem ser integradas a conhecimento de especialistas, enquanto Černevičienė e Kabašinskas (2024) mostram que  modelos transparentes, como árvores de decisão, oferecem explicações mais claras e adaptáveis  ao contexto financeiro. 

Contudo, a rigidez dessas abordagens limita sua utilidade em cenários caracterizados  por volatilidade, ruído informacional e surgimento de padrões não previamente conhecidos. Em  mercados financeiros globais, onde eventos inesperados como crises geopolíticas, inovações  tecnológicas e mudanças regulatórias impactam rapidamente os preços, sistemas puramente  simbólicos tendem a falhar. 

2.3. Explicabilidade e XAI em finanças 

A busca por transparência motivou uma ampla literatura em eXplainable AI (XAI)  aplicada ao setor financeiro. Entre as principais contribuições, Wachter, Mittelstadt e Russell  (2018) defendem explicações contrafactuais como forma de atender exigências regulatórias  como o General Data Protection Regulation (GDPR). Miller (2019) destaca a necessidade de  explicações contrastivas, sociais e causais, mais próximas da forma como humanos explicam  suas próprias decisões. Gunning et al. (2019) propõem que diferentes perfis de usuários, como  investidores, reguladores e desenvolvedores, exigem diferentes tipos de explicação, ajustados  a seus repertórios cognitivos e responsabilidades. 

Apesar desse avanço conceitual, os métodos mais populares de XAI, como LIME,  SHAP ou Grad-CAM, permanecem agnósticos em relação ao modelo e oferecem apenas  aproximações das lógicas internas. Em consequência, fornecem explicações úteis em contextos  analíticos ou acadêmicos, mas não necessariamente fundamentam a confiança prática em  recomendações financeiras automatizadas. Assim, o dilema persiste: ou temos modelos  poderosos e pouco explicáveis, ou temos modelos transparentes, mas limitados em capacidade  preditiva. 

2.4. Emergência da IA neurossimbólica 

Nos últimos anos, cresce o interesse em IA neurossimbólica, entendida como a  integração entre aprendizado conexionista e raciocínio simbólico. Sheth, Roy e Gaur (2023)  defendem que essa abordagem oferece o melhor dos dois mundos: a habilidade das redes  neurais em identificar padrões complexos e a clareza explicativa dos sistemas simbólicos.  Avanços já podem ser observados em áreas como visão computacional e processamento de  linguagem natural, onde redes neurais são utilizadas para extrair padrões que alimentam  representações simbólicas, capazes de gerar inferências e justificativas.

No entanto, a aplicação dessa perspectiva ao domínio financeiro é ainda incipiente.  Apesar da relevância do setor, caracterizado pela abundância de dados e pela necessidade de  explicações claras para investidores e reguladores, poucos estudos exploram como arquiteturas  neurossimbólicas poderiam apoiar decisões de investimento. Esse vazio na literatura revela uma  oportunidade de pesquisa que combina rigor técnico e impacto prático. 

3 PROPOSTA 

Defendemos que a superação do dilema entre eficácia preditiva e transparência  explicativa no mercado financeiro exige mais do que a justaposição de técnicas de Inteligência  Artificial. O que propomos é uma arquitetura neurossimbólica integrada, na qual aprendizado  conexionista e raciocínio simbólico coevoluem para gerar recomendações intrinsecamente  explicáveis. 

3.1 Limites dos paradigmas isolados 

As limitações das abordagens isoladas são evidentes e, em sua forma atual, insuperáveis.  Modelos conexionistas operam como um oráculo estatístico: poderosos para identificar  padrões, mas opacos. Métodos de explicabilidade pós-hoc oferecem apenas aproximações.  Destacam correlações, mas não revelam cadeias causais ou a lógica de negócios subjacente,  deixando aberto o chamado gullibility gap (YAN; RUBIN, 2025). 

Modelos simbólicos puros, embora transparentes, são frágeis. Sua dependência de  regras pré-definidas os torna incapazes de captar padrões emergentes ou relações não lineares,  o que os torna obsoletos em um mercado altamente dinâmico. 

Portanto, insistir em um desses paradigmas de forma isolada significa escolher entre  sistemas opacos mas eficazes, ou sistemas transparentes porém frágeis. 

3.2 Síntese neurossimbólica em dois níveis 

Nossa posição é que a integração deve ocorrer de forma arquitetural, em dois níveis  complementares: 

Ancoragem Conceitual (Neural para Simbólico): redes neurais devem ser treinadas para  gerar representações que estejam ancoradas em conceitos financeiros semânticos, como  “tendência de alta”, “sobrevenda” ou “volatilidade anormal”. Abordagens como modelos com  gargalo conceitual (KOH et al., 2020) ou técnicas de destilação em árvores de decisão  (HINTON; VINYALS; DEAN, 2015) mostram caminhos possíveis. O objetivo é que o módulo neural não apenas preveja a direção de um preço, mas também produza atributos intermediários  interpretáveis, como Var_Positive(<5%) ou Volume_Acima_da_Média. Validação e Inferência (Simbólico para Neural): um motor de inferência simbólica,  alimentado por regras de especialistas e conhecimento de domínio (ex.: “Se P/L < 10 E  tendência setorial é positiva, ENTÃO valuation é atrativo”), atua sobre esses conceitos  extraídos. Esse módulo não apenas gera explicações, mas valida e restringe recomendações.  Assim, uma sugestão de compra baseada em padrões estatísticos que violem regras de risco  fundamentais, como alavancagem excessiva, pode ser bloqueada ou qualificada pelo sistema  simbólico, aumentando segurança e confiabilidade. 

3.3 Exemplo ilustrativo 

Considere uma recomendação para a ação PETR4: 

Módulo Neural: processa séries temporais, notícias e dados de ordens de negociação.  Identifica um padrão de acumulação institucional com 85% de confiança e classifica o  sentimento das notícias como neutro-positivo. 

Módulo Simbólico: combina esses conceitos com dados fundamentais estáticos (P/L =  9,2; crescimento setorial = 3,2%). A partir de sua base de regras, infere: 

Recomendação = COMPRAR. 

Justificativa: (1) padrão técnico de acumulação institucional detectado; (2) valuation  atrativo (P/L abaixo de 10 para o setor energético); (3) ausência de sinais negativos  relevantes em notícias. 

Nesse cenário, a explicação não é uma justaposição de outputs, mas uma síntese  coerente entre análise estatística e lógica de negócios. 

3.4 Implicações e agenda de pesquisa 

Ignorar essa integração é perpetuar sistemas que são opacos, gerando risco de confiança  e resistência regulatória, ou frágeis, incapazes de acompanhar a dinâmica de mercado. Para que  o avanço seja robusto, propomos três frentes prioritárias de pesquisa: 

Métodos de ancoragem para dados financeiros: desenvolver técnicas de rule extraction  e concept learning que sejam robustas à não estacionariedade e ao ruído das séries temporais  financeiras.

Motores de inferência híbridos: projetar frameworks que permitam comunicação  bidirecional entre módulos neurais e simbólicos, incluindo validação em tempo real e uso de  regras simbólicas como guia para o treinamento neural. 

Frameworks explicativos centrados no humano: adaptar a explicação final ao perfil do  usuário. Para o investidor individual, explicações sucintas baseadas em conceitos-chave (ex.:  “valuation atrativo”). Para reguladores, um log detalhado da cadeia de inferência, auditável  passo a passo, alinhando-se às recomendações de explicações contrastivas e sociais (MILLER,  2019). 

4 DESAFIOS E IMPLICAÇÕES 

A transição do paradigma neurossimbólico de uma promessa teórica para uma realidade  operacional no mercado financeiro está longe de ser trivial. Esta seção explora as implicações  transformadoras dessa adoção e os desafios multidimensionais que precisam ser superados,  posicionando-os como um roteiro para pesquisa e desenvolvimento responsável. 

4.1 Implicações: um novo patamar para IA explicável em finanças 

Argumentamos que a implementação de arquiteturas neurossimbólicas representaria  mais do que um avanço incremental: configuraria uma mudança de patamar. Em primeiro lugar,  ela reconcilia os dois mundos da IA, o conexionista e o simbólico, oferecendo um caminho  viável para dissolver o dilema acurácia versus explicabilidade que há décadas permeia o campo.  Este não é apenas um avanço técnico, mas conceitual, fornecendo à comunidade científica um  novo framework para projetar sistemas de recomendação que são, por construção, auditáveis. 

Essa auditabilidade tem implicações profundas para a conformidade regulatória. Um  sistema capaz de rastrear cada recomendação até um conjunto de regras simbólicas ancoradas  em dados, em vez de oferecer apenas aproximações post hoc, alinha-se diretamente a exigências  de órgãos como a CVM e o BACEN, que demandam transparência e não discriminação. Em  termos normativos, isso se conecta ao princípio do “direito à explicação” discutido no contexto  do GDPR (WACHTER; MITTELSTADT; RUSSELL, 2018). 

A implicação mais significativa talvez seja no âmbito da confiança do usuário. Ao gerar  explicações baseadas em conceitos financeiros (e.g., valuation, momentum) em vez de métricas  técnicas de modelo (e.g., feature importance), a IA neurossimbólica “fala a língua do  investidor”. Isso reduz o gullibility gap (YAN; RUBIN, 2025), substituindo a confiança cega  em uma caixa-preta por uma confiança informada em um sistema cuja lógica pode ser  interrogada e compreendida.

4.2 A fronteira dos desafios técnicos: da volatilidade à velocidade 

Apesar do potencial, a realização prática enfrenta obstáculos técnicos relevantes. O  primeiro diz respeito à extração robusta de conhecimento de modelos neurais. Séries financeiras  são notoriamente não estacionárias e repletas de ruído; padrões válidos hoje podem desaparecer  amanhã. Como extrair regras simbólicas estáveis e significativas de uma rede neural que  aprendeu essas relações efêmeras? Técnicas de rule extraction precisarão evoluir para lidar com  essa dinâmica, possivelmente incorporando mecanismos de concept drift detection para  invalidar regras obsoletas. 

O segundo desafio é a integração em tempo real. Mercados financeiros operam em  escalas de microssegundos, e uma arquitetura híbrida não pode introduzir latências proibitivas.  O design do sistema deve otimizar a comunicação entre o módulo neural (computacionalmente  intensivo) e o módulo simbólico (mais leve), explorando estratégias como pré-computação de  conceitos ou execução paralela. Aqui, eficiência não é apenas desejável, é um requisito de  adoção. 

4.3 O desafio: explicações que realmente explicam 

Superar os obstáculos técnicos é apenas metade da equação. A outra metade é garantir  que as explicações geradas sejam eficazes para seres humanos. O risco da sobrecarga cognitiva  é real: explicações excessivamente complexas ou longas podem ser tão inúteis quanto a  ausência de explicação (MILLER, 2019). É necessário, portanto, um design sensível ao  contexto: ao investidor pessoa física, recomendações concisas focadas em critérios principais;  a reguladores e analistas, acesso detalhado à árvore de inferência e aos pesos conceituais. 

Gunning et al. (2019, p. 2) pressupõe que uma explicação é fornecida a um usuário final  que depende das decisões, recomendações ou ações produzidas por um sistema de IA, mas pode  haver muitos tipos diferentes de usuários, muitas vezes em diferentes momentos no  desenvolvimento e uso do sistema. Por exemplo, um tipo de usuário pode ser um analista de  inteligência, um juiz ou um operador. No entanto, outros usuários que exigem uma explicação  do sistema podem ser desenvolvedores ou operadores de teste que precisam entender onde pode  haver áreas de melhoria. No entanto, outro usuário pode ser os formuladores de políticas, que  estão tentando avaliar a justiça do sistema. Cada grupo de usuários pode ter um tipo de  explicação preferido que seja capaz de comunicar informações da maneira mais eficaz. Uma  explicação eficaz levará em consideração o grupo-alvo de usuários do sistema, que pode variar  em seus conhecimentos prévios e necessidades para o que deve ser explicado.

Weller (2017, p. 2) corrobora essa posição ao afirmar que existem diferentes grupos que  buscam diferentes tipos de explicação. Eles apresentam requisitos diferentes para um sistema  explicável devido à diferença de experiência e devido aos diferentes objetivos subjacentes. 

Além disso, explicações estáticas são insuficientes. Estudos da psicologia da explicação  mostram que humanos preferem justificativas contrastivas e dialógicas (“Por que PETR4 e não  VALE3?”) (HILTON, 1990; MILLER, 2019). Portanto, um desafio futuro é evoluir de sistemas  que apenas geram relatórios para sistemas que sustentam diálogos, permitindo que o usuário  interrogue o modelo e refine suas perguntas. Essa dimensão dialógica é talvez a fronteira mais  promissora para a verdadeira transparência. 

5 CONCLUSÃO 

A crescente complexidade dos mercados financeiros e a pressão por decisões  automatizadas confiáveis colocam a explicabilidade no centro da agenda de pesquisa em  Inteligência Artificial. Neste artigo, argumentamos que nem as redes neurais, em sua forma  opaca, nem os sistemas simbólicos, em sua rigidez, são capazes de atender isoladamente às  demandas de investidores, reguladores e instituições. 

Nossa posição é que uma arquitetura neurossimbólica integrada pode reconciliar  desempenho preditivo e transparência explicativa, ajudando a mitigar o dilema que há décadas  permeia a aplicação de IA em finanças. Defendemos que essa integração deve ocorrer em dois  níveis complementares: (i) a ancoragem de padrões conexionistas em conceitos financeiros  interpretáveis; e (ii) a validação simbólica das recomendações, garantindo rastreabilidade,  auditabilidade e alinhamento com regras de negócio e normas regulatórias. 

As implicações dessa mudança de paradigma são profundas. Ela inaugura um novo  patamar para a IA explicável em finanças, capaz de gerar recomendações auditáveis por  construção, de alinhar-se diretamente a exigências regulatórias e de falar a linguagem do  investidor. Ao mesmo tempo, reconhecemos os desafios. Da extração de regras em séries não  estacionárias à necessidade de explicações contrastivas e dialógicas, passando pela  padronização institucional, tais obstáculos não invalidam a proposta. Ao contrário, delimitam  uma agenda vibrante de pesquisa multidisciplinar que convoca cientistas da computação,  especialistas em finanças, psicólogos e reguladores. 

Concluímos que avançar nessa direção não é apenas uma oportunidade científica, mas  uma necessidade prática e ética. A comunidade acadêmica tem diante de si a chance de construir  sistemas que não apenas preveem, mas explicam. Sistemas capazes de sustentar a confiança em  um setor onde decisões equivocadas podem ter impactos sistêmicos. Chamamos, portanto, pesquisadores e instituições a contribuir para a consolidação de arquiteturas neurossimbólicas  em finanças, abrindo caminho para um mercado mais transparente, robusto e digno de  confiança. 

REFERÊNCIAS 

AVELAR, Ewerton Alex; et al. Inteligência artificial e previsão de preços de ativos financeiros:  uma revisão sistemática. Sistemas & Gestão, v. 17, n. 3, 2022. Disponível em:  https://www.revistasg.uff.br/sg/article/view/1866. Acesso em: 30 dez. 2022. 

B3. Pessoas físicas: uma análise da evolução dos investidores na B3. São Paulo, jun. 2024.  Disponível em:  https://www.b3.com.br/data/files/E8/53/50/73/74EB19104FE62719AC094EA8/Book%20Pes soa%20Fisica%20-%202T2024%20_final_.pdf. Acesso em: 6 fev. 2025. 

ČERNEVIČIENĖ, Jurgita; KABAŠINSKAS, Audrius. Explainable artificial intelligence  (XAI) in finance: a systematic literature review. Artificial Intelligence Review, v. 57, n. 8,  2024. 

DÍAZ-RODRÍGUEZ, N.; et al. Explainable neural-symbolic learning (X-NeSyL) methodology  to fuse deep learning representations with expert knowledge graphs: The MonuMAI cultural  heritage use case. Information Fusion, v. 79, p. 58–83, 2022. Disponível em:  https://doi.org/10.1016/j.inffus.2021.09.022. Acesso em: 12 jun. 2025. 

GUNNING, David; et al. XAI – Explainable artificial intelligence. Science Robotics, v. 4, n.  37, 2019. Disponível em: https://doi.org/10.1126/scirobotics.aay7120. Acesso em: 29 mar.  2025. 

HILTON, Denis J. Conversational processes and causal explanation. Psychological Bulletin,  v. 107, n. 1, p. 65–81, 1990. 

HINTON, Geoffrey; VINYALS, Oriol; DEAN, Jeff. Distilling the knowledge in a neural  network. 2015. Disponível em: https://arxiv.org/abs/1503.02531. Acesso em: 5 fev. 2025.

KOH, Pang Wei; et al. Concept bottleneck models. In: Proceedings of the 37th International  Conference on Machine Learning (ICML). PMLR, 2020. p. 5338–5348. 

MANDEEP; et al. Machine learning based explainable financial forecasting. In: 4th  International Conference on Computer Communication and the Internet (ICCCI). Chiba: IEEE,  2022. p. 34–38. Disponível em: https://ieeexplore.ieee.org/document/9850272. Acesso em: 4  out. 2023. 

MILLER, Tim. Explanation in artificial intelligence: insights from the social sciences.  Artificial Intelligence, v. 267, 2019. Disponível em:  https://doi.org/10.1016/j.artint.2018.07.007. Acesso em: 18 jun. 2024.

SHETH, Amit; ROY, Kaushik; GAUR, Manas. Neurosymbolic artificial intelligence (why,  what, and how). IEEE Intelligent Systems, v. 38, n. 3, p. 56–62, 2023. 

WACHTER, Sandra; MITTELSTADT, Brent; RUSSELL, Chris. Counterfactual explanations  without opening the black box: automated decisions and the GDPR. Harvard Journal of Law  & Technology, v. 31, n. 2, 2018. 

WELLER, Adrian. Transparency: Motivations and Challenges. Human Interpretability in  Machine Learning (WHI 2017), Sydney, NSW, 2017.  

YAN, Shih-Han; RUBIN, Roy. AI is gullible and other problems, 2025. Disponível em:  https://www.preprints.org/manuscript/202501.0457/v1. Acesso em: 12 jun. 2025. 

YOSHINAGA, Carlos Eduardo; CASTRO, Flávio H. Inteligência artificial: a vanguarda das  finanças. GV-Executivo, v. 22, n. 3, 2023. Disponível em:  https://periodicos.fgv.br/gvexecutivo/article/view/89911. Acesso em: 17 fev. 2025.


1Pontifícia Universidade Católica de São Paulo (PUC-SP). e- mail: bperrone@gmail.com
2PUC-SP & Instituto de Tecnologia e Liderança (Inteli). e- mail: silvajo@pucsp.br