EXPLAINABILITY (XAI) OF INVESTMENT RECOMMENDATIONS AND THE IMPORTANCE OF NEURO-SYMBOLIC ARTIFICIAL INTELLIGENCE
REGISTRO DOI: 10.69849/revistaft/ch10202512121755
Bruno F. Perrone1
Jefferson de Oliveira Silva2
Resumo
A crescente adoção de Inteligência Artificial (IA) em finanças trouxe ganhos significativos em predição de preços e análise de risco, mas expôs um dilema persistente: modelos conexionistas oferecem alto desempenho preditivo, porém permanecem opacos, enquanto sistemas simbólicos são transparentes, mas carecem de flexibilidade frente à volatilidade e ao ruído dos mercados. Este artigo defende que a superação desse dilema exige mais do que abordagens complementares; requer uma arquitetura neurossimbólica integrada, em que aprendizado sub-simbólico e raciocínio simbólico evoluam juntos para produzir recomendações intrinsecamente explicáveis. A partir de revisão crítica da literatura em redes neurais, sistemas simbólicos e métodos de IA explicável (XAI), argumenta-se que a integração neurossimbólica oferece um caminho promissor para conciliar desempenho, auditabilidade e confiança. Propõe-se um modelo conceitual em dois níveis: (i) ancoragem de padrões conexionistas em conceitos financeiros interpretáveis; e (ii) validação e inferência simbólica sobre esses conceitos, assegurando conformidade regulatória e explicações adaptadas a diferentes perfis de usuários. As implicações dessa abordagem incluem maior alinhamento a normas de transparência, redução do gullibility gap e fortalecimento da confiança do investidor. Contudo, permanecem desafios técnicos, cognitivos e institucionais, delineando uma agenda de pesquisa multidisciplinar. Conclui-se que avançar em direção a arquiteturas neurossimbólicas não é apenas uma oportunidade científica, mas uma necessidade prática e ética para um mercado financeiro mais transparente e robusto.
Palavras-chave: Explicabilidade. Investimentos. Recomendações. Inteligência Artificial. Neurossimbólica.
1 INTRODUÇÃO
O mercado financeiro contemporâneo é um dos ambientes mais desafiadores para a aplicação de Inteligência Artificial (IA). Decisões de investimento envolvem riscos elevados, regulação rigorosa e um público heterogêneo que vai desde investidores altamente especializados até milhões de pessoas físicas que ingressaram recentemente na bolsa de valores brasileira (B3, 2024). Nesse cenário, a promessa da IA de identificar padrões sutis e antecipar movimentos de mercado desperta enorme interesse. Contudo, essa promessa vem acompanhada de uma preocupação fundamental: a falta de transparência dos resultados produzidos por esses sistemas.
O desafio é superar a opacidade das técnicas conexionistas, em especial das redes neurais profundas. Embora esses modelos tenham capacidade inigualável de processar grandes volumes de dados financeiros, suas previsões são frequentemente apresentadas como caixas pretas cujas justificativas permanecem inacessíveis ao investidor ou ao regulador. Essa ausência de explicabilidade não é trivial. Pode levar a erros graves, a decisões enviesadas e ao chamado gullibility gap (YAN; RUBIN, 2025), além de comprometer a confiança em sistemas automatizados de recomendação. Em um setor que movimenta trilhões de reais, as consequências da confiança cega em modelos opacos podem ser sistêmicas.
A literatura tem buscado mitigar esse problema por pelo menos duas rotas. A primeira consiste em aplicar métodos de interpretabilidade agnósticos a redes neurais já treinadas. Essas técnicas pós-hoc buscam explicar o inexplicável, mas oferecem apenas insights parciais e, muitas vezes, insuficientes (MANDEEP et al., 2022). A segunda rota privilegia sistemas simbólicos, que operam com regras explícitas e explicações transparentes (DÍAZ RODRÍGUEZ et al., 2022). Contudo, esses sistemas falham ao lidar com dados ruidosos, incompletos ou emergentes, cenários comuns em mercados financeiros voláteis. Nenhuma das duas abordagens é capaz de, simultaneamente, oferecer previsões eficazes e explicações compreensíveis. Essa limitação evidencia uma lacuna relevante na literatura e aponta para a necessidade de uma terceira via.
Nossa posição é que a IA neurossimbólica representa esse caminho promissor. Ao combinar a indução de padrões a partir de dados com a dedução baseada em regras explícitas, essa integração arquitetural pode gerar recomendações de investimento que sejam simultaneamente eficazes e compreensíveis. Mais do que isso, essa abordagem permite alinhar os resultados às expectativas de diferentes perfis de usuários e aos requisitos de regulação e confiança que caracterizam o setor financeiro.
Este artigo está organizado da seguinte forma: na Seção 2, discutimos os trabalhos relacionados, organizando a literatura em quatro eixos principais: modelos conexionistas em finanças, abordagens simbólicas, métodos de explicabilidade (XAI) e a emergência da IA neurossimbólica. Na Seção 3, apresentamos nossa proposta de integração neurossimbólica em dois níveis, um exemplo ilustrativo e as implicações dessa arquitetura. Na Seção 4, exploramos os desafios técnicos, cognitivos e institucionais que essa abordagem enfrenta. Por fim, na Seção 5, apresentamos nossas conclusões e delineamos uma agenda de pesquisa multidisciplinar.
2 TRABALHOS RELACIONADOS
O uso de IA em finanças percorreu diferentes paradigmas ao longo das últimas décadas. Para fins de clareza, organizamos a literatura em quatro eixos: modelos conexionistas, abordagens simbólicas, métodos de explicabilidade (XAI) e a emergência de propostas neurossimbólicas.
2.1 Modelos conexionistas em finanças
As redes neurais e suas variantes tornaram-se dominantes na literatura aplicada a finanças a partir dos anos 2000, em grande parte pela capacidade de processar grandes volumes de dados heterogêneos. Esses dados incluem preços históricos, volumes de negociação, indicadores macroeconômicos, notícias e até métricas de sentimento. Revisões sistemáticas (AVELAR et al., 2022) mostram como esses modelos são empregados na previsão de preços de ativos, na análise de risco e na identificação de oportunidades de investimento. Aplicações recentes vão desde Long-Short Term Memory (LSTM) para séries temporais até Transformers que integram múltiplas fontes de dados (YOSHINAGA; CASTRO, 2023).
O desafio, entretanto, é a opacidade desses modelos. Mesmo quando complementados por técnicas de interpretabilidade pós-hoc, como saliency maps ou feature importance, os resultados são frequentemente insuficientes para usuários não técnicos (MANDEEP et al., 2022). Além disso, estudos recentes chamam atenção para o risco de alucinações e para o chamado gullibility gap, em que usuários superestimam a confiabilidade de saídas geradas por IA sem compreender sua natureza probabilística (YAN; RUBIN, 2025). Esses riscos são especialmente relevantes em finanças, onde uma decisão errada pode gerar prejuízos sistêmicos.
2.2 Abordagens simbólicas e baseadas em regras
Antes da ascensão do conexionismo, sistemas simbólicos tiveram ampla aplicação em finanças sob a forma de sistemas especialistas. Sua principal vantagem é a transparência: as regras de decisão são codificadas explicitamente, permitindo auditoria e alinhamento a normas regulatórias. Pesquisas recentes retomaram esse interesse no contexto de IA explicável. Díaz
Rodríguez et al. (2022) destacam como representações simbólicas podem ser integradas a conhecimento de especialistas, enquanto Černevičienė e Kabašinskas (2024) mostram que modelos transparentes, como árvores de decisão, oferecem explicações mais claras e adaptáveis ao contexto financeiro.
Contudo, a rigidez dessas abordagens limita sua utilidade em cenários caracterizados por volatilidade, ruído informacional e surgimento de padrões não previamente conhecidos. Em mercados financeiros globais, onde eventos inesperados como crises geopolíticas, inovações tecnológicas e mudanças regulatórias impactam rapidamente os preços, sistemas puramente simbólicos tendem a falhar.
2.3. Explicabilidade e XAI em finanças
A busca por transparência motivou uma ampla literatura em eXplainable AI (XAI) aplicada ao setor financeiro. Entre as principais contribuições, Wachter, Mittelstadt e Russell (2018) defendem explicações contrafactuais como forma de atender exigências regulatórias como o General Data Protection Regulation (GDPR). Miller (2019) destaca a necessidade de explicações contrastivas, sociais e causais, mais próximas da forma como humanos explicam suas próprias decisões. Gunning et al. (2019) propõem que diferentes perfis de usuários, como investidores, reguladores e desenvolvedores, exigem diferentes tipos de explicação, ajustados a seus repertórios cognitivos e responsabilidades.
Apesar desse avanço conceitual, os métodos mais populares de XAI, como LIME, SHAP ou Grad-CAM, permanecem agnósticos em relação ao modelo e oferecem apenas aproximações das lógicas internas. Em consequência, fornecem explicações úteis em contextos analíticos ou acadêmicos, mas não necessariamente fundamentam a confiança prática em recomendações financeiras automatizadas. Assim, o dilema persiste: ou temos modelos poderosos e pouco explicáveis, ou temos modelos transparentes, mas limitados em capacidade preditiva.
2.4. Emergência da IA neurossimbólica
Nos últimos anos, cresce o interesse em IA neurossimbólica, entendida como a integração entre aprendizado conexionista e raciocínio simbólico. Sheth, Roy e Gaur (2023) defendem que essa abordagem oferece o melhor dos dois mundos: a habilidade das redes neurais em identificar padrões complexos e a clareza explicativa dos sistemas simbólicos. Avanços já podem ser observados em áreas como visão computacional e processamento de linguagem natural, onde redes neurais são utilizadas para extrair padrões que alimentam representações simbólicas, capazes de gerar inferências e justificativas.
No entanto, a aplicação dessa perspectiva ao domínio financeiro é ainda incipiente. Apesar da relevância do setor, caracterizado pela abundância de dados e pela necessidade de explicações claras para investidores e reguladores, poucos estudos exploram como arquiteturas neurossimbólicas poderiam apoiar decisões de investimento. Esse vazio na literatura revela uma oportunidade de pesquisa que combina rigor técnico e impacto prático.
3 PROPOSTA
Defendemos que a superação do dilema entre eficácia preditiva e transparência explicativa no mercado financeiro exige mais do que a justaposição de técnicas de Inteligência Artificial. O que propomos é uma arquitetura neurossimbólica integrada, na qual aprendizado conexionista e raciocínio simbólico coevoluem para gerar recomendações intrinsecamente explicáveis.
3.1 Limites dos paradigmas isolados
As limitações das abordagens isoladas são evidentes e, em sua forma atual, insuperáveis. Modelos conexionistas operam como um oráculo estatístico: poderosos para identificar padrões, mas opacos. Métodos de explicabilidade pós-hoc oferecem apenas aproximações. Destacam correlações, mas não revelam cadeias causais ou a lógica de negócios subjacente, deixando aberto o chamado gullibility gap (YAN; RUBIN, 2025).
Modelos simbólicos puros, embora transparentes, são frágeis. Sua dependência de regras pré-definidas os torna incapazes de captar padrões emergentes ou relações não lineares, o que os torna obsoletos em um mercado altamente dinâmico.
Portanto, insistir em um desses paradigmas de forma isolada significa escolher entre sistemas opacos mas eficazes, ou sistemas transparentes porém frágeis.
3.2 Síntese neurossimbólica em dois níveis
Nossa posição é que a integração deve ocorrer de forma arquitetural, em dois níveis complementares:
Ancoragem Conceitual (Neural para Simbólico): redes neurais devem ser treinadas para gerar representações que estejam ancoradas em conceitos financeiros semânticos, como “tendência de alta”, “sobrevenda” ou “volatilidade anormal”. Abordagens como modelos com gargalo conceitual (KOH et al., 2020) ou técnicas de destilação em árvores de decisão (HINTON; VINYALS; DEAN, 2015) mostram caminhos possíveis. O objetivo é que o módulo neural não apenas preveja a direção de um preço, mas também produza atributos intermediários interpretáveis, como Var_Positive(<5%) ou Volume_Acima_da_Média. Validação e Inferência (Simbólico para Neural): um motor de inferência simbólica, alimentado por regras de especialistas e conhecimento de domínio (ex.: “Se P/L < 10 E tendência setorial é positiva, ENTÃO valuation é atrativo”), atua sobre esses conceitos extraídos. Esse módulo não apenas gera explicações, mas valida e restringe recomendações. Assim, uma sugestão de compra baseada em padrões estatísticos que violem regras de risco fundamentais, como alavancagem excessiva, pode ser bloqueada ou qualificada pelo sistema simbólico, aumentando segurança e confiabilidade.
3.3 Exemplo ilustrativo
Considere uma recomendação para a ação PETR4:
Módulo Neural: processa séries temporais, notícias e dados de ordens de negociação. Identifica um padrão de acumulação institucional com 85% de confiança e classifica o sentimento das notícias como neutro-positivo.
Módulo Simbólico: combina esses conceitos com dados fundamentais estáticos (P/L = 9,2; crescimento setorial = 3,2%). A partir de sua base de regras, infere:
Recomendação = COMPRAR.
Justificativa: (1) padrão técnico de acumulação institucional detectado; (2) valuation atrativo (P/L abaixo de 10 para o setor energético); (3) ausência de sinais negativos relevantes em notícias.
Nesse cenário, a explicação não é uma justaposição de outputs, mas uma síntese coerente entre análise estatística e lógica de negócios.
3.4 Implicações e agenda de pesquisa
Ignorar essa integração é perpetuar sistemas que são opacos, gerando risco de confiança e resistência regulatória, ou frágeis, incapazes de acompanhar a dinâmica de mercado. Para que o avanço seja robusto, propomos três frentes prioritárias de pesquisa:
Métodos de ancoragem para dados financeiros: desenvolver técnicas de rule extraction e concept learning que sejam robustas à não estacionariedade e ao ruído das séries temporais financeiras.
Motores de inferência híbridos: projetar frameworks que permitam comunicação bidirecional entre módulos neurais e simbólicos, incluindo validação em tempo real e uso de regras simbólicas como guia para o treinamento neural.
Frameworks explicativos centrados no humano: adaptar a explicação final ao perfil do usuário. Para o investidor individual, explicações sucintas baseadas em conceitos-chave (ex.: “valuation atrativo”). Para reguladores, um log detalhado da cadeia de inferência, auditável passo a passo, alinhando-se às recomendações de explicações contrastivas e sociais (MILLER, 2019).
4 DESAFIOS E IMPLICAÇÕES
A transição do paradigma neurossimbólico de uma promessa teórica para uma realidade operacional no mercado financeiro está longe de ser trivial. Esta seção explora as implicações transformadoras dessa adoção e os desafios multidimensionais que precisam ser superados, posicionando-os como um roteiro para pesquisa e desenvolvimento responsável.
4.1 Implicações: um novo patamar para IA explicável em finanças
Argumentamos que a implementação de arquiteturas neurossimbólicas representaria mais do que um avanço incremental: configuraria uma mudança de patamar. Em primeiro lugar, ela reconcilia os dois mundos da IA, o conexionista e o simbólico, oferecendo um caminho viável para dissolver o dilema acurácia versus explicabilidade que há décadas permeia o campo. Este não é apenas um avanço técnico, mas conceitual, fornecendo à comunidade científica um novo framework para projetar sistemas de recomendação que são, por construção, auditáveis.
Essa auditabilidade tem implicações profundas para a conformidade regulatória. Um sistema capaz de rastrear cada recomendação até um conjunto de regras simbólicas ancoradas em dados, em vez de oferecer apenas aproximações post hoc, alinha-se diretamente a exigências de órgãos como a CVM e o BACEN, que demandam transparência e não discriminação. Em termos normativos, isso se conecta ao princípio do “direito à explicação” discutido no contexto do GDPR (WACHTER; MITTELSTADT; RUSSELL, 2018).
A implicação mais significativa talvez seja no âmbito da confiança do usuário. Ao gerar explicações baseadas em conceitos financeiros (e.g., valuation, momentum) em vez de métricas técnicas de modelo (e.g., feature importance), a IA neurossimbólica “fala a língua do investidor”. Isso reduz o gullibility gap (YAN; RUBIN, 2025), substituindo a confiança cega em uma caixa-preta por uma confiança informada em um sistema cuja lógica pode ser interrogada e compreendida.
4.2 A fronteira dos desafios técnicos: da volatilidade à velocidade
Apesar do potencial, a realização prática enfrenta obstáculos técnicos relevantes. O primeiro diz respeito à extração robusta de conhecimento de modelos neurais. Séries financeiras são notoriamente não estacionárias e repletas de ruído; padrões válidos hoje podem desaparecer amanhã. Como extrair regras simbólicas estáveis e significativas de uma rede neural que aprendeu essas relações efêmeras? Técnicas de rule extraction precisarão evoluir para lidar com essa dinâmica, possivelmente incorporando mecanismos de concept drift detection para invalidar regras obsoletas.
O segundo desafio é a integração em tempo real. Mercados financeiros operam em escalas de microssegundos, e uma arquitetura híbrida não pode introduzir latências proibitivas. O design do sistema deve otimizar a comunicação entre o módulo neural (computacionalmente intensivo) e o módulo simbólico (mais leve), explorando estratégias como pré-computação de conceitos ou execução paralela. Aqui, eficiência não é apenas desejável, é um requisito de adoção.
4.3 O desafio: explicações que realmente explicam
Superar os obstáculos técnicos é apenas metade da equação. A outra metade é garantir que as explicações geradas sejam eficazes para seres humanos. O risco da sobrecarga cognitiva é real: explicações excessivamente complexas ou longas podem ser tão inúteis quanto a ausência de explicação (MILLER, 2019). É necessário, portanto, um design sensível ao contexto: ao investidor pessoa física, recomendações concisas focadas em critérios principais; a reguladores e analistas, acesso detalhado à árvore de inferência e aos pesos conceituais.
Gunning et al. (2019, p. 2) pressupõe que uma explicação é fornecida a um usuário final que depende das decisões, recomendações ou ações produzidas por um sistema de IA, mas pode haver muitos tipos diferentes de usuários, muitas vezes em diferentes momentos no desenvolvimento e uso do sistema. Por exemplo, um tipo de usuário pode ser um analista de inteligência, um juiz ou um operador. No entanto, outros usuários que exigem uma explicação do sistema podem ser desenvolvedores ou operadores de teste que precisam entender onde pode haver áreas de melhoria. No entanto, outro usuário pode ser os formuladores de políticas, que estão tentando avaliar a justiça do sistema. Cada grupo de usuários pode ter um tipo de explicação preferido que seja capaz de comunicar informações da maneira mais eficaz. Uma explicação eficaz levará em consideração o grupo-alvo de usuários do sistema, que pode variar em seus conhecimentos prévios e necessidades para o que deve ser explicado.
Weller (2017, p. 2) corrobora essa posição ao afirmar que existem diferentes grupos que buscam diferentes tipos de explicação. Eles apresentam requisitos diferentes para um sistema explicável devido à diferença de experiência e devido aos diferentes objetivos subjacentes.
Além disso, explicações estáticas são insuficientes. Estudos da psicologia da explicação mostram que humanos preferem justificativas contrastivas e dialógicas (“Por que PETR4 e não VALE3?”) (HILTON, 1990; MILLER, 2019). Portanto, um desafio futuro é evoluir de sistemas que apenas geram relatórios para sistemas que sustentam diálogos, permitindo que o usuário interrogue o modelo e refine suas perguntas. Essa dimensão dialógica é talvez a fronteira mais promissora para a verdadeira transparência.
5 CONCLUSÃO
A crescente complexidade dos mercados financeiros e a pressão por decisões automatizadas confiáveis colocam a explicabilidade no centro da agenda de pesquisa em Inteligência Artificial. Neste artigo, argumentamos que nem as redes neurais, em sua forma opaca, nem os sistemas simbólicos, em sua rigidez, são capazes de atender isoladamente às demandas de investidores, reguladores e instituições.
Nossa posição é que uma arquitetura neurossimbólica integrada pode reconciliar desempenho preditivo e transparência explicativa, ajudando a mitigar o dilema que há décadas permeia a aplicação de IA em finanças. Defendemos que essa integração deve ocorrer em dois níveis complementares: (i) a ancoragem de padrões conexionistas em conceitos financeiros interpretáveis; e (ii) a validação simbólica das recomendações, garantindo rastreabilidade, auditabilidade e alinhamento com regras de negócio e normas regulatórias.
As implicações dessa mudança de paradigma são profundas. Ela inaugura um novo patamar para a IA explicável em finanças, capaz de gerar recomendações auditáveis por construção, de alinhar-se diretamente a exigências regulatórias e de falar a linguagem do investidor. Ao mesmo tempo, reconhecemos os desafios. Da extração de regras em séries não estacionárias à necessidade de explicações contrastivas e dialógicas, passando pela padronização institucional, tais obstáculos não invalidam a proposta. Ao contrário, delimitam uma agenda vibrante de pesquisa multidisciplinar que convoca cientistas da computação, especialistas em finanças, psicólogos e reguladores.
Concluímos que avançar nessa direção não é apenas uma oportunidade científica, mas uma necessidade prática e ética. A comunidade acadêmica tem diante de si a chance de construir sistemas que não apenas preveem, mas explicam. Sistemas capazes de sustentar a confiança em um setor onde decisões equivocadas podem ter impactos sistêmicos. Chamamos, portanto, pesquisadores e instituições a contribuir para a consolidação de arquiteturas neurossimbólicas em finanças, abrindo caminho para um mercado mais transparente, robusto e digno de confiança.
REFERÊNCIAS
AVELAR, Ewerton Alex; et al. Inteligência artificial e previsão de preços de ativos financeiros: uma revisão sistemática. Sistemas & Gestão, v. 17, n. 3, 2022. Disponível em: https://www.revistasg.uff.br/sg/article/view/1866. Acesso em: 30 dez. 2022.
B3. Pessoas físicas: uma análise da evolução dos investidores na B3. São Paulo, jun. 2024. Disponível em: https://www.b3.com.br/data/files/E8/53/50/73/74EB19104FE62719AC094EA8/Book%20Pes soa%20Fisica%20-%202T2024%20_final_.pdf. Acesso em: 6 fev. 2025.
ČERNEVIČIENĖ, Jurgita; KABAŠINSKAS, Audrius. Explainable artificial intelligence (XAI) in finance: a systematic literature review. Artificial Intelligence Review, v. 57, n. 8, 2024.
DÍAZ-RODRÍGUEZ, N.; et al. Explainable neural-symbolic learning (X-NeSyL) methodology to fuse deep learning representations with expert knowledge graphs: The MonuMAI cultural heritage use case. Information Fusion, v. 79, p. 58–83, 2022. Disponível em: https://doi.org/10.1016/j.inffus.2021.09.022. Acesso em: 12 jun. 2025.
GUNNING, David; et al. XAI – Explainable artificial intelligence. Science Robotics, v. 4, n. 37, 2019. Disponível em: https://doi.org/10.1126/scirobotics.aay7120. Acesso em: 29 mar. 2025.
HILTON, Denis J. Conversational processes and causal explanation. Psychological Bulletin, v. 107, n. 1, p. 65–81, 1990.
HINTON, Geoffrey; VINYALS, Oriol; DEAN, Jeff. Distilling the knowledge in a neural network. 2015. Disponível em: https://arxiv.org/abs/1503.02531. Acesso em: 5 fev. 2025.
KOH, Pang Wei; et al. Concept bottleneck models. In: Proceedings of the 37th International Conference on Machine Learning (ICML). PMLR, 2020. p. 5338–5348.
MANDEEP; et al. Machine learning based explainable financial forecasting. In: 4th International Conference on Computer Communication and the Internet (ICCCI). Chiba: IEEE, 2022. p. 34–38. Disponível em: https://ieeexplore.ieee.org/document/9850272. Acesso em: 4 out. 2023.
MILLER, Tim. Explanation in artificial intelligence: insights from the social sciences. Artificial Intelligence, v. 267, 2019. Disponível em: https://doi.org/10.1016/j.artint.2018.07.007. Acesso em: 18 jun. 2024.
SHETH, Amit; ROY, Kaushik; GAUR, Manas. Neurosymbolic artificial intelligence (why, what, and how). IEEE Intelligent Systems, v. 38, n. 3, p. 56–62, 2023.
WACHTER, Sandra; MITTELSTADT, Brent; RUSSELL, Chris. Counterfactual explanations without opening the black box: automated decisions and the GDPR. Harvard Journal of Law & Technology, v. 31, n. 2, 2018.
WELLER, Adrian. Transparency: Motivations and Challenges. Human Interpretability in Machine Learning (WHI 2017), Sydney, NSW, 2017.
YAN, Shih-Han; RUBIN, Roy. AI is gullible and other problems, 2025. Disponível em: https://www.preprints.org/manuscript/202501.0457/v1. Acesso em: 12 jun. 2025.
YOSHINAGA, Carlos Eduardo; CASTRO, Flávio H. Inteligência artificial: a vanguarda das finanças. GV-Executivo, v. 22, n. 3, 2023. Disponível em: https://periodicos.fgv.br/gvexecutivo/article/view/89911. Acesso em: 17 fev. 2025.
1Pontifícia Universidade Católica de São Paulo (PUC-SP). e- mail: bperrone@gmail.com
2PUC-SP & Instituto de Tecnologia e Liderança (Inteli). e- mail: silvajo@pucsp.br
