CONCESSÃO ALGORÍTMICA DE CRÉDITO NO MERCADO DIGITAL: REGULAÇÃO INSTITUCIONAL E TUTELA DO CONSUMIDOR

REGISTRO DOI: 10.69849/revistaft/cl10202509041115


Francisca Sílvia da Silva Reis


RESUMO

A concessão algorítmica de crédito desponta como uma das inovações mais significativas do mercado digital, marcada pelo uso intensivo de dados e sistemas automatizados de decisão na avaliação de riscos. Embora represente um avanço em termos de eficiência e inclusão financeira, a prática levanta questões relevantes quanto à opacidade dos algoritmos, à possibilidade de discriminação indireta e à assimetria informacional entre consumidores e instituições financeiras. Neste artigo, examina-se o fenômeno da concessão algorítmica de crédito sob a ótica da regulação institucional e da tutela do consumidor, considerando o marco normativo brasileiro (CDC, LGPD e regulamentação do Banco Central) e experiências internacionais de governança algorítmica. A partir de pesquisa bibliográfica e análise jurídico-normativa, investigam-se os limites da responsabilidade das instituições financeiras, os direitos à informação e à não discriminação e os desafios de implementação de mecanismos de transparência e revisão das decisões automatizadas. Tem-se como resultado que a regulação da concessão algorítmica deve se orientar por princípios de transparência, inclusão e responsabilidade, de modo a equilibrar inovação tecnológica e proteção do consumidor no mercado digital.

Palavras-chave: crédito algorítmico; mercado digital; regulação institucional; proteção de dados; direito do consumidor.

ABSTRACT

Algorithmic credit granting is emerging as one of the most significant innovations in the digital market, marked by the intensive use of data and automated decision-making systems in risk assessment. While representing a step forward in terms of efficiency and financial inclusion, the practice raises important questions regarding the opacity of algorithms, the possibility of indirect discrimination, and the information asymmetry between consumers and financial institutions. This article examines the phenomenon of algorithmic credit granting from the perspective of institutional regulation and consumer protection, considering the Brazilian regulatory framework (CDC, LGPD, and Central Bank regulations) and international experiences with algorithmic governance. Based on bibliographical research and legal and normative analysis, the article investigates the limits of financial institutions’ liability, the rights to information and non-discrimination, and the challenges of implementing transparency mechanisms and reviewing automated decisions. The conclusion is that the regulation of algorithmic credit granting should be guided by principles of transparency, inclusion, and accountability, in order to balance technological innovation and consumer protection in the digital market. 

Keywords: algorithmic credit; digital market; institutional regulation; data protection; consumer law.

1. INTRODUÇÃO

A concessão de crédito constitui um dos instrumentos centrais de funcionamento da economia contemporânea, possibilitando tanto a dinamização do consumo quanto a expansão da atividade produtiva. Tradicionalmente baseada em critérios analógicos e na análise documental dos solicitantes, a prática sofreu transformações profundas com o avanço da digitalização financeira e o surgimento das fintechs. Nesse novo cenário, a avaliação de risco de crédito passou a ser mediada, em larga escala, por algoritmos e sistemas automatizados de decisão, capazes de processar grandes volumes de dados em tempo real. Embora esse movimento represente ganhos de eficiência, agilidade e potencial de inclusão financeira, levanta questionamentos relevantes quanto à opacidade dos modelos algorítmicos, à assimetria informacional e à proteção dos consumidores diante de eventuais abusos ou discriminações indiretas.

Na experiência regulatória brasileira, a concessão algorítmica de crédito é enquadrada em um sistema jurídico que articula normas de proteção ao consumidor (CDC), garantias de privacidade e segurança da informação (LGPD) e a regulação prudencial e de conduta supervisionada pelo Banco Central. Todavia, a prática cotidiana do mercado digital tem evidenciado que os instrumentos normativos existentes ainda se mostram insuficientes para enfrentar dilemas próprios da era dos dados, como a transparência algorítmica, a responsabilidade por decisões automatizadas e os riscos de exclusão financeira estrutural. A intensificação do uso de inteligência artificial e big data nos serviços financeiros revela um campo em que os limites normativos tradicionais tornam-se difusos, tensionados ou reinterpretados pelas novas formas de governança tecnológica.

É nesse contexto que emerge a questão central deste estudo: de que modo a regulação institucional e a tutela do consumidor podem responder aos desafios impostos pela concessão algorítmica de crédito no mercado digital, equilibrando inovação tecnológica, eficiência econômica e proteção de direitos fundamentais?

Este artigo tem como objetivo analisar o fenômeno da concessão algorítmica de crédito sob a ótica jurídico-institucional, discutindo a compatibilidade de seus mecanismos com os princípios da transparência, da não discriminação e da responsabilidade. Busca-se compreender as tensões entre inovação e regulação, avaliando os riscos e oportunidades do crédito algorítmico para a efetividade dos direitos do consumidor e para a inclusão financeira.

A metodologia adotada é qualitativa, estruturada a partir de pesquisa bibliográfica e análise jurídico-normativa. Esse delineamento metodológico permite compreender tanto a evolução normativa que regula a concessão algorítmica de crédito quanto os debates doutrinários e institucionais que envolvem a proteção do consumidor no ambiente digital. A análise será conduzida com base na interpretação sistemática das normas aplicáveis, confrontando-as com as práticas do mercado de crédito digital e com os desafios impostos pelas tecnologias de tomada de decisão automatizada.

O referencial teórico contempla contribuições clássicas e contemporâneas. No âmbito do direito do consumidor, destaca-se Contratos no Código de Defesa do Consumidor (Marques, 2019), que fornece bases para a compreensão da vulnerabilidade e da necessidade de tutela do consumidor em contratos massificados. Para o estudo dos contratos e do mercado financeiro, será mobilizada a obra Curso de Direito Comercial (Coelho, 2021), essencial para analisar os fundamentos contratuais e empresariais envolvidos na concessão de crédito. A análise econômica do direito aplicada à regulação é abordada por Economic Analysis of Law (Posner, 2014), Análise Econômica do Direito (Mackaay, 2015) e Direito, Economia e Mercados (Salama, 2010), que fornecem instrumentos para avaliar a eficiência e os impactos econômicos das escolhas regulatórias. Ademais, aportes recentes sobre proteção de dados e governança digital são examinados em Da Privacidade à Proteção de Dados Pessoais (Doneda, 2019) e The Age of Surveillance Capitalism (Zuboff, 2019), que problematizam os riscos da coleta massiva de informações e da opacidade algorítmica.

Para alcançar tais objetivos, o artigo organiza-se em seis seções. A primeira apresenta a introdução e a problematização do tema. Em seguida, examina-se o mercado digital de crédito e a transformação algorítmica promovida pelas fintechs e plataformas digitais. A terceira seção aborda a regulação institucional, destacando os marcos normativos nacionais e internacionais. A quarta seção discute a tutela do consumidor diante das decisões automatizadas e os riscos de vieses e discriminações. A quinta seção trata da transparência, inclusão e responsabilidade no crédito algorítmico, problematizando os desafios e possibilidades de uma regulação responsiva. Por fim, nas considerações finais, são sintetizados os achados e apresentadas reflexões sobre os caminhos para compatibilizar inovação tecnológica e proteção do consumidor no mercado digital.

2. O MERCADO DIGITAL DE CRÉDITO E A TRANSFORMAÇÃO ALGORÍTMICA

O crédito sempre foi elemento essencial da economia, funcionando como propulsor do consumo e como mecanismo de dinamização do mercado produtivo. No entanto, o processo de concessão era tradicionalmente ancorado em modelos analógicos, marcados por burocracia e custos elevados, o que restringia o acesso de amplas parcelas da população. Com o avanço tecnológico e a digitalização das finanças, esse panorama sofreu profunda alteração, exigindo uma releitura crítica do papel do crédito na sociedade contemporânea (Coelho, 2021).

O surgimento das tecnologias digitais e a popularização dos dispositivos móveis provocaram uma transformação estrutural no setor financeiro. Fintechs e plataformas digitais passaram a disputar espaço com os bancos tradicionais, oferecendo rapidez, conveniência e custos operacionais reduzidos. De acordo com Zuboff (2019), vivemos em um regime de “capitalismo de vigilância”, no qual a coleta e o tratamento de dados pessoais se tornam centrais para a oferta de serviços, inclusive no mercado de crédito.

Essa inovação não se restringiu ao canal de acesso, mas alcançou a própria lógica de avaliação de risco. O uso de algoritmos, big data e inteligência artificial possibilitou novas formas de precificação do crédito, ampliando a capacidade de análise das instituições. Contudo, Doneda (2019) adverte que essa transformação não está isenta de riscos: a opacidade dos sistemas automatizados e a possibilidade de vieses discriminatórios exigem cautela regulatória, sob pena de comprometer direitos fundamentais.

Assim, a análise do mercado digital de crédito não pode limitar-se aos ganhos de eficiência. É necessário considerar as tensões jurídicas e sociais que emergem dessa transformação, sobretudo a vulnerabilidade informacional do consumidor diante de decisões automatizadas. Nesse sentido, Marques (2019) destaca que o Código de Defesa do Consumidor deve ser interpretado como instrumento de equilíbrio nas relações contratuais, garantindo transparência, informação adequada e mecanismos de contestação.

2.1 A digitalização do mercado financeiro e o surgimento das fintechs

A digitalização do mercado financeiro constitui um marco histórico na reorganização das formas de concessão de crédito, alterando profundamente os mecanismos tradicionais de intermediação. No Brasil, esse fenômeno se intensificou a partir da década de 2010, quando novas empresas passaram a explorar soluções tecnológicas para serviços bancários, de pagamento e crédito, surgindo assim as fintechs. Segundo relatório da Associação Brasileira de Fintechs, o país já figura entre os maiores ecossistemas do mundo, com centenas de startups voltadas para o setor financeiro (ABFintechs, 2022). Essa transformação não apenas ampliou a oferta de serviços, mas também redesenhou o papel das instituições financeiras tradicionais, obrigadas a modernizar suas operações diante da competição crescente.

O crescimento das fintechs pode ser explicado por fatores como a ampliação do acesso à internet, a popularização dos smartphones e a busca por serviços financeiros menos burocráticos. Coelho (2021) defende que a inovação tecnológica aplicada ao setor financeiro reduziu custos de transação e aumentou a eficiência, criando um ambiente de maior competitividade e inclusão. Isso explica por que milhões de consumidores, antes marginalizados do sistema bancário, passaram a acessar crédito por meio de plataformas digitais. Porém, essa democratização não é neutra: envolve riscos de endividamento exacerbado e de exposição indevida de dados pessoais, o que exige constante supervisão regulatória.

As fintechs também se destacam por desafiar a lógica oligopolista do setor bancário brasileiro, tradicionalmente concentrado em poucas instituições. Dados da PwC (2023) revelam que, mesmo em cenário de instabilidade macroeconômica, o volume de crédito concedido por fintechs cresceu 68% em 2022, alcançando R$ 35,5 bilhões. Esse avanço demonstra não apenas a resiliência dessas empresas, mas também sua capacidade de se consolidar como alternativa relevante às instituições tradicionais, de modo que a expansão de novos modelos contratuais deve sempre ser observada sob a ótica da eficiência e da proteção do consumidor, já que a inovação, se não acompanhada de regulação, pode gerar desequilíbrios sistêmicos (Salama, 2010).

Um ponto central desse processo é a promessa de inclusão financeira. Muitas fintechs direcionam seus serviços a micro e pequenas empresas, além de indivíduos com pouco histórico de crédito. A pesquisa realizada pela PwC (2023) destaca que cerca de 72% da base de clientes corporativos das fintechs brasileiras é composta por pequenos empreendimentos. Essa estratégia amplia o alcance social do crédito, reduzindo barreiras de entrada. Todavia, Mackaay (2015) ressalta que externalidades negativas podem surgir quando a coleta massiva de dados não é acompanhada de mecanismos claros de controle e responsabilização, resultando em discriminação algorítmica e reforço de desigualdades já existentes.

Outro elemento fundamental da digitalização financeira é a integração entre inovação e regulação. A implementação do Open Banking e do Cadastro Positivo no Brasil ampliou o fluxo de informações entre instituições, permitindo avaliações mais completas sobre o perfil de crédito dos consumidores. Embora tais medidas favoreçam a concorrência e a inclusão, elas também expõem os usuários a riscos significativos de violação da privacidade (Doneda, 2019). Nesse sentido, a Lei Geral de Proteção de Dados (Lei nº 13.709/2018) constitui marco normativo essencial para equilibrar o uso econômico de dados com a tutela dos direitos fundamentais.

Ademais, a digitalização também deve ser entendida no contexto global. Zuboff (2019), ao formular o conceito de “capitalismo de vigilância”, sustenta que as grandes plataformas digitais passaram a extrair a experiência humana como matéria-prima gratuita para produção de dados comportamentais. Em suas palavras:

Outrossim, o capitalismo de vigilância reivindica unilateralmente a experiência humana como matéria-prima gratuita para ser traduzida em dados comportamentais. Alguns desses dados são aplicados ao aprimoramento de produtos ou serviços; o restante é declarado como “[…] excedente comportamental proprietário, alimentado em processos avançados de fabricação conhecidos como inteligência de máquina e transformado em produtos de previsão que antecipam o que você fará agora, em breve e mais tarde” (Zuboff, 2019, p. 94). 

As fintechs não se limitam a oferecer serviços financeiros mais rápidos ou baratos: elas modificam a própria concepção de intermediação. Assim, a lógica contratual tradicional, fundada em negociações presenciais e documentos físicos, é substituída por contratos digitais automatizados, baseados em análise algorítmica de dados. Essa mudança exige repensar categorias jurídicas como consentimento, boa-fé e equilíbrio contratual, que passam a se manifestar em ambientes digitais marcados por assimetrias informacionais ainda mais profundas (Coelho, 2021).

A pandemia de Covid-19 acelerou esse processo, aumentando a demanda por soluções digitais. Relatórios do Banco Central (2021) mostram que a utilização de plataformas financeiras digitais cresceu exponencialmente no período, com destaque para a expansão das carteiras digitais e do crédito emergencial concedido por fintechs. Esse contexto reforçou a centralidade dos algoritmos na análise de risco e evidenciou a dependência da sociedade em relação a sistemas automatizados, ao mesmo tempo em que aumentou a pressão sobre reguladores para garantir transparência e segurança nas decisões de crédito.

Desse modo, a digitalização financeira não constitui apenas um avanço tecnológico, mas uma transformação institucional que redefine o papel do crédito na economia contemporânea. Marques (2019) argumenta que o Código de Defesa do Consumidor deve ser reinterpretado à luz dessas novas práticas, assegurando que a vulnerabilidade do consumidor seja mitigada por instrumentos de transparência e contestação das decisões algorítmicas. Com isso, o surgimento das fintechs, embora carregado de potencial inovador, demanda respostas regulatórias compatíveis com os desafios de um mercado digital em rápida expansão.

2.2 Modelos algorítmicos de concessão de crédito: funcionamento e impactos

Os modelos algorítmicos de concessão de crédito se baseiam na coleta e análise de grandes volumes de dados, estruturados e não estruturados, para avaliar a probabilidade de inadimplência de um solicitante. Essa abordagem rompe com o modelo tradicional, que considerava essencialmente renda formal, histórico de crédito e garantias, ao incorporar variáveis comportamentais, digitais e até sociais. A análise econômica do direito permite compreender que o objetivo central dessas ferramentas é aumentar a eficiência da alocação de recursos, mas ao mesmo tempo exige atenção quanto às externalidades negativas, sobretudo quando a informação é assimétrica e não há mecanismos adequados de controle regulatório (Mackaay, 2015).

No contexto brasileiro, os algoritmos passaram a utilizar dados provenientes de cadastros positivos, movimentações em contas digitais e até padrões de consumo online. Essa evolução ampliou significativamente a base de análise, permitindo a inclusão de indivíduos antes invisíveis ao sistema bancário tradicional. Para Salama (2010), o uso de métricas alternativas pode contribuir para a democratização do crédito, mas também gera riscos de seleção adversa, especialmente se critérios opacos resultarem em discriminação indireta de grupos mais vulneráveis. Nesse sentido, a sofisticação tecnológica não elimina dilemas clássicos do direito contratual, como a transparência e a boa-fé objetiva.

Segundo Zuboff (2019), os impactos desses modelos ultrapassam a esfera econômica, alcançando dimensões éticas e jurídicas. Dados pessoais não são apenas insumos neutros, mas recursos explorados de forma assimétrica por grandes instituições e plataformas. Quando aplicados ao mercado de crédito, os algoritmos podem cristalizar desigualdades sociais ao transformar traços comportamentais em fatores de risco. Assim, embora o sistema aparente neutralidade matemática, ele reflete e reproduz preconceitos estruturais que se tornam invisíveis ao consumidor, dificultando a contestação.

Do ponto de vista jurídico, a utilização de algoritmos na análise de crédito suscita discussões sobre o dever de informação e o direito à explicação. Ou seja, a opacidade algorítmica pode comprometer o exercício de direitos fundamentais, pois o consumidor raramente sabe por que foi rejeitado ou classificado em determinada categoria de risco (Doneda, 2019). Esse cenário reforça a importância da Lei Geral de Proteção de Dados, que estabelece princípios de transparência, necessidade e não discriminação, impondo às instituições a responsabilidade de justificar as bases de suas decisões automatizadas, ainda que de forma parcial.

Além da transparência, a questão da responsabilidade civil também ganha relevo, uma vez que, na lógica contratual, cabe às instituições financeiras assegurar que seus métodos de avaliação não prejudiquem injustamente os consumidores. Quando algoritmos negam crédito com base em variáveis irrelevantes ou discriminatórias, surge a necessidade de mecanismos de responsabilização que vão além da simples reparação econômica, incluindo medidas corretivas e regulatórias. Isso porque o risco do contrato de crédito, em última instância, não pode ser deslocado integralmente para o consumidor, sob pena de violação do princípio da vulnerabilidade (Coelho, 2021).

A inserção dos algoritmos também produz impactos sistêmicos. Segundo Marques (2019, p. 107):

[…] a tutela do consumidor deve ser entendida como proteção coletiva em face das novas práticas de mercado, já que os efeitos da exclusão financeira não atingem apenas indivíduos, mas comprometem o próprio equilíbrio social. Assim, a análise algorítmica do crédito não pode ser tratada como mera inovação técnica, mas como fenômeno que exige a aplicação dos princípios do direito do consumidor em escala ampla, prevenindo abusos massificados e assegurando mecanismos de revisão humana.

Por outro lado, é inegável que esses modelos também trazem benefícios relevantes. A utilização de big data e inteligência artificial permitiu reduzir custos de operação, acelerar a concessão de crédito e aumentar a inclusão financeira em áreas historicamente negligenciadas. Estudos do Banco Central (2021) mostram que consumidores sem histórico bancário formal passaram a ter acesso a linhas de microcrédito graças à utilização de dados alternativos. Essa eficiência, no entanto, deve ser equilibrada com instrumentos de regulação responsiva, capazes de mitigar riscos de exclusão, reforçando a função social do crédito como instrumento de cidadania.

Os modelos algorítmicos de concessão de crédito representam tanto oportunidades quanto riscos. Como afirma Posner (2014), a eficiência não pode ser perseguida em detrimento da justiça e da proteção de direitos, sob pena de comprometer a legitimidade do sistema jurídico. Nesse sentido, a inovação tecnológica deve ser acompanhada de políticas regulatórias que assegurem um equilíbrio entre o dinamismo do mercado e a proteção do consumidor, especialmente diante das vulnerabilidades que emergem no ambiente digital. A experiência brasileira, marcada pela rápida ascensão das fintechs, confirma que o desafio não é apenas econômico, mas também normativo e ético.

2.3 As novas formas de exclusão financeira e a promessa de inclusão digital

A digitalização do crédito foi acompanhada pela narrativa de democratização dos serviços financeiros, mas a inclusão digital não se distribui de forma homogênea. O acesso desigual à internet, o baixo nível de escolaridade e a falta de familiaridade com tecnologias permanecem como barreiras que afetam parcelas significativas da população. Marques (2019) observa que a vulnerabilidade do consumidor deve ser analisada em uma perspectiva coletiva, reconhecendo que grupos inteiros podem ser estruturalmente excluídos quando os critérios de análise de risco não consideram as desigualdades sociais preexistentes. Assim, a promessa de universalização do crédito digital ainda esbarra nas limitações materiais da realidade brasileira.

Outro fator que contribui para a exclusão financeira algorítmica é a qualidade dos dados utilizados. Indivíduos com pouca ou nenhuma atividade digital tendem a ser invisíveis para os modelos de análise, o que acaba por reforçar exclusões já observadas no sistema bancário tradicional. Salama (2010) destaca que a ausência de informações confiáveis aumenta o risco de seleção adversa, uma vez que consumidores podem ser classificados como não elegíveis mesmo sem histórico de inadimplência. Esse processo demonstra que a sofisticação tecnológica, quando desprovida de filtros adequados, não elimina injustiças históricas, mas pode reproduzi-las em novas formas.

A utilização de dados alternativos, como histórico de compras em aplicativos, redes sociais ou plataformas de comércio eletrônico, amplia ainda mais o debate sobre privacidade e discriminação. Doneda (2019) explica que a utilização de informações pessoais fora do contexto original de coleta contraria princípios de finalidade e proporcionalidade previstos na Lei Geral de Proteção de Dados. Nesse sentido, critérios aparentemente neutros podem excluir consumidores de forma arbitrária, como, por exemplo, considerar hábitos de navegação ou preferências de consumo como indicadores de risco. Tal prática agrava a vulnerabilidade e reforça desigualdades sociais.

A exclusão algorítmica também se manifesta em termos territoriais. Regiões com baixa conectividade, como áreas rurais ou periferias urbanas, são menos representadas nos bancos de dados utilizados para concessão de crédito. O Banco Central (2021) reconhece que a desigualdade no acesso aos serviços digitais limita os potenciais inclusivos das fintechs, fazendo com que populações vulneráveis permaneçam à margem do sistema. Esse fenômeno reforça a necessidade de políticas públicas voltadas para a inclusão digital, pois, sem infraestrutura mínima, o discurso da democratização do crédito digital se transforma em promessa não concretizada.

Apesar dessas críticas, é inegável que os algoritmos também abriram espaço para avanços. A possibilidade de conceder crédito a indivíduos sem histórico bancário tradicional constitui um marco para a inclusão financeira. Coelho (2021) ressalta que a inovação contratual pode gerar ganhos de eficiência e ampliar o alcance social dos serviços financeiros, desde que acompanhada de salvaguardas normativas. Ou seja, o potencial de inclusão existe, mas não pode ser dissociado da responsabilidade institucional de assegurar que a ampliação do crédito não se converta em fator de exclusão disfarçado. No entanto, como aponta Zuboff (2019, p. 94):

[…] o capitalismo de vigilância reivindica unilateralmente a experiência humana como matéria-prima gratuita para ser traduzida em dados comportamentais. Parte desses dados é utilizada para o aprimoramento de produtos ou serviços; o restante é declarado como excedente comportamental proprietário, alimentado em processos avançados de inteligência de máquina e transformado em produtos de previsão que antecipam o que você fará agora, em breve e mais tarde.

Essa reflexão é essencial para se compreender como os sistemas algorítmicos podem transformar comportamentos cotidianos em variáveis de risco, com impactos diretos na concessão ou negação do crédito. O impacto social da exclusão algorítmica, portanto, vai além do indivíduo, alcançando a coletividade. A proteção do consumidor deve se projetar sobre o conjunto das relações de mercado, assegurando condições mínimas de equidade (Marques, 2019). 

A ausência de mecanismos de revisão humana das decisões automatizadas amplia a vulnerabilidade do consumidor, que recebe uma resposta negativa sem acesso às justificativas que a embasam. Esse déficit informacional compromete a confiança nas instituições financeiras e fere princípios básicos do direito contratual, como a boa-fé e a transparência. Por fim, a exclusão financeira decorrente de modelos algorítmicos deve ser tratada como fenômeno estrutural que demanda respostas institucionais. 

Posner (2014) enfatiza que a eficiência econômica não pode ser perseguida em detrimento da justiça, sob pena de deslegitimar o sistema jurídico. Nesse sentido, a promessa de inclusão digital só será efetiva se acompanhada de políticas públicas que assegurem proporcionalidade, responsabilidade e transparência na utilização de dados. Assim, a inovação tecnológica poderá cumprir sua função social sem comprometer a dignidade e os direitos fundamentais do consumidor.

3. REGULAÇÃO INSTITUCIONAL DA CONCESSÃO ALGORÍTMICA DE CRÉDITO

A regulação da concessão algorítmica de crédito constitui um dos maiores desafios jurídicos contemporâneos, pois exige conciliar a inovação tecnológica com a proteção de direitos fundamentais do consumidor e a estabilidade do sistema financeiro. O avanço das fintechs e das plataformas digitais de crédito impôs a necessidade de adaptação dos instrumentos normativos existentes, já que as práticas tradicionais de supervisão não são suficientes para lidar com os riscos de decisões automatizadas. Nesse sentido, a regulação institucional deve ser analisada sob duas perspectivas complementares: a normatividade nacional, com destaque para a Lei Geral de Proteção de Dados, o Código de Defesa do Consumidor e a regulação do Banco Central e do Conselho Monetário Nacional, e os padrões internacionais, que influenciam diretamente a formulação das políticas internas.

A análise regulatória não pode ser limitada a uma dimensão estritamente econômica ou contratual. Trata-se de compreender como os algoritmos, ao mediar a concessão de crédito, interferem na realização de direitos fundamentais e na organização de mercados altamente sensíveis, como o financeiro. O tratamento automatizado de dados pessoais demanda uma regulação que vá além da lógica de mercado, incorporando garantias de privacidade, transparência e proporcionalidade (Doneda, 2019).

Outro ponto essencial é o caráter transnacional dos fluxos de dados e das práticas de governança algorítmica. Embora cada país disponha de seus próprios mecanismos normativos, as operações das grandes plataformas financeiras e tecnológicas ultrapassam fronteiras e afetam consumidores em escala global. O capitalismo de vigilância opera como uma lógica mundial de exploração de dados comportamentais, sendo indispensável que as regulações nacionais dialoguem com padrões internacionais de governança (Zuboff, 2019). Desse modo, a regulação institucional da concessão algorítmica de crédito precisa ser pensada de forma integrada, considerando tanto a autonomia normativa do país quanto às exigências de harmonização com normas globais.

3.1 Normativos nacionais: LGPD, CDC, Banco Central e Conselho Monetário Nacional

A regulação nacional da concessão algorítmica de crédito apoia-se em um conjunto de normas que formam um arcabouço jurídico de proteção ao consumidor e de supervisão das instituições financeiras. No campo das relações privadas, o Código de Defesa do Consumidor (Lei nº 8.078/1990) continua a ser o pilar fundamental, pois estabelece direitos básicos de informação, transparência e proteção contra práticas abusivas. Marques (2019) destaca que o CDC deve ser reinterpretado à luz da economia digital, de modo a garantir que as novas formas de contratação eletrônica não enfraqueçam o princípio da vulnerabilidade do consumidor, mas sim reforcem sua proteção em cenários de maior assimetria informacional.

No que tange à proteção de dados, a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018) representa um marco regulatório essencial, pois estabelece limites claros para o tratamento automatizado de informações sensíveis. Doneda (2019, p. 74) explica que:

[…] a LGPD insere no ordenamento brasileiro princípios como necessidade, proporcionalidade e transparência, os quais são indispensáveis para mitigar os riscos de discriminação algorítmica. Qualquer instituição que utilize dados para análise de crédito deve justificar a finalidade da coleta e assegurar ao consumidor mecanismos de revisão e contestação de decisões automatizadas.

Um dos dispositivos mais relevantes da LGPD nesse contexto é o artigo 20, que garante ao titular o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado. Como salienta Doneda (2019, p. 156): “o direito à revisão humana das decisões automatizadas representa um contrapeso indispensável ao poder dos algoritmos, devolvendo ao indivíduo parte da autonomia comprometida pela lógica da automação”. Essa previsão legal torna-se particularmente importante para o mercado de crédito, em que a negativa injustificada pode gerar consequências econômicas e sociais severas para o consumidor.

No âmbito da proteção contratual, o CDC também oferece instrumentos eficazes para enfrentar os desafios da concessão algorítmica. O artigo 6º assegura ao consumidor o direito à informação adequada e clara sobre os diferentes produtos e serviços. Como lembra Marques (2019, p. 47): “o dever de informação não é apenas um aspecto formal, mas uma garantia de equilíbrio contratual, pois permite que o consumidor compreenda as condições a que está submetido e, se necessário, questione práticas abusivas”. A aplicação desse dispositivo no ambiente digital exige que as instituições financeiras expliquem de forma acessível os critérios utilizados pelos algoritmos, sob pena de violação do princípio da transparência.

O Banco Central do Brasil também desempenha papel decisivo na regulação do crédito digital, estabelecendo normas prudenciais e de conduta para as instituições financeiras e fintechs. O Relatório de Economia Bancária (2021) destaca que a transformação digital no setor financeiro exige vigilância constante para evitar riscos sistêmicos decorrentes do uso intensivo de dados e algoritmos. Embora o Bacen fomente a inovação por meio de iniciativas como o Open Banking e o Sandbox Regulatório, sua missão institucional inclui zelar pela estabilidade do sistema e pela proteção dos usuários, equilibrando eficiência tecnológica e responsabilidade social.

O Conselho Monetário Nacional (CMN), por sua vez, edita resoluções que orientam a política de crédito e o funcionamento das instituições autorizadas a operar no mercado. Coelho (2021) observa que, mesmo com a flexibilização trazida pela digitalização, as instituições continuam vinculadas a deveres de diligência e lealdade na concessão de crédito. Isso significa que os algoritmos, ainda que sofisticados, não podem afastar a responsabilidade jurídica das instituições financeiras, que devem responder por eventuais danos decorrentes de decisões automatizadas.

Outro ponto relevante é a complementaridade entre a LGPD e o CDC. Enquanto a primeira se concentra na proteção dos dados pessoais e na prevenção de abusos informacionais, o segundo garante mecanismos de reparação e defesa em caso de práticas abusivas ou discriminatórias. Marques (2019) e Doneda (2019) convergem ao afirmar que ambos os diplomas devem ser interpretados de forma sistêmica, de modo a fortalecer a tutela do consumidor diante das inovações tecnológicas. 

Apesar dos avanços, ainda existem lacunas regulatórias que precisam ser enfrentadas. Salama (2010) adverte que a regulação excessivamente rígida pode desestimular a inovação, mas a ausência de regras claras pode gerar insegurança jurídica e ampliar desigualdades. O desafio, portanto, é encontrar um ponto de equilíbrio entre flexibilidade regulatória e proteção efetiva do consumidor, permitindo que a tecnologia seja um vetor de inclusão, e não de exclusão. 

Assim, a regulação nacional da concessão algorítmica de crédito repousa sobre três eixos centrais: o CDC, que assegura transparência e equidade contratual; a LGPD, que disciplina o tratamento de dados pessoais e garante direitos fundamentais; e as normas emanadas do Banco Central e do Conselho Monetário Nacional, que preservam a estabilidade do sistema e a proteção coletiva. Posner (2014) lembra que a eficiência econômica só se sustenta quando acompanhada de legitimidade normativa, o que significa que o crédito digital deve ser regulado de forma a harmonizar inovação tecnológica e direitos do consumidor, consolidando um ambiente financeiro mais justo e inclusivo.

3.2 Padrões internacionais de governança algorítmica (União Europeia, EUA e OCDE)

A discussão sobre governança algorítmica não se limita ao Brasil, mas se projeta em âmbito internacional, refletindo preocupações comuns entre países que enfrentam os impactos da digitalização financeira. Na União Europeia, o Regulamento Geral sobre a Proteção de Dados (GDPR), em vigor desde 2018, estabeleceu parâmetros rigorosos para o tratamento automatizado de dados. O GDPR serviu como referência direta para a formulação da LGPD no Brasil, especialmente na previsão de direitos como a revisão de decisões automatizadas e a exigência de proporcionalidade no uso das informações pessoais. Esse movimento demonstra a influência transnacional na regulação digital (Doneda, 2019).

Além do GDPR, a União Europeia avançou com a proposta do AI Act, voltada especificamente para disciplinar o uso da inteligência artificial. Zuboff (2019, p. 504) afirma que “[…] o capitalismo de vigilância é melhor descrito como um golpe vindo de cima, não uma derrubada do Estado, mas da soberania do povo”. Essa crítica reforça a necessidade de normas que imponham transparência e limites éticos à exploração de dados pessoais. O AI Act propõe justamente uma classificação de riscos para diferentes usos da IA, tratando a concessão de crédito como setor de alto risco, o que implica regras estritas de explicabilidade e de supervisão estatal.

Nos Estados Unidos, a regulação é mais fragmentada, baseada em legislações setoriais e em diretrizes de agências reguladoras, como o Federal Trade Commission (FTC). Posner (2014) destaca que a tradição norte-americana privilegia soluções de mercado e a intervenção regulatória ocorre principalmente quando há riscos significativos de concentração de poder ou violações à concorrência. A abordagem estadunidense, portanto, contrasta com o modelo europeu, por ser menos centralizada e mais voltada para enforcement em casos específicos de abuso. Essa diferença evidencia que a regulação algorítmica não segue padrões uniformes, mas reflete valores institucionais de cada sistema jurídico.

A Organização para a Cooperação e Desenvolvimento Econômico (OCDE) também tem desempenhado papel relevante na formulação de princípios internacionais. Em 2019, a OCDE publicou suas recomendações sobre inteligência artificial, nas quais afirma que os sistemas algorítmicos devem ser transparentes, responsáveis e orientados para o respeito aos direitos humanos (OCDE, 2019). Segundo Coelho (2021, p. 29):

[…] tais recomendações, embora não vinculantes, servem como guia para países em desenvolvimento que buscam equilibrar inovação tecnológica com padrões mínimos de proteção. O alinhamento às diretrizes da OCDE fortalece a legitimidade internacional das regulações nacionais.

Outro fator relevante é a interação entre essas experiências regulatórias. Salama (2010) adverte que, em um mercado globalizado, soluções puramente domésticas podem ser insuficientes, já que as plataformas digitais e as fintechs operam em múltiplas jurisdições. Assim, a harmonização de padrões é necessária para reduzir arbitragens regulatórias e assegurar maior previsibilidade. Esse desafio exige uma governança multinível, na qual organismos internacionais e reguladores nacionais atuem de forma coordenada para evitar lacunas normativas.

Os padrões internacionais de governança algorítmica convergem para três eixos principais: a proteção de dados pessoais, a transparência das decisões automatizadas e a responsabilidade das instituições financeiras. Como destaca Marques (2019), a experiência europeia mostra que a proteção do consumidor deve ser compreendida em chave coletiva, o que implica que a regulação precisa estar atenta não apenas aos direitos individuais, mas também aos impactos sociais mais amplos da exclusão algorítmica. O Brasil, portanto, deve continuar dialogando com esses referenciais internacionais, adaptando-os às suas peculiaridades econômicas e institucionais.

3.3 O papel das autoridades reguladoras na prevenção de abusos e na promoção da transparência

A atuação das autoridades reguladoras é decisiva para assegurar que os modelos algorítmicos de concessão de crédito funcionem de forma equilibrada, promovendo eficiência sem comprometer direitos fundamentais. O Banco Central do Brasil, ao supervisionar fintechs e bancos digitais, têm buscado conciliar inovação e segurança, utilizando instrumentos como o Sandbox Regulatório. Segundo relatório do Banco Central (2021), a supervisão deve acompanhar a evolução tecnológica, sem perder de vista o risco sistêmico inerente ao crédito. Essa postura ilustra a função das autoridades como mediadoras entre os interesses do mercado e a proteção do consumidor.

Um dos maiores desafios enfrentados pelas autoridades é garantir a transparência das decisões automatizadas. “A transparência é condição essencial para que o titular de dados exerça seus direitos de forma plena, pois só se pode questionar aquilo que se conhece” (Doneda, 2019, p. 142). Essa perspectiva reforça a importância de reguladores exigirem das instituições financeiras explicações claras sobre os critérios adotados pelos algoritmos. Sem essa obrigação, o consumidor permanece em posição de vulnerabilidade, sem condições de contestar eventuais abusos ou discriminações.

Além da transparência, a prevenção de abusos requer um regime robusto de responsabilização. Marques (2019) sustenta que a tutela do consumidor deve abranger não apenas situações individuais, mas também práticas de mercado que afetem coletivamente os cidadãos. Isso significa que cabe às autoridades reguladoras monitorar padrões de conduta, identificar tendências discriminatórias e aplicar sanções proporcionais. Essa dimensão coletiva é fundamental, pois as falhas algorítmicas tendem a impactar um grande número de pessoas ao mesmo tempo, ampliando os danos sociais.

O Conselho Monetário Nacional também exerce papel central ao editar normas que orientam a política de crédito no país. Embora a digitalização tenha flexibilizado o acesso, os deveres de diligência e lealdade permanecem intactos. Assim, qualquer negativa de crédito baseada em critérios automatizados deve ser passível de revisão, e as instituições continuam responsáveis por eventuais falhas de seus sistemas. Essa postura evita que os algoritmos sejam tratados como “caixas-pretas” inquestionáveis, preservando a lógica de accountability exigida pelo ordenamento jurídico (Coelho, 2021).

A cooperação entre diferentes órgãos reguladores. Salama (2010) observa que, em mercados altamente dinâmicos, a efetividade da regulação depende de coordenação entre entidades nacionais e diálogo com organismos internacionais. Essa perspectiva mostra que o enfrentamento dos riscos da concessão algorítmica não pode ser monopólio de um único órgão, mas requer uma rede regulatória que atue de forma articulada. Nesse contexto, a articulação entre Banco Central, CMN e autoridades de proteção de dados é indispensável para prevenir abusos e harmonizar critérios de supervisão.

Com isso, a promoção da transparência deve ser compreendida como um objetivo estratégico da regulação. Zuboff (2019, p. 137) lembra que “sem mecanismos de visibilidade e prestação de contas, os sistemas algorítmicos operam como formas de poder invisível, capazes de moldar comportamentos sem contestação”. Assim, cabe às autoridades reguladoras não apenas criar normas, mas também incentivar boas práticas e promover uma cultura de responsabilidade no setor financeiro digital. Dessa forma, a supervisão estatal fortalece a confiança do consumidor e garante que a inovação tecnológica esteja alinhada à preservação de direitos fundamentais.

4. TUTELA DO CONSUMIDOR NO CONTEXTO DA CONCESSÃO ALGORÍTMICA

A tutela do consumidor na concessão algorítmica de crédito é tema central para compreender os impactos da digitalização no mercado financeiro. O crédito é um bem essencial para a participação do indivíduo na vida econômica e social, e sua concessão mediada por algoritmos potencializa tanto benefícios quanto riscos. De um lado, há ganhos de eficiência e ampliação do acesso; de outro, existe o risco de decisões opacas e discriminatórias que podem excluir consumidores vulneráveis. Marques (2019) ressalta que a vulnerabilidade do consumidor não é apenas contratual, mas também informacional, e torna-se ainda mais intensa quando as decisões são tomadas de forma automatizada e sem explicações claras.

Nesse cenário, a proteção jurídica deve ser compreendida como instrumento de equilíbrio entre inovação e direitos fundamentais. A opacidade algorítmica compromete o exercício pleno da autonomia, pois o consumidor dificilmente compreende os critérios que fundamentam a concessão ou a negativa de crédito (Doneda, 2019). Assim, a tutela do consumidor no contexto digital não se limita a mecanismos tradicionais de reparação, mas exige novos instrumentos de transparência, revisão humana e responsabilidade civil. A seguir, analisam-se os principais aspectos dessa proteção: os direitos básicos do consumidor, os riscos de vieses algorítmicos, a responsabilidade das instituições financeiras e os mecanismos de contestação de decisões automatizadas.

4.1 Direitos básicos do consumidor: informação, transparência e não discriminação

O Código de Defesa do Consumidor estabelece como direitos básicos a informação adequada, a proteção contra práticas abusivas e a não discriminação (art. 6º, CDC). No ambiente digital, esses direitos ganham nova dimensão, pois os algoritmos introduzem complexidade adicional às relações de consumo. Marques (2019) sustenta que a informação deve ser compreendida como condição de igualdade material, já que o consumidor não pode decidir livremente sem conhecer os critérios que determinam sua elegibilidade ao crédito. Nesse sentido, o dever de informação não é mera formalidade, mas um princípio estruturante que sustenta a boa-fé objetiva.

A transparência também é elemento fundamental da tutela do consumidor no crédito digital. Doneda (2019, p. 57) explica que:

[…] a transparência não se restringe a informar que há um algoritmo envolvido, mas deve incluir a explicação compreensível dos fatores considerados. Isso é reforçado pela LGPD, que, em seu art. 20, garante ao titular de dados o direito à revisão de decisões automatizadas. Assim, a lei coloca em prática a ideia de que a informação deve ser clara, acessível e significativa, de modo que o consumidor possa exercer efetivamente seu direito de contestação.

O crédito é instrumento essencial para inclusão social e econômica, e sua negativa injustificada pode reforçar desigualdades históricas. Marques (2019, p. 61) afirma: “o princípio da não discriminação impede que consumidores sejam tratados de forma desigual sem justificativa razoável, devendo a proteção alcançar não apenas práticas explícitas, mas também aquelas implícitas nos mecanismos de mercado”. Essa previsão deve ser aplicada de modo ainda mais rigoroso quando se trata de algoritmos, capazes de produzir exclusões invisíveis.

A integração entre informação, transparência e não discriminação constitui a base da proteção do consumidor em ambientes digitais. Coelho (2021) ressalta que a boa-fé objetiva deve ser reinterpretada diante da automação, impondo às instituições financeiras deveres reforçados de lealdade e explicação. Isso porque a vulnerabilidade do consumidor não é apenas contratual, mas técnica, e decorre da sua incapacidade de compreender plenamente os sistemas que decidem sobre sua vida econômica. Assim, a regulação deve assegurar equilíbrio e previsibilidade.

É necessário destacar que os direitos básicos do consumidor, embora consagrados em legislação desde 1990, encontram novos desafios na era digital. A sua efetividade depende de uma aplicação adaptada aos contextos de inovação tecnológica. A eficiência econômica deve ser compatibilizada com princípios de justiça, sob pena de comprometer a legitimidade das instituições (Posner, 2014). Nesse contexto, os direitos à informação, à transparência e à não discriminação assumem papel decisivo para que o crédito digital seja instrumento de inclusão, e não de exclusão.

4.2 Vieses algorítmicos e discriminação indireta na análise de crédito

Os algoritmos utilizados para concessão de crédito, embora projetados para conferir objetividade e eficiência, não são neutros. Eles refletem as bases de dados que os alimentam, e essas, por sua vez, estão impregnadas de padrões sociais e econômicos historicamente discriminatórios. O capitalismo de vigilância captura e explora dados comportamentais de maneira assimétrica, reproduzindo desigualdades já existentes. Isso significa que, quando aplicados ao mercado de crédito, os algoritmos podem transformar fatores aparentemente neutros, como endereço ou padrão de consumo digital, em variáveis de risco que resultam em exclusão indireta de determinados grupos (Zuboff, 2019).

A discriminação algorítmica pode se manifestar de diferentes formas, desde a exclusão de consumidores por critérios socioeconômicos implícitos até a formação de perfis que associam características comportamentais a maior probabilidade de inadimplência. Desse modo, a opacidade desses sistemas dificulta a detecção de práticas discriminatórias, já que muitas vezes o próprio consumidor não tem acesso às razões pelas quais foi classificado de determinada maneira (Doneda, 2019). Assim, a falta de transparência contribui para o agravamento da vulnerabilidade informacional, tornando a discriminação indireta ainda mais grave que as práticas tradicionais de exclusão financeira.

Um fator preocupante é a perpetuação de desigualdades territoriais e raciais. Estudos internacionais mostram que algoritmos de crédito podem atribuir maior risco a consumidores que vivem em regiões periféricas ou com menor infraestrutura digital. Marques (2019, p. 84) destaca que “[…] a vulnerabilidade deve ser compreendida como fenômeno estrutural, que se manifesta não apenas na relação individual, mas na reprodução de desigualdades históricas através das práticas de mercado”. Esse entendimento evidencia a necessidade de aplicar o princípio da não discriminação com rigor redobrado, especialmente diante de tecnologias que podem cristalizar injustiças de forma invisível.

O dever de informação e explicação também se conecta diretamente ao combate aos vieses algorítmicos. A boa-fé objetiva impõe às instituições financeiras a obrigação de garantir que os consumidores compreendam, de modo acessível, os critérios utilizados nos processos de concessão de crédito. Nesse contexto, a LGPD, ao prever o direito à revisão humana de decisões automatizadas (art. 20), oferece um instrumento essencial para contestar práticas discriminatórias. Todavia, a efetividade desse direito depende de regulamentação clara e de fiscalização eficaz, sob pena de tornar-se apenas uma previsão formal desprovida de aplicação concreta (Coelho, 2021).

Os vieses algorítmicos e a discriminação indireta configuram um dos maiores riscos da concessão de crédito digital. Posner (2014) sustenta que a busca por eficiência não pode justificar a perpetuação de injustiças, já que a legitimidade das instituições financeiras depende da preservação da confiança social. A identificação e correção de vieses devem, portanto, ser tratadas como responsabilidade compartilhada entre instituições financeiras e autoridades reguladoras, de modo a assegurar que os avanços tecnológicos sejam instrumentos de inclusão e não de exclusão. A aplicação conjunta do CDC e da LGPD constitui o caminho mais adequado para equilibrar inovação e justiça social.

4.3 Responsabilidade e revisão das decisões algorítmicas de crédito

A responsabilidade civil das instituições financeiras diante de decisões automatizadas de crédito deve ser analisada a partir da lógica contratual e da proteção consumerista. O Código de Defesa do Consumidor estabelece como regra a responsabilidade objetiva do fornecedor em situações que gerem danos, o que inclui negativas injustificadas ou concessões abusivas de crédito baseadas em critérios algorítmicos. Marques (2019, p. 173) argumenta que:

[…] a vulnerabilidade do consumidor deve ser reforçada em ambientes digitais, onde há menor possibilidade de compreensão sobre os fatores que fundamentam a decisão. Nesse contexto, a responsabilização das instituições financeiras deve abranger não apenas os prejuízos individuais, mas também práticas de mercado que gerem exclusões coletivas.

Um dos maiores problemas identificados é a “caixa-preta” dos algoritmos, expressão consagrada por Pasquale (2015) em sua obra The Black Box Society. Para o autor, sistemas automatizados de decisão exercem poder sem transparência, o que compromete a capacidade de contestação e a própria noção de accountability. Nas palavras de Pasquale (2015, p. 8), “[…] os segredos corporativos e a opacidade algorítmica permitem que empresas moldem mercados e comportamentos sem escrutínio público”. Essa crítica evidencia que a responsabilização civil das instituições financeiras deve incluir o dever de explicação como elemento indispensável à proteção do consumidor.

Do ponto de vista normativo, a Lei Geral de Proteção de Dados Pessoais representa avanço decisivo ao prever, em seu artigo 20, o direito à revisão de decisões tomadas unicamente com base em tratamento automatizado. Esse dispositivo devolve ao consumidor parte da autonomia comprometida pela lógica da automação, estabelecendo um contrapeso entre inovação tecnológica e dignidade da pessoa humana. Ainda que a lei não detalhe os procedimentos de revisão, sua previsão estabelece um marco jurídico claro de responsabilização, impondo às instituições financeiras a obrigação de criar mecanismos efetivos de contestação (Doneda, 2019).

A necessidade de revisão humana ganha força no debate internacional. Mendes e Mattiuzzo (2022) afirmam que, no Brasil, a utilização de algoritmos de credit scoring tem gerado riscos de discriminação indireta, especialmente contra grupos socialmente vulneráveis. Para as autoras, “[…] a revisão humana não é apenas uma salvaguarda técnica, mas uma garantia de que critérios discriminatórios não passem despercebidos sob o manto da neutralidade algorítmica” (Mendes; Mattiuzzo, 2022, p. 213). Essa visão reforça que a responsabilidade civil e os mecanismos de revisão estão intimamente ligados à prevenção da discriminação.

Enquanto o CDC assegura o direito à informação clara e adequada (art. 6º), a LGPD prevê o direito à revisão humana. Essa complementaridade cria um sistema de dupla proteção: de um lado, garante-se que o consumidor saiba as condições contratuais; de outro, assegura-se que as decisões não sejam tomadas de forma inquestionável. Assim, as instituições financeiras não podem se eximir da responsabilidade alegando que os algoritmos são neutros ou independentes de sua supervisão, pois respondem integralmente pelos danos decorrentes de sua utilização (Coelho, 2021).

No plano coletivo, a ausência de mecanismos de revisão pode comprometer a confiança social no sistema financeiro. Frazão (2021) alerta que os algoritmos, ao reforçarem padrões de exclusão, podem gerar efeitos de retroalimentação que estigmatizam grupos vulneráveis, criando verdadeiros ciclos de exclusão. Essa estigmatização digital torna ainda mais urgente a atuação das autoridades reguladoras para garantir que o consumidor tenha meios eficazes de contestar e corrigir decisões injustas. O risco não é apenas individual, mas sistêmico, afetando a própria legitimidade das instituições financeiras.

Os mecanismos de contestação devem ser práticos e acessíveis. Não basta a previsão normativa formal; é preciso que as instituições ofereçam canais claros para revisão de crédito e que os consumidores tenham assistência técnica adequada para compreender seus direitos. Garcia et al. (2023) ressaltam que, no domínio do crédito, a simples disponibilização de informações não é suficiente para corrigir vieses algorítmicos, sendo necessário o desenvolvimento de ferramentas de auditoria e monitoramento contínuo. Dessa forma, a revisão humana não é um ato pontual, mas um processo de governança permanente.

A responsabilidade civil das instituições financeiras e o direito à revisão das decisões automatizadas de crédito são elementos complementares da tutela do consumidor no ambiente digital. Enquanto a responsabilidade garante reparação e incentiva boas práticas, a revisão assegura que os danos sejam prevenidos e corrigidos antes de se consolidarem. A eficiência econômica só é legítima quando acompanhada de justiça, o que, nesse caso, significa equilibrar inovação tecnológica e dignidade humana. Nesse sentido, o futuro da concessão algorítmica de crédito dependerá, portanto, da capacidade de combinar inovação com responsabilidade e transparência (Posner, 2014).

5. TRANSPARÊNCIA, INCLUSÃO E RESPONSABILIDADE NO CRÉDITO ALGORÍTMICO

A regulação da concessão algorítmica de crédito só será efetiva se for capaz de promover um ambiente de transparência e responsabilidade, garantindo que a inovação tecnológica não comprometa direitos fundamentais. A complexidade dos modelos de análise utilizados por fintechs e instituições financeiras dificulta que consumidores compreendam os critérios que orientam a concessão ou a negativa de crédito. Pasquale (2015) lembra que a lógica das “caixas-pretas” compromete a accountability e fragiliza a confiança social nos sistemas automatizados. Por isso, a transparência deve ser tratada como eixo estruturante da governança algorítmica, vinculando diretamente a eficiência tecnológica à legitimidade jurídica.

Além da transparência, é necessário destacar que os algoritmos não operam em um vazio social, mas refletem desigualdades históricas. O capitalismo de vigilância captura dados comportamentais e os transforma em mercadorias preditivas, muitas vezes sem que o indivíduo tenha consciência ou controle (Zuboff, 2019). Quando essa lógica se aplica ao crédito, corre-se o risco de reforçar exclusões, ainda que sob o discurso de democratização do acesso. Nesse sentido, a regulação precisa não apenas criar mecanismos de explicação, mas também enfrentar a exclusão algorítmica e responsabilizar juridicamente as instituições financeiras.

5.1 Direito à explicação, opacidade algorítmica e inclusão financeira

O direito à explicação constitui uma das garantias mais relevantes para equilibrar o poder das instituições financeiras e a vulnerabilidade do consumidor. Previsto no art. 20 da LGPD, ele assegura ao titular o direito de revisão das decisões tomadas exclusivamente por tratamento automatizado. Doneda (2019) explica que essa previsão representa um contrapeso indispensável à opacidade algorítmica, já que devolve ao indivíduo parte da autonomia comprometida pelos sistemas de automação. No entanto, sua efetividade depende de regulamentação prática, capaz de obrigar as instituições a fornecer informações compreensíveis e úteis, e não apenas respostas formais.

A opacidade algorítmica é uma das principais críticas dirigidas à concessão digital de crédito. “Os segredos corporativos e a opacidade algorítmica permitem que empresas moldem mercados e comportamentos sem escrutínio público” (Pasquale (2015, p. 8). Essa observação ilustra como os algoritmos podem transformar-se em instrumentos de poder invisível, gerando decisões que impactam diretamente a vida econômica dos consumidores, mas sem oferecer justificativas acessíveis. Dessa forma, a falta de transparência reforça a vulnerabilidade informacional e compromete a confiança no mercado financeiro digital.

Outro aspecto central é o impacto da opacidade na inclusão financeira. No Brasil, algoritmos de credit scoring podem gerar discriminações indiretas, especialmente contra consumidores de baixa renda ou com menor inserção digital (Mendes; Mattiuzzo, 2022). Isso significa que, em vez de promover inclusão, os sistemas podem reforçar desigualdades, classificando como de alto risco exatamente os grupos que mais necessitam de acesso ao crédito. A promessa de democratização, portanto, só será cumprida se acompanhada de medidas que garantam transparência e revisão humana.

Garcia et al. (2023) mostram que consumidores de regiões periféricas, com menor acesso a serviços digitais, são frequentemente penalizados por critérios que não refletem sua real capacidade de pagamento. Essa exclusão algorítmica revela que os sistemas automatizados não apenas reproduzem desigualdades históricas, mas também as cristalizam em dados e modelos matemáticos. Isso reforça a necessidade de que o direito à explicação seja compreendido como instrumento de inclusão social, permitindo que consumidores contestem classificações injustas.

Ademais, a inclusão financeira precisa ser analisada em sua dimensão coletiva. O princípio da não discriminação deve ser interpretado de forma ampla, garantindo que práticas aparentemente neutras não resultem em exclusão de grupos vulneráveis. Nesse sentido, os algoritmos de crédito devem ser submetidos a auditorias regulares que assegurem que critérios discriminatórios não estejam ocultos sob a aparência de neutralidade matemática. Essa medida contribui para transformar o direito à explicação em ferramenta efetiva de justiça social (Marques, 2019).

Outrossim, a inclusão financeira não pode ser vista apenas como ampliação de acesso a produtos de crédito, mas como efetiva integração cidadã ao sistema financeiro. Sem mecanismos de correção de vieses e de revisão de decisões, os algoritmos podem criar ciclos de exclusão que estigmatizam grupos inteiros (Frazão, 2021). Assim, o direito à explicação deve ser articulado a políticas públicas de educação financeira e de acesso digital, de modo a assegurar que a tecnologia seja instrumento de inclusão, e não de aprofundamento das desigualdades.

5.2 Responsabilidade regulatória, contratual e perspectivas para uma regulação responsiva

A responsabilidade regulatória e contratual das instituições financeiras diante de decisões algorítmicas está diretamente relacionada à necessidade de assegurar accountability. O CDC estabelece a responsabilidade objetiva por danos causados aos consumidores, o que inclui negativas injustificadas de crédito ou concessões abusivas baseadas em critérios discriminatórios. A boa-fé objetiva deve ser reinterpretada à luz da automação, impondo às instituições deveres reforçados de lealdade e explicação. Isso significa que a responsabilidade não se limita à reparação posterior, mas deve incluir medidas preventivas e corretivas (Coelho, 2021).

O papel das autoridades reguladoras é decisivo nesse contexto. O Banco Central, ao supervisionar fintechs e bancos digitais, precisa equilibrar o incentivo à inovação com a prevenção de abusos. Em relatório, o Bacen (2021) destacou que a transformação digital exige monitoramento contínuo para evitar riscos sistêmicos. Já o Conselho Monetário Nacional edita resoluções que estabelecem parâmetros de conduta e de política de crédito, vinculando inclusive instituições digitais. Essa atuação conjunta fortalece a proteção do consumidor e assegura estabilidade ao sistema financeiro.

No plano internacional, o diálogo com padrões regulatórios, como o GDPR europeu e o AI Act, reforça a necessidade de o Brasil adotar uma regulação responsiva. Zuboff (2019, p. 137) acrescenta que “[…] sem mecanismos de visibilidade e prestação de contas, os sistemas algorítmicos operam como formas de poder invisível, capazes de moldar comportamentos sem contestação”. Essa observação sublinha a importância de que a regulação vá além de previsões formais, incorporando auditorias, supervisão técnica e canais de contestação acessíveis aos consumidores.

A revisão humana das decisões não pode ser tratada como mero recurso residual, mas como elemento estrutural do processo decisório. Essa perspectiva se alinha à ideia de regulação responsiva defendida pela OCDE, que recomenda a integração entre prevenção, monitoramento e sanções proporcionais. Assim, a responsabilidade deve ser compreendida como parte de um ciclo contínuo de governança, e não apenas como resposta a litígios (Mendes; Mattiuzzo, 2022). 

A regulação responsiva também exige flexibilidade para acompanhar a velocidade das inovações tecnológicas. Ou seja, a regulação deve evitar tanto a rigidez excessiva, que inibe a inovação, quanto a permissividade absoluta, que gera insegurança jurídica e amplia vulnerabilidades (Salama, 2010. Nesse sentido, a regulação do crédito algorítmico precisa ser calibrada de modo a estimular boas práticas, incentivar a transparência e sancionar condutas abusivas, criando um ambiente equilibrado entre eficiência e proteção.

A responsabilidade regulatória e contratual das instituições financeiras deve ser entendida como mecanismo de preservação da confiança social no sistema de crédito. A eficiência econômica só se sustenta quando acompanhada de legitimidade normativa e justiça (Posner, 2014). Portanto, uma regulação responsiva e inclusiva precisa harmonizar os interesses de inovação e competitividade com os princípios constitucionais de proteção da dignidade da pessoa humana, assegurando que a tecnologia sirva como instrumento de inclusão e não como mecanismo de exclusão.

6. CONSIDERAÇÕES FINAIS

A concessão algorítmica de crédito, como demonstrado ao longo deste estudo, constitui uma das expressões mais significativas da transformação digital no setor financeiro, combinando eficiência tecnológica com novos desafios jurídicos e sociais. Embora represente uma oportunidade para ampliar o acesso ao crédito e reduzir custos operacionais, essa prática revela tensões profundas quanto à transparência das decisões automatizadas, à proteção dos dados pessoais e à não discriminação. O crédito, que já era marcado por assimetrias contratuais no modelo tradicional, passa a incorporar novas vulnerabilidades, decorrentes da opacidade algorítmica e da centralidade dos dados na definição da elegibilidade dos consumidores.

A análise normativa evidenciou que o ordenamento jurídico brasileiro oferece instrumentos relevantes para enfrentar esses desafios, especialmente por meio do Código de Defesa do Consumidor e da Lei Geral de Proteção de Dados. O primeiro garante direitos básicos como informação, transparência e equilíbrio contratual; o segundo estabelece parâmetros para o tratamento de dados pessoais e consagra o direito à revisão de decisões automatizadas. Além disso, a regulação emanada do Banco Central e do Conselho Monetário Nacional acrescenta a dimensão prudencial e sistêmica, necessária para preservar a estabilidade do sistema financeiro e evitar riscos de exclusão em larga escala. Contudo, a efetividade desses marcos legais depende de sua aplicação integrada e de uma atuação regulatória que acompanhe a velocidade das inovações.

O estudo também demonstrou que a promessa de inclusão financeira promovida pelas fintechs deve ser vista com cautela. Embora milhões de consumidores tenham obtido acesso a crédito digital, as mesmas ferramentas que possibilitam a democratização podem reproduzir ou até intensificar desigualdades históricas. Os vieses algorítmicos, ainda que implícitos, produzem discriminação indireta, afetando especialmente grupos socialmente vulneráveis. Nesse sentido, a inclusão não pode ser compreendida apenas como expansão quantitativa de acesso ao crédito, mas deve ser associada à qualidade das condições ofertadas e à existência de mecanismos claros de contestação e revisão.

A experiência comparada mostrou que a regulação internacional tem buscado respostas mais específicas para esses dilemas. A União Europeia, com o GDPR e a proposta do AI Act, reconhece a concessão de crédito como atividade de alto risco, impondo exigências rigorosas de explicabilidade e supervisão. Já os Estados Unidos privilegiam soluções de mercado e enforcement pontual, enquanto a OCDE recomenda princípios gerais de transparência, responsabilidade e respeito aos direitos humanos. Para o Brasil, o desafio consiste em dialogar com esses referenciais internacionais, adaptando-os às suas peculiaridades e reforçando a articulação entre regulação nacional e padrões globais.

Diante dessas reflexões, conclui-se que a tutela do consumidor na concessão algorítmica de crédito não pode ser compreendida apenas como aplicação de normas já existentes, mas como um processo contínuo de reconstrução normativa e institucional. A força regulatória reside menos na rigidez das regras e mais na capacidade de responder a riscos dinâmicos, promovendo um equilíbrio entre inovação tecnológica, eficiência econômica e proteção de direitos fundamentais. O futuro do crédito digital no Brasil dependerá da consolidação de uma cultura regulatória responsiva, que valorize a transparência como princípio, assegure a revisão humana como garantia e preserve a responsabilidade das instituições como prática indispensável para a justiça contratual e social.

REFERÊNCIAS

ABFINTECHS. Relatório anual 2022. São Paulo: Associação Brasileira de Fintechs, 2022.

BANCO CENTRAL DO BRASIL. Relatório de Economia Bancária 2021. Brasília: Banco Central, 2021.

COELHO, Fábio Ulhoa. Curso de direito comercial: direito de empresa. 21. ed. rev. e atual. São Paulo: Thomson Reuters Brasil, 2021.

DONEDA, Danilo. Da privacidade à proteção de dados pessoais: elementos da formação da autoridade nacional. 2. ed. São Paulo: Thomson Reuters Brasil, 2019.

FRAZÃO, Ana. Algoritmos e discriminação: por que devemos nos preocupar mesmo quando eles acertam. Revista Jurídica Luso-Brasileira, v. 8, n. 6, p. 1645-1683, 2021.

GARCIA, Ana Cristina Bicharra et al. Algorithmic discrimination in the credit domain: what do we know about it? AI & Society, v. 38, p. 1515-1534, 2023.

MARQUES, Cláudia Lima. Contratos no Código de Defesa do Consumidor: o novo regime das relações contratuais. 8. ed. rev. e atual. São Paulo: Revista dos Tribunais, 2019.

MACKAAY, Ejan. Análise econômica do direito. São Paulo: Atlas, 2015.

MENDES, Laura Schertel; MATTIUZZO, Marcela. Algorithms and discrimination: the case of credit scoring in Brazil. In: MENDES, L. S.; SARLET, I. W.; WEICHERT, M. A. (org.). Personality and data protection rights on the internet. Cham: Springer, 2022. p. 197-216.

PASQUALE, Frank. The black box society: the secret algorithms that control money and information. Cambridge: Harvard University Press, 2015.

POSNER, Richard. Economic analysis of law. 9. ed. New York: Wolters Kluwer, 2014.

PWC. Pesquisa Fintechs de Crédito Digital 2023. São Paulo: PwC Brasil, 2023.

SALAMA, Bruno Meyerhof. Direito, economia e mercados. Rio de Janeiro: Elsevier, 2010.

ZUBOFF, Shoshana. The age of surveillance capitalism: the fight for a human future at the new frontier of power. New York: Public Affairs, 2019.