INTELLIGENCE ARTIFICIAL: IMPACTS AND RESPONSIBILITIES IN CONSUMER LAW
REGISTRO DOI: 10.69849/revistaft/ni10202410241155
Saulo Favoretto1;
Melissa Andréa Smaniotto2
RESUMO
Este estudo analisa a influência da inteligência artificial (IA) no direito do consumidor, destacando o Projeto de Lei nº 2.338/2023 como um marco regulatório essencial. O objetivo é compreender como a IA impacta a vida cotidiana dos consumidores, identificando riscos como a assimetria de informação, discriminação algorítmica e falta de transparência. Utilizando métodos hipotético-dedutivo e dialético, a pesquisa revisa a literatura e analisa a jurisprudência, revelando que a regulamentação da IA no Brasil enfrenta desafios significativos, como a necessidade de equilibrar inovação e proteção dos direitos fundamentais. Os resultados indicam que a falta de um marco legal consolidado gera incertezas e pode levar a práticas abusivas, comprometendo a privacidade e a segurança dos consumidores. As conclusões enfatizam a urgência de uma regulamentação que garanta direitos como o acesso à informação e a possibilidade de contestar decisões automatizadas. O diálogo entre governo, empresas e consumidores é fundamental para criar um ambiente seguro e ético. A pesquisa ressalta que a transparência nas práticas de coleta de dados é crucial para construir a confiança do consumidor e mitigar os riscos associados ao uso da IA. A implementação de um marco regulatório eficaz é essencial para assegurar que os benefícios da IA sejam aproveitados de maneira responsável e ética.
Palavras-chave: Inteligência Artificial. Direito do Consumidor. Regulamentação.
ABSTRACT
This study analyzes the influence of artificial intelligence (AI) on consumer law, highlighting Bill nº. 2.338/2023 as an essential regulatory framework. The objective is to understand how AI impacts consumers’ daily lives, identifying risks such as information asymmetry, algorithmic discrimination, and lack of transparency. Using hypothetical-deductive and dialectical methods, the research reviews literature and analyzes case law, revealing that the regulation of AI in Brazil faces significant challenges, such as the need to balance innovation and the protection of fundamental rights. The results indicate that the absence of a consolidated legal framework generates uncertainties and may lead to abusive practices, compromising consumers’ privacy and security. The conclusions emphasize the urgency of regulation that guarantees rights such as access to information and the ability to contest automated decisions. Dialogue among government, businesses, and consumers is essential to create a safe and ethical environment. The research highlights that transparency in data collection practices is crucial for building consumer trust and mitigating the risks associated with AI use. Implementing an effective regulatory framework is essential to ensure that the benefits of AI are leveraged responsibly and ethically.
Keywords: Artificial Intelligence. Consumer Law. Regulation.
1. INTRODUÇÃO
Nos últimos anos, a inteligência artificial (IA) emergiu como uma força transformadora em diversas áreas, incluindo o direito do consumidor. À medida que as tecnologias de IA se tornam mais sofisticadas e integradas no cotidiano, elas trazem consigo uma série de desafios e oportunidades que exigem uma análise crítica das suas implicações jurídicas. A capacidade da IA de processar grandes volumes de dados e personalizar experiências de consumo pode melhorar a eficiência e a satisfação do cliente, mas também levanta questões sérias sobre privacidade, transparência e responsabilidade.
Seu uso no setor consumidor se manifesta em práticas como a análise preditiva para segmentação de mercado, chatbots para atendimento ao cliente e algoritmos de recomendação que influenciam decisões de compra. Contudo, essas inovações não estão isentas de riscos. A coleta e o uso de dados pessoais, muitas vezes sem o consentimento explícito dos consumidores, podem violar direitos fundamentais e gerar desconfiança nas relações comerciais. Além disso, a opacidade dos algoritmos pode dificultar a responsabilização de empresas por práticas abusivas ou discriminatórias.
Diante desse cenário, é imperativo que o direito do consumidor se ajuste para abordar as complexidades introduzidas pela IA. Isso inclui a necessidade de regulamentações que garantam a proteção dos dados pessoais, promovam a transparência nas práticas comerciais e assegurem que os consumidores tenham acesso a recursos legais eficazes. A responsabilidade das empresas em relação ao uso da IA deve ser claramente definida, a fim de proteger os interesses dos consumidores e fomentar um ambiente de consumo justo e ético.
Assim, a discussão sobre os impactos e responsabilidades da inteligência artificial no direito do consumidor não é apenas relevante, mas essencial para a construção de um futuro onde a tecnologia e os direitos humanos coexistam de maneira harmoniosa e respeitosa.
A Inteligência Artificial tem se tornado uma parte integral das interações de consumo, trazendo benefícios significativos, mas também riscos que precisam ser cuidadosamente considerados.
Os sistemas de Inteligências Artificiais estão presentes no nosso dia-a-dia, influenciando constantemente nossas relações de consumo. Nesta vertente, se faz necessário um estudo aprofundado acerca das implicações trazidas para os consumidores. É preciso identificar os possíveis danos que podem causar e como os consumidores podem se proteger deles.
Nos últimos anos pelo menos 4 projetos de lei sobre o uso e desenvolvimento de sistemas de inteligência artificial tramitaram pelo Congresso Nacional, o mais recente é o Projeto de Lei n. 2338/2023, que prevê com detalhes as obrigações e responsabilidades aos fornecedores e operadores de inteligência artificial (FREITAS, 2023).
A Inteligência Artificial tem seu surgimento na mesma época da origem do computador, na década de 1950, sem seu marco inicial em 1956, na Darthmouth College Conference, com a participação de diversos pesquisadores como John MacCarthy, Marvin Minsky, Alan Newell e Herbert Simon, reconhecidos como pais da área (SICHMAN, 2021).
Nos dias de hoje, temos grandes implicações pelo uso frequente a IA devendo ser pautada de modo responsável e dentro de uma postura ética, como sugere Virginia Dignum (2019, p. 6 e 7), que elenca três instâncias distintas:
I. No processo de projeto dos sistemas de IA, que tenha garantia de possíveis consequências pelo seu uso;
II. No projeto do comportamento dos sistemas de IA, que tenham capacidade de raciocínio ético;
III. No código de conduta dos projetistas e desenvolvedores, mediante uma regulação adequada, como já existe em outras profissões.
A crescente influência da IA traz desafios significativos no que diz respeito ao direito do consumidor. Assim, se torna indispensável tratar de alguns dos desafios em relação aos sistemas de inteligência artificial, que incluem o risco de viés algorítmico e a falta de transparência nas decisões tomadas por sistemas de IA.
O Risco do Viés Algorítmico é um dos principais desafios enfrentados pelos consumidores, pois se refere a capacidade dos sistemas de IA de tomar decisões discriminatórias, ou seja, as características como gênero, raça, idade, dentre outras, afetando de maneira negativa as transações comprometendo os direitos do consumidor.
A prática discriminatória está prevista no inciso IV, do artigo 39, do CDC que proíbe o uso de práticas discriminatórias que coloquem o consumidor em desvantagem.
Com relação a falta de Transparência nas Decisões de IA, muitos consumidores desconhecem ou não compreendem como as decisões são tomadas, tornando complexa sua identificação e de contrapor estas práticas injustas.
Um dos direitos básicos do consumidor é a da informação adequada e clara sobre os produtos e serviços, previsto no inciso III, do artigo 6º, do CDC. A falta de transparência nas decisões da IA incorrem em prejuízos em relação a esse direito, pois a falta de informação em relação a critérios de divulgação e parâmetros utilizados pelos algoritmos, bem como a explicação de como essas decisões podem afetar os consumidores na tomada de decisões.
A pesquisa apresenta um cunho sociojurídico, tendo em vista a importância das diferentes vertentes de direito neste mundo globalizado. Tem como objetivo específico compreender como a inteligência artificial influencia a vida cotidiana dos consumidores. Os objetivos gerais são:
– Analisar o marco legal da Inteligência Artificial no Brasil;
– Distinguir os tipos de riscos que a Inteligência Artificial pode trazer;
– Identificar os principais riscos para o consumidor diante dos sistemas de Inteligência Artificial;
– Entender a vulnerabilidade do consumidor diante dos sistemas de Inteligência Artificial.
Os métodos utilizados serão o hipotético-dedutivo e dialético, na forma de pesquisas em revisão bibliográfica e na análise documental da jurisprudência pátria pela coleta das informações por meios de livros, artigos jurídicos e web sites.
2. INTELIGÊNCIA ARTIFICIAL: TRANSFORMANDO O COMPORTAMENTO DO CONSUMIDOR E DESAFIANDO OS DIREITOS NA ERA DIGITAL
A inteligência artificial (IA) tem se tornado uma força transformadora na vida cotidiana dos consumidores, impactando desde a forma como realizam compras até a maneira como interagem com marcas e serviços. Existem diversas maneiras pelas quais a IA está moldando o comportamento do consumidor, tais como aspectos como conveniência, personalização e à evolução das expectativas em relação às experiências de compra.
A regulamentação da Inteligência Artificial (IA) no Brasil, especialmente por meio do Projeto de Lei nº 2.338/2023, busca estabelecer diretrizes que garantam segurança, transparência e equidade no uso dessa tecnologia. A criação de um Sistema Nacional de Regulação e Governança de IA, coordenado pela Autoridade Nacional de Proteção de Dados (ANPD), é uma das inovações propostas.
A necessidade de uma legislação robusta é evidente, considerando que países como a União Europeia já avançaram em regulamentações específicas. No entanto, o Brasil enfrenta desafios, como o equilíbrio entre a proteção de direitos fundamentais e a promoção da inovação. Especialistas alertam para os riscos de uma regulamentação excessiva ou permissiva.
Os riscos da IA no contexto do direito do consumidor incluem assimetria de informação, discriminação algorítmica, falta de responsabilidade, e preocupações com a privacidade. A falta de transparência nos sistemas de IA pode levar a decisões automatizadas que afetam negativamente os consumidores, sem que estes tenham acesso a explicações adequadas sobre como essas decisões são tomadas.
Além disso, a vulnerabilidade do consumidor é ampliada pela complexidade das tecnologias de IA e pela falta de conscientização sobre o uso de dados pessoais. A regulamentação proposta é um passo importante, mas a educação e a conscientização dos consumidores são fundamentais para mitigar os riscos associados.
A adoção da IA está transformando o comportamento do consumidor, especialmente entre as gerações mais jovens, que esperam experiências personalizadas e eficientes. No entanto, essa personalização também levanta preocupações éticas sobre privacidade e segurança dos dados. A automação e a análise preditiva proporcionadas pela IA não só melhoram a experiência do consumidor, mas também aumentam a eficiência operacional das empresas.
À medida que avança para um futuro cada vez mais digital, a regulamentação adequada e a conscientização sobre o uso da IA são essenciais para garantir que os benefícios dessa tecnologia sejam aproveitados sem comprometer os direitos dos consumidores.
2.1. MARCO LEGAL DA INTELIGÊNCIA ARTIFICIAL NO BRASIL
A regulamentação da Inteligência Artificial (IA) no Brasil tem se tornado um tema central nas discussões legislativas e sociais, especialmente com a tramitação do Projeto de Lei nº 2.338/2023, conhecido como o Marco Legal da IA. Este projeto visa estabelecer um conjunto de normas e diretrizes que orientem o desenvolvimento, a implementação e o uso de tecnologias de IA garantindo segurança, transparência e equidade em sua aplicação. A proposta, de autoria do senador Rodrigo Pacheco (PSD-MG), busca não apenas promover a inovação tecnológica, mas também proteger os direitos dos cidadãos, assegurando que a utilização da IA respeite a privacidade e a dignidade humana (STARTSE, 2024).
Desde sua introdução, o projeto passou por diversas atualizações e discussões, refletindo a complexidade e a urgência do tema. A Comissão Temporária sobre Inteligência Artificial do Senado tem trabalhado para consolidar diferentes propostas legislativas, incorporando elementos essenciais para uma regulamentação eficaz. Entre as principais inovações, destaca-se a criação de um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD) (BEHNKE, 2024).
A necessidade de uma legislação robusta é amplamente reconhecida, especialmente em um contexto global onde países como a União Europeia já avançaram com regulamentações específicas para a IA. No entanto, o Brasil enfrenta desafios significativos, como a necessidade de equilibrar a proteção de direitos fundamentais com a promoção da inovação. Especialistas alertam que uma regulamentação excessiva pode inibir o desenvolvimento tecnológico, enquanto uma abordagem muito permissiva pode resultar em riscos à sociedade (LISKAUSKAS, 2024).
A criação do Marco Legal da Inteligência Artificial (IA) no Brasil surge em um contexto global de crescente preocupação com o uso ético e seguro dessa tecnologia. A regulamentação da IA é um tema debatido em diversos países, com a União Europeia liderando com seu “Regulamento de Inteligência Artificial”, que adota uma abordagem baseada em risco. Nos Estados Unidos, a regulamentação é fragmentada, com estados como Califórnia e Nova York implementando suas próprias leis. O Brasil, por sua vez, busca estabelecer um marco regulatório que não apenas promova a inovação, mas também proteja os direitos dos cidadãos e a integridade dos dados pessoais (MIGALHAS, 2024b).
A regulamentação da IA é crucial para garantir que a tecnologia seja utilizada de forma responsável. O Marco Legal da IA no Brasil visa assegurar que os sistemas de IA respeitem os direitos humanos, a privacidade e a proteção de dados pessoais, conforme estabelecido pela Lei Geral de Proteção de Dados (LGPD). A legislação busca criar um ambiente de confiança, onde os cidadãos se sintam seguros em interagir com tecnologias que utilizam IA. Além disso, a regulamentação pode fomentar a inovação ao estabelecer diretrizes claras para o desenvolvimento e uso da IA, permitindo que empresas e desenvolvedores operem dentro de um quadro legal definido (CERIZZE, 2024).
O Projeto de Lei 2338/2023, que propõe o Marco Legal da IA, estabelece princípios e diretrizes para o uso da tecnologia no Brasil. Entre os principais pontos abordados, destacam-se:
– Princípios Éticos: A IA deve respeitar a dignidade da pessoa humana, a não discriminação e a pluralidade. A transparência no uso e funcionamento dos sistemas de IA é um dos pilares fundamentais da proposta (MIGALHAS, 2024b).
– Direitos dos Usuários: O projeto garante direitos aos cidadãos afetados por sistemas de IA, incluindo o acesso à informação sobre como seus dados são utilizados e a possibilidade de contestar decisões automatizadas que os afetem (MIGALHAS, 2024b).
– Responsabilidade dos Agentes de IA: O projeto define claramente os deveres dos fornecedores e operadores de sistemas de Inteligência Artificial, responsabilizando-os por decisões tomadas por suas tecnologias. Isso inclui a obrigação de garantir que os dados utilizados estejam em conformidade com a LGPD (CÂMARA DOS DEPUTADOS, 2020).
A implementação do Marco Legal da IA promete trazer impactos significativos em diversos setores da economia. A regulamentação pode facilitar a adoção de tecnologias de IA em áreas como saúde, educação, segurança pública e serviços financeiros. Por exemplo, na saúde, a IA pode ser utilizada para diagnósticos mais precisos e tratamentos personalizados, enquanto na segurança pública, pode ajudar na análise de dados para prevenção de crimes (CERIZZE, 2024).
Além disso, a regulamentação pode estimular a pesquisa e o desenvolvimento de novas tecnologias, criando um ambiente propício para startups e empresas de tecnologia. A criação de um “sandbox regulatório” permitirá que empresas testem suas inovações em um ambiente controlado, promovendo a experimentação e a adaptação às novas normas (MIGALHAS, 2024b).
Apesar dos avanços, a implementação do Marco Legal da IA enfrenta desafios significativos. Um dos principais obstáculos é a necessidade de capacitação dos servidores públicos e dos profissionais envolvidos na aplicação da legislação. A formação contínua é essencial para garantir que as normas sejam aplicadas de forma eficaz e que os responsáveis pela fiscalização estejam atualizados com as últimas tendências tecnológicas (MIGALHAS, 2024b).
Outro desafio é a definição precisa do escopo da legislação, que deve ser suficientemente abrangente para cobrir as diversas aplicações da IA, mas também flexível o suficiente para se adaptar às rápidas mudanças tecnológicas. A busca por um equilíbrio entre inovação e proteção dos direitos fundamentais é uma tarefa complexa que requer diálogo constante entre os setores público e privado (ADAMS et al., 2024).
2.2. RISCOS DA INTELIGÊNCIA ARTIFICIAL EM RELAÇÃO AO DIREITO DO CONSUMIDOR
A Inteligência Artificial (IA) tem se tornado uma parte intrínseca da vida cotidiana, influenciando a forma como os consumidores interagem com produtos e serviços. Desde assistentes virtuais até sistemas de recomendação em e-commerce, a IA traz benefícios significativos, mas também apresenta riscos que precisam ser cuidadosamente considerados, os quais podemos citar: riscos de assimetria de informação; discriminação algorítmica; falta de responsabilidade e transparência; riscos à privacidade e proteção de dados; riscos de decisões automatizadas; riscos de segurança e confiabilidade; riscos de inovação descontrolada; dentre outros.
Um dos principais riscos associados à IA no contexto do direito do consumidor é a assimetria de informação. A complexidade dos algoritmos de IA e a falta de transparência sobre como os dados dos consumidores são coletados e utilizados podem deixar os consumidores em desvantagem. Muitas vezes, os consumidores não têm conhecimento sobre quais informações estão sendo captadas e como isso pode afetar suas decisões de compra. Essa falta de clareza pode levar a decisões mal informadas e à exploração de vulnerabilidades dos consumidores (FREITAS, 2023).
Outro risco significativo é a discriminação algorítmica. Os sistemas de IA podem inadvertidamente perpetuar preconceitos existentes se forem treinados com dados que refletem desigualdades sociais. Por exemplo, algoritmos de recomendação podem favorecer produtos ou serviços para determinados grupos demográficos, excluindo outros. Isso pode resultar em práticas discriminatórias que violam os direitos dos consumidores, especialmente aqueles de grupos minoritários ou marginalizados (FREITAS, 2024).
A responsabilidade civil em casos de danos causados por decisões automatizadas de IA é um tema complexo. A falta de clareza sobre quem é responsável por decisões tomadas por sistemas de IA pode dificultar a busca por reparação em casos de danos. O Projeto de Lei 2338/23, que busca regulamentar o uso da IA, enfatiza a análise de risco e a necessidade de as empresas fornecerem informações claras sobre o funcionamento dos sistemas de IA. No entanto, a implementação efetiva dessas diretrizes ainda é um desafio (FREITAS, 2023).
A coleta e o armazenamento de dados pessoais são aspectos críticos que envolvem o uso de IA. A falta de transparência sobre como os dados são utilizados pode levar a violações de privacidade. Os consumidores podem não estar cientes de que suas informações estão sendo coletadas e analisadas, o que pode resultar em um uso indevido de seus dados. A Lei Geral de Proteção de Dados (LGPD) no Brasil estabelece diretrizes para a proteção de dados pessoais, mas a aplicação e a conformidade com essas normas ainda enfrentam desafios significativos (FREITAS, 2024).
As decisões automatizadas tomadas por sistemas de IA podem ter um impacto significativo na vida dos consumidores. Por exemplo, um sistema de IA que decide a concessão de crédito pode não levar em consideração fatores humanos importantes, resultando em decisões que afetam negativamente a vida financeira dos consumidores. A falta de um direito à explicação sobre como essas decisões são tomadas pode deixar os consumidores sem recursos para contestar decisões que consideram injustas (FREITAS, 2023).
A segurança dos sistemas de IA é outro aspecto crítico. Vulnerabilidades em algoritmos podem ser exploradas por agentes maliciosos, resultando em fraudes ou manipulações que afetam os consumidores. A confiança dos consumidores em sistemas de IA é fundamental, e qualquer falha de segurança pode minar essa confiança, levando a consequências negativas para as empresas e para os consumidores (FREITAS, 2023).
A rápida evolução da tecnologia de IA pode levar a um cenário em que as inovações superam a capacidade de regulamentação. Isso pode resultar em práticas de mercado que não são adequadamente supervisionadas, colocando os consumidores em risco. O PL 2338/23 busca abordar esses desafios, mas a implementação de uma regulamentação eficaz requer um esforço contínuo e colaborativo entre o governo, as empresas e os consumidores (FREITAS, 2024).
A coleta e o armazenamento de dados pessoais são aspectos críticos que levantam preocupações sobre a privacidade. Com a IA analisando grandes volumes de dados, os consumidores podem se sentir vulneráveis a violações de privacidade. A falta de regulamentação clara sobre como os dados devem ser tratados e protegidos pode resultar em abusos, como o uso indevido de informações pessoais para fins de marketing ou até mesmo para fraudes (ALCASSA; PAPPERT, 2023). A pesquisa do Instituto Ideia indica que mais de 70% dos brasileiros acreditam que é necessária uma regulamentação para proteger os consumidores no uso da IA (BARBI, 2024).
A segurança dos sistemas de IA é uma preocupação crescente. Com a dependência crescente de algoritmos e sistemas autônomos, os consumidores estão expostos a riscos de ataques cibernéticos. Esses ataques podem manipular algoritmos para gerar resultados maliciosos ou explorar vulnerabilidades em sistemas, resultando em consequências potencialmente devastadoras para os consumidores (KRUG, 2024). A implementação de medidas robustas de cibersegurança é essencial para proteger os dados dos consumidores e garantir a integridade dos sistemas de IA.
A ausência de regulamentação específica sobre o uso da IA no Brasil é um fator que agrava os riscos para os consumidores. A falta de supervisão e governança pode levar a práticas abusivas por parte das empresas que utilizam IA. É fundamental que haja uma estrutura regulatória que garanta a transparência, a ética e a proteção dos dados pessoais dos consumidores. A regulamentação deve incluir diretrizes claras sobre a responsabilidade das empresas em relação ao uso da IA e a proteção dos direitos dos consumidores (ALCASSA; PAPPERT, 2023).
A manipulação de dados durante o treinamento de sistemas de IA é um risco significativo. Se os dados utilizados para treinar algoritmos não forem representativos ou forem enviesados, as decisões tomadas pela IA podem ser injustas e prejudiciais aos consumidores. Isso é especialmente preocupante em setores como o financeiro, onde decisões de crédito podem ser influenciadas por dados tendenciosos, resultando em discriminação e exclusão de certos grupos de consumidores (PSICO-SMART, 2024).
A Inteligência Artificial apresenta uma série de riscos que precisam ser abordados para garantir a proteção dos direitos dos consumidores. A assimetria de informação, a discriminação algorítmica, a falta de responsabilidade e transparência, os riscos à privacidade, as decisões automatizadas, a segurança e a inovação descontrolada são questões que exigem atenção e ação. A regulamentação, como proposta pelo PL 2338/23, é um passo importante, mas a conscientização e a educação dos consumidores também são fundamentais para mitigar esses riscos. A colaboração entre todos os atores envolvidos é essencial para criar um ambiente de consumo seguro e ético, onde os benefícios da IA possam ser aproveitados sem comprometer os direitos dos consumidores.
2.3. VULNERABILIDADE DO CONSUMIDOR DIANTE DOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL
A crescente integração da Inteligência Artificial (IA) nas relações de consumo tem gerado um debate significativo sobre a vulnerabilidade do consumidor. A complexidade das tecnologias de IA, aliada à falta de transparência e à assimetria de informações, coloca os consumidores em uma posição de desvantagem.
A falta de transparência em relação à coleta de dados é alarmante. Muitos consumidores não têm consciência de que, ao utilizar aplicativos ou acessar sites, estão fornecendo informações sobre sua localização, preferências pessoais e comportamentos de consumo. Essa privação de transparência não apenas dificulta a análise de possíveis violações de direitos, mas também abre espaço para práticas abusivas por parte das empresas.
Estudos, como os realizados pelo Instituto de Pesquisa Capgemini, indicam que o Brasil é um dos países com maior interação diária com sistemas de IA, o que levanta preocupações sobre a vulnerabilidade dos consumidores. A complexidade das tecnologias de IA e a opacidade em sua operação tornam os consumidores reféns de um sistema que muitas vezes não compreendem. A coleta e o armazenamento de dados pessoais, frequentemente sem o devido consentimento, podem resultar em práticas abusivas e em violações dos direitos do consumidor, conforme destacado pelo Código de Defesa do Consumidor (CDC).
A coleta e o armazenamento de dados pessoais por sistemas de IA levantam preocupações sérias sobre privacidade e segurança. A pesquisa realizada pelo Procon-SP em outubro de 2023 revelou que 28% dos consumidores nunca ou raramente conseguem identificar quando estão interagindo com uma IA. Além disso, 65% dos entrevistados afirmaram que seus problemas não foram resolvidos adequadamente por esses sistemas automatizados (PROCON-SP, 2023). Essa situação evidencia a necessidade de um maior controle e regulamentação sobre como as empresas utilizam os dados dos consumidores.
Além disso, a falta de conscientização sobre o uso de IA e suas implicações pode levar a um aumento da vulnerabilidade, especialmente entre os consumidores menos informados. A pesquisa realizada pelo Procon-SP em 2023 revelou que uma parte significativa dos consumidores não consegue identificar quando estão interagindo com sistemas de IA, o que dificulta a responsabilização das empresas por falhas nos serviços prestados.
A ausência de consentimento explícito para a coleta de dados pode ser considerada uma prática abusiva. A maioria dos consumidores não tem consciência da quantidade de informações que estão fornecendo, o que os torna vulneráveis a abusos e exploração. A falta de clareza nas políticas de privacidade e a complexidade dos termos de uso contribuem para essa vulnerabilidade.
A IA tem o potencial de transformar as relações de consumo, oferecendo personalização e segmentação de produtos e serviços. No entanto, essa personalização pode ser uma faca de dois gumes. Embora possa melhorar a experiência do consumidor, também pode levar a práticas discriminatórias e manipulação de preços, onde consumidores vulneráveis são alvos de ofertas que não atendem suas necessidades reais (PROCON-SP, 2023).
Além disso, a automação de processos, como o uso de chatbots, pode resultar em interações insatisfatórias. A pesquisa do Procon-SP indicou que mais de 90% dos consumidores precisaram de atendimento humano após interações com sistemas de IA que não resolveram suas demandas. Isso demonstra que, apesar da eficiência prometida, a IA ainda não é capaz de compreender todas as nuances das interações humanas, o que pode levar a frustrações e insatisfações.
A assimetria de informação ocorre quando uma das partes em uma transação possui mais ou melhor informação do que a outra. No contexto das relações de consumo mediadas por sistemas de Inteligência Artificial (IA), essa assimetria se manifesta de diversas formas, principalmente na coleta e uso de dados pessoais. Os consumidores frequentemente não têm acesso às informações sobre como seus dados são coletados, armazenados e utilizados, o que os torna vulneráveis a práticas abusivas e à exploração de suas informações pessoais. A falta de transparência nas políticas de privacidade e no uso de IA contribui para essa assimetria, dificultando a capacidade do consumidor de tomar decisões informadas (DOMINGUES; SILVA; SOUZA, 2021).
Essa falta de entendimento é um fator crítico que aumenta a vulnerabilidade do consumidor. A pesquisa realizada pelo Instituto de Pesquisa Capgemini indica que o Brasil é um dos países com maior interação diária com sistemas de IA, o que implica que uma grande parte da população está exposta a essas tecnologias sem a devida proteção ou compreensão dos riscos envolvidos (DOMINGUES; SILVA; SOUZA, 2021).
Diante dos riscos e vulnerabilidades apresentados, é imperativo que haja uma conscientização tanto dos consumidores quanto das empresas que utilizam IA. Os consumidores precisam entender o valor de seus dados e os impactos da IA em suas vidas. Por outro lado, as empresas devem adotar práticas de transparência e responsabilidade, garantindo que os consumidores estejam cientes de como seus dados estão sendo utilizados.
A regulamentação da IA é uma necessidade urgente. A legislação atual muitas vezes não abrange todas as situações em que a vulnerabilidade do consumidor está presente. É fundamental que as políticas públicas sejam adaptadas para proteger os consumidores em um ambiente digital em constante evolução. A criação de um marco regulatório que aborde a coleta de dados, a transparência e a responsabilidade das empresas é essencial para garantir a proteção dos direitos dos consumidores (BRANCO, 2023).
2.4. INTELIGÊNCIA ARTIFICIAL: IMPACTO E TRANSFORMAÇÃO NO COMPORTAMENTO DO CONSUMIDOR
A adoção da inteligência artificial (IA) está moldando profundamente o comportamento do consumidor, especialmente entre as gerações mais jovens, como a Geração Z3. Essa geração, que cresceu em um ambiente digital, está cada vez mais acostumada a interações personalizadas e eficientes. A IA permite que as empresas ofereçam experiências de compra sob medida, analisando dados de navegação e histórico de compras para criar recomendações personalizadas. Segundo um estudo, a personalização proporcionada pela IA não apenas melhora a eficiência das compras, mas também aumenta a satisfação do consumidor (HORA BRASIL, 2024).
A análise preditiva, impulsionada por algoritmos de IA, permite que as empresas compreendam melhor o comportamento do consumidor. Esses algoritmos analisam grandes volumes de dados para identificar padrões e tendências, ajudando as empresas a antecipar as necessidades dos consumidores. Essa capacidade de previsão é crucial em um mercado dinâmico, onde as preferências dos consumidores podem mudar rapidamente. A IA não apenas prevê comportamentos, mas também ajuda a identificar riscos potenciais, permitindo que as empresas tomem medidas preventivas para evitar crises (HORA BRASIL, 2024).
A personalização é um dos principais benefícios da IA no comportamento do consumidor. Através da análise de dados, as empresas podem oferecer produtos e serviços que atendem às preferências individuais de cada cliente. Por exemplo, aplicativos de compras que utilizam IA podem sugerir produtos com base no histórico de compras e nas interações anteriores do usuário. Essa abordagem não apenas melhora a experiência do cliente, mas também aumenta a probabilidade de conversão e fidelização (JR et al., 2022).
A IA também desempenha um papel significativo nas decisões de compra dos consumidores. Ao analisar sentimentos expressos em avaliações e postagens em mídias sociais, as empresas podem adaptar suas estratégias de marketing e aprimorar suas ofertas de produtos. Essa análise de sentimentos permite que as marcas se conectem de maneira mais eficaz com seus consumidores, influenciando diretamente suas decisões de compra. A capacidade de entender o que os consumidores realmente desejam e como se sentem em relação a produtos e serviços é uma vantagem competitiva crucial no mercado atual (HORA BRASIL, 2024).
Apesar dos benefícios, a adoção da IA no comportamento do consumidor também levanta preocupações éticas, especialmente em relação à privacidade e segurança dos dados. A coleta e o uso de dados pessoais para alimentar algoritmos de IA geram preocupações sobre como essas informações são utilizadas e protegidas. É fundamental que as empresas sejam transparentes sobre suas práticas de coleta de dados e garantam a proteção da privacidade dos consumidores. A falta de transparência pode levar a uma desconfiança significativa entre os consumidores, o que pode impactar negativamente a relação entre marcas e clientes (HOMEWORK, 2024).
A automação proporcionada pela IA não apenas melhora a experiência do consumidor, mas também contribui para a eficiência operacional das empresas. Ao automatizar a análise de dados e a previsão de comportamento do consumidor, as empresas podem liberar seus funcionários para se concentrarem em tarefas mais estratégicas e criativas. Essa eficiência não apenas reduz custos, mas também acelera o tempo de resposta às mudanças no mercado, permitindo que as empresas se adaptem rapidamente às novas demandas dos consumidores (HORA BRASIL, 2024).
À medida que avançamos para 2024 e além, espera-se que a adoção da IA continue a crescer, trazendo novas oportunidades e desafios para o comportamento do consumidor. A previsão é que o mercado de IA cresça 15,8% ao ano, alcançando um valor significativo até 2030. Essa expansão será impulsionada pelo aumento dos investimentos em tecnologia e pela crescente demanda por soluções de IA que melhorem a experiência do cliente e a eficiência operacional das empresas (MOTTA, 2023).
3. APRESENTAÇÃO DOS DADOS
A regulamentação da Inteligência Artificial (IA) no Brasil está em um momento crítico, com o Projeto de Lei 2.338/2023 em tramitação no Congresso Nacional. Este projeto visa estabelecer diretrizes para o desenvolvimento e uso responsável da IA abordando questões como privacidade, transparência e responsabilidade. No entanto, a ausência de um marco legal consolidado gera incertezas e desafios para o setor, especialmente em um contexto onde a tecnologia avança rapidamente e as implicações éticas e sociais se tornam cada vez mais evidentes (AMERICANAS, 2024).
Um dos principais desafios para a implementação da regulamentação da IA no Brasil é a falta de consenso entre os stakeholders sobre a necessidade e a forma de regulamentação. Especialistas apontam que a discussão sobre a regulamentação da IA avança lentamente, e a ausência de um diagnóstico claro sobre os impactos da tecnologia no país pode comprometer a eficácia das novas leis. Segundo o advogado Ciro Torres Freitas, é essencial entender os setores mais beneficiados e os riscos associados antes de estabelecer uma legislação abrangente (HIGÍDIO, 2024).
A proposta de regulamentação, embora necessária, pode criar obstáculos para o desenvolvimento tecnológico e a inovação. A indústria teme que um modelo regulatório excessivamente rigoroso possa isolar o Brasil no cenário global, dificultando a atração de investimentos e a competitividade do país. A regulação que abrange desde a concepção até a adoção de sistemas de IA pode resultar em barreiras ao desenvolvimento científico e tecnológico, conforme apontado por especialistas do setor (ALMEIDA, 2024).
A rápida evolução da tecnologia exige que a regulamentação seja flexível e adaptável. Normas rígidas podem rapidamente se tornar obsoletas, enquanto diretrizes mais gerais podem permitir uma adaptação mais ágil às inovações. A criação de um marco legal que permita atualizações frequentes e que considere as especificidades do contexto brasileiro é fundamental para garantir que a regulação não se torne um entrave ao progresso tecnológico (LISKAUSKAS, 2024).
A regulamentação da IA deve ser integrada com outras legislações já existentes, como a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet. Essa integração é crucial para garantir que a nova legislação não crie conflitos com normas já estabelecidas e que os princípios de proteção de dados sejam respeitados no uso de sistemas de IA. O PL 2.338/2023 busca complementar essas leis, estabelecendo um arcabouço regulatório coerente e abrangente (NETO, 2024).
A colaboração entre diferentes stakeholders, incluindo governo, academia e setor privado, é essencial para o desenvolvimento de uma regulamentação eficaz. A participação da sociedade civil nas discussões sobre a regulamentação da IA pode ajudar a identificar preocupações e necessidades específicas, promovendo um ambiente regulatório que equilibre inovação e proteção de direitos. A realização de audiências públicas e consultas pode ser uma estratégia eficaz para garantir que a regulamentação atenda às expectativas e necessidades da sociedade (LISKAUSKAS, 2024).
A regulamentação da IA deve priorizar princípios éticos, como a não discriminação, a transparência e a responsabilidade. A proteção dos direitos fundamentais e a promoção de um ambiente propício à inovação são essenciais para garantir que a IA seja utilizada de forma ética e responsável. A discussão sobre a regulamentação deve incluir a análise de impactos sociais e éticos, assegurando que a tecnologia beneficie a sociedade como um todo (SOARES, 2024).
A desinformação é um risco crescente associado à IA, especialmente em contextos de marketing e publicidade. Sistemas de IA podem ser utilizados para criarem conteúdos enganosos ou manipular informações, levando os consumidores a tomar decisões baseadas em dados falsos ou distorcidos. Essa manipulação pode afetar a confiança do consumidor nas empresas e nos produtos, além de prejudicar a integridade do mercado. A falta de transparência em relação ao uso de IA para influenciar decisões de compra é uma preocupação que deve ser abordada (FREITAS, 2024).
Apesar das propostas avançadas, a implementação da regulamentação enfrenta desafios significativos. A complexidade da tecnologia de IA e a rápida evolução do setor dificultam a criação de normas que sejam ao mesmo tempo abrangentes e flexíveis. Além disso, há preocupações sobre a interferência política e o lobby das grandes empresas de tecnologia, que podem influenciar a regulamentação em favor de seus interesses (LISKAUSKAS, 2024).
A transparência é um dos pilares da proposta de regulamentação. As empresas devem ser obrigadas a fornecer informações claras sobre o uso de IA incluindo como os dados dos consumidores são coletados, armazenados e utilizados. Essa transparência é fundamental para construir a confiança do consumidor e garantir que os direitos sejam respeitados (INOVATIVOS, 2024).
A regulamentação também deve considerar a proteção de grupos vulneráveis, que podem ser mais suscetíveis aos riscos associados à IA. Isso inclui a necessidade de medidas específicas para evitar discriminação algorítmica e garantir que todos os consumidores tenham acesso igualitário aos serviços oferecidos por meio de tecnologias de IA (COALIZÃO DIREITOS NA REDE, 2024).
A ausência de consentimento claro e a exploração da vulnerabilidade do consumidor podem resultar em práticas abusivas. Por exemplo, empresas podem coletar dados sem informar adequadamente os usuários sobre como essas informações serão utilizadas. Isso é particularmente preocupante em relação ao uso de dados para treinamento de modelos de IA, onde os consumidores podem não perceber que suas informações estão sendo utilizadas para fins comerciais sem qualquer benefício ou compensação para eles (MIGALHAS, 2024a).
Além disso, a falta de transparência nas políticas de privacidade pode dificultar o acesso dos consumidores ao direito de oposição, ou seja, a capacidade de se opor ao uso de seus dados pessoais. Isso é uma violação dos direitos básicos do consumidor, conforme estabelecido pelo Código de Defesa do Consumidor (CDC) (MIGALHAS, 2024a).
Para mitigar a vulnerabilidade do consumidor, é essencial que as empresas que utilizam Inteligência Artificial adotem práticas de transparência em relação à coleta e uso de dados. Isso inclui fornecer informações claras e acessíveis sobre quais dados estão sendo coletados, como serão utilizados e quais são os direitos dos consumidores em relação a essas informações. A conscientização dos consumidores sobre o valor de seus dados e os impactos da IA é fundamental para que possam tomar decisões informadas e proteger seus direitos (DOMINGUES; SILVA; SOUZA, 2021).
A regulação da IA é uma questão urgente no Brasil, especialmente considerando o aumento da vulnerabilidade do consumidor. O governo federal está trabalhando em um marco regulatório para a IA, que deve ser aprovado em breve. Essa regulação deve incluir diretrizes claras sobre a coleta e uso de dados, garantindo que os direitos dos consumidores sejam respeitados e protegidos. A implementação de um sistema de certificação e autorregulação pode ajudar a criar um ambiente de negócios mais transparente e responsável (VAINZOF, 2024).
Além da regulação, a educação e a conscientização dos consumidores são fundamentais para reduzir a assimetria de informação. Programas de educação que informem os consumidores sobre seus direitos e sobre como a IA funciona podem empoderá-los a tomar decisões mais informadas. Isso inclui entender os riscos associados ao compartilhamento de dados e como proteger suas informações pessoais (IDEC, 2024).
A crescente utilização de sistemas de Inteligência Artificial (IA) nas relações de consumo levanta preocupações significativas sobre a proteção do consumidor. A falta de transparência e a assimetria de informação são questões centrais que precisam ser abordadas por meio de regulamentações adequadas. A legislação atual, embora relevante, não abrange todas as situações em que a vulnerabilidade do consumidor pode ser exacerbada pela IA. Por exemplo, muitos consumidores não têm consciência de que estão interagindo com sistemas de IA, o que dificulta a identificação de seu papel na relação de consumo (DOMINGUES; SILVA; SOUZA, 2021).
Um marco regulatório específico para a IA é essencial para garantir a proteção dos direitos dos consumidores. Esse marco deve incluir diretrizes claras sobre a coleta, armazenamento e uso de dados pessoais, assegurando que os consumidores tenham controle sobre suas informações. A proposta do Projeto de Lei 2338/2023, que se concentra nos riscos e direitos dos consumidores, é um passo importante nesse sentido, pois busca alinhar a legislação brasileira com as melhores práticas internacionais (COALIZÃO DIREITOS NA REDE, 2024).
A regulamentação deve exigir que as empresas forneçam informações claras e acessíveis sobre como os dados dos consumidores são coletados e utilizados. Isso inclui a necessidade de obter consentimento explícito dos usuários antes da coleta de dados. A falta de transparência pode levar a abusos, como a exploração da vulnerabilidade do consumidor, que muitas vezes não tem consciência da extensão das informações que está compartilhando (DOMINGUES; SILVA; SOUZA, 2021).
A implementação de mecanismos de auditoria e supervisão é crucial para garantir que as empresas estejam em conformidade com as regulamentações. Isso pode incluir a criação de órgãos reguladores especializados que tenham o poder de investigar práticas abusivas e garantir a responsabilização das empresas que não cumprirem as normas estabelecidas. A auditabilidade da IA deve ser uma prioridade para garantir a confiança do consumidor (NAS, 2024).
A conscientização dos consumidores sobre seus direitos e sobre o funcionamento da IA é fundamental. Programas de educação e campanhas informativas podem ajudar os consumidores a entender melhor como suas informações são utilizadas e quais são os riscos associados à interação com sistemas de IA. A falta de conhecimento pode deixar os consumidores vulneráveis a práticas abusivas e à manipulação de dados (PROCON-SP, 2024).
Iniciativas que incentivem a participação dos consumidores na formulação de políticas relacionadas à IA podem ser benéficas. O Procon-SP, por exemplo, lançou pesquisas para entender a percepção dos consumidores sobre o uso da IA no comércio eletrônico, o que pode ajudar a moldar futuras regulamentações e práticas de mercado (PROCON-SP, 2024).
Um dos principais desafios na implementação de regulamentações para a IA é a resistência das empresas, que podem ver essas medidas como barreiras ao crescimento e à inovação. No entanto, é crucial que as empresas reconheçam que a proteção do consumidor e a transparência podem, na verdade, fortalecer a confiança do consumidor e, consequentemente, beneficiar os negócios a longo prazo (FECOMERCIOSP, 2024)
A colaboração entre diferentes setores, incluindo governo, empresas e organizações da sociedade civil, é essencial para desenvolver um marco regulatório eficaz. A troca de informações e experiências pode ajudar a identificar melhores práticas e a criar um ambiente de negócios mais seguro e transparente para os consumidores (FECOMERCIOSP, 2024).
A implementação de IA pode ter impactos sociais e econômicos significativos, especialmente em setores como o comércio eletrônico. O uso de algoritmos para personalização de ofertas e recomendações pode levar a uma experiência de compra mais eficiente, mas também pode resultar em discriminação de preços e exclusão de certos grupos de consumidores. Além disso, a automação pode levar à perda de empregos, o que gera preocupações sobre a equidade e a justiça social. As empresas devem considerar esses impactos ao implementar soluções de IA e buscar formas de mitigar os efeitos negativos sobre os consumidores e a sociedade como um todo (PROCON-SP, 2024).
A autonomia do consumidor pode ser comprometida quando decisões são tomadas com base em algoritmos sem a devida intervenção humana. É crucial garantir que os consumidores tenham a opção de interagir com um atendente humano se preferirem e que possam dar ou retirar seu consentimento para a utilização de IA. O Decreto nº 11.034, que regulamenta o Código de Defesa do Consumidor, estabelece diretrizes sobre o serviço de atendimento ao consumidor, mas a implementação dessas diretrizes em um contexto de IA ainda é um desafio (FREITAS, 2024).
O relatório do Centro para Democracia Digital (CDD) levanta preocupações sérias sobre a privacidade dos consumidores em relação às Smart TVs e dispositivos de streaming, que, segundo o estudo, funcionam como “cavalos de Troia digitais” em nossas casas. Esses dispositivos, que parecem inofensivos, estariam coletando dados extensivos sobre os usuários por meio de técnicas avançadas de rastreamento, com o objetivo de otimizar a publicidade direcionada para agradar anunciantes (ALENCAR, 2024).
Um dos aspectos mais inquietantes é o uso de inteligência artificial generativa para inserir dinamicamente produtos em programas de TV, sem interrupções visíveis na experiência de visualização. Além disso, o relatório aponta riscos significativos na utilização de dados de saúde e políticos para campanhas publicitárias, inclusive o possível direcionamento de campanhas secretas e personalizadas com base em informações sensíveis dos espectadores (ALENCAR, 2024).
O documento também destaca o perigo do uso de dados étnicos e raciais para segmentação de anúncios, com comunidades específicas sendo vistas como alvos lucrativos para o marketing. Diante disso, o CDD pede que órgãos reguladores, como a FTC e a FCC, investiguem a indústria de CTV e busquem regulamentar melhor essas práticas que afetam profundamente a privacidade dos usuários (ALENCAR, 2024).
O crescimento das plataformas de streaming sem uma regulamentação adequada coloca em xeque a proteção do consumidor, principalmente em relação à privacidade e ao uso de dados pessoais para finalidades comerciais (ALENCAR, 2024).
Recentemente, um grupo de hackers invadiu aspiradores de pó robôs, usando seus sistemas para proferir ofensas racistas e observar as vítimas através das câmeras desses dispositivos. A invasão destaca a vulnerabilidade de dispositivos conectados à internet, que podem ser explorados para atos de assédio e violação de privacidade. Esse incidente levanta preocupações sobre a segurança e a ética no uso de tecnologia doméstica, ressaltando a importância de medidas adequadas para proteger dispositivos no contexto da Internet das Coisas (IoT) e os dados pessoais dos usuários (G1, 2024).
A personalização proporcionada pela IA tem demonstrado um impacto positivo na experiência do consumidor, aumentando a satisfação e a fidelização. A capacidade das empresas de oferecer recomendações personalizadas, como demonstrado pelo exemplo da IKEA, ilustra como a tecnologia pode melhorar a experiência de compra.
A análise preditiva permite que as empresas não apenas compreendam melhor o comportamento do consumidor, mas também antecipem suas necessidades. Isso é crucial em um mercado dinâmico, onde a agilidade na resposta às preferências dos consumidores pode ser um diferencial competitivo.
A assimetria de informação é um dos principais riscos, onde os consumidores frequentemente não têm acesso a informações claras sobre como seus dados são coletados e utilizados. Isso pode levar a decisões mal informadas e à exploração de vulnerabilidades.
A discriminação algorítmica e a falta de responsabilidade em decisões automatizadas são preocupações sérias. A possibilidade de que sistemas de IA perpetuem preconceitos existentes, como evidenciado por práticas de exclusão, destaca a necessidade de uma regulamentação cuidadosa.
A coleta e o armazenamento de dados pessoais, muitas vezes sem o consentimento explícito dos consumidores, levantam questões críticas sobre privacidade e segurança. A pesquisa indicou que muitos consumidores não conseguem identificar quando estão interagindo com sistemas de IA, o que aumenta sua vulnerabilidade.
O Projeto de Lei nº 2.338/2023, que propõe o Marco Legal da IA, é um passo importante para regulamentar o uso da IA no Brasil. Ele busca estabelecer diretrizes que garantam a proteção dos direitos dos consumidores, promovendo a transparência e a responsabilidade das empresas.
A criação de um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) é uma das inovações que pode ajudar a mitigar os riscos associados ao uso da Inteligência Artificial, garantindo que os sistemas respeitem os direitos humanos e a privacidade.
O presente estudo mostra que a personalização, ao oferecer recomendações sob medida, aumenta a eficiência das compras e a satisfação do consumidor. Isso é corroborado por dados que indicam que os consumidores preferem interações personalizadas e estão mais propensos a realizar compras quando recebem sugestões relevantes.
A análise dos riscos associados à IA, como a assimetria de informação e a discriminação algorítmica, sugere que a ausência de um marco regulatório pode levar a abusos, como a coleta não transparente de dados e decisões automatizadas injustas. A pesquisa indica que muitos consumidores não têm consciência de como seus dados são utilizados, o que valida essa hipótese.
O Projeto de Lei nº 2.338/2023 propõe diretrizes que visam garantir a proteção dos direitos dos consumidores e a responsabilidade das empresas. A eficácia do marco legal dependerá da sua implementação e da capacitação dos profissionais envolvidos, o que pode ser avaliado por meio de estudos de caso e análises de impacto após a sua adoção.
A falta de transparência e a assimetria de informação criam vulnerabilidades que podem ser exploradas, resultando em práticas discriminatórias e na manipulação de dados.
Embora a IA traga benefícios significativos, como a personalização e à eficiência, é crucial que haja uma regulamentação que proteja os consumidores. A transparência nas práticas de coleta de dados e o respeito aos direitos dos consumidores são fundamentais para garantir que os benefícios da IA sejam aproveitados sem comprometer a ética e a segurança.
Uma regulamentação excessiva pode inibir o desenvolvimento tecnológico e a inovação, prejudicando a competitividade das empresas brasileiras no cenário global.
O desafio reside em encontrar um equilíbrio entre regulamentação e inovação. Um marco legal que estabeleça diretrizes claras e flexíveis pode fomentar a inovação ao mesmo tempo em que protege os direitos dos consumidores. A criação de um “sandbox regulatório” pode ser uma solução para permitir que empresas testem novas tecnologias dentro de um ambiente controlado, promovendo a experimentação sem comprometer a segurança do consumidor.
A dependência excessiva de sistemas automatizados pode resultar em interações insatisfatórias e na perda do toque humano no atendimento ao cliente.
A automação deve ser utilizada como uma ferramenta para complementar, e não substituir, as interações humanas. As empresas devem encontrar um equilíbrio entre a eficiência proporcionada pela IA e a necessidade de um atendimento humano que compreenda as nuances das interações com os consumidores.
4. CONCLUSÃO
O Projeto de Lei nº 2.338/2023, também conhecido como Marco Legal da Inteligência Artificial no Brasil, foi elaborado com o objetivo de regulamentar o uso e desenvolvimento de sistemas de IA no país. O projeto busca estabelecer princípios, regras e diretrizes que garantam a proteção dos direitos fundamentais, promovendo a inovação responsável e a transparência no uso da tecnologia. A proposta foi apresentada pelo presidente do Senado, Rodrigo Pacheco, e incorpora elementos de diversos projetos de lei que tramitavam anteriormente no Congresso, como o PL 21/2020 e o PL 5051/2019.
Uma das principais inovações do PL é a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Este sistema será responsável por coordenar as ações de regulação e supervisão da IA no Brasil, promovendo a integração entre diferentes órgãos e entidades governamentais. A Autoridade Nacional de Proteção de Dados (ANPD) será designada como a autoridade competente para coordenar o SIA, garantindo que as diretrizes de proteção de dados pessoais sejam respeitadas no desenvolvimento e uso de sistemas de IA.
O PL 2.338/2023 busca alinhar suas disposições com a Lei Geral de Proteção de Dados (LGPD), reconhecendo a importância da proteção de dados pessoais no contexto da IA. A ANPD, como autoridade responsável pela proteção de dados, terá um papel central na regulação da Inteligência Artificial, assegurando que as práticas de desenvolvimento e uso de sistemas de IA estejam em conformidade com as normas de proteção de dados. A análise preliminar da ANPD destaca a necessidade de um equilíbrio entre inovação e proteção de direitos.
A regulamentação da Inteligência Artificial no Brasil enfrenta desafios significativos, especialmente no que diz respeito à proteção dos direitos dos consumidores. O Projeto de Lei 2338/2023 busca estabelecer diretrizes claras para o uso da IA, mas a complexidade de acompanhar o rápido avanço tecnológico e a necessidade de equilibrar inovação com proteção dos direitos fundamentais são questões centrais. A falta de um diagnóstico adequado sobre os impactos da IA no mercado de consumo dificulta a formulação de uma legislação eficaz (HIGÍDIO, 2024).
A proposta de regulamentação enfatiza a importância de garantir direitos fundamentais aos consumidores, como o direito à informação, supervisão e contestação. Os consumidores devem ser informados sobre como seus dados são utilizados e protegidos, em conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD) (INOVATIVOS, 2024). Além disso, a regulação deve assegurar que os consumidores tenham o direito de solicitar intervenção humana em decisões automatizadas, especialmente em casos que possam impactar significativamente suas vidas, como diagnósticos médicos ou decisões financeiras.
A assimetria de informação entre consumidores e empresas é um dos principais riscos associados à IA. Os consumidores frequentemente não têm acesso a informações claras sobre como os sistemas de IA funcionam, o que pode levar a decisões mal informadas. A falta de transparência nos algoritmos de recomendação e nas decisões automatizadas pode resultar em desconfiança e insatisfação do consumidor (FREITAS, 2024).
A discriminação algorítmica é um risco significativo que pode surgir do uso de IA em processos de decisão. Sistemas de IA podem perpetuar ou até acentuar preconceitos existentes, resultando em discriminação contra grupos vulneráveis. A regulação deve incluir diretrizes para evitar a discriminação e garantir que os algoritmos sejam justos e transparentes (FREITAS, 2023).
As falhas de segurança e privacidade são preocupações centrais na implementação de sistemas de IA. A coleta e o processamento de grandes volumes de dados pessoais aumentam o risco de vazamentos e abusos. A legislação deve garantir que as empresas adotem medidas adequadas de segurança e que os consumidores sejam informados sobre os riscos associados ao uso de IA (MACHADO; OLIVEIRA, 2021).
A automação das decisões pode impactar a autonomia do consumidor, uma vez que as escolhas são cada vez mais influenciadas por algoritmos. A regulação deve assegurar que os consumidores mantenham o controle sobre suas decisões e que tenham a capacidade de contestar decisões automatizadas que afetem seus interesses (INOVATIVOS, 2024).
O PL 2338/2023 propõe uma série de direitos que visam garantir a transparência e a proteção dos consumidores em interações mediadas por IA. Entre os direitos destacados estão:
– Direito à Informação: Os consumidores devem ser informados sobre como os sistemas de IA funcionam e quais dados são utilizados. Isso inclui a obrigação das empresas de esclarecer como os algoritmos de recomendação influenciam as decisões de compra (FREITAS, 2024).
– Direito à Explicação: Os consumidores têm o direito de entender as decisões tomadas por sistemas de IA que os afetam, especialmente em serviços de saúde e financeiros, onde a falta de clareza pode resultar em danos significativos (FREITAS, 2023).
– Direito à Contestação: Os consumidores devem ter a possibilidade de contestar decisões automatizadas que impactem seus interesses, garantindo que possam buscar revisão e supervisão humana em processos automatizados (LISKAUSKAS, 2024).
A Inteligência Artificial (IA) tem se estabelecido como uma força transformadora nas relações de consumo, redefinindo a forma como as empresas interagem com os consumidores. A personalização e a segmentação de produtos e serviços são algumas das principais inovações trazidas pela IA. Por meio da análise de grandes volumes de dados, os algoritmos de IA conseguem oferecer recomendações altamente específicas, adaptadas às necessidades individuais de cada usuário. Isso não apenas melhora a experiência do consumidor, mas também aumenta as chances de conversão e fidelização (DOMINGUES; SILVA; SOUZA, 2021).
A assimetria de informação é um conceito central nas relações de consumo mediadas por IA. Os consumidores frequentemente não têm acesso às mesmas informações que as empresas, o que pode levar a decisões mal informadas. A falta de clareza sobre como os dados são coletados e utilizados pelos sistemas de IA pode resultar em uma privação de transparência, dificultando a análise e investigações sobre possíveis violações aos direitos dos consumidores (MIGALHAS, 2024a).
A coleta e o armazenamento de dados pessoais por sistemas de IA levantam preocupações significativas sobre a privacidade dos consumidores. Muitas vezes, os usuários não têm consciência da extensão das informações que estão fornecendo ao utilizar aplicativos ou acessar sites. Isso se torna um problema crítico, pois a falta de transparência pode levar a abusos e práticas comerciais desleais (ANDRADE, 2024).
A legislação brasileira, incluindo o Código de Defesa do Consumidor (CDC) e a Lei Geral de Proteção de Dados (LGPD), busca proteger os direitos dos consumidores em um ambiente digital. A Secretaria Nacional do Consumidor (SENACON) tem enfatizado a importância de as empresas respeitarem essas leis, especialmente no que diz respeito ao uso de dados pessoais para treinar sistemas de IA. A notificação à Meta, por exemplo, destaca a necessidade de uma base legal sólida e transparente para o tratamento de dados pessoais (MIGALHAS, 2024a).
A transparência na divulgação de informações sobre produtos e serviços online é um ponto crítico que ainda precisa ser abordado. A falta de clareza pode levar a expectativas não atendidas e, consequentemente, a conflitos entre consumidores e fornecedores. A crescente preocupação com a segurança digital e a proteção de dados exige uma revisão constante das práticas empresariais e regulamentações para garantir que os direitos dos consumidores sejam respeitados (ANDRADE, 2024).
A educação e a conscientização dos consumidores sobre seus direitos e sobre como seus dados são utilizados são fundamentais para mitigar os riscos associados à IA. As empresas devem adotar práticas que promovam a transparência e a responsabilidade no uso de dados, garantindo que os consumidores tenham a autonomia necessária para tomar decisões informadas. Isso inclui a possibilidade de consentir ou retirar o consentimento para o uso de seus dados (DOMINGUES; SILVA; SOUZA, 2021).
A implementação de IA no atendimento ao cliente traz tanto benefícios quanto desafios. Embora a automação possa melhorar a eficiência e a personalização do serviço, também pode comprometer a autonomia do consumidor. É crucial garantir que os consumidores tenham a opção de interagir com atendentes humanos, caso prefiram, e que possam dar ou retirar seu consentimento para a utilização de IA (FREITAS, 2024).
A regulação da IA deve ser adaptada para lidar com as complexidades das novas tecnologias e suas implicações nas relações de consumo. O Projeto de Lei 2.338/23, que visa regulamentar o uso da IA no Brasil, é um passo importante nesse sentido. No entanto, é necessário que a legislação evolua continuamente para acompanhar as inovações tecnológicas e garantir a proteção dos direitos dos consumidores (MIGALHAS, 2024b).
A responsabilidade civil em casos de acidentes de consumo envolvendo IA é um tema complexo. O Código de Defesa do Consumidor (CDC) estabelece que produtos e serviços devem funcionar adequadamente e não oferecer riscos à saúde e segurança do consumidor. No entanto, a automação e a utilização de IA podem complicar a identificação do nexo de causalidade em casos de falhas. Por exemplo, se um sistema de IA falhar e causar danos, como um carro autônomo que não para em um sinal vermelho, a responsabilidade pode ser difícil de atribuir. O fornecedor deve ser claro sobre os riscos e a funcionalidade da IA, e a falta de informação adequada pode levar a uma maior responsabilidade em caso de danos (BESSA, 2024).
A ausência de regulamentação específica para a IA pode resultar em vulnerabilidades significativas. Sistemas de IA mal projetados ou mal implementados podem ser suscetíveis a ataques cibernéticos, expondo dados pessoais e sensíveis dos consumidores. O Tribunal de Contas da União (TCU) destacou a importância de avaliar os riscos associados à regulação da IA, enfatizando que a falta de normas pode levar a consequências indesejadas para a segurança dos usuários (URUPÁ, 2024).
A utilização de dados pessoais para treinar modelos de IA levanta sérias questões éticas e de privacidade. O relatório da Academia Brasileira de Ciências (ABC) alerta para o risco de violação da privacidade, uma vez que dados de usuários são frequentemente utilizados sem o devido consentimento (GANDRA, 2023). A regulamentação é essencial para garantir que os direitos dos consumidores sejam respeitados e que haja transparência no uso de seus dados.
A IA pode ser utilizada para disseminar desinformação, especialmente em contextos como campanhas eleitorais. A falta de normas claras pode permitir que algoritmos sejam manipulados para influenciar a opinião pública de maneira antiética. A pesquisa do Instituto Ideia indica que a população está ciente desse risco, com 73% dos entrevistados apoiando a criação de regras para o uso da tecnologia (BARBI, 2024).
A análise utilizando os métodos hipotético-dedutivo e dialético revela a complexidade das interações entre a IA, o comportamento do consumidor e a necessidade de regulamentação. Enquanto a IA oferece oportunidades significativas para melhorar a experiência do consumidor, os riscos associados à sua implementação não podem ser ignorados. A criação de um marco regulatório eficaz é essencial para garantir que os benefícios da IA sejam aproveitados de maneira ética e responsável, protegendo os direitos dos consumidores e promovendo a inovação. O diálogo contínuo entre todos os envolvidos — governo, empresas e consumidores — será fundamental para alcançar esse objetivo.
As preocupações levantadas pelo CDD são um chamado à ação para consumidores, reguladores e empresas. A proteção da privacidade deve ser uma prioridade, e a transparência nas práticas de coleta e uso de dados é essencial para construir um ambiente digital mais seguro e ético. A conscientização sobre essas questões é fundamental para que os consumidores possam tomar decisões informadas sobre o uso de tecnologias em suas vidas.
A crescente adoção da inteligência artificial (IA) no contexto do direito do consumidor revela um panorama complexo que combina benefícios significativos com riscos e desafios éticos. A análise dos dados apresentados evidencia como a IA está transformando as interações entre consumidores e empresas, mas também destaca a vulnerabilidade dos consumidores em um ambiente digital em rápida evolução.
3A Geração Z, também conhecida como “Zoomers“, refere-se a indivíduos nascidos aproximadamente entre o final da década de 1990 e o início dos anos 2010. Essa geração é caracterizada por ter crescido em um ambiente dominado pela tecnologia digital, internet e redes sociais, influenciando profundamente suas interações sociais, comportamentos e valores (SEEMILLER; GRACE, 2016).
REFERÊNCIAS
ADAMS, LUÍS INÁCIO et al. Desafios para a regulação da inteligência artificial no Brasil. [S. l.], 2024. Disponível em: https://www.conjur.com.br/2024-mar-27/desafios-para-a-regulacao-da-inteligencia-artificial-no-brasil/. Acesso em: 11 out. 2024.
ALCASSA, FLÁVIA; PAPPERT, MILENA. Regulamentação de inteligência artificial e seu destino em 2024. [S. l.], 2023. Disponível em: https://www.conjur.com.br/2023-dez-14/regulamentacao-de-inteligencia-artificial-e-seu-destino-em-2024/. Acesso em: 14 set. 2024.
ALENCAR, FELIPE. Relatório alerta: Smart TVs são “cavalos de Troia digitais”. [S. l.], 2024. Disponível em: https://www.hardware.com.br/noticias/smart-tvs-vigilancia.html. Acesso em: 12 out. 2024.
ALMEIDA, EDSON. PL da Inteligência Artificial prejudica desenvolvimento da tecnologia e a inovação no setor produtivo. [S. l.], 2024. Disponível em: https://www.fiepi.com.br/noticias/9_7_2024/PLdaIAprejudicadesenvolvimentodatecnologiaeainovacaonosetorprodutivo/PL da Inteligência Artificial prejudica desenvolvimento da tecnologia e a inovação no setor produtivo. Acesso em: 11 out. 2024.
AMERICANAS. Marco Legal da Inteligência Artificial: desafios e perspectivas. [S. l.], 2024. Blog. Disponível em: https://www.americanasmarketplace.com.br/blog/marco-legal-da-inteligencia-artificial/. Acesso em: 11 out. 2024.
ANDRADE, VITOR LUIZ DE. Novas vulnerabilidades aos direitos do consumidor no comércio eletrônico. [S. l.], 2024. Disponível em: https://www.conjur.com.br/2024-mai-14/direitos-do-consumidor-no-comercio-eletronico-e-as-novas-vulnerabilidades/. Acesso em: 12 out. 2024.
BARBI, HENRIQUE. Mais de 70% dos brasileiros veem necessidade de normas para inteligência artificial, aponta pesquisa. [S. l.], 2024. BLOG. Disponível em: https://oglobo.globo.com/blogs/pulso/noticia/2024/06/25/mais-de-70percent-dos-brasileiros-veem-necessidade-de-normas-para-inteligencia-artificial-aponta-pesquisa.ghtml. Acesso em: 14 set. 2024.
BESSA, LEONARDO ROSCOE. Inteligência artificial e danos ao consumidor. [S. l.], 2024. Disponível em: https://www.correiobraziliense.com.br/direito-e-justica/2024/05/6851906-inteligencia-artificial-e-danos-ao-consumidor.html. Acesso em: 12 out. 2024.
BOECHAT, GABRIELA; BEHNKE, EMILLY. Comissão especial do Senado analisa marco legal da Inteligência Artificial nesta terça-feira. [S. l.], 2024. CNN Brasil. Disponível em: https://www.cnnbrasil.com.br/politica/comissao-especial-do-senado-analisa-marco-legal-da-inteligencia-artificial-nesta-terca-feira/. Acesso em: 3 set. 2024.
BRANCO, CAROLINA. O Princípio da Vulnerabilidade na regulamentação da Inteligência Artificial. [S. l.], 2023. BLOG. Disponível em: https://ip.rec.br/blog/o-principio-da-vulnerabilidade-na-regulamentacao-da-inteligencia-artificial/. Acesso em: 14 set. 2024.
CÂMARA DOS DEPUTADOS. Projeto cria marco legal para uso de inteligência artificial no Brasil. [S. l.], 2020. Disponível em: https://www.camara.leg.br/noticias/641927-projeto-cria-marco-legal-para-uso-de-inteligencia-artificial-no-brasil/. Acesso em: 11 out. 2024.
CERIZZE. O Marco Legal da Inteligência Artificial no Brasil e Seus Impactos. [S. l.], 2024. Disponível em: https://cerizze.com/o-marco-legal-da-inteligencia-artificial-no-brasil-e-seus-impactos/. Acesso em: 11 out. 2024.
COALIZÃO DIREITOS NA REDE. CARTA ABERTA: Defendendo uma legislação brasileira de IA que proteja direitos. [S. l.], 2024. Disponível em: https://direitosnarede.org.br/2024/07/08/carta-aberta-defendendo-uma-legislacao-brasileira-de-ia-que-proteja-direitos/. Acesso em: 11 out. 2024.
DIGNUM, VIRGINIA. Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way. Umea: Springer International Publishing AG, 2019. (Artificial Intelligence: Foundations, Theory, and Algorithms Ser).
DOMINGUES, JULIANA OLIVEIRA; SILVA, ALAÍS APARECIDA BONELLI DA; SOUZA, HENRIQUE MONTEIRO ARAUJO DE. Inteligência artificial nas relações de consumo: reflexões à luz do histórico recente. In: ANDRIEI GUTIERREZ; RONY VAINZOF. (ORG.). INTELIGÊNCIA ARTIFICIAL (IA) SOCIEDADE, ECONOMIA E ESTADO. 1. ed. São Paulo, SP: Thomson Reuters Brasil, 2021. v. 1, p. 315–338. Disponível em: https://www.direitorp.usp.br/wp-content/uploads/2021/11/AI-nas-Relacoes-de-consumo_FINAL.pdf.
FECOMERCIOSP. Marco regulatório da Inteligência Artificial. [S. l.], 2024. Disponível em: https://www.fecomercio.com.br/noticia/marco-regulatorio-da-inteligencia-artificial. Acesso em: 11 out. 2024.
FREITAS, THEREZA. IA no atendimento ao cliente: desafios jurídicos e proteção ao consumidor. [S. l.], 2024. Disponível em: https://www.conjur.com.br/2024-ago-16/impactos-da-inteligencia-artificial-no-atendimento-ao-cliente-desafios-juridicos-e-protecao-ao-consumidor/. Acesso em: 14 set. 2024.
FREITAS, TAMIRES. Inteligência artificial: Impactos e responsabilidades no direito do consumidor. [S. l.], 2023. Disponível em: https://www.migalhas.com.br/depeso/396980/ia-impactos-e-responsabilidades-no-direito-do-consumidor. Acesso em: 14 set. 2024.
G1. Hackers invadem aspiradores-robô, fazem ofensas racistas e observam vítimas pelas câmeras, diz site | Tecnologia | G1. [S. l.], 2024. Disponível em: https://g1.globo.com/tecnologia/noticia/2024/10/16/hackers-invadem-aspiradores-robo-fazem-ofensas-racistas-e-observam-vitimas-pelas-cameras-diz-site.ghtml. Acesso em: 19 out. 2024.
GANDRA, ALANA. Cientistas veem riscos e benefícios da inteligência artificial. [S. l.], 2023. Disponível em: https://agenciabrasil.ebc.com.br/geral/noticia/2023-11/cientistas-veem-riscos-e-benef%C3%ADcios-da-intelig%C3%AAncia-artificial. Acesso em: 12 out. 2024.
HIGÍDIO, JOSÉ. Sem diagnóstico dos impactos da IA, lei geral não é melhor caminho, afirma especialista. [S. l.], 2024. Disponível em: https://www.conjur.com.br/2024-jul-02/sem-diagnostico-dos-impactos-da-ia-lei-geral-nao-e-melhor-caminho-diz-ciro-torres-freitas/. Acesso em: 12 out. 2024.
HOMEWORK. Como a IA está influenciando o padrão de consumo da Geração Z. [S. l.], 2024. ECONOMIA. Disponível em: https://www.terra.com.br/economia/como-a-ia-esta-influenciando-o-padrao-de-consumo-da-geracao-z,3c4502775dd485379e4d649a888557d9fmmvvovg.html. Acesso em: 9 out. 2024.
HORA BRASIL. Como a inteligência artificial está mudando a maneira que enxergamos a conduta dos clientes. [S. l.], 2024. Disponível em: https://www.horabrasil.com.br/2024/03/08/como-a-ia-ajuda-a-prever-o-comportamento-do-consumidor/. Acesso em: 9 out. 2024.
IDEC. Ref.: Utilização compulsória de dados de consumidores para treinamento de inteligência artificial (IA) das plataformas da Meta. [S. l.], 2024. Disponível em: https://idec.org.br/sites/default/files/notificacao_idec_-_meta_ia_generativa_26.06.2024.pdf. Acesso em: 11 out. 2024.
INOVATIVOS. Descubra os principais impactos do projeto de lei da IA na defesa do consumidor. [S. l.], 2024. Disponível em: https://inovativos.com.br/2024/06/11/descubra-impactos-projeto-lei-ia-consumidor/. Acesso em: 11 out. 2024.
JR, ALBERTO DE MEDEIRO et al. OS IMPACTOS DA INTELIGÊNCIA ARTIFICIAL NAS ESTRATÉGIAS DE MARKETING. [s. l.], v. 9, n. 36, 2022. Disponível em: https://www.mackenzie.br/fileadmin/ARQUIVOS/Public/6-pos-graduacao/upm-higienopolis/mestrado-doutorado/admin-desen-negocios/2023/18_Os_Impactos_da_Intelig%C3%AAncia_Artificial_nas_Estrat%C3%A9gias_de_Marketing.pdf. Acesso em: 9 out. 2024.
KRUG, JULIANO. Descubra os 5 principais riscos da IA: você está protegido?. [S. l.], 2024. tech-takes. Disponível em: https://www.hp.com/br-pt/shop/tech-takes/principais-riscos-da-inteligencia-artificial. Acesso em: 14 set. 2024.
LISKAUSKAS, SUZANA. Regulação da IA no Brasil impõe desafios ao mercado. [S. l.], 2024. Valor Econômico. Disponível em: https://valor.globo.com/publicacoes/especiais/tecnologia-bancaria/noticia/2024/07/04/regulacao-da-ia-no-brasil-impoe-desafios-ao-mercado.ghtml. Acesso em: 3 set. 2024.
MACHADO, JOSÉ MAURO DECOUSSAU; OLIVEIRA, CAIO CÉSAR. Os desafios legais da IA no Brasil. [S. l.], 2021. Disponível em: https://mitsloanreview.com.br/os-desafios-legais-da-ia-no-brasil/. Acesso em: 12 out. 2024.
MIGALHAS. Ministério da Justiça notifica Meta por dados de brasileiros em IA. [S. l.], 2024a. Disponível em: https://www.migalhas.com.br/quentes/410587/ministerio-da-justica-notifica-meta-por-dados-de-brasileiros-em-ia. Acesso em: 11 out. 2024.
MIGALHAS. Veja análise do PL que regulamenta inteligência artificial pela IA. [S. l.], 2024b. Disponível em: https://www.migalhas.com.br/quentes/408953/veja-analise-do-pl-que-regulamenta-inteligencia-artificial-pela-ia. Acesso em: 11 out. 2024.
MOTTA, RICARDO. Tendências para 2024: Como o uso da Inteligência Artificial pode melhorar o relacionamento no mercado de consumo | Jovem Pan. [S. l.], 2023. Disponível em: https://jovempan.com.br/opiniao-jovem-pan/comentaristas/ricardo-motta/tendencias-para-2024-como-o-uso-da-inteligencia-artificial-pode-melhorar-o-relacionamento-no-mercado-de-consumo.html. Acesso em: 9 out. 2024.
NAS, ELEN. Inteligência Artificial responsável e a regulamentação: notas sobre a questão da IA centrada no humano. [S. l.], 2024. Disponível em: https://jornal.usp.br/artigos/inteligencia-artificial-responsavel-e-a-regulamentacao-notas-sobre-a-questao-da-ia-centrada-no-humano/. Acesso em: 11 out. 2024.
NETO, WALTER CALZA. Expectativa de votação e impactos da regulamentação da IA no Brasil. [S. l.], 2024. Disponível em: https://tiinside.com.br/10/06/2024/expectativa-de-votacao-e-impactos-da-regulamentacao-da-ia-no-brasil/. Acesso em: 11 out. 2024.
PROCON-SP. Atendimento por Inteligência Artificial – enquete do Procon-SP revela consumidores ainda insatisfeitos e pontos a melhorar. [S. l.], 2023. Disponível em: https://www.procon.sp.gov.br/atendimento-por-inteligencia-artificial-enquete-do-procon-sp-revela-consumidores-ainda-insatisfeitos-e-pontos-a-melhorar/. Acesso em: 14 set. 2024.
PROCON-SP. Procon-SP convida consumidores a opinarem sobre o uso da Inteligência Artificial no Comércio Eletrônico. [S. l.], 2024. Disponível em: https://www.procon.sp.gov.br/procon-sp-convida-consumidores-a-opinarem-sobre-o-uso-da-inteligencia-artificial-no-comercio-eletronico/. Acesso em: 11 out. 2024.
PSICO-SMART. Quais são os principais riscos de segurança cibernética associados ao uso de inteligência artificial?. [S. l.], 2024. BLOG. Disponível em: https://psico-smart.com/pt/blogs/blog-quais-sao-os-principais-riscos-de-seguranca-cibernetica-associados-ao-uso-de-inteligencia-artificial-97314. Acesso em: 14 set. 2024.
SEEMILLER, COREY; GRACE, MEGHAN. Generation Z goes to college. 1. ed. San Francisco, CA: Jossey-Bass, 2016.
SICHMAN, JAIME SIMÃO. Inteligência Artificial e sociedade: avanços e riscos. Estudos Avançados, [s. l.], v. 35, p. 37–50, 2021.
SOARES, INGRID. Regulação da inteligência artificial no Brasil caminha a passos lentos. [S. l.], 2024. Disponível em: https://www.correiobraziliense.com.br/politica/2024/04/6837976-regulacao-da-inteligencia-artificial-no-brasil-caminha-a-passos-lentos.html. Acesso em: 11 out. 2024.
STARTSE. Senado muda texto do Marco Legal da IA; veja o que muda. [S. l.], 2024. Redação Startups. Disponível em: https://www.startse.com/artigos/senado-muda-texto-do-marco-legal-da-ia-votacao-e-adiada. Acesso em: 3 set. 2024.
URUPÁ, MARCOS. TCU avalia riscos da regulação da inteligência artificial no Brasil. [S. l.], 2024. Disponível em: https://teletime.com.br/08/04/2024/tcu-avalia-riscos-da-regulacao-da-inteligencia-artificial-no-brasil/. Acesso em: 12 out. 2024.
VAINZOF, RONY. Há urgência para regular a Inteligência Artificial no Brasil?. [S. l.], 2024. Disponível em: https://www.fecomercio.com.br/noticia/ha-urgencia-para-regular-a-inteligencia-artificial-no-brasil. Acesso em: 11 out. 2024.
1Discente do Curso Superior de Direito da Unicesumar Campus Ponta Grossa
e-mail: saulofavoretto@gmail.com
2Docente do Curso Superior de Direito da Unicesumar Campus Ponta Grossa. Doutora em Ciências Sociais Aplicadas UEPG.
e-mail: msmaniotto78@gmail.com.