REGISTRO DOI: 10.69849/revistaft/ch10202505161613
Francisco De Assis Ferreira Lima Júnior1
Ian De Almeida Bispo Rodrigues2
Yan Gomes Moraes3
Orientadora: Ingryd Stéphanye Monteiro De Souza4
RESUMO
A responsabilidade civil no contexto da Inteligência Artificial (IA) e da Lei Geral de Proteção de Dados (LGPD) é um tema emergente no direito brasileiro. Com o avanço das tecnologias, algoritmos de IA processam grandes volumes de informações, muitas vezes sem transparência, gerando riscos à privacidade e à segurança dos dados pessoais. A LGPD estabelece diretrizes para garantir a proteção dessas informações, prevendo a responsabilização objetiva dos agentes de tratamento de dados. O presente estudo analisa os fundamentos legais da responsabilidade civil, com base na Constituição Federal, Código Civil e legislações específicas, abordando a aplicabilidade da responsabilidade objetiva e subjetiva em casos de violações da LGPD por IA. Além disso, discute-se a dificuldade na comprovação do nexo causal devido à opacidade algorítmica e aos vieses embutidos nos sistemas automatizados. A pesquisa adota uma metodologia bibliográfica, com levantamento de doutrina, legislação e jurisprudência, visando contribuir para o aprimoramento da regulamentação do uso da IA no Brasil. Dessa forma, o estudo busca fornecer subsídios para que desenvolvedores, reguladores e juristas possam garantir um tratamento ético e seguro dos dados pessoais, conciliando inovação tecnológica e proteção de direitos fundamentais.
Palavras chaves: Responsabilidade civil; Inteligência Artificial; LGPD.
ABSTRACT
Civil liability in the context of Artificial Intelligence (AI) and the General Data Protection Law (LGPD) is an emerging topic in Brazilian law. With technological advancements, AI algorithms process large volumes of information, often without transparency, posing risks to privacy and the security of personal data. The LGPD establishes guidelines to ensure the protection of such information, providing for the strict liability of data processing agents. This study analyzes the legal foundations of civil liability, based on the Federal Constitution, the Civil Code, and specific legislation, addressing the applicability of strict and subjective liability in cases of LGPD violations involving AI. Furthermore, it discusses the difficulty in proving the causal link due to algorithmic opacity and the biases embedded in automated systems. The research adopts a bibliographic methodology, with a review of doctrine, legislation, and case law, aiming to contribute to the improvement of AI regulation in Brazil. Thus, the study seeks to provide support for developers, regulators, and legal professionals to ensure the ethical and secure processing of personal data, reconciling technological innovation with the protection of fundamental rights.
Keywords: Civil liability; Artificial Intelligence; LGPD.
1 INTRODUÇÃO
O avanço tecnológico proporcionado pela Inteligência Artificial (IA) tem transformado diversos setores da sociedade, incluindo a economia, a saúde, o mercado de trabalho e a administração pública. O uso crescente de algoritmos para o tratamento de dados pessoais tem levantado importantes questionamentos jurídicos, especialmente no que diz respeito à privacidade e à responsabilidade pelos danos causados por decisões automatizadas. Nesse contexto, a Lei Geral de Proteção de Dados (LGPD) surge como um marco regulatório essencial para garantir o tratamento adequado e seguro das informações pessoais no Brasil. A interseção entre IA e proteção de dados gera desafios inéditos para o direito, exigindo uma análise aprofundada sobre os limites da responsabilidade civil aplicável aos agentes que controlam e operam esses sistemas.
A LGPD, instituída pela Lei nº 13.709/2018, estabelece princípios e regras para o tratamento de dados pessoais, impondo obrigações aos agentes de tratamento e garantindo direitos aos titulares das informações. Entre suas disposições, destaca-se a necessidade de responsabilizar controladores e operadores pelo uso indevido ou inadequado dos dados pessoais. No entanto, a utilização de IA no processamento dessas informações cria dificuldades adicionais para a aplicação das normas tradicionais de responsabilidade civil, uma vez que os algoritmos podem operar de maneira autônoma e com baixa transparência, dificultando a identificação do responsável direto por eventuais violações.
O problema central desta pesquisa reside na seguinte questão: quais são as responsabilidades civis aplicáveis em casos de violação da LGPD cometida por algoritmos de Inteligência Artificial, e como essas violações podem ser comprovadas juridicamente? Para responder a essa indagação, parte-se da hipótese de que a responsabilidade civil nesses casos deve ser objetiva, uma vez que os agentes de tratamento de dados possuem o dever legal de garantir um processamento adequado e seguro das informações pessoais, independentemente da comprovação de culpa ou dolo. Além disso, argumenta-se que a rastreabilidade dos algoritmos e a implementação de mecanismos de transparência são fundamentais para a comprovação do nexo causal entre a atuação da IA e os danos sofridos pelos titulares dos dados.
2 OS FUNDAMENTOS LEGAIS DA RESPONSABILIDADE CIVIL
A responsabilidade civil é um dos pilares do ordenamento jurídico brasileiro, fundamentando-se na necessidade de reparação dos danos causados a terceiros. Segundo Diniz (2023), essa responsabilidade pode ser classificada em subjetiva, quando há necessidade de comprovação de culpa ou dolo, e objetiva, quando a obrigação de reparar independe da existência de culpa. No contexto da Inteligência Artificial (IA), a responsabilidade objetiva tem ganhado destaque, uma vez que os algoritmos operam de forma autônoma, dificultando a identificação de um agente diretamente responsável pelo dano.
No Brasil, a Constituição Federal de 1988 estabelece em seu artigo 5º a inviolabilidade da intimidade e da vida privada, garantindo aos cidadãos a proteção de seus dados pessoais (Brasil, 1988). Esse dispositivo constitucional serve como base para a regulamentação infraconstitucional, que visa garantir a privacidade dos indivíduos diante do avanço das tecnologias de informação. Conforme Gonçalves (2023), a proteção da privacidade se tornou um dos desafios centrais do direito contemporâneo, especialmente diante do uso massivo de algoritmos que coletam e processam informações sensíveis.
O Código Civil de 2002 também disciplina a responsabilidade civil, estabelecendo, em seu artigo 186, que qualquer pessoa que, por ação ou omissão voluntária, negligência ou imprudência, causar dano a outra, comete ato ilícito (Brasil, 2002). O artigo 927, por sua vez, reforça que aquele que causar dano a outrem tem o dever de repará-lo, sendo que, nos casos em que a atividade implique risco inerente, a responsabilidade será objetiva. De acordo com Venosa (2023), essa previsão legal é fundamental para garantir a proteção dos direitos individuais em um contexto de crescente automação.
Com a entrada em vigor da Lei Geral de Proteção de Dados (LGPD), estabeleceu-se um marco regulatório essencial para a proteção das informações pessoais no Brasil. Conforme Pinheiro (2021), a LGPD impõe obrigações específicas para os controladores e operadores de dados, responsabilizando-os pelo tratamento inadequado das informações coletadas. A legislação prevê, ainda, sanções administrativas para os agentes que descumprirem suas disposições, o que reforça a necessidade de conformidade com seus princípios.
A responsabilidade civil aplicada ao tratamento de dados pessoais envolve desafios específicos, especialmente no que diz respeito à identificação do nexo causal entre a conduta dos agentes e o dano sofrido pelo titular dos dados. De acordo com Gagliano e Filho (2023), a crescente automação dos processos decisórios dificulta essa comprovação, tornando essencial a adoção de mecanismos de transparência e rastreabilidade dos algoritmos utilizados. Nesse sentido, a responsabilidade objetiva pode ser um caminho mais eficiente para garantir a reparação dos danos causados.
Dessa forma, o arcabouço legal brasileiro já prevê instrumentos para lidar com as consequências jurídicas da utilização da IA no tratamento de dados pessoais. No entanto, a complexidade das novas tecnologias exige um aperfeiçoamento constante da legislação, garantindo que a inovação não comprometa os direitos fundamentais dos cidadãos. Conforme Tartuce (2023), a evolução da responsabilidade civil no direito digital precisa considerar a natureza autônoma dos algoritmos e a necessidade de proteção efetiva dos dados pessoais.
3 A INTELIGÊNCIA ARTIFICIAL E A PROTEÇÃO DE DADOS PESSOAIS
A Inteligência Artificial (IA) tem revolucionado o processamento de dados, permitindo a automação de tarefas complexas e a análise de grandes volumes de informações. No entanto, o uso dessas tecnologias também levanta desafios jurídicos e éticos, especialmente no que diz respeito à proteção de dados pessoais. De acordo com Russel e Norvig (2021), os sistemas de IA são projetados para identificar padrões e tomar decisões baseadas em dados históricos, o que pode gerar riscos à privacidade quando não há um controle adequado sobre os algoritmos.
A evolução da proteção de dados pessoais pode ser traçada desde o surgimento das primeiras legislações voltadas à privacidade até a implementação de normas específicas, como o Regulamento Geral de Proteção de Dados (GDPR) na União Europeia e a Lei Geral de Proteção de Dados (LGPD) no Brasil. Conforme Matias-Pereira (2019), a necessidade de regulamentação tornou-se evidente diante da crescente coleta e tratamento massivo de informações por empresas e governos, muitas vezes sem o conhecimento ou consentimento dos titulares dos dados.
No Brasil, a LGPD estabeleceu regras claras sobre o tratamento de dados pessoais, atribuindo responsabilidades específicas a controladores e operadores de dados. Segundo Pinheiro (2021), os controladores são aqueles que tomam as decisões sobre o tratamento dos dados, enquanto os operadores são responsáveis por executar esse tratamento conforme as instruções do controlador. A distinção entre essas figuras é essencial para a aplicação da responsabilidade civil, pois define quem pode ser responsabilizado em caso de violação da legislação.
Um dos principais desafios da aplicação da LGPD no contexto da IA é a questão da opacidade algorítmica. Conforme Oremus (2022), muitos sistemas de IA operam como verdadeiras caixas-pretas, onde nem mesmo os desenvolvedores conseguem explicar completamente como uma decisão foi tomada. Essa falta de transparência compromete a fiscalização e a responsabilização dos agentes envolvidos, dificultando a aplicação da legislação. Para mitigar esse problema, é fundamental que as empresas adotem práticas de auditoria algorítmica e mecanismos de explicabilidade.
Além da falta de transparência, a coleta massiva e indiscriminada de dados pessoais também representa um risco significativo. A LGPD determina, em seu artigo 6º, que o tratamento de dados deve ser limitado ao mínimo necessário para atingir sua finalidade, respeitando os princípios da necessidade e da proporcionalidade (Brasil, 2018). No entanto, conforme Alencar (2022), muitas empresas utilizam IA para coletar informações de maneira excessiva, sem um propósito legítimo claramente definido, o que pode resultar em abusos e violações dos direitos dos titulares.
Outro problema relevante é o viés algorítmico, que pode levar a discriminação em decisões automatizadas. Segundo Buckner e Garson (2019), os algoritmos de IA aprendem com dados históricos, e, se esses dados forem enviesados, o sistema pode reproduzir e amplificar preconceitos. Esse fenômeno já foi identificado em diversas áreas, como recrutamento, concessão de crédito e segurança pública. Um exemplo clássico é o caso da IA utilizada pela Amazon para análise de currículos, que discriminava candidatas mulheres devido a padrões aprendidos em dados anteriores (Tec Mundo, 2018).
Diante desses desafios, torna-se essencial que o uso da IA no tratamento de dados pessoais seja regulamentado de forma rigorosa e eficaz. O Projeto de Lei nº 21/2020, por exemplo, propõe diretrizes para o uso ético da IA no Brasil, incluindo a necessidade de transparência, supervisão humana e mitigação de vieses algorítmicos (Brasil, 2020). Já o Projeto de Lei nº 2338/2023 reforça a importância da rastreabilidade das decisões automatizadas e da responsabilização dos agentes envolvidos (Brasil, 2023). Essas propostas são fundamentais para garantir que a IA seja utilizada de maneira responsável e em conformidade com os princípios da LGPD.
Dessa forma, a interseção entre IA e proteção de dados exige uma abordagem equilibrada entre inovação tecnológica e direitos fundamentais. A implementação de mecanismos de governança, auditoria e responsabilização é essencial para garantir que os avanços da IA não comprometam a privacidade e a segurança dos cidadãos. Conforme Turner (2019), a regulação eficiente dessas tecnologias deve priorizar a transparência e a ética, assegurando que os benefícios da automação sejam aproveitados sem prejudicar os direitos individuais.
4 A PROTEÇÃO DE DADOS COMO DIREITO FUNDAMENTAL: A RESPONSABILIDADE CIVIL NO USO DE IA
A proteção de dados pessoais foi reconhecida como um direito fundamental no Brasil por meio da Emenda Constitucional nº 115/2022, o que reforça sua importância dentro do ordenamento jurídico (Brasil, 2022). Esse reconhecimento eleva a privacidade e a segurança das informações pessoais ao mesmo patamar de outros direitos fundamentais, como a liberdade e a dignidade da pessoa humana.
Conforme Venosa (2023), a evolução tecnológica trouxe desafios inéditos ao direito, especialmente no que tange à responsabilidade civil decorrente do uso da Inteligência Artificial (IA) no tratamento de dados pessoais.
A responsabilidade civil objetiva tem se mostrado o modelo mais adequado para lidar com violações da LGPD por IA. De acordo com Gagliano e Filho (2023), a aplicação desse modelo decorre do fato de que os agentes de tratamento de dados possuem o dever legal de garantir a segurança das informações que coletam e processam, independentemente da comprovação de culpa ou dolo. Essa abordagem é compatível com o artigo 927, parágrafo único, do Código Civil, que prevê a responsabilidade objetiva para atividades que, por sua natureza, impliquem riscos para terceiros (Brasil, 2002).
No entanto, um dos grandes desafios da responsabilidade civil no uso de IA é a dificuldade na comprovação do nexo causal. Segundo Buckner e Garson (2019), os algoritmos de IA operam de maneira autônoma e podem tomar decisões com base em padrões ocultos nos dados, tornando complexa a identificação de um vínculo direto entre a conduta dos agentes de tratamento e o dano sofrido pelo titular dos dados. Esse fenômeno é conhecido como opacidade algorítmica e representa um obstáculo significativo para a aplicação das normas de responsabilidade civil.
4.1 Comprovação do Nexo Causal
A comprovação do nexo causal em casos de violação da LGPD por sistemas de inteligência artificial representa um dos maiores desafios à responsabilização dos agentes envolvidos. Conforme Alencar (2022), a complexidade dos algoritmos e a falta de transparência nos processos decisórios dificultam a identificação da relação entre a ação do sistema e o dano sofrido pelo titular dos dados. Essa dificuldade se intensifica nos sistemas que utilizam aprendizado de máquina (machine learning), cujas decisões evoluem ao longo do tempo sem intervenção humana direta.
Para mitigar esse problema, algumas soluções têm sido propostas. Segundo Oremus (2022), a realização de auditorias algorítmicas permite maior transparência nos processos de tomada de decisão, viabilizando a rastreabilidade das ações realizadas pelos sistemas de IA. Além disso, a criação de mecanismos de explicabilidade dos algoritmos (explainable AI) pode auxiliar na identificação dos critérios utilizados para a tomada de decisões, facilitando a atribuição de responsabilidade em casos de violação da LGPD (Frey e Osborne, 2017).
Outro fator relevante para a comprovação do nexo causal é o viés algorítmico. Conforme Diniz (2023), sistemas de IA treinados com dados enviesados podem perpetuar discriminações, afetando negativamente determinados grupos sociais. O caso do sistema de recrutamento da Amazon, que discriminava mulheres com base em padrões aprendidos historicamente, é um exemplo notório desse risco (Tec Mundo, 2018). A identificação desses vieses pode ser essencial para comprovar que determinadas violações são decorrentes de um funcionamento inadequado da IA.
Nesse contexto, a jurisprudência brasileira, ainda que incipiente, já começa a delinear critérios relevantes para a responsabilização civil em violações da LGPD. No Recurso Inominado Cível n.º 1003086-21.2021.8.26.0003, o Tribunal de Justiça de São Paulo reconheceu o nexo causal entre o vazamento de dados e o dano sofrido pela consumidora, afirmando que a ausência de medidas eficazes de segurança caracteriza defeito na prestação do serviço (São Paulo, 2021). O acórdão também consolidou o entendimento de que ataques de hackers configuram fortuito interno, não sendo capazes de afastar a responsabilidade objetiva da controladora dos dados .
De modo semelhante, o Superior Tribunal de Justiça, ao julgar o REsp n.º 2.092.096/SP, reforçou a aplicabilidade da LGPD e do Código de Defesa do Consumidor às plataformas digitais que armazenam dados pessoais. Ainda que não tenha reconhecido o dano moral na hipótese, a Corte estabeleceu a obrigação de exclusão dos dados pessoais inseridos por terceiros e o fornecimento de registros de acesso, consolidando a responsabilidade do agente de tratamento em face do titular dos dados, mesmo quando o nexo causal decorre de fatos complexos como o acesso não autorizado por terceiros .
Assim, percebe-se que o Poder Judiciário tem adotado uma postura progressiva, no sentido de assegurar os direitos dos titulares de dados mesmo diante da opacidade e autonomia dos sistemas de IA. Como observa Turner (2019), o avanço tecnológico não pode servir como escudo para a irresponsabilidade jurídica. Portanto, é fundamental que o ordenamento jurídico mantenha um equilíbrio entre inovação e proteção de direitos, garantindo a responsabilização dos agentes de tratamento sempre que for demonstrada a conexão entre o uso da tecnologia e o dano causado ao titular.
5 CONSIDERAÇÕES FINAIS
A crescente utilização da IA no tratamento de dados pessoais trouxe avanços significativos para diversos setores, proporcionando maior eficiência na análise e processamento de informações. No entanto, essa evolução tecnológica também gerou novos desafios jurídicos, especialmente no que se refere à proteção da privacidade e à responsabilização por danos decorrentes do uso inadequado de dados pessoais. Diante desse cenário, a LGPD surgiu como um marco regulatório essencial para estabelecer diretrizes claras sobre o tratamento de informações sensíveis e garantir a segurança dos titulares de dados.
O presente estudo abordou a relação entre IA e proteção de dados pessoais sob a ótica da responsabilidade civil, analisando os fundamentos legais aplicáveis, os desafios impostos pela opacidade algorítmica e as dificuldades na comprovação do nexo causal. Verificou-se que a responsabilidade objetiva se apresenta como o modelo mais adequado para lidar com violações da LGPD, pois os controladores e operadores de dados têm o dever de garantir um tratamento seguro das informações, independentemente da existência de culpa ou dolo. Esse entendimento reforça a necessidade de um arcabouço jurídico que priorize a proteção dos titulares e assegure que eventuais danos sejam devidamente reparados.
Outro ponto de destaque foi a análise do papel dos controladores e operadores de dados dentro do ecossistema da IA. A complexidade dos algoritmos e a autonomia dos sistemas tornam difícil a identificação de responsáveis diretos por violações de direitos. Nesse contexto, torna-se imprescindível a adoção de mecanismos de auditoria e transparência, de modo a permitir a rastreabilidade das decisões automatizadas e garantir maior previsibilidade na aplicação da responsabilidade civil. A implementação de tecnologias que permitam a explicabilidade dos algoritmos também se mostra uma alternativa viável para mitigar os impactos da opacidade algorítmica e assegurar maior controle sobre os processos de tomada de decisão.
Além disso, a necessidade de regulamentação mais detalhada sobre o uso da IA foi evidenciada ao longo da pesquisa. Embora a LGPD represente um avanço significativo, sua aplicação prática ainda enfrenta desafios, especialmente diante da velocidade com que novas tecnologias são desenvolvidas. A inexistência de parâmetros específicos para o uso de IA na tomada de decisões automatizadas demonstra a urgência da criação de diretrizes complementares, capazes de garantir que a inovação tecnológica ocorra de maneira ética e segura. A adoção de normas que exijam supervisão humana contínua e mecanismos de mitigação de vieses algorítmicos pode ser um caminho promissor para fortalecer a proteção dos titulares de dados.
A pesquisa também ressaltou a importância da conscientização e da educação digital como ferramentas fundamentais para a proteção de dados pessoais. O desconhecimento por parte dos usuários sobre a forma como suas informações são coletadas e utilizadas dificulta a fiscalização do cumprimento da LGPD e reduz a capacidade de reivindicação de direitos. Assim, políticas públicas voltadas à educação digital podem desempenhar um papel crucial na construção de uma sociedade mais informada e preparada para lidar com os desafios impostos pelo avanço da IA.
Diante do exposto, conclui-se que a interseção entre IA e proteção de dados requer um esforço conjunto de legisladores, empresas, desenvolvedores e sociedade civil para garantir um equilíbrio entre inovação e direitos fundamentais. O fortalecimento da regulamentação, a transparência nos processos algorítmicos e a implementação de mecanismos eficazes de responsabilização são medidas essenciais para assegurar que os benefícios da tecnologia sejam aproveitados sem comprometer a privacidade e a segurança dos cidadãos. A evolução da IA no Brasil deve caminhar lado a lado com a proteção de direitos, permitindo que o avanço tecnológico ocorra de maneira responsável e ética.
REFERÊNCIAS
ALENCAR, Ana Catarina de. Inteligência Artificial, Ética e Direito: Guia Prático para Entender o Novo Mundo. São Paulo: Editora Saraiva, 2022. E-book. ISBN 9786553620339. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9786553620339/. Acesso em: 06 fev. 2025.
BUCKNER, Cameron; GARSON, James. Connectionism. The Stanford Encyclopedia of Philosophy. Fall Edition, Edward N. Zalta (ed.), 2019. Disponível em: https://plato.stanford.edu/archives/fall2019/entries/connectionism/. Acesso em: 04 fev. 2025.
BRASIL. Código Civil. Lei n. 10.406, de 10 de janeiro de 2002. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/2002/L10406.htm. Acesso em: 06 fev. 2025.
BRASIL. Código de Processo Civil. Lei n. 13.105, de 16 de março de 2015. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l13105.htm. Acesso em: 06 fev. 2025.
BRASIL. Constituição da República Federativa do Brasil de 1988. Diário Oficial da União, Brasília, DF, 5 out. 1988. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 06 fev. 2025.
BRASIL. Emenda Constitucional. nº 115/2022, de 10 de fevereiro de 2022. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/Emendas/Emc/emc115.htm. Acesso em: 05 maio. 2025.
BRASIL. Lei Geral de Proteção de Dados. Lei n. 13.709, de 14 de agosto de 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 06 fev. 2025.
BRASIL. Projeto de Lei. n. 21/2020, de 04 de fevereiro de 2020. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=223634 0. Acesso em: 06 fev. 2025.
BRASIL. Projeto de Lei. n. 2338/2023, de 03 de maio de 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 05 maio. 2025.
BRASIL. Superior Tribunal de Justiça. Recurso Especial n. 2.092.096 – SP, Rel. Min. Nancy Andrighi, Terceira Turma, julgado em 12 dez. 2023, DJe 15 dez. Disponível em: https://informativos.trilhante.com.br/julgados/stj-resp-2092096-sp. Acesso em 06 fev.2025.
BRASIL. Câmara dos Deputados. Projeto de Lei nº 21, de 2020. Estabelece princípios, direitos e deveres para o uso de inteligência artificial no Brasil, e dá 20 outras providências. Disponível em: https://www.camara.leg.br. Acesso em: 06 fev. 2025.
BRASIL. Senado Federal. Projeto de Lei nº 2338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Autoria: Senador Rodrigo Pacheco. Disponível em: https://www25.senado.leg.br. Acesso em: 06 fev. 2025.
DINIZ, Maria H. Curso de direito civil brasileiro: responsabilidade civil. v. 7. São Paulo: Editora Saraiva, 2023. E-book. ISBN 9786553627765. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9786553627765/. Acesso em: 05 fev. 2025.
FREY, C. B.; OSBORNE, M. A. The Future of Employment: How Susceptible Are Jobs to Computerisation? Technological Forecasting and Social Change, v. 114, n. 1, p. 254–280, 17 set. 2017. Disponível em: https://doi.org/10.1016/j.techfore.2016.08.019. Acesso em: 05 fev. 2025.
GAGLIANO, Pablo S.; FILHO, Rodolfo P. Novo Curso de Direito Civil: Responsabilidade Civil. v. 3. São Paulo: Editora Saraiva, 2023. E-book. ISBN 9786553626645. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9786553626645/. Acesso em: 06 fev. 2025.
GONCALVES, Carlos R. Direito Civil Brasileiro: Responsabilidade Civil. v. 4. São Paulo: Editora Saraiva, 2023. E-book. ISBN 9786553628410. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9786553628410/. Acesso em: 05 fev. 2025.
MATIAS-PEREIRA, José. Manual de metodologia da pesquisa científica. 4. ed. [3. Rempr.]. São Paulo: Atlas, 2019. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9788597008821/epubcfi/6/10%5B% 3Bvnd.vst.idref%3Dhtml4%5D!/4/16%400:14.4. Acesso em: 06 fev. 2025.
OREMUS, Will. Google’s AI passed a famous test – and showed how the test is broken. The Washington Post, 17 jun. 2022. Disponível em: https://www.washingtonpost.com/technology/2022/06/17/google-ai-lamda-turing-test/. Acesso em: 03 fev. 2025.
PINHEIRO, Patricia Peck. Proteção de dados pessoais: a função da responsabilidade civil na aplicação da LGPD. 3. ed. São Paulo: Saraiva, 2021.
RUSSEL, S.; NORVIG, P. Artificial Intelligence: A Modern Approach. 4. ed. New Jersey: Pearson, 2021.
SÃO PAULO (Estado). Tribunal de Justiça. Recurso Inominado Cível n. 1003086-21.2021.8.26.0003, Rel. Des. Carlos Eduardo Santos Pontes de Miranda, 4ª Turma Recursal Cível – Santo Amaro, julgado em 25 out. 2021. Disponível em: https://www.jusbrasil.com.br/jurisprudencia/tj-sp/1320627209/inteiro-teor-132062724 9. Acesso em: 03 fev. 2025
TARTUCE, Flávio. Responsabilidade Civil. Rio de Janeiro: Grupo GEN, 2023. E-book. ISBN 9786559647910. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9786559647910/. Acesso em: 05 fev. 2025.
TURNER, J. Robot Rules: Regulating Artificial Intelligence. Cham, Switzerland: Palgrave Macmillan, 2019. VENOSA, Sílvio de S. Direito Civil: Obrigações e Responsabilidade Civil. v. 2. Rio de Janeiro: Grupo GEN, 2023. E-book. ISBN 9786559774692. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9786559774692/. Acesso em: 06 fev. 2025.
TEC MUNDO. IA da Amazon usada em análise de currículos discriminava mulheres. TEC Mundo, 10 out. 2018. Disponível em: https://www.tecmundo.com.br/software/135062-ia-amazon-usada-analise curriculosdiscriminava-mulheres.htm. Acesso em: 06 fev. 2025.
1Acadêmico de Direito. E-mail: franciscojrrr1203@gmail.com. Artigo apresentado ao Centro Universitário Aparício Carvalho – FIMCA Porto Velho, como requisito para obtenção do título de Bacharel em Direito, Porto Velho/RO, 2025.
2Acadêmico de Direito. E-mail: ianbisporodrigues@gmail.com. Artigo apresentado ao Centro Universitário Aparício Carvalho – FIMCA Porto Velho, como requisito para obtenção do título de Bacharel em Direito, Porto Velho/RO, 2025.
3Acadêmico de Direito. E-mail: yangomes617@gmail.com. Artigo apresentado ao Centro Universitário Aparício Carvalho – FIMCA Porto Velho, como requisito para obtenção do título de Bacharel em Direito, Porto Velho/RO, 2025.
4Orientador. Professor do curso de Direito. E-mail: ingryd.monteiro@fimca.com.br