INTELIGÊNCIA ARTIFICIAL E MONITORAMENTO AUTOMATIZADO: DESAFIOS E SOLUÇÕES PARA PRIVACIDADE E SEGURANÇA DE DADOS

REGISTRO DOI: 10.69849/revistaft/th102412160942


João Batista Pereira de Oliveira[1]


RESUMO

O uso de Inteligência Artificial (IA) em sistemas de monitoramento automatizado tem se expandido significativamente, oferecendo soluções inovadoras para diversas áreas. Contudo, sua implementação traz desafios relacionados à privacidade e segurança de dados. O objetivo deste foi estudo investigar os desafios e propor soluções para a garantia de privacidade e segurança de dados no contexto de sistemas de monitoramento automatizado baseados em IA. A metodologia adotada foi uma revisão bibliográfica de estudos acadêmicos recentes que abordam o uso de IA, seus riscos e as soluções propostas para a proteção de dados. O estudo identificou diversos riscos à privacidade e segurança de dados, como o uso indevido de informações coletadas, a falta de transparência nos algoritmos e as vulnerabilidades cibernéticas. A pesquisa também apontou soluções tecnológicas, como criptografia, anonimização e IA explicável, além da importância de regulamentações rigorosas, como a LGPD. A adoção de soluções tecnológicas avançadas, regulamentações robustas e boas práticas de implementação são essenciais para garantir a privacidade e a segurança dos dados, promovendo um uso seguro e ético da IA em ambientes automatizados.

Palavras-chave: Inteligência Artificial; Monitoramento Automatizado; Privacidade; Segurança de Dados, Boas Práticas.

ABSTRACT

The use of Artificial Intelligence (AI) in automated monitoring systems has significantly expanded, offering innovative solutions across various fields. However, its implementation brings challenges related to data privacy and security. The objective of this study was to investigate these challenges and propose solutions to ensure data privacy and security in the context of AI-based automated monitoring systems. The methodology adopted was a literature review of recent academic studies addressing the use of AI, its risks, and the proposed solutions for data protection. The study identified several risks to data privacy and security, such as misuse of collected information, lack of transparency in algorithms, and cybersecurity vulnerabilities. The research also pointed out technological solutions such as encryption, anonymization, and explainable AI, as well as the importance of stringent regulations, like the LGPD. The adoption of advanced technological solutions, robust regulations, and best implementation practices are essential to ensure data privacy and security, promoting the safe and ethical use of AI in automated environments.

Keywords: Artificial Intelligence; Automated Monitoring; Privacy; Data Security; Best Practices.

INTRODUÇÃO

A inteligência artificial (IA) tem revolucionado diversos setores, transformando a maneira como interagimos com sistemas e como as empresas gerenciam processos (SICHMAN, 2021). Nos últimos anos, a Inteligência Artificial (IA) tem se integrado rapidamente ao nosso dia a dia. Muitas vezes, utilizamos modelos desenvolvidos por algoritmos de IA sem sequer nos darmos conta de sua presença (FACELI, 2021).

Segundo Carvalho (2021), no contexto do monitoramento automatizado, a IA desempenha um papel central, permitindo a análise em tempo real de dados provenientes de câmeras, sensores e outros dispositivos conectados. Para Silva (2024), essa revolução tecnológica traz consigo desafios significativos relacionados à privacidade e segurança de dados. Ludermir (2021) aborda que em um cenário onde informações sensíveis são continuamente coletadas, armazenadas e analisadas, surge a necessidade de equilibrar o avanço tecnológico com a proteção dos direitos individuais, especialmente diante do crescente uso de tecnologias que dependem de processamento massivo de dados pessoais.

Nesse contexto, a problemática central está em como garantir a privacidade e a segurança dos dados no uso de IA para monitoramento automatizado. A questão que norteia este estudo é: “Quais são os principais desafios e soluções para assegurar a privacidade e segurança de dados no contexto do monitoramento automatizado com inteligência artificial?”. Essa indagação direciona a investigação sobre os impactos da IA nesse cenário e as formas de lidar com as implicações éticas e técnicas do uso dessa tecnologia.

O objetivo geral deste trabalho é investigar os desafios e propor soluções para a garantia de privacidade e segurança de dados no contexto de sistemas de monitoramento automatizado baseados em IA. Para alcançar esse objetivo, busca-se identificar os principais riscos à privacidade e à segurança de dados associados ao uso de IA em monitoramento automatizado, avaliar soluções tecnológicas e regulamentares que possam mitigar esses riscos e propor boas práticas para a implementação de sistemas que equilibrem eficiência no monitoramento com a proteção de dados.

A relevância deste estudo é evidenciada pelo aumento exponencial do uso de tecnologias de IA em setores como segurança pública, saúde e varejo, onde o monitoramento automatizado tem sido utilizado para otimizar processos e melhorar a eficiência operacional. Com o aumento do volume e da sensibilidade dos dados coletados, é importante compreender como minimizar os riscos de violações e assegurar a conformidade com legislações de privacidade, como a LGPD (Lei Geral de Proteção de Dados) no Brasil. Este estudo visa contribuir para o desenvolvimento de estratégias que promovam o uso ético e seguro da IA garantindo a confiança dos usuários e o equilíbrio entre inovação tecnológica e proteção de direitos fundamentais.

INTELIGÊNCIA ARTIFICIAL E MONITORAMENTO AUTOMATIZADO

A inteligência artificial (IA) tem sido um dos pilares tecnológicos mais relevantes nas últimas décadas, revolucionando a forma como tarefas complexas são realizadas Silva (2024). A IA é definida como a capacidade de máquinas e sistemas computacionais realizarem atividades que exigem inteligência humana, como raciocínio lógico, aprendizado, reconhecimento de padrões e tomada de decisão (FACELI et al., 2021).

 As aplicações da IA são amplas e variadas, sendo uma delas o monitoramento automatizado, um processo que utiliza IA para observar e analisar dados em tempo real, oferecendo soluções rápidas e eficazes para problemas dinâmicos (MOREIRA; RAZZOLINI FILHO; ADRIÃO, 2023).

O monitoramento automatizado, suportado por IA, utiliza tecnologias como aprendizado de máquina, redes neurais artificiais e visão computacional (TRINDADE; OLIVEIRA, 2024). O aprendizado de máquina permite que os sistemas analisem dados históricos e se adaptem a novas situações, enquanto as redes neurais simulam o funcionamento do cérebro humano para processar informações complexas. Conforme Silva (2024),  a visão computacional possibilita a análise de imagens e vídeos, permitindo identificar objetos, padrões e comportamentos com alta precisão. Essas tecnologias transformaram processos antes manuais e suscetíveis a erros em sistemas automáticos mais confiáveis e eficientes (BARROSO; MELLO, 2024).

No setor de segurança, por exemplo, a IA tem sido amplamente utilizada para monitorar ambientes públicos e privados, detectando atividades suspeitas de forma proativa como demonstra Trindade; Oliveira (p.12, 2024):

Sistemas de monitoramento por vídeo baseados em visão computacional conseguem identificar movimentos anômalos e enviar alertas em tempo real, ajudando a prevenir crimes e aumentando a sensação de segurança. Além disso, algoritmos de aprendizado de máquina podem prever comportamentos com base em padrões históricos, tornando a atuação mais precisa e estratégica (TRINDADE; OLIVEIRA, p.12 2024).

Segundo Carvalho (2024), na área da saúde, o monitoramento automatizado com IA tem proporcionado avanços significativos, especialmente no acompanhamento de pacientes e no gerenciamento de emergências. Dispositivos inteligentes e sensores conectados analisam constantemente sinais vitais e outros dados de saúde, permitindo que médicos e profissionais de saúde intervenham rapidamente em situações críticas. Essa abordagem melhora o atendimento ao paciente e reduz os riscos de complicações, ao mesmo tempo em que otimiza o uso de recursos hospitalares (ARÃO, 2024).

A indústria também se beneficia amplamente das soluções de monitoramento automatizado com IA. Em linhas de produção, sensores equipados com inteligência artificial identificam falhas em máquinas e produtos em tempo real, reduzindo desperdícios e melhorando a qualidade dos bens produzidos. A análise preditiva, baseada em grandes volumes de dados, permite a manutenção preventiva de equipamentos, evitando paradas inesperadas e aumentando a produtividade (LIMA; FERREIRA; CARVALHO, 2024).

No entanto, a implementação de IA e monitoramento automatizado apresenta desafios significativos, especialmente no que diz respeito à privacidade e à segurança de dados (BARROSO, 2024). Sistemas que coletam e analisam informações em tempo real precisam garantir que esses dados sejam protegidos contra acessos não autorizados e vazamentos. Além disso, é crucial equilibrar o uso de tecnologias avançadas com o respeito aos direitos individuais, evitando a vigilância excessiva e invasões de privacidade (MOREIRA; RAZZOLINI FILHO; ADRIÃO, 2023).

A regulamentação e a ética no uso da inteligência artificial também são tópicos centrais nessa discussão. Embora a tecnologia ofereça benefícios substanciais, sua aplicação sem diretrizes claras pode levar a abusos e desigualdades. A criação de políticas públicas e padrões internacionais é fundamental para garantir que a IA seja utilizada de maneira responsável, promovendo transparência e confiança entre as partes envolvidas (BARROSO; MELLO, p. 5, 2024).

A integração da IA ao monitoramento automatizado requer investimento contínuo em pesquisa e desenvolvimento, bem como na capacitação de profissionais (LIMA, 2024). À medida que as tecnologias evoluem, é essencial que organizações e governos acompanhem essas mudanças, adaptando seus sistemas e estratégias para maximizar os benefícios enquanto minimizam os riscos associados. Com isso, será possível explorar todo o potencial da IA de maneira sustentável e ética, contribuindo para um futuro mais seguro e eficiente (FACELI et al., 2021).

LEGISLAÇÃO DE PRIVACIDADE

A Lei Geral de Proteção de Dados (LGPD), instituída pela Lei nº 13.709, de 14 de agosto de 2018, com alterações introduzidas pela Lei nº 13.853, de 8 de julho de 2019, estabelece normas para o tratamento de dados pessoais no Brasil (NASCIMENTO; SILVA, 2023).

Conforme o Art. 6º da LGPD, as atividades de tratamento de dados pessoais devem observar a boa-fé e os seguintes princípios:

Necessidade (Art. 6º, III): Limitação do tratamento ao mínimo necessário para a realização de suas finalidades, abrangendo dados pertinentes, proporcionais e não excessivos em relação às finalidades do tratamento.

Qualidade dos dados (Art. 6º, V): Garantia, aos titulares, de exatidão, clareza, relevância e atualização dos dados, de acordo com a necessidade e para o cumprimento da finalidade de seu tratamento.

Não discriminação (Art. 6º, IX): Impossibilidade de realizar o tratamento para fins discriminatórios ilícitos ou abusivos.

A alteração da LGPD foi realizada através da redação dada pela Lei n° 13.853/2019, que visa dispor sobre a proteção de dados pessoais e criar a Autoridade Nacional de Proteção de Dados (ANPD), entre outras providências. Conforme o Art. 11, § 4º, da LGPD:

É vedada a comunicação ou o uso compartilhado entre controladores de dados pessoais sensíveis referentes à saúde com objetivo de obter vantagem econômica, exceto nas hipóteses relativas a prestação de serviços de saúde, de assistência farmacêutica e de assistência à saúde, desde que observado o § 5º deste artigo, incluídos os serviços auxiliares de diagnose e terapia, em benefício dos interesses dos titulares de dados, e para permitir: […] 

A Medida Provisória nº 869, que alterou a LGPD, deu origem à criação da ANPD, a qual supervisiona a conformidade legal. Para promover a conscientização pública, a ANPD, em colaboração com o Núcleo de Proteção de Dados do Conselho Nacional de Defesa do Consumidor e a SENACON (Secretaria Nacional do Consumidor), publicou as “DIRETRIZES PARA GARANTIR A PROTEÇÃO DE DADOS PESSOAIS”. Este manual esclarece a importância de proteger dados pessoais e destaca os impactos negativos do processamento não autorizado, que pode resultar em perdas econômicas e violações das liberdades essenciais dos indivíduos (ANPD e SENACON, 2021).

O documento “DIRETRIZES PARA GARANTIR A PROTEÇÃO DE DADOS PESSOAIS” define dado pessoal como qualquer informação que possa identificar uma pessoa, como nome, sobrenome, endereço residencial e número de telefone. Além disso, oferece diretrizes sobre a proteção dessas informações e os passos a serem seguidos em caso de violação de dados, respeitando os direitos dos titulares, conforme orientado pela ANPD e SENACON (2021).

O objetivo central da legislação é proteger os direitos fundamentais de liberdade, privacidade e o livre desenvolvimento da personalidade dos indivíduos. Entre os princípios basilares da LGPD, destacam-se a transparência, a segurança, a finalidade e a necessidade, que visam assegurar que os dados pessoais sejam tratados de forma ética e responsável, minimizando os riscos de violações (BRASIL, 2019).

O artigo 6º da LGPD define os princípios que devem nortear o tratamento de dados pessoais.

Dentre eles, o princípio da minimização merece destaque, pois estabelece que os dados coletados devem ser limitados ao mínimo necessário para atingir as finalidades pretendidas. Isso significa que organizações devem evitar a coleta excessiva de informações e garantir que os dados tratados sejam adequados, pertinentes e não excessivos em relação às suas finalidades declaradas. Tal abordagem reduz os riscos de exposição de dados e promove a conformidade legal (BRASIL, 2019).

Para reforçar a proteção, a LGPD prevê, no artigo 50:

A necessidade de implementação de programas de governança em privacidade. Esses programas devem incluir medidas técnicas e organizacionais para a prevenção de violações de dados e a mitigação de riscos. Além disso, a legislação incentiva a realização de relatórios de impacto à proteção de dados pessoais (RIPD), que analisam os potenciais riscos associados ao tratamento de dados e identificam as medidas necessárias para mitigá-los (MINGHELLI et al., 2024).

O artigo 41 da LGPD introduz a figura do encarregado pelo tratamento de dados pessoais, também conhecido como Data Protection Officer (DPO).

Este profissional é responsável por assegurar a conformidade da organização com a legislação, atuar como ponto de contato com os titulares de dados e com a Autoridade Nacional de Proteção de Dados (ANPD), além de orientar sobre as melhores práticas de proteção e segurança da informação. A presença do DPO é um pilar essencial para garantir que as organizações adotem uma abordagem proativa em relação à privacidade (NASCIMENTO; SILVA, 2023).

A ANPD desempenha um papel importante na aplicação da LGPD, conforme o artigo 55-A.

Entre suas atribuições estão a fiscalização, regulamentação e aplicação de sanções administrativas em casos de descumprimento. A autoridade tem autonomia técnica e a responsabilidade de promover a educação e conscientização sobre a proteção de dados, contribuindo para um ambiente digital mais seguro e confiável (BRASIL, 2019).

Assim, a conformidade com a LGPD não só reduz os riscos de sanções, mas também fortalece a confiança dos consumidores e a reputação das organizações no mercado (D’OLIVEIRA; CUNHA, 2024).

METODOLOGIA

A metodologia do estudo foi estruturada em três etapas principais: pesquisa bibliográfica, análise documental e proposição de recomendações práticas. O objetivo foi explorar os desafios e soluções relacionados à inteligência artificial e ao monitoramento automatizado, com ênfase na privacidade e segurança de dados.

Na primeira etapa, foi realizada uma revisão bibliográfica abrangente, consultando fontes acadêmicas, como artigos científicos, livros e publicações especializadas. A pesquisa focou na compreensão das tecnologias de inteligência artificial e monitoramento automatizado, além das implicações legais, éticas e sociais associadas a essas tecnologias. Bases de dados como SciELO, LILACS, PubMed e outras relevantes foram utilizadas, priorizando materiais publicados nos últimos cinco anos para garantir a atualidade do conteúdo.

Na segunda etapa, foi conduzida uma análise documental, com o exame de legislações e regulamentações relacionadas à proteção de dados, destacando a Lei Geral de Proteção de Dados (LGPD). Foram analisados artigos da legislação, relatórios de impacto e documentos oficiais da Autoridade Nacional de Proteção de Dados (ANPD). O objetivo foi identificar requisitos legais específicos e lacunas na implementação de políticas de conformidade em ambientes que utilizam inteligência artificial.

Na terceira etapa, foi elaborada uma proposta de estratégias e práticas recomendadas para mitigar os riscos de violações de privacidade e assegurar a conformidade com a legislação. As recomendações foram baseadas nos dados obtidos nas etapas anteriores, alinhadas às melhores práticas internacionais e aos princípios da LGPD.

A combinação dessas etapas permitiu uma compreensão aprofundada do tema e forneceu subsídios para o desenvolvimento de soluções que equilibram o avanço tecnológico com a proteção da privacidade dos indivíduos.

RISCOS À PRIVACIDADE E SEGURANÇA DE DADOS NO USO DE IA EM MONITORAMENTO AUTOMATIZADO

Os sistemas de IA aplicados ao monitoramento automatizado apresentam riscos significativos à privacidade, principalmente relacionados à coleta excessiva e uso indevido de dados pessoais. Muitas vezes, esses sistemas processam informações sensíveis sem o consentimento explícito dos indivíduos, violando direitos fundamentais garantidos por legislações como a LGPD (BRASIL, 2019). Essa prática pode resultar em discriminação ou exclusão social quando os dados são utilizados para segmentação ou tomada de decisões automatizadas (SICHMAN, 2021).

Outro risco importante envolve as vulnerabilidades cibernéticas associadas aos sistemas de IA. As brechas de segurança podem permitir acessos não autorizados, expondo dados pessoais a ameaças como roubo de identidade ou uso malicioso das informações (CARVALHO, 2021). A complexidade dos algoritmos de IA também dificulta a identificação de vulnerabilidades e aumenta o tempo de resposta a incidentes de segurança (LUDERMIR, 2021).

Além disso, a ausência de transparência nos algoritmos de IA é uma preocupação crescente. A opacidade dos processos de tomada de decisão automatizada dificulta a auditoria e a responsabilização em casos de uso indevido ou decisões errôneas, colocando em risco os direitos individuais (MOREIRA; RAZZOLINI FILHO; ADRIÃO, 2023). Essa falta de clareza pode desestabilizar a confiança pública na tecnologia.

A utilização inadequada de dados para treinamentos de modelos de IA também representa um risco significativo. Dados enviesados ou coletados de forma não ética podem resultar em modelos que reforçam preconceitos e perpetuam desigualdades sociais (SILVA; DOMINGUES, 2024). Esse problema ressalta a importância de práticas éticas na coleta e utilização de dados.

SOLUÇÕES TECNOLÓGICAS E REGULAMENTARES QUE POSSAM MITIGAR ESSES RISCOS

A implementação de frameworks de segurança robustos é uma das principais soluções tecnológicas para mitigar riscos. Modelos baseados em criptografia avançada e técnicas de anonimização garantem a proteção de dados pessoais em sistemas de IA minimizando a exposição a ameaças cibernéticas (CARVALHO, 2021). O uso de tecnologias como differential privacy oferece uma camada adicional de proteção durante o processamento de dados (LUDERMIR, 2021).

Regulamentações específicas, como a LGPD, têm um papel central na redução de riscos. Essas legislações exigem que organizações adotem medidas como o privacy by design, integrando práticas de proteção desde o início do desenvolvimento dos sistemas (BRASIL, 2019). Além disso, a LGPD determina a nomeação de um Encarregado de Dados, responsável por garantir a conformidade com os requisitos legais e mitigar riscos operacionais (SICHMAN, 2021).

A criação de órgãos reguladores e de fiscalização, como a Autoridade Nacional de Proteção de Dados (ANPD), fortalece o cumprimento das normas e promove a responsabilização em casos de violações. Essa abordagem reduz o impacto de eventuais falhas e incentiva práticas corporativas responsáveis (SILVA; DOMINGUES, 2024).

No âmbito tecnológico, o desenvolvimento de IA explicável (XAI, do inglês Explainable AI) é uma solução promissora para aumentar a transparência. Sistemas com maior clareza na tomada de decisões facilitam auditorias e garantem que os processos estejam alinhados às diretrizes éticas e legais (MOREIRA; RAZZOLINI FILHO; ADRIÃO, 2023).

BOAS PRÁTICAS PARA A IMPLEMENTAÇÃO DE SISTEMAS NO MONITORAMENTO COM A PROTEÇÃO DE DADOS

A aplicação do princípio de minimização de dados é fundamental na implementação de sistemas de monitoramento com IA. Essa prática envolve a coleta apenas dos dados estritamente necessários para os objetivos do sistema, reduzindo o impacto de possíveis incidentes de privacidade (BRASIL, 2019). Além disso, é recomendada a exclusão periódica de dados obsoletos para evitar armazenamento excessivo (SICHMAN, 2021).

A adoção de estratégias de governança de dados robustas também contribui para um equilíbrio eficiente. Isso inclui políticas internas claras sobre coleta, armazenamento, processamento e compartilhamento de informações, além de auditorias regulares para verificar a conformidade com as regulamentações (CARVALHO, 2021). Ferramentas de monitoramento contínuo ajudam a identificar e corrigir problemas rapidamente.

Outro aspecto relevante é a priorização do design centrado no usuário, garantindo que os sistemas sejam intuitivos e respeitem os direitos dos indivíduos. Interfaces claras e notificações sobre o uso de dados promovem maior transparência e confiança, além de facilitar o exercício de direitos pelos titulares (LUDERMIR, 2021).

A realização de Avaliações de Impacto à Proteção de Dados (DPIAs) é uma prática recomendada antes da implementação de sistemas de IA. Essas avaliações permitem identificar riscos potenciais e definir estratégias de mitigação apropriadas, fortalecendo a segurança e a conformidade legal (SILVA; DOMINGUES, 2024).

CONSIDERAÇÕES FINAIS

Este trabalho abordou os desafios e as possíveis soluções para garantir a privacidade e a segurança de dados em sistemas de monitoramento automatizado baseados em Inteligência Artificial (IA). Durante a pesquisa, foi possível identificar os principais riscos associados a essas tecnologias, como a coleta excessiva de dados, a vulnerabilidade a ataques cibernéticos e a falta de transparência nos algoritmos. Esses fatores podem comprometer a privacidade dos indivíduos, além de trazer consequências como discriminação, vigilância indesejada e o uso inadequado dos dados coletados.

A partir da análise, ficou claro que é essencial a implementação de soluções tecnológicas avançadas, como criptografia, anonimização e IA explicável, bem como a adoção de regulamentações como a Lei Geral de Proteção de Dados (LGPD). Essas ferramentas são fundamentais para minimizar os riscos e garantir a conformidade com os direitos fundamentais à privacidade e à segurança dos dados. Além disso, a criação de estruturas regulatórias e o princípio do privacy by design representam passos cruciais para o desenvolvimento ético e seguro da IA.

Outro ponto importante identificado foi a necessidade de boas práticas na implementação de sistemas de monitoramento automatizado. A minimização de dados, a governança eficaz e a conscientização dos profissionais sobre a proteção de dados pessoais são ações indispensáveis para garantir que a eficiência dos sistemas não prejudique a privacidade. A utilização de Avaliações de Impacto à Proteção de Dados (DPIAs) e o fortalecimento de uma cultura organizacional voltada para a privacidade são fundamentais para a implementação de soluções que respeitem os direitos dos usuários.

Portanto, para que o uso de IA em monitoramento automatizado seja seguro, eficiente e ético, é necessário um esforço conjunto entre tecnologia, regulamentação e boas práticas. O futuro da IA depende de um equilíbrio entre inovação e responsabilidade, com a garantia de que a privacidade e a segurança dos dados sejam preservadas durante todo o processo de desenvolvimento e operação desses sistemas.

REFERÊNCIAS

ALMEIDA, S. DO C. D. DE; SOARES, T. A. Os impactos da Lei Geral de Proteção de Dados – LGPD no cenário digital. Perspectivas em Ciência da Informação, v. 27, n. 3, p. 26–45, jul. 2022. Disponível em: https://doi.org/10.1590/1981-5344/25905. Acesso em: 28 de novembro de 2024.

ARÃO, C. Por trás da inteligência artificial: uma análise das bases epistemológicas do aprendizado de máquina. Trans/Form/Ação, v. 47, n. 3, p. e02400163, 2024. Disponível em: https://doi.org/10.1590/0101-3173.2024.v47.n3.e02400163. Acesso em: 01 de dezembro de 2024.

BARROSO, L. R.; MELLO, P. P. C. Inteligência artificial: promessas, riscos e regulação. Algo de novo debaixo do sol. Revista Direito e Práxis, v. 15, n. 4, p. e84479, 2024. Disponível em: https://doi.org/10.1590/2179-8966/2024/84479. Acesso em: 29 de novembro de 2024.

BRASIL. Lei Nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Diário Oficial da União, 2018. Brasília, DF, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 07 de dezemvro de 2024.

BRASIL. Lei nº 13.853, de 8 de julho de 2019. Altera a Lei nº 13.709, de 14 de agosto de 2018, para dispor sobre a proteção de dados pessoais e para criar a Autoridade Nacional de Proteção de Dados; e dá outras providências. Brasília, 2019. Disponível em:
» https://www.planalto.gov.br/ccivil_03/_Ato2019-2022/2019/Lei/L13853.htm. Acesso em: 28 de novembro de 2024.

CARVALHO, A. C. P. DE L. F. DE. Inteligência Artificial: riscos, benefícios e uso responsável. Estudos Avançados, v. 35, n. 101, p. 21–36, jan. 2021.  Disponível em: https://doi.org/10.1590/s0103-4014.2021.35101.003. Acesso em: 01 de dezembro de 2024.

DECCO-SEDIF. Crimes cibernéticos: evolução da legislação brasileira, 04 jun 2019. Disponível em: https://www.tjrj.jus.br/web/portal-conhecimento/noticias/noticia/-/visualizar-conteudo/5736540/6447772  Acesso em: 05 de dezembro de 2024.

D’OLIVEIRA, N. P. C.; CUNHA, F. J. A. P. Lei Geral de Proteção de Dados (LGPD): a relação entre as políticas e os regimes de informação. RDBCI: Revista Digital de Biblioteconomia e Ciência da Informação, v. 22, p. e024015, 2024. Disponível em: https://doi.org/10.20396/rdbci.v22i00.8675749. Acesso em 29 de novembro de 2024.

FACELI, K. et al. Inteligência Artificial – Uma Abordagem de Aprendizado de Máquina. 2. edição. GrupoGen, 2021. Disponível em: . https://www.grupogen.com.br/e-book-inteligencia-artificial-uma-abordagem-de-aprendizado-de-maquina. Acesso em: 28 de novembro de 2024.

LIMA, G. DE M.; FERREIRA, G. M. DOS S.; CARVALHO, J. DE S. Automação na educação: caminhos da discussão sobre a inteligência artificial. Educação e Pesquisa, v. 50, p. e273857, 2024.  Disponível em: https://doi.org/10.1590/S1678-4634202450273857por. Acesso em: 28 de novembro de 2024.

LUDERMIR, T. B. Inteligência Artificial e Aprendizado de Máquina: estado atual e tendências. Estudos Avançados, v. 35, n. 101, p. 85–94, jan. 2021. Disponível em: https://doi.org/10.1590/s0103-4014.2021.35101.007. Acesso em: 25 de novembro de 2024.

MINGHELLI, M. et al. Lei Geral de Proteção de Dados e a elaboração do Relatório de Impacto à Proteção de Dados Pessoais. Em Questão, v. 30, p. e–138249, 2024. Disponível em: https://doi.org/10.1590/1808-5245.30.138249. Acesso em: 29 de novembro de 2024.

MOREIRA, A. L. D.; RAZZOLINI FILHO, E.; ADRIÃO, M. C. Vigilância e privacidade no ambiente digital. RDBCI: Revista Digital de Biblioteconomia e Ciência da Informação, v. 21, p. e023012, 2023. Disponível em: https://doi.org/10.20396/rdbci.v21i00.8671505. Acesso em: 28 de novembro de 2024.

NASCIMENTO, B. L. C. DO; SILVA, E. M. DA. Lei Geral de Proteção de Dados (LGPD) e repositórios institucionais: reflexões e adequações. Em Questão, v. 29, p. e–127314, 2023. Disponível: https://doi.org/10.1590/1808-5245.29.127314. Acesso em: 28 de novembro de 2024.

SICHMAN, J. S. Inteligência Artificial e sociedade: avanços e riscos. Estudos Avançados, v. 35, n. 101, p. 37–50, jan. 2021. Disponível em: https://doi.org/10.1590/s0103-4014.2021.35101.004. Acesso em: 04 de dezembro de 2024.

SILVA, T. D; DOMINGUES, P. M. Inteligência Artificial e Privacidade: Os desafios do Privacy by Design. ARC: Avan. Repr. Conh.,BH, v.4, n.2, ano IV, ago. 2024. Disponível em: 0.5281/zenodo.13152354. Acesso em: 27 de novembro de 2024.

TRINDADE, A. S. C. E. DA; OLIVEIRA, H. P. C. DE. Inteligência artificial (ia) generativa e competência em informação: habilidades informacionais necessárias ao uso de ferramentas de ia generativa em demandas informacionais de natureza acadêmica-científica. Perspectivas em Ciência da Informação, v. 29, p. e–47485, 2024. Disponível em: https://doi.org/10.1590/1981-5344/47485. Acesso em: 28 de novembro de 2024.


[1] Finalizando o curso de Bacharel em Engenharia de Software. Instituto Federal de Educação, Ciência e Tecnologia do Amazonas. E-mail: joao.oliver4011@gmail.com.