A ÉTICA NA ERA DAS MÁQUINAS: DESAFIOS E IMPLICAÇÕES DA INTELIGÊNCIA ARTIFICIAL PARA A SOCIEDADE MODERNA

REGISTRO DOI: 10.69849/revistaft/ni10202501191105


Ícaro Teixeira Costa Sampaio1;
Francisco Abud Nascimento2


Resumo

Esse artigo explora os desafios éticos emergentes com o uso crescente da inteligência artificial (IA) na sociedade moderna. Com a automação de processos e a popularidade dos sistemas autônomos desempenhando papéis cruciais em setores sensíveis da sociedade, desse modo, torna-se essencial avaliar as implicações éticas das decisões automatizadas e do uso de dados pessoais. Além disso, o recente desenvolvimento de organoides corticais humanos que simulam redes neurais complexas levanta novos debates sobre a possibilidade de uma biointeligência artificial autônoma. Este trabalho analisa casos concretos e propõe diretrizes para integrar avanços tecnológicos e valores éticos fundamentais. A metodologia inclui análise crítica das fontes bibliográficas e reflexões sobre os pilares éticos no desenvolvimento de tecnologias emergentes.

Palavras-chave: ética, inteligência artificial, biointeligência, automação, privacidade.

Abstract

This article explores the emerging ethical challenges associated with the growing use of artificial intelligence (AI) in modern society. With the automation of processes and the increasing prevalence of autonomous systems playing critical roles in sensitive sectors such as healthcare, transportation, and justice, it becomes essential to assess the ethical implications of automated decision-making and the use of personal data. Furthermore, the recent development of human cortical organoids simulating complex neural networks raises new debates about the possibility of autonomous artificial biointelligence. This study analyzes concrete cases and proposes guidelines to integrate technological advancements with fundamental ethical values. The methodology includes a critical analysis of bibliographic sources and reflections on the ethical pillars in the development of emerging technologies.

Keywords: ethics, artificial intelligence, biointelligence, automation, privacy.

Introdução

A inteligência artificial (IA) tem se expandido rapidamente e permeado diversas áreas da vida cotidiana, tendo impacto significativo em diversos setores, como saúde, segurança, mobilidade e até em questões jurídicas. No entanto o desenvolvimento dessas tecnologias tem suscitado uma série de preocupações éticas e sociais, especificamente no que se refere à automação de decisões humanas, à privacidade dos dados e à responsabilidade em caso de falhas decorrentes de decisões de máquina. Este artigo busca delimitar esses aspectos éticos, com foco nos impactos dessas ações automatizadas nos nossos direitos fundamentais, assim como, as implicações decorrentes sobre a possível criação de uma biointeligência artificial autônoma.

O objetivo principal dessa pesquisa é explorar os desafios éticos que surgem com o avanço da IA, a partir de casos concretos e de discussões teóricas relevantes, com o intuito de propor diretrizes para um desenvolvimento tecnológico responsável. Entre os temas centrais, destacam-se a necessidade prática de regulamentação e transparência no uso e no desenvolvimento de IA, além da problemática moral inserida na possibilidade, mesmo que não intencional, da criação de sistemas autônomos biológicos, exemplificados nos organoides corticais que imitam o cérebro humano3. Este estudo visa, ainda, fornecer subsídios para construção de uma base normativa capaz de equilibrar inovação tecnológica e respeito aos direitos humanos de uma maneira geral, de modo que a base de alimentação desses sistemas autônomos siga esses fundamentos.

Para alcançar esses objetivos, a metodologia utilizada baseia-se em uma análise qualitativa de casos concretos e revisão bibliográfica de obras especializadas na intersecção entre ética e inteligência artificial. As principais fontes utilizadas incluem um acervo bibliográfico de instituições renomados no campo da IA, além de discussões éticas envolvendo a possiblidade da criação de organoides com potencial de desempenhar um sistema de biointeligência artificial. A pesquisa busca, assim, fornecer uma visão abrangente das implicações éticas e morais que acompanham o desenvolvimento dessas tecnologias e, ao mesmo tempo, propor soluções que possam mitigar os riscos sociais envolvidos.

Ética e Inteligência Artificial: Perspectiva e Desafios

O avanço das tecnologias digitais, especialmente no campo da inteligência artificial (IA), tem transformado profundamente as interações humanas e as dinâmicas sociais. No entanto, à medida que a IA ganha protagonismo na tomada de decisões, é crucial que nos atentemos às implicações éticas presentes nos algoritmos que orientam essas tecnologias. A construção desses sistemas deve evitar a reprodução de preconceitos e valores sociais reprováveis, assegurando que a IA seja desenvolvida de acordo com os princípios fundamentais da moral e da ética.

Teixeira Coelho (2021)4 alerta para o risco de tratarmos o ser humano e a tecnologia como esferas separadas, quando, na verdade, estão intrinsecamente conectadas: “O ponto nevrálgico é a insistência na ideia da separação entre o ser humano, de um lado, e a tecnologia, de outro” (TEIXEIRA COELHO, 2021, p. 73). Nesse sentido, a IA não é apenas uma ferramenta tecnológica, mas também uma manifestação das percepções, crenças e preconceitos humanos que, de maneira consciente ou inconsciente, podem ser projetados em suas estruturas de aprendizagem.

A questão nuclear, portanto, é compreender que o desenvolvimento da inteligência artificial (IA) é profundamente moldado por influências sociais e culturais, o que exige uma vigilância ética constante e rigorosa. A negligência nesse processo pode resultar na perpetuação de vieses e discriminações que, ao invés de promoverem uma sociedade mais justa, acabam por reforçar desigualdades e injustiças. Como Teixeira Coelho (2021) sugere, a tecnologia não deve ser vista como algo isolado do ser humano, mas sim como uma extensão de nossa condição social, cultural e moral. Em consequência, os desafios éticos na construção da IA transcendem a simples programação técnica, exigindo uma reflexão contínua sobre os valores que desejamos incorporar nesses sistemas. Nesse contexto, outro ato crucial destacado pelo autor é a compreensão da ética como uma condição permanente, ou seja, ela não deve se limitar ao momento da ação, mas ser encarada como uma construção contínua ao longo do tempo, fazendo parte de um processo mutável e evolutivo que se adapta às novas realidades tecnológicas.

Dentro dessa perspectiva, um dos desafios mais complexos no uso da inteligência artificial (IA) está relacionado à sua incapacidade de interpretar conceitos abstratos que não seguem uma lógica objetiva e racional, mas que carregam aspirações subjetivas, como ocorre nas análises de obras de arte. O artista Bruno Moreschi (2021)5, em seu artigo “Os reveladores erros das máquinas “inteligentes””, aborda como as “máquinas inteligentes” falham ao lidar com questões subjetivas, pois suas análises não são neutras ou imparciais, mas construídas com base em dados que refletem os valores, preconceitos e ideologias de suas sociedades de origem. Ele observa, por exemplo, que imagens de mulheres frequentemente recebem classificações como “provocativas” em sistemas de IA, comportamento que não é acidental, mas fruto de bancos de dados enviesados que replicam “a lógica machista da sociedade contemporânea” (MORESCHI, 2021, p.121).

Essa problemática é ainda mais evidente no campo das artes visuais, pois a subjetividade e a abstração das obras desafiam as capacidades das IAs, que acabam reduzindo a arte a conceitos simplistas ou vinculando-a a objetos de consumo. Moreschi destaca que “a grande maioria das obras de arte do museu Van Abbemuseum foi lida […] como “produtos de consumo facilmente encontrados em lojas de departamento” (MORESCHI, 2021, p.119). Isso demonstra como esses sistemas tecnológicos perpetuam uma lógica consumista que ignora os significados culturais e simbólicos mais profundos das obras. Essa falha reflete um problema mais amplo: ao tentar aplicar uma lógica puramente técnica e objetiva, as IAs não apenas deixam de compreender nuances subjetivos, mas também reforçam desigualdades estruturais e preconceitos sociais presentes em seus dados de treinamento. Essa análise crítica permite discutir os “erros” das IAs como pontos de partida para reflexões mais profundas sobre suas implicações sociais e culturais. Ao invés de descartá-los, tais falhas podem revelar as limitações dos algoritmos e expor os vieses incorporados. Como Moreschi aponta, “os erros das IA […] são extremamente relevantes por serem capazes de sugerir como essas estruturas foram programadas e construídas – incluindo aqui as ideologias dos humanos que as treinam diariamente” (MORESCHI, 2021, p.116). Nessa baila, as falhas tornam-se ferramentas valiosas para desmistificar a ideia de que a IA é neutra, evidenciando que esses sistemas, como produtos humanos, carregam as mesmas contradições, desigualdades e limitações de seus criadores. Além disso, o uso da arte como campo de teste para IA pode ser entendido como uma metáfora poderosa para os desafios éticos da tecnologia. Assim como a IA simplifica a arte a objetos de consumo, ela pode reduzir questões éticas complexas a decisões superficiais ou tecnocráticas, ignorando a moralidade, a justiça e os direitos humanos. Esses padrões indicam que a construção de sistemas de IA éticos deve ir além de sua eficiência técnica, adotando uma perspectiva interdisciplinar que integre conhecimentos da filosofia, sociologia, psicologia e ética.

Ademais, ao reconhecer que as máquinas não são independentes de seus criadores, torna-se imperativo projetar sistemas de IA que considerem as complexidades sociais e culturais de forma crítica e reflexiva. Isso inclui tratar as falhas éticas não como um problema a ser ignorado, mas como uma oportunidade de aprendizado e aprimoramento, promovendo ferramentas tecnológicas mais justas e inclusivas. Com isso, é possível construir uma IA que não apenas dialogue com as necessidades técnicas da sociedade, mas que também respeite e valorize seus significados subjetivos e manifestações culturais.

Em consonância com o exposto, torna-se evidente a urgência de consolidar uma governança ética no desenvolvimento de sistemas de inteligência artificial (IA), priorizando transparência, responsabilidade e supervisão como pilares fundamentais. Glauco Arbix (2021)6 argumenta que, sem avanços éticos consistentes, a confiança da sociedade nesses sistemas corre o risco de ser corroída, ressaltando que “os mecanismos de contenção da IA dentro de padrões éticos aceitáveis não podem se distanciar das dimensões sociais” (ARBIX, 2021, p. 280). O autor alerta que a opacidade dos algoritmos e a ausência de critérios claros de explicabilidade ampliam os riscos de discriminação e perpetuam desigualdades sociais, como exemplificado em casos de viés racial e de gênero em sistemas de reconhecimento facial e decisões automatizadas. Para Arbix, a construção de uma IA ética não deve se limitar a códigos ou conselhos abstratos, mas precisa envolver um compromisso concreto com a criação de marcos regulatórios eficazes e práticas de supervisão robustas, garantindo que as decisões artificiais respeitem os valores humanos e promovam a justiça social.         

A necessidade de uma governança ética robusta para o desenvolvimento de ferramentas inteligentes está diretamente ligada à exigência de priorizar a transparência e a “explicabilidade” nos sistemas automatizados. Nessa conjuntura, Glauco Arbix (2021) destaca que a opacidade dos algoritmos, frequentemente tratados como “caixas-pretas”, compromete não apenas o entendimento público, mas também a confiança nas tecnologias aplicadas em áreas sensíveis como saúde, segurança e justiça. Ele esclarece que “os algoritmos com alto impacto social que não oferecem informações claras sobre seu funcionamento interno […] tenderão a perder credibilidade e confiabilidade” (ARBIX, 2021, p. 277). Essa falta de clareza nas decisões automatizadas não só reforça preconceitos e desigualdades, especialmente quando os algoritmos são treinados em dados enviesados ou inadequados, mas também torna impossível a realização de correções apropriadas na ausência de padrões de transparência.

A ideia de “explicabilidade” defendida por esse autor, não se trata apenas de uma questão meramente operacional e técnica, mas de uma exigência ética e social essencial para garantir que os sistemas possam ser auditados, testados e corrigidos de maneira responsável. Nesse sentido, Arbix reforça que “contenção da IA dentro de padrões éticos aceitáveis não podem se distanciar das dimensões sociais.” (ARBIX, 2021, p. 280). Dessa forma, incorporar a transparência no cerne do desenvolvimento da IA é essencial não apenas para reduzir riscos, mas também para alinhar essas tecnologias aos valores de justiça e equidade, promovendo um diálogo mais amplo entre os desenvolvedores, a sociedade civil e os órgãos reguladores. Desse modo, a governança ética passa a ser uma ferramenta indispensável para prevenir danos e assegurar que a IA seja desenvolvida e aplicada em consonância com os princípios que visam o bem-estar coletivo.

Para consolidar uma abordagem ética efetiva no desenvolvimento desses sistemas, é indispensável compreender que a transparência e a responsabilidade não são apenas demandas técnicas, mas requisitos essenciais para a construção de uma tecnologia alinhada aos valores sociais e humanos. Dessa forma, Glauco Arbix (2021) salienta que a autonomia crescente desses sistemas demanda um fortalecimento proporciodnal da responsabilidade de seus criadores e operadores, argumentando que “quanto maior a autonomia dos algoritmos, maior será a responsabilidade de seus criadores” (ARBIX, 2021, p.274). Essa ótica amplia o entendimento de governança ética global ao definir que o controle sobre os sistemas de IA deve ser ativo e contínuo, para que dessa maneira, exista a possibilidade de um tipo de sanção direcionada para empresas que desenvolvam sistemas inteligentes que não estejam dentro dos padrões éticos que a sociedade moderna necessita. Visto isso, há um problema nos processos decisórios, os riscos sociais associados à IA serão amplificados. Desse modo, a governança ética deve assegurar que o desenvolvimento dessas tecnologias esteja intrinsecamente vinculado aos valores de diversidade, equidade e justiça social, permitindo que avancem de maneira responsável e inclusiva.

Os Desafios Éticos na Interseção entre Inteligência Artificial e Organoides Corticais: Governança, Transparência e Responsabilidade

Os avanços no campo da inteligência artificial (IA), aliados às inovações na comunidade científica, têm gerado impactos transformadores nas ciências biológicas, especialmente no estudo do sistema nervoso humano. Um exemplo significativo pode ser encontrado na pesquisa conduzida por Cleber Augusto Trujillo7 e sua equipe, descrita no artigo “Complex Oscillatory Waves Emerging from Cortical Organoids Model Early Human Brain Network Development”. Nesse trabalho, os pesquisadores exploram a interação entre organoides corticais – estruturas tridimensionais derivadas de células-tronco pluripotentes humanas – e tecnologias inteligentes, como ferramentas de Machine Learning (ML), utilizadas para introduzir estímulos e analisar padrões de atividade neural. Os organoides apresentaram oscilações complexas de atividade elétrica, que evoluíram ao longo do tempo e replicaram padrões encontrados em cérebros neonatais, sendo um marco para o estudo do desenvolvimento inicial das redes neurais humanas. Além disso, o uso de aprendizado de máquina permitiu prever a maturidade desses organoides com base em sua atividade neural, demonstrando a aplicabilidade e o impacto da IA em experimentos biológicos. No entanto, tais avanços trazem à tona questões éticas importantes, como as implicações do desenvolvimento de modelos cada vez mais avançados e o potencial de gerar estruturas com capacidades mais sofisticadas, que poderiam desafiar os limites atuais das pesquisas biológicas.

A integração entre organoides corticais e inteligência artificial não apenas representa um avanço científico significativo, mas também redefine os paradigmas d pesquisa em neurociência. De acordo com Trujillo et al. (2022), a utilização de organoides corticais para simular atividades cerebrais humanas permitiu observar ondas oscilatória complexas que replicam as interações neuronais presentes em cérebros humanos em desenvolvimento. Essas estruturas, treinadas por meio de sistemas imbuídos de inteligência artificial, oferecem uma plataforma para investigar a organização e a funcionalidade das redes neuras em estágios iniciais do desenvolvimento. A pesquisa também revelou que os padrões oscilatórios gerados pelos organoides são sensíveis a estímulos externos, o que demostra seu potencial aplicabilidade em terapias personalizadas e no estudo de distúrbios neurológicos. Contudo a implementação dessas tecnologias levanta questionamentos éticos, especialmente em relação à possibilidade de criação de sistemas biointeligentes com níveis e consciência primitivos. Visto isso, fica exposta a necessidade de uma regulamentação legal e ética, que possa acompanhar o ritmo acelerado desses avanços, garantindo que sua aplicação respeite os valores humanos e promova benefícios tangíveis para a sociedade.

Considerações Finais

Os avanços no campo da inteligência artificial (IA) e na pesquisa científica relacionada aos organoides corticais marcam uma nova era de possibilidades tecnológicas e científicas. No entanto, esses desenvolvimentos trazem consigo desafios éticos significativos que não podem ser ignorados. A interação entre IA e organoides corticais, como demonstrado pela pesquisa de Trujillo et al. (2022), destaca o potencial dessas tecnologias para revolucionar áreas como a neurociência e a medicina personalizada. Ao mesmo tempo, levanta questões fundamentais sobre responsabilidade, governança e os limites éticos do desenvolvimento tecnológico.

Para garantir que essas inovações sejam usadas em benefício da sociedade, é essencial construir uma base sólida de regulamentação e governança ética. A transparência, a explicabilidade e a responsabilidade devem ser pilares centrais nesse processo, assegurando que os sistemas desenvolvidos não perpetuem preconceitos, desigualdades ou riscos sociais. Como enfatizado por Arbix (2021), a autonomia crescente das tecnologias de IA exige um fortalecimento proporcional da responsabilidade de seus criadores e operadores.

Ademais, a inclusão de perspectivas interdisciplinares, considerando aspectos sociais, culturais e filosóficos, é fundamental para alinhar o desenvolvimento tecnológico aos valores humanos. A criação de marcos regulatórios robustos e a promoção de um diálogo contínuo entre cientistas, desenvolvedores, reguladores e a sociedade civil são elementos indispensáveis para que a inovação tecnológica seja utilizada de forma ética e responsável.

Portanto, é necessário reconhecer que a IA e os organoides corticais não são apenas ferramentas técnicas, mas representações de nossa capacidade de moldar o futuro. O avanço dessas tecnologias deve ser acompanhado por um compromisso inabalável com os princípios éticos e a promoção do bem-estar coletivo, garantindo que as conquistas científicas sejam integradas de maneira responsável e inclusiva em nossa sociedade.


3O artigo “Complex Oscillatory Waves Emerging from Cortical Organoids Model Early Human Brain Network Development” liderado pelo pesquisador Cleber Augusto Trujillo, apontam resultados importantes das atividades corticais desses organoides.

4Foi professor titular e é professor emérito da Escola de Comunicação e Artes da Universidade de São Paulo. tcnetto@gmail.com

5Artista multidisciplinar, pós-doutorado da Faculdade de Arquitetura e Urbanismo da USP (com supervisão da profa. Giselle Beiguelman) e doutor em Artes Visuais pela Unicamp, com estágio doutoral na Universidade de Artes de Helsinque. E cocoordenador do Grupo de Arte e Inteligência Artificial (Gaia) /C4AI / Inova USP. brunomoreschi@usp.br

6Doutor em Sociologia pela Universidade de São Paulo e professor titular do Departamento de Sociologia da Universidade de São Paulo. Responsável pela área de IA e Sociedade do C4AI, coordenador do Observatório da Inovação do Instituto de Estudos Avançados. Ex-presidente da Finep e do Ipea. garbix@usp.br

7Possui graduação em Ciências Biológicas pelo Instituto de Biociências (2005) e doutorado em Bioquímica pelo Instituto de Química da Universidade de São Paulo (2011). Atualmente é pesquisador associado da University of California – San Diego e pesquisador colaborador do Salk Institute for Biological Studies. Tem experiência na área de Biologia Geral, Bioquímica e Neurosciências com ênfase em Células-tronco humanas e sistemas de neurotransmissão, atuando principalmente nos seguintes temas: autismo, editoramento genômico, drug screening e receptores de neurotransmissores. 

Referências

TEIXEIRA, Coelho. Inteligência Artificial, ética artificial. In: COZMAN, F. G., PLONSKI, G. A., NERI, H. (Orgs.). Inteligência Artificial: Avanços e Tendências. Universidade de São Paulo. Instituto de Estudos Avançados, 2021.

MORESCHI, Bruno. Os reveladores erros de máquinas “inteligentes”. In: COZMAN, F. G., PLONSKI, G. A., NERI, H. (Orgs.). Inteligência Artificial: Avanços e Tendências. Universidade de São Paulo. Instituto de Estudos Avançados, 2021.

ARBIX, Glauco. Os reveladores erros de máquinas “inteligentes”. In: COZMAN, F. G., PLONSKI, G. A., NERI, H. (Orgs.). Algoritmos não são inteligentes nem têm ética, nós temos. Universidade de São Paulo. Instituto de Estudos Avançados, 2021.

TRUJILLO, C. A., et al. Complex Oscillatory Waves Emerging from Cortical Organoids Model Early Human Brain Network Development. Cell Stem Cell, 2019.

VIANA, Branca. Rádio Novelo Apresenta: Grandes perguntas. [Podcast]. Produção de Rádio Novelo. Brasil, 2023. Disponível em: https://radionovelo.com.br/originais/apresenta/grandes-perguntas/. Acesso em: 28 nov. 2024.


1Graduando em Análise e Desenvolvimento de Sistemas – UMJ. E-mail: icaro.sampaio101@academico.umj.edu.br

2Possui graduação em Processamento de Dados pela Universidade Federal da Paraíba (1986) e Mestrado em Informática pela Universidade Federal da Paraíba (1989). Atualmente é professor e coordenador dos cursos de Redes de Computadores e Sistemas de Informação da Faculdade Estácio de Alagoas e Consultor em Novas Tecnologias. Tem experiência na área de Ciência da Computação, com ênfase em Redes de Computadores, atuando principalmente nos seguintes temas: redes, IOT e Novas Tecnologias.