LIMITAÇÕES DO USO DO CHAT GPT PARA O DIREITO: UMA ANÁLISE SOBRE O USO INDISCRIMINADO DE INTELIGÊNCIAS ARTIFICIAIS

REGISTRO DOI: 10.5281/zenodo.8062349


Ana Clara Silva Lima1 


RESUMO 

Com os avanços de novas tecnologias, como os chatbots, faz se necessário entender as implicações éticas, o uso do Chat GPT ou de outras inteligências artificiais (IA) no campo do Direito apresenta algumas limitações importantes que precisam ser consideradas. Embora essas ferramentas possam ser úteis em certos contextos, é essencial reconhecer suas restrições e os possíveis problemas decorrentes do uso indiscriminado.

Palavras-chave: Chat GPT, Direito, Inteligência Artificial. 

ABSTRACT

With the advances in new technologies, such as chatbots, it is necessary to understand the ethical implications, the use of ChatGPT or other artificial intelligence (AI) in the field of law presents some important limitations that need to be considered. While these tools can be useful in certain contexts, it is essential to recognize their restrictions and potential problems arising from indiscriminate use.

Keywords: ChatGPT, Law, Artificial Intelligence. 

1 INTRODUÇÃO 

Ao longo dos últimos 30 anos, temos testemunhado momentos que nos abriram os olhos para o poder transformador da tecnologia na forma como acessamos e geramos informações. A internet e sua popularização, foi um desses momentos, proporcionando uma visão de como seria fácil encontrar e compartilhar informações com o mundo. O mecanismo de busca do Google marcou outro ponto de virada, introduzindo uma abordagem radicalmente nova e aprimorada para localizar o que precisávamos na internet. Nesse contexto, o Chat GPT também é um marco na história do desenvolvimento tecnológico.

Lançado em junho de 2020, o ChatGPT, desenvolvido pela OpenAI, é um modelo de linguagem de inteligência artificial (IA) . Criado por uma das principais organizações de pesquisa em IA do mundo, ele utiliza técnicas avançadas de Deep Learning para compreender, analisar e gerar linguagem de forma similar à humana. Essa capacidade faz do Chat GPT uma das ferramentas de conversação baseada em IA mais poderosas disponíveis atualmente. 

As possibilidades de uso dessa nova tecnologia são infinitas, pois abrange diversas áreas. No campo jurídico, não poderia ser diferente. Não é incomum ver operadores do direito usando dessa ferramenta como auxílio para consultar jurisprudência, entendimentos doutrinários e até em elaborações de documentos jurídicos. No entanto, à medida que adotamos o Chat GPT e outros chatbots no campo jurídico,devemos considerar os desafios e as questões éticas envolvidas. Se usado de maneira indiscriminada ou sem a confirmação dessas informações por fontes confiáveis, pode causar certa insegurança jurídica. 

Neste artigo, analisaremos as implicações do Chat GPT no campo do direito, apresentando de maneira crítica os benefícios e os desafios que essa tecnologia traz consigo. Compreender como os chatbots podem ser aplicados no contexto jurídico e explorar as considerações éticas que emergem dessa interação entre tecnologia e sistema legal é essencial para uma reflexão abrangente sobre o futuro da profissão. 

2 BREVE HISTÓRICO SOBRE CHATBOTS

Ao contrário do que muitas pessoas pensam, os chamados “chatbots”, apesar de serem muito usados hoje em dia e parecer extremamente atual, surgiram a muitas décadas atrás.  O pai da computação, Alan Turing, fez contribuições significativas no campo da inteligência artificial e da computação. O “Teste de Turing” , feito em 1950, se tornou uma referência no campo da IA, foi um experimento conceitual que buscava determinar se uma máquina pode exibir um comportamento inteligente indistinguível do de um ser humano. Embora não tenha criado chatbots específicos, a concepção do Teste de Turing influenciou muitos pesquisadores e desenvolvedores no campo da IA, incluindo aqueles envolvidos na criação de chatbots. 

Neste teste, uma pessoa, um computador e um interrogador humano (juiz) são mantidos em salas separadas e, novamente, só podem se comunicar por texto impresso. A máquina e o ser humano manterão uma conversação entre si. O juiz deverá analisar o conteúdo e tentar distinguir qual é a máquina e qual é o ser humano. A pergunta que Turing se fazia era: poderia a máquina imitar o pensamento humano e confundir o juiz? (ONODY, 2021) 

Na década de 60, o cientista da computação e professor do Instituto de Tecnologia de Massachusetts  (MIT) , Joseph Weizenbaum, desenvolveu um programa chamado ELIZA, que simulava um terapeuta conversacional. ELIZA foi projetada para imitar as respostas de um terapeuta rogeriano e foi um dos primeiros exemplos de chatbots baseados em regras. O experimento de Weizenbaum ajudou a pavimentar o caminho para as futuras inovações nessa área e contribuiu para evolução dos chatsbots que conhecemos hoje. 

Algumas décadas à frente, em 2010, a Apple adquiriu Siri Inc., uma startup de tecnologia, em 2010. A tecnologia por trás da Siri foi baseada em pesquisas conduzidas pelo MIT, incluindo trabalhos de pesquisa anteriores relacionados a chatbots e processamento de linguagem natural. Em 2011, foi lançada no Iphone 11 como uma assistente virtual. A Siri representa um exemplo significativo de como a tecnologia de chatbots e assistentes virtuais evoluiu ao longo dos anos, permitindo interações mais naturais e intuitivas entre humanos e máquinas. 

A criação do Chat GPT, foi o resultado de décadas de evolução tecnológica. A história do Chat PT começa com seu antecessor, chamado de GPT (Generative Pré-trained Transformer), que foi lançado em 2018. O GPT foi um marco significativo no campo da inteligência artificial, pois demonstrou habilidades na geração de texto coerente e relevante. Posteriormente a isso, a OpenAI lançou várias versões subsequentes, como o GPT-2 em 2019 e o GPT-3 em 2020. Essas versões posteriores expandiram significativamente o tamanho e a capacidade do modelo, permitindo gerar textos ainda mais convincentes e sofisticados

Com o avanço da inteligência artificial, os chatbots estão se tornando cada vez mais sofisticados e amplamente utilizados em setores como comércio eletrônico, serviços financeiros, saúde, educação e outros. Esses chatbots se beneficiam de técnicas avançadas, como processamento de linguagem natural, Deep learning e modelos de linguagem como o GPT-3, permitindo interações mais naturais e contextuais.

No entanto, a falta de regulação da utilização dessas tecnologias esbarra em questões morais e éticas. Segundo Fernando Osório (2021) “Toda tecnologia sempre oferece riscos, se for mal utilizada; assim como ocorre com as armas ou a energia nuclear, por exemplo”.  Assim, se faz necessário implementar salvaguardas e diretrizes éticas robustas. Isso inclui treinamento dos modelos em conjuntos de dados diversificados e cuidadosamente selecionados, mitigação de viéses, transparência na divulgação de informações geradas por chatbots e aprimoramento contínuo das capacidades de segurança e proteção de dados.

3 IMPLICAÇÕE DO CHAT GPT PRO DIREITO 

Como mencionado anteriormente, ferramentas de inteligência artificial, como o Chat GPT possuem uma elevada relevância social atual. Isso porque, apesar de chatbots existirem a algumas décadas, seu uso se massificou nos últimos anos, se tornando acessível a qualquer um que possua internet em seu dispositivo. Mas todo bônus tem um ônus. 

3.1 Ética e Tecnologia  

As decisões éticas na tecnologia afetam diretamente a maneira como interagimos com as máquinas, como as tecnologias moldam nossos comportamentos e como elas influenciam nossa sociedade como um todo. A chegada da internet, no entanto, difundiu os limites entre o comportamento adequado e inadequado. Inicialmente, havia pouco conhecimento sobre o funcionamento da internet, resultando na ausência de leis bem definidas. Agora, diante da rapidez dos avanços tecnológicos, torna-se cada vez mais desafiador estabelecer novas leis ou aprimorar as já existentes. Assim, a ética na tecnologia busca garantir que os avanços tecnológicos sejam orientados para o bem comum, respeitando os direitos e valores fundamentais dos indivíduos e considerando os impactos a longo prazo. Para Marconi Pequeno: 

É inegável que as conquistas da tecnologia continuam a gerar fascínio e a garantir os avanços materiais que melhoraram a vida da maior parte da humanidade. Apesar disso, elas não deixaram de suscitar preocupações existenciais e dilemas morais lancinantes. Tais inquietudes acabaram por ensejar a necessidade de se combater os avanços desordenados das ciências e de suas tecnologias por meio de Protocolos, Convenções, Resoluções, Declarações ou outros meios de disciplinamento normativo a fim de se evitar ou coibir suas práticas deletérias. (PEQUENO, 2020)

A ética na era da internet abrange diversas questões, como privacidade, segurança, liberdade de expressão, desigualdade digital e disseminação de desinformação. O rápido desenvolvimento tecnológico muitas vezes supera a capacidade da sociedade de acompanhar e regular adequadamente esses desafios éticos. Nas palavras de José Renato Nalini:

 Nunca foi tão necessário, como hoje se mostra, reabilitar a ética. A crise da humanidade é uma crise moral. Os descaminhos da criatura humana, refletidos na violência, no egoísmo e na indiferença pela sorte do semelhante, assentam-se na perda dos valores morais. De nada vale reconhecer a dignidade da pessoa, se a conduta pessoal não se pautar por ela. se vier a ser recomposto o referencial de valores básicos de orientação do comportamento, será viável a formulação de um futuro mais promissor para a humanidade ainda envolvida no drama da superação das angústias primárias esse o papel da ética no limiar do terceiro milênio. (NALINI, 1997)

Os chatbots, de maneira geral, não possuem nenhum compromisso com os fatos verdadeiros, pois não possuem intenções próprias ou uma consciência moral. Embora seja treinado em uma vasta quantidade de dados, nem todos eles são precisos ou verificados. Como resultado, o modelo pode gerar respostas que parecem verdadeiras, mas são baseadas em informações incorretas. Isso pode contribuir para a disseminação de desinformação e fake news. 

3.2 REGULARIZAÇÃO 

À medida que a sociedade se torna cada vez mais dependente e interconectada por meio de avanços tecnológicos, surgem novas questões legais e éticas que precisam ser abordadas. Desde a proteção da privacidade até a regulação de inteligência artificial e o combate à cibercriminalidade, o direito enfrenta a necessidade de se adaptar e desenvolver soluções jurídicas adequadas a esse novo contexto. 

Um dos principais desafios é a rapidez com que a tecnologia avança, muitas vezes superando a capacidade do sistema legal de acompanhar e regular adequadamente. A regulação adequada dessas tecnologias é fundamental para garantir que elas sejam usadas de maneira ética, evitando discriminação, preconceitos e violações dos direitos humanos. O desenvolvimento de leis que estabeleçam padrões de responsabilidade e transparência para sistemas de IA é um desafio crucial para o direito contemporâneo. 

No Brasil, houveram algumas tentativas de regulação dessa matéria. Como é o exemplo do Projeto de Lei nº 2.630/2020, também conhecido como “Lei das Fake News” ou “Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet”, foi apresentado no Senado Federal do Brasil em de 2020. O objetivo principal da proposta é combater a disseminação de desinformação e promover maior responsabilidade e transparência no ambiente digital.

O projeto abrange diversas questões relacionadas ao uso da internet e redes sociais, incluindo ações para prevenir e combater a propagação de notícias falsas, discursos de ódio, perfis falsos e atividades coordenadas para manipular a opinião pública. Ele propõe a criação de mecanismos de transparência e responsabilidade para plataformas online, exigindo que elas adotem medidas para verificar a identidade de usuários, rotular conteúdos considerados enganosos ou falsos e disponibilizar informações sobre anúncios políticos. No momento da publicação desse artigo, esse projeto de lei ainda não foi aprovado. 

Além da tramitação dessa importante PL, temos também a Lei Geral de Proteção de Dados (LGPD), que foi aprovada em 2018 e entrou em vigor em setembro de 2020. Ela tem como objetivo principal regulamentar o tratamento de dados pessoais por parte de empresas e instituições no Brasil, com o intuito de proteger a privacidade e os direitos dos indivíduos. Para Iszlaji:

Outra tentativa de proceduralização no ordenamento jurídico brasileiro, é o artigo 50 da LGPD. O referido artigo incentiva que os agentes de tratamento de dados pessoais elaborem um programa de governança de privacidade e proteção de dados e adotem boas práticas, tais como políticas e salvaguardas do processo de avaliação sistemática de impactos e riscos à privacidade, planos de resposta a incidentes e remediação, procedimentos para atender solicitações e reclamações de titulares, ações educativas, normas de segurança e padrões técnicos aptos a proteger os dados pessoais. O §3º do artigo 50 ainda estabelece que a Autoridade Nacional de Proteção de Dados pode reconhecer e promover essas boas práticas. (ISZALAJI, 2021)

Vale mencionar, que o artigo 6 da referida lei, estabelece os princípios norteadores para o tratamento de dados pessoais, visando garantir a legalidade, a transparência, e a adequação do uso dessas informações. Na concepção de Bárbara Iszalaji “Um dos princípios previstos no artigo 6º da LGPD é o princípio da accountability (responsabilização e prestação de contas), de forma a desenvolver boas práticas e governança de dados, como previsto no artigo 50.” 

Assim, vamos caminhando a passos largos para uma regulação dessas novas tecnologias. É necessário encontrar um equilíbrio entre a proteção dos direitos dos usuários e a promoção da inovação, garantindo a transparência, a conformidade com a legislação e a responsabilidade das empresas responsáveis pelo sistema. 

4 LIMITAÇÕES DO USO DO CHAT GPT 

Apesar do Chat GPT e outras tecnologias de inteligência artificial possam atuar em benefício em diversas áreas, incluindo as jurídicas, é importante considerar suas limitações e impactos negativos. 

O Chat GPT também apresenta uma série de questões a serem discutidas, pois a natureza do trabalho jurídico lida com um grande volume de documentos, além de informações confidenciais. Isso pode levar a disputas envolvendo violação de propriedade intelectual, privacidade, violação de dados, etc.  A Itália se tornou o primeiro país ocidental a banir temporariamente o Chat GPT até se enquadrar nas normas da lei de proteção de dados da União Europeia. A Agência de Proteção de Dados da Itália alegou que “a ausência de qualquer base legal que justifique a recolha e armazenamento massivo de dados pessoais de forma a ‘treinar’ os algoritmos subjacentes ao funcionamento da plataforma”2. Essa decisão, que pode ser vista como radical, foi uma forma que o governo Italiano encontrou de criar suas próprias regras em relação a IA. 

Para além disso, o uso indiscriminado de chatbots como o Chat GPT, vem ocasionando erros graves. Como aconteceu com o advogado Steven Schwartz, que foi contratado por Robert Mata para processar a Avianca Airlines por lesão corporal. Mata afirma que sofreu a lesão de um carrinho de serviço durante seu voo com a companhia aérea em 2019. No entanto, depois que um juiz notou inconsistências e erros factuais na documentação do caso, Schwartz admitiu usar o Chat GPT para sua pesquisa jurídica, de acordo com uma declaração juramentada de 24 de maio.

Casos como esses, se tornaram comuns daqui pra frente, pois, muitas vezes, as pessoas tendem a acreditar que as respostas geradas pelas IAs são precisas e confiáveis. Essa confiança pode ser baseada em experiências positivas anteriores, na aparente “objetividade” das IAs ou na percepção de que a tecnologia é infalível. Como resultado, as pessoas podem deixar de verificar as informações fornecidas pela IA assumindo que elas são corretas.

Além disso, a disseminação de desinformação pode ser amplificada pela confiança inabalável nas IAs. Quando as pessoas compartilham informações geradas por uma IA sem verificar sua veracidade, elas podem inadvertidamente contribuir para a propagação de informações errôneas ou enganosas.

Embora o Chat GPT seja treinado em uma ampla variedade de textos, incluindo documentos legais, doutrinas e jurisprudências, ele não pode fornecer informações jurídicas precisas e atualizadas de forma consistente. E como vimos, o algoritmo consegue criar julgados e jurisprudências que nunca existirá. 

6 CONCLUSÃO 

  Desse modo, as limitações do uso do Chat GPT para o Direito são evidentes quando consideramos a análise sobre o uso indiscriminado de inteligências artificiais. Apesar do  Chat GPT ser uma ferramenta versátil, capaz de gerar respostas coerentes, existem várias questões que podem comprometer sua eficácia no contexto jurídico.

 O Direito é uma disciplina que requer análise aprofundada, interpretação e aplicação de leis, precedentes legais e considerações éticas. Essa compreensão profunda do Direito não pode ser replicada por uma inteligência artificial, como o Chat GPT.

Além disso, a questão da responsabilidade legal é um fator crítico a ser considerado. Ao confiar em um sistema automatizado para fornecer informações e orientações jurídicas, surgem dúvidas sobre quem é responsável por possíveis erros ou decisões equivocadas. A responsabilidade final recai sobre os profissionais do Direito, que devem considerar cuidadosamente as informações fornecidas pelo Chat GPT e aplicar seu conhecimento e julgamento profissional.

Por fim, a falta de transparência e de regulamentação adequada no desenvolvimento e uso de inteligências artificiais para o Direito é uma preocupação significativa. O Chat GPT é treinado em grandes quantidades de dados, que podem conter preconceitos, falhas ou informações incorretas. Sem um escrutínio adequado e supervisão humana, existe o risco de que o sistema perpetue ou amplifique viéses e injustiças já presentes no sistema jurídico. A aplicação indiscriminada dessas tecnologias pode comprometer a integridade do sistema jurídico, bem como a confiança do público. Portanto, é fundamental que os profissionais do Direito usem essas ferramentas com cautela, considerando suas limitações e garantindo uma supervisão e avaliação humana adequadas em todas as etapas.

REFERÊNCIAS 

COTS, Márcio; OLIVEIRA, Ricardo de Oliveira (coord.). O legítimo interesse e a LGPDP: Lei Geral de Proteção de Dados Pessoais. 2. ed. São Paulo: Revista dos Tribunais, 2021.  

Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, [2020]. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2019-2022/2020/lei/l14020.htm.

NALINI, José Renato. Ética geral e profissional. Editora Revista dos Tribunais. 1997.

O art 50 da LGPD e a ANPD para reconhecer e divulgar regras. Disponível em: <https://www.migalhas.com.br/depeso/351510/o-art-50-da-lgpd-e-a-anpd-para-reconhecer-e-divulgar-regras>. Acesso em: 19 jun. 2023.

PEQUENO, M. TÉCNICA, TECNOLOGIA E DILEMAS ÉTICOS. Revista Dialectus – Revista de Filosofia, n. 17, p. 39, 2020.


 2Itália bloqueia ChatGPT após suspeita de violação de regras de coleta de dados. G1, 2023. Disponivel em: < https://g1.globo.com/tecnologia/noticia/2023/03/31/italia-bloqueia-chatgpt-apos-agencia-de-protecao-de-dados-abrir-investigacao-sobre-privacidade.ghtml. Acesso em: 15 de maio de 2023 


1 Bacharel em Direito