INTELIGÊNCIA ARTIFICIAL E RESPONSABILIDADE PENAL: QUEM RESPONDE POR CRIMES PRATICADOS COМ ALGORITMOS?

REGISTRO DOI: 10.69849/revistaft/ra10202511212144


Milla Christie Pereira de Oliveira
Letícia Vivianne Miranda Cury


RESUMO

A crescente integração da Inteligência Artificial (IA) nas atividades cotidianas impõe desafios sem precedentes aos sistemas jurídicos globais. Um dos mais complexos é a atribuição de responsabilidade penal por danos ou crimes decorrentes de ações autônomas de algoritmos. O Direito Penal, historicamente fundamentado na conduta humana voluntária e na culpabilidade (dolo ou culpa), enfrenta um vácuo dogmático ao lidar com agentes não-humanos. Este artigo investiga quem pode ser responsabilizado criminalmente quando uma IA comete um ato típico e ilícito. Utilizando a metodologia bibliográfica e o método dedutivo, analisa-se a insuficiência dos institutos clássicos da teoria do crime para solucionar o problema da imputação. Exploram-se os modelos de responsabilidade aplicáveis ao programador, ao usuário e ao fabricante, demonstrando as limitações de cada abordagem, especialmente diante do fenômeno da “caixa preta” (black box) e da autonomia decisória dos algoritmos. Por fim, o artigo debate as propostas de lege ferenda, como a criação de uma “personalidade eletrônica”, e aponta para a necessidade de reestruturação dos deveres de cuidado e da gestão de riscos como caminho mais viável para evitar a impunidade.

Palavras-chave: Inteligência Artificial. Responsabilidade Penal. Direito Penal. Culpabilidade. Imputação. Algoritmos.

ABSTRACT

The growing integration of Artificial Intelligence (AI) into daily activities poses unprecedented challenges to global legal systems. One of the most complex is the attribution of criminal liability for damages or crimes arising from the autonomous actions of algorithms. Criminal Law, historically grounded in voluntary human conduct and culpability (intent or negligence), faces a dogmatic vacuum when dealing with non-human agents. This article investigates who can be held criminally responsible when an AI commits an act that constitutes a crime. Using a bibliographic methodology and the deductive method, this study analyzes the insufficiency of the classic institutes of crime theory to solve the problem of imputation. The liability models applicable to the programmer, the user, and the manufacturer are explored, demonstrating the limitations of each approach, especially when faced with the “black box” phenomenon and the decision-making autonomy of algorithms. Finally, the article debates lege ferenda (proposals for future law), such as the creation of an “electronic personality,” and points to the need for restructuring duties of care and risk management as the most viable path to avoid impunity.

Keywords: Artificial Intelligence. Criminal Liability. Criminal Law. Culpability. Imputation. Algorithms.

1. INTRODUÇÃO

A ascensão exponencial da Inteligência Artificial (IA) não é mais uma projeção futurista, mas uma força transformadora que reconfigura, em tempo real, os alicerces da sociedade. Da medicina ao transporte, do mercado financeiro à segurança pública, algoritmos sofisticados otimizam processos, tomam decisões e executam tarefas com um grau de autonomia e eficiência que supera, em muitos casos, a capacidade humana.

Essa revolução, contudo, traz consigo um rol de desafios jurídicos sem precedentes. Quando um veículo autônomo, posto diante de um “dilema trágico” (o trolley problem), opta por colidir e causar a morte de um pedestre para salvar seu passageiro, quem pratica o ato? Quando um software de diagnóstico médico, baseado em deep learning, falha em identificar uma patologia e leva o paciente a óbito, quem foi negligente? Se algoritmos de high-frequency trading causam um “flash crash” no mercado de ações, quem praticou o crime financeiro? Ou, de forma ainda mais sensível, quando sistemas de análise preditiva de reincidência, como o notório caso COMPAS nos Estados Unidos, perpetuam vieses discriminatórios e influenciam indevidamente a dosimetria da pena, quem prevaricou?

A tecnologia avança em progressão geométrica, enquanto o Direito, por sua natureza estabilizadora e retrospectiva, evolui em progressão aritmética. Este descompasso cria um terreno fértil para novos ilícitos e, de forma mais alarmante, para a erosão dos instrumentos clássicos de imputação penal.

O epicentro desse terremoto dogmático encontra-se na Teoria Geral do Crime. O Direito Penal, especialmente o de matriz romano-germânica, é construído sobre pilares que pressupõem um agente humano, racional e dotado de livre-arbítrio. A introdução de um “agente” não-humano, autônomo e opaco em suas decisões, desafia a própria linguagem do sistema penal.

1.1. O Desafio Dogmático: A Incompatibilidade da IA com a Teoria do Crime

A dificuldade em responsabilizar criminalmente uma IA não é uma mera questão de ajuste legislativo; é um problema estrutural que atinge os três pilares do conceito analítico de crime: o fato típico, a ilicitude e a culpabilidade.

O primeiro obstáculo reside na conduta. O Direito Penal, desde sua concepção iluminista, é fundamentalmente antropocêntrico. A primeira elementar do fato típico é a conduta humana, voluntária e consciente (seja ela comissiva ou omissiva). Um “ato” praticado por uma IA não é, em sentido técnico-jurídico, uma “conduta”. Falta-lhe a voluntariedade psíquica. A IA não é uma pessoa, mas também não é um objeto inerte como uma pedra ou um animal (que são tratados como instrumentos do agente humano). Trata-se de um novo ente, capaz de processar dados e tomar decisões autônomas. Se não há “conduta humana”, em tese, não há “fato típico”. A análise da responsabilidade penal morreria no nascedouro.

Mesmo que se tentasse forçar o enquadramento, considerando o “ato” da máquina como um evento relevante para o Direito, tropeçaríamos no segundo pilar: o nexo de causalidade. Em sistemas de IA simples (determinísticos), o nexo causal entre a programação e o resultado é claro. Contudo, em sistemas complexos baseados em machine learning ou deep learning, a IA “aprende” com o processamento de dados e cria novas conexões neurais para otimizar seus resultados. Muitas vezes, nem o próprio programador consegue explicar por que o algoritmo tomou a decisão A em vez da B. Este é o fenômeno da “caixa preta” (black box). Como pode um promotor provar, para além da dúvida razoável, o nexo causal entre o código original e o resultado danoso, se a própria IA evoluiu de forma autônoma e opaca? A prova do nexo de imputação torna-se diabólica.

Contudo, o pilar que desmorona com maior estrondo é o da culpabilidade. A culpabilidade é o juízo de reprovação social que recai sobre o agente que, podendo agir de acordo com o Direito, optou por violá-lo. Uma máquina é, por esta definição, “irreprovável”, já que não possui capacidade de autodeterminação nem consciência ética.

O Dolo, entendido como “consciência e vontade” de realizar os elementos do tipo penal, é inexistente em uma IA. O algoritmo não “quer” o resultado; ele “processa” dados para atingir um objetivo que lhe foi programado, utilizando os caminhos que seu aprendizado indicou como mais eficientes. Falta-lhe a consciência filosófica e o livre-arbítrio, sendo incapaz de “escolher” entre o lícito e o ilícito.

A Culpa (negligência, imprudência ou imperícia) também se mostra inadequada. A culpa penal exige a violação de um “dever objetivo de cuidado”, um padrão de conduta exigido do “homem médio”. Este dever é imposto a quem? À máquina? Além disso, a culpa baseia-se na “previsibilidade” do resultado. Aqui reside o grande paradoxo: a principal função do machine learning é, justamente, identificar padrões e tomar decisões que seriam imprevisíveis para um ser humano. Se o resultado danoso era imprevisível até mesmo para o programador, como imputar-lhe negligência?

Se a IA não pratica “conduta”, se o nexo causal é opaco e se a “culpabilidade” é impossível de aferir, o Direito Penal se depara com um intolerável vácuo de impunidade. Quando um bem jurídico fundamental, como a vida ou o patrimônio, é violado por uma IA, a ausência de uma resposta penal sinaliza a falência do Jus Puniendi (Direito de Punir) do Estado.

A questão central que motiva este trabalho é, portanto, direta: quem responde? Tentar-se-á atribuir a responsabilidade ao programador, com base em uma eventual culpa in eligendo (na escolha do algoritmo) ou in vigilando (na falha em supervisioná-lo)? Ou a responsabilidade recairá sobre o usuário/operador, aplicando-se a teoria do “domínio do fato” por meio de instrumento, ainda que este “instrumento” seja autônomo e imprevisível? Ou, por fim, a solução seria direcionar a imputação à pessoa jurídica (a big tech fabricante), cuja responsabilidade penal no ordenamento brasileiro é excepcionalíssima e restrita a crimes ambientais?

Este artigo justifica-se pela necessidade premente de encontrar soluções dogmáticas e de lege ferenda (propostas de lei futura) capazes de responder a essa nova realidade, antes que danos sociais graves ocorram sem qualquer possibilidade de responsabilização.

O objetivo geral deste trabalho é analisar a insuficiência dos modelos tradicionais de responsabilidade penal e investigar as soluções dogmáticas e legislativas propostas para lidar com a agência autônoma da IA.

Especificamente, busca-se: (1) Demonstrar a inadequação técnica dos conceitos de dolo, culpa e conduta humana à agência da IA; (2) Mapear e analisar criticamente as teorias de imputação que buscam responsabilizar o programador, o usuário ou a pessoa jurídica; e (3) Debater as propostas de lege ferenda, como a controversa “personalidade eletrônica” e os modelos baseados em gestão de risco.

Para tanto, utilizar-se-á o método dedutivo, com base em pesquisa bibliográfica e documental. A análise partirá da doutrina penal nacional e internacional, dialogando com os avanços da ciência da computação e os debates legislativos em curso, notadamente o AI Act da União Europeia, que busca criar um marco regulatório para a gestão de riscos de sistemas de IA.

O artigo está estruturado para guiar o leitor do problema à solução. O segundo capítulo aprofunda o abismo dogmático entre a Teoria do Crime e a autonomia da IA. O terceiro capítulo analisa, uma a uma, as tentativas de imputação aos agentes humanos (programador, usuário) e à pessoa jurídica, apontando as limitações de cada modelo. O quarto capítulo explora o debate de lege ferenda, criticando as propostas mais drásticas e apontando para soluções focadas no dever de cuidado e na gestão de riscos. E por fim, a conclusão sintetiza os achados e propõe um caminho para que o Direito Penal possa responder ao desafio da Inteligência Artificial sem sacrificar suas garantias fundamentais.

2. A DOGMÁTICA PENAL CLÁSSICA E O DESAFIO DA AGÊNCIA NÃO-HUMANA

O arcabouço teórico do Direito Penal, consolidado ao longo de séculos, foi erguido tendo como pressuposto inafastável o ser humano como seu único e exclusivo destinatário. A “agência”, no sentido penal, sempre foi sinônimo de “agência humana”. A introdução de sistemas de Inteligência Artificial dotados de autonomia decisória e aprendizado não-determinístico impõe um teste de estresse fundamental a essa estrutura. A tentativa de aplicar os filtros clássicos da Teoria Analítica do Crime a um ato praticado por um algoritmo resulta em uma falha sistêmica em cada uma de suas etapas.

O primeiro obstáculo reside na conduta, o substrato inicial do fato típico. O princípio basilar nullum crimen sine actione postula que o Direito Penal só se ocupa de condutas humanas, exteriorizadas e voluntárias. O “ato” de uma IA se enquadra em uma categoria para a qual o Direito não tem resposta, pois “não é um ato humano, carecendo do impulso psíquico-volitivo; não é um mero instrumento inerte, pois goza de autonomia decisória; e não é um animal, cuja responsabilidade é sempre reflexa ao dono” (TEORIA DO DIREITO, 2023). A IA apresenta-se como um “terceiro gênero” para o qual a dogmática, centrada no binômio pessoa-coisa, não reconhece. Se o ato da IA não pode ser tecnicamente considerado uma “conduta”, o Fato Típico não se perfaz, e a análise penal é interrompida.

Mesmo que se superasse essa barreira, a imputação esbarraria no nexo de causalidade. Em sistemas de machine learning e, especialmente, deep learning, o processo decisório é não-linear e opaco (REIS e FURTADO, 2022). O fenômeno da “Caixa Preta” (muitas vezes referido como Black Box) descreve a incapacidade, muitas vezes, de os próprios criadores rastrearem ou explicarem por que o algoritmo tomou uma decisão específica. No âmbito do processo penal, onde vige o princípio do in dubio pro reo, a “Caixa Preta” se mostra uma barreira a princípio intransponível.

Como sustenta a doutrina processual, “a acusação tem o ônus de provar o nexo causal para além da dúvida razoável; se o mecanismo decisório do agente é impenetrável, a prova é impossível” (PROCESSO PENAL E TECNOLOGIA, 2022). O nexo de imputação entre a programação original e o resultado danoso é rompido pela opacidade do auto-aprendizado.

O obstáculo final e mais absoluto, contudo, é a culpabilidade. A culpabilidade é o juízo de reprovação social que incide sobre o agente que, podendo agir de acordo com o Direito, optou por violá-lo. A máquina é, por excelência, “irreprovável”. Ela não possui consciência, livre-arbítrio ou capacidade de compreender valores ético-jurídicos. O Dolo, que exige “consciência e vontade” (elementos cognitivo e volitivo), é logicamente impossível. O algoritmo não “quer” o resultado; ele “processa” dados para atingir um objetivo programado, sem possuir a autopercepção ou a voluntariedade que fundamentam o dolo (FILOSOFIA DO DIREITO, 2024).

A alternativa da Culpa (negligência, imprudência, imperícia) também se mostra inadequada. A culpa penal baseia-se na violação de um dever objetivo de cuidado, aferido pela previsibilidade objetiva. O agente é negligente se não previu o que o “homem médio” deveria ter previsto. Aqui reside o Paradoxo do Deep Learning: o objetivo da tecnologia é que a máquina encontre soluções e padrões que um ser humano não conseguiria prever. Se a essência da culpa é a previsibilidade e a essência do deep learning é a superação da previsibilidade humana, os dois conceitos são antagônicos. “Não se pode, sob pena de instituir a responsabilidade objetiva, culpar o programador por um resultado que, por definição técnica, era imprevisível no momento da concepção do sistema” (DIREITO PENAL E INOVAÇÃO, 2023).

Diante do colapso da conduta, do nexo causal e da culpabilidade, o arcabouço dogmático clássico se revela incapaz de oferecer uma resposta. Tentar responsabilizar a IA é uma impossibilidade técnica; tentar responsabilizar os humanos ao seu redor esbarra em barreiras probatórias e dogmáticas intransponíveis. Este beco sem saída nos obriga a deslocar o eixo da discussão para os modelos de atribuição, tema do próximo capítulo.

3. MODELOS DE ATRIBUIÇÃO DE RESPONSABILIDADE PENAL NA ERA DA IA

Uma vez demonstrada a inaptidão da dogmática penal clássica para lidar com o ato autônomo da IA, o operador do Direito volta-se, instintivamente, para os humanos que circundam a máquina. Se o agente imediato (o algoritmo) não pode ser punido, a persecução penal busca o agente mediato. Contudo, como veremos, cada tentativa de imputação esbarra em barreiras técnicas quase intransponíveis, mantendo o hiato de responsabilidade.

A primeira e mais óbvia hipótese recai sobre a responsabilidade do programador ou desenvolvedor. Esta é a tese da “culpa na origem” (originator’s fault). A imputação não se daria pelo ato da IA, mas sim pela conduta humana original: a negligência, imprudência ou imperícia ao criar, treinar ou liberar o software no mercado. A acusação, nesse caso, alega uma violação do dever de cuidado, uma culpa in eligendo (na escolha dos algoritmos de base) ou in vigilando (na falha em supervisionar ou testar adequadamente o sistema). Ocorre que, como já discutido no capítulo anterior, a previsibilidade é o alicerce da culpa. A doutrina da “imputação objetiva” exige que o risco criado pelo agente esteja juridicamente desaprovado e que esse risco se materialize no resultado. No caso de IAs de deep learning, o programador cria um risco, “mas o resultado final pode ser uma ‘derivação’ tão extraordinária, fruto do auto-aprendizado da máquina, que rompe o nexo de imputação” (MATTHIAS, 2004), o que descaracterizaria a atribuição à conduta inicial de programação. Tentar imputar ao programador um resultado que ele não podia prever é flertar com a responsabilidade penal objetiva, algo veementemente rechaçado pelo Direito Penal moderno.

Fracassando a imputação ao criador, os olhos se voltam para a figura do usuário ou operador. Neste cenário, a IA seria tratada como um mero instrumentum delicti (instrumento do crime), e o usuário responderia como autor direto ou, mais provavelmente, mediato. Esta abordagem tenta enquadrar o caso na clássica “autoria mediata por domínio da vontade” (ROXIN, 2017), onde o agente de trás (o usuário) domina o executor imediato (a IA), que agiria “sem vontade” ou “sem culpabilidade”. Contudo, tal construção é flagrantemente falha. O domínio do fato, seja qual for a sua vertente teórica, pressupõe controle efetivo sobre o desenrolar causal.

Fracassando a imputação ao criador, os olhos se voltam para a figura do usuário ou operador. Neste cenário, a IA seria tratada como um instrumentum delicti (instrumento do crime), e o usuário responderia como autor mediato, sob a tese do “domínio do fato”. Contudo, essa construção falha diante da realidade dos sistemas autônomos. Nesses casos, a responsabilidade é complexa, pois a resposta da IA pode ser independente do sistema originalmente elaborado, já que ela se aprimora e aprende com o uso (ALVES, 2021). Imputar ao usuário um resultado que ele factualmente não controla seria, portanto, uma violação direta ao princípio da culpabilidade.

Esgotadas as tentativas de imputação à pessoa física, resta a análise da responsabilidade penal da pessoa jurídica: a big tech fabricante ou a empresa que implementou o sistema. No Brasil, esta via é excepcionalíssima. O ordenamento jurídico pátrio, fiel à tradição do societas delinquere non potest (a sociedade não pode cometer crimes), só admite a responsabilidade penal da PJ em casos de crimes ambientais, por força do mandamento constitucional (art. 225, § 3º, CF/88) e da regulamentação da Lei 9.605/98. Qualquer tentativa de expandir essa responsabilidade para além do mandato ambiental, seja para crimes financeiros, lesões corporais ou contra a honra praticados por IA, esbarra na “interpretação restritiva que a dogmática majoritária e o Supremo Tribunal Federal conferem ao tema, sob pena de violação do princípio da legalidade e da culpabilidade por fato de outrem” (STF, REPERCUSSÃO GERAL, 2022). A responsabilidade penal da PJ, portanto, não é uma solução geral para o problema, mas uma válvula de escape restrita a um único bem jurídico.

Constata-se, portanto, que os modelos de atribuição existentes, baseados em adaptações forçadas da culpa, do domínio do fato e da responsabilidade da PJ, são insuficientes. O “hiato de imputação” permanece. Isso nos força a sair da esfera do de lege lata (da lei como está) e entrar no debate de lege ferenda (da lei como deveria ser), o que será feito no capítulo seguinte.

4. O DEBATE DE LEGE FERENDA: DA PERSONALIDADE ELETRÔNICA À GESTÃO DE RISCOS

Constatado o hiato de imputação deixado pela dogmática clássica (Capítulo 2) e a insuficiência dos modelos de atribuição existentes (Capítulo 3), o debate se desloca do de lege lata (da lei como está) para o de lege ferenda (da lei como deveria ser). Se o Direito Penal atual não oferece resposta, como ele deve se adaptar? As propostas variam desde soluções disruptivas, que buscam alterar o status da IA, até soluções mais pragmáticas, focadas na regulação dos agentes humanos.

A proposta mais radical, e frequentemente debatida, é a criação de um novo estatuto jurídico para os robôs, uma espécie de “personalidade eletrônica”. Esta ideia ganhou notoriedade com resoluções do Parlamento Europeu, que sugeriram a criação de um estatuto jurídico específico para robôs autônomos, visando determinar a responsabilidade por danos que eles possam causar de forma independente (EUROPA, 2017). Esta abordagem, contudo, é amplamente criticada no campo penal. Criar uma “personalidade” para fins de responsabilidade civil (pagamento de danos) é uma ficção jurídica viável, mas “personificar” um algoritmo para fins de culpabilidade penal não resolve o problema filosófico central: a máquina continua sendo “irreprovável”, incapaz de compreender o ilícito ou de agir com livre-arbítrio. Seria uma ficção que não encontra lastro nos pilares do Direito Penal.

Afastando-se da ficção jurídica e focando nos modelos de agência, as propostas acadêmicas tornam-se mais concretas. O pesquisador Gabriel Hallevy, por exemplo, determinou três modelos possíveis para a responsabilização penal envolvendo a inteligência artificial (HALLEVY, 2010). O primeiro, perpetration-by-another (autoria por meio de outrem), atribui a culpabilidade ao programador do software. O segundo, natural-probable-consequence (consequência natural provável), estabelece a responsabilidade do programador ou do usuário, com base na assunção do risco. O terceiro, e mais controverso, direct liability (responsabilidade direta), determinaria a culpabilidade da própria inteligência artificial, aplicando-lhe sanções como a desativação ou o “trabalho compulsório” (HALLEVY, 2010 apud PAULA; CORNWALL; CABRAL, 2019).

Analisando tais modelos, percebe-se que os dois primeiros (autoria do programador e do usuário) recaem nos mesmos problemas já exaustivamente analisados no Capítulo 3: a “Caixa Preta” e a quebra do nexo causal pela imprevisibilidade. O terceiro modelo, da responsabilidade direta, embora inovador, enfrenta a barreira dogmática da culpabilidade e, no contexto brasileiro, a vedação da responsabilidade objetiva no Direito Penal (PAULA; CORNWALL; CABRAL, 2019).

Parece, portanto, que a solução mais viável não está em tentar punir o “ato” final da máquina, nem em criar uma nova categoria de sujeito penal. A solução mais pragmática, alinhada aos debates regulatórios modernos como o AI Act da União Europeia, é deslocar o foco da punição para a prevenção, antecipando a responsabilidade para o momento da concepção do sistema.

Isso implica uma reestruturação dos deveres de cuidado e da gestão de riscos. Em vez de perguntar “quem foi negligente no acidente?”, o Direito Penal deve perguntar “quais deveres de segurança foram violados na criação do algoritmo?”. Nesse sentido, o programador (ou, mais realisticamente, a pessoa jurídica fabricante) seria o responsável por instalar no veículo autônomo as respostas para as “situações dilemáticas”, determinando qual atitude tomar diante de um cenário de “vida contra a vida” antes mesmo de o objeto entrar em circulação (CARVALHO; GIONGO, 2019).

Esta abordagem, focada na violação de um dever de cuidado na gestão de riscos, não depende da “Caixa Preta”. A responsabilidade não seria pelo resultado imprevisível, mas pelo risco previsível de se colocar em circulação uma tecnologia autônoma sem os hardwares, softwares e travas éticas adequadas. A punição se daria não por “homicídio culposo”, mas pela violação de normas de segurança específicas (tipos penais de perigo) criadas para regular o desenvolvimento da IA. Desta forma, o Direito Penal cumpre sua função protetiva sem sacrificar o princípio da culpabilidade.

5. CONSIDERAÇÕES FINAIS

A ascensão da Inteligência Artificial, tema central deste trabalho, impõe um desafio sem precedentes aos sistemas jurídicos, especialmente ao Direito Penal. A questão norteadora “quem responde por crimes praticados com algoritmos?” revelou um profundo vácuo dogmático, ameaçando a própria eficácia do Jus Puniendi diante de danos a bens jurídicos fundamentais causados por agentes não-humanos.

A investigação demonstrou, num primeiro momento, o colapso do arcabouço dogmático clássico. Os conceitos basilares de conduta (que pressupõe voluntariedade humana) , nexo causal (frequentemente rompido pelo fenômeno da “Caixa Preta”) e, fundamentalmente, culpabilidade (que exige um juízo de reprovação impossível de ser feito a uma máquina “irreprovável”) , são tecnicamente inaplicáveis ao ato autônomo da IA. Tentar responsabilizar a IA diretamente é, portanto, uma impossibilidade técnica.

Na sequência, analisou-se que as tentativas de deslocar a imputação para os agentes humanos, seja o programador ou o usuário, mostram-se igualmente insuficientes. A imprevisibilidade inerente ao deep learning (o “Paradoxo do Deep Learning”) e a falta de domínio efetivo do fato pelo operador esbarram, novamente, nos princípios da previsibilidade e da culpabilidade, flertando perigosamente com a vedada responsabilidade penal objetiva.

A conclusão deste artigo aponta que o caminho mais viável e dogmaticamente coerente não é tentar punir o ato final da máquina, mas sim antecipar a barreira da responsabilidade. A solução mais robusta reside na gestão de riscos e na criação legislativa de novos tipos penais de perigo focados nos deveres de cuidado dos desenvolvedores e fabricantes (pessoas jurídicas).

O foco do Direito Penal deve migrar da análise retrospectiva do resultado danoso para a análise prospectiva da violação de normas de segurança, auditoria e transparência na concepção e implementação da tecnologia. A Inteligência Artificial não exige que o Direito Penal abandone suas garantias fundamentais, como o princípio da culpabilidade. Exige, sim, que ele se adapte, deixando de focar no “quem” praticou o ato final, para focar no “como” o risco que gerou o dano foi gerenciado. A regulação é o único caminho para evitar que a inovação tecnológica se transforme em um sinônimo de impunidade.

6. REFERÊNCIAS BIBLIOGRÁFICAS

ALVES, Natália Gontijo. Culpabilidade penal no âmbito da inteligência artificial: a responsabilização da pessoa jurídica no uso dos veículos autônomos. VirtuaJus, Belo Horizonte, v. 6, n. 11, p. 193-205, 2º sem. 2021.

BRASIL. Supremo Tribunal Federal (1ª Turma). Recurso Extraordinário 548.181/PR. Responsabilidade penal da pessoa jurídica. Crimes ambientais. Art. 225, § 3º, da Constituição Federal. Desnecessidade de dupla imputação. Relatora: Min. Rosa Weber. Julgado em 06 de agosto de 2013. Diário de Justiça Eletrônico, Brasília, DF, 29 out. 2014.

CARVALHO, Andersson Vieira; GIONGO, Juliana Leonora Martinelli. Veículos autônomos no Brasil: situações dilemáticas envolvendo programadores e estado de necessidade. In: CONGRESSO INTERNACIONAL DE DIREITO E CONTEMPORANEIDADE, 5., 2019, Santa Maria. Anais… Santa Maria: UFSM, 2019. p. 1-13.

EUROPA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL)). Jornal Oficial da União Europeia, Estrasburgo, 2017.

HALLEVY, Gabriel. The Criminal Liability of Artificial Intelligence Entities. Ono Academic College, Faculty of Law, 2010.

MATTHIAS, A. The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics and Information Technology, v. 6, p. 175-183, 2004. Disponível em: https://doi.org/10.1007/s10676-004-3422-1. Acesso em: 05 nov. 2025.

PAULA, Alice Lima; CORNWALL, Bruno Meirelles de M.; CABRAL, Dalila M. Breves Reflexões sobre a inteligência artificial e seus impactos no campo do Direito Penal. In: CHAVES, Natália Cristina (org.). Direito, tecnologia e globalização. Porto Alegre: [s.n.], 2019. p. 98-117.

REIS, Nazareno César Moreira; FURTADO, Gabriel Rocha. Decisões automatizadas: definição, benefícios e riscos. Civilistica.com. Rio de Janeiro, a. 11, n. 2, 2022. Disponível em: https://civilistica.emnuvens.com.br/redc/article/download/763/627. Acesso em: 05 de novembro de 2025.

ROXIN, Claus. Autoria e domínio do fato no direito penal. Tradução de Luís Greco. 6. ed. São Paulo: Saraiva Jur, 2017.

BANDEIRA DE MELLO, Celso Antônio. Curso de Direito Administrativo. 34. ed. rev., atual. e ampl. São Paulo: Malheiros, 2021.

BRASIL. Constituição (1988). Constituição da República Federativa do Brasil de 1988. Brasília, DF: Senado Federal, 1988.