Na atual sociedade informatizada, as particularidades do meio informático, dentre elas a instantaneidade, o anonimato e a capacidade de propagação, propiciaram a difusão de uma criminalidade virtual, com ataques, remotos e facilmente ocultados, à privacidade e à intimidade das pessoas. Nessa linha, a inteligência artificial emerge como meio de execução de crimes cibernéticos e oferece uma nova camada de obstáculos à persecução penal, seja pela sua difícil detecção, seja pelo despreparo do sistema de justiça frente ao seu potencial lesivo.
Por Barbara Orihuela
Na atual sociedade informatizada, as particularidades do meio informático, dentre elas a instantaneidade, o anonimato e a capacidade de propagação, propiciaram a difusão de uma criminalidade virtual, com ataques, remotos e facilmente ocultados, à privacidade e à intimidade das pessoas. Nessa linha, a inteligência artificial emerge como meio de execução de crimes cibernéticos e oferece uma nova camada de obstáculos à persecução penal, seja pela sua difícil detecção, seja pelo despreparo do sistema de justiça frente ao seu potencial lesivo.
Por um lado, não cabe censurar os proveitos da inteligência artificial, na qualidade de método de produções audiovisuais, ferramenta educacional e pedagógica, forma de expressão de ideias ou meio recreativo[1]. Atualmente democratizada, é certo que seus avanços proporcionaram inúmeras funcionalidades ao cotidiano, favorecendo maior acesso à informação e velocidade na realização de tarefas, como no caso dos veículos autônomos e do Chat GPT.
Por outro lado, à vista da ampla disponibilização de aplicativos e sites de inteligência artificial, tem se verificado o uso abusivo das funcionalidades da ferramenta como meio de execução de crimes. É nesse panorama que se destacam os deepfakes, mídias falsas geradas pela inteligência artificial, mediante a manipulação do conteúdo de imagens, sons e vídeos preexistentes, sintetizando uma imagem humana a partir de outra[2].
Embora a falsificação de mídias ou a proliferação de conteúdos falsos online não representem novidades, verifica-se elevado grau de sofisticação e de realismo mediante a inteligência artificial, dificultando a distinção entre um vídeo real e um deepfake[3]. Nesse âmbito, o software do deep learning, a partir de um funcionamento por redes neurais, produz vídeos sintéticos baseados em um vídeo real e troca o rosto de determinada pessoa por outra, resultando em um vídeo ou áudio realista que aparenta alguém ter dito ou realizado algo[4]. Desse modo, a partir de mecanismos específicos, dentre eles o machine learning e deep learning, é possível inserir rostos e vozes de forma automatizada, o que evidencia maior independência dos sistemas autônomos em relação à intervenção humana.
Inegável, portanto, que essa tecnologia é marcada por interações humanas, de forma que, desenvolvida por uma pessoa jurídica, seu funcionamento depende tanto do design e da programação por agentes humanos, como designers e programadores, quanto da relação com um operador[5], razão pela qual poderiam surgir dúvidas a respeito do alcance da responsabilidade penal por determinado evento delitivo, como ocorre na introdução dos veículos autônomos (veículos programados sem condutor humano), por exemplo. Contudo, no âmbito dos deepfakes, depreende-se que a lesão do bem jurídico não decorre da decisão do algoritmo, o qual, operando a partir do aprendizado pela experiência (machine learning), assume um papel de mero instrumento de geração de conteúdo ilegal em atenção ao comando do usuário.
Ora, ainda que possam constar imagens ou vídeos sugeridos pela plataforma para a criação do deepfake, o ente desenvolvedor é incapaz de prever todos os conteúdos que serão processados e gerados pela inteligência artificial, considerando o infinito espaço amostral da Internet of Things, de sorte que a utilização nociva dessa tecnologia se encontra fora do seu controle. Desse modo, sob o princípio da responsabilidade penal subjetiva, entende-se que não há de se aventar uma responsabilidade penal das pessoas provedoras das plataformas online, ou desenvolvedoras da própria inteligência artificial, uma vez que não podem ser punidas por condutas que escapam da sua esfera de expectativas. Logo, no âmbito dos deepfakes, a manipulação, produção ou divulgação do conteúdo de nudez ou ato sexual falso depende da vontade definitiva do agente, enquanto a inteligência artificial é mero instrumento utilizado pelo ofensor.
Delimitada a responsabilidade penal, cumpre assimilar a problemática dos deepfakes enquanto mídias sintetizadas e distribuídas sem consentimento dos indivíduos, causando graves prejuízos à democracia e aos direitos de imagem, autor e privacidade. Mais do que uma arma de desinformação, a criação e a difusão de deepfakes, em especial aqueles sexualmente explícitos (fake nudes), representam forma de ameaça ou de assédio às vítimas, adultas ou crianças, para que a vítima forneça dinheiro ou imagens íntimas, ou ainda como estratégia de abuso psicológico à vítima ou aos seus entes queridos[6]. Assim como nos casos de divulgação de vídeos e fotos reais, há evidente violação aos direitos de intimidade e de dignidade sexual das ofendidas, configurando potencialmente os tipos penais já existentes vinculados à ameaça, sex extorsion e pornografia infantil[7].
Da mesma forma, os deepfakes podem ser instrumentalizados para aplicação de golpes financeiros, a fim de obter vantagens patrimoniais indevidas, configurando, em tese, a prática de estelionato. E, para além disso, já se noticia sua deturpação para a dispersão de fake news em contextos políticos, mediante a disposição de figuras públicas em circunstâncias inexistentes, com potencial de influenciar resultados eleitorais, ultrapassando os limites da liberdade de expressão e representando verdadeira ameaça às instituições democráticas[8].
Nesses termos, em um cenário inaugural de crise de confiabilidade no que vemos e ouvimos, gerando dúvidas sobre o que é real ou artificial, a Câmara dos Deputados aprovou, no final de fevereiro, o substitutivo do Projeto de Lei nº 3.821/2024, com a finalidade de criminalizar a manipulação digital de imagens por inteligência artificial no Código Penal, e também no Código Eleitoral, quando em face de candidaturas em período eleitoral.
Assim, como alteração ao Código Penal, a atual proposta legislativa estabelece como requisitos para imputação a (i) manipulação, produção ou divulgação, (ii) por qualquer meio, de (iii) conteúdo de nudez ou ato sexual falso, (iv) gerado por tecnologia de inteligência artificial ou por outros meios tecnológicos. O substitutivo também estendeu a causa de aumento, antes somente aplicável a mulheres, a outros grupos vulneráveis, como menores de idade, idosos e pessoas com deficiência.
Já como nova redação ao Código Eleitoral, também se propõe tipo penal específico para conteúdos falsos de natureza sexual, bem como igual causa de aumento, a fim de preservar a higidez do processo eleitoral:
Art. 326-C – Criar, divulgar ou compartilhar imagens manipuladas por meio
de inteligência artificial ou tecnologia similar que contenham conteúdo sexual
explícito ou simulado envolvendo candidatos ou candidatas.
Pena: reclusão de 2 (dois) a 6 (seis) anos e multa.
A respeito dos deepfakes em geral, como nos casos de manipulação de imagens de políticos e de vozes fabricadas para divulgação de falsos apoios e de informações falsas no âmbito das eleições, entende-se que estas hipóteses já estariam abarcadas pelo vigente §1º do artigo 323 do Código Eleitoral, embora os elementos do tipo “fatos que sabe inverídicos” e “capazes de exercer influência perante o eleitorado” sejam marcados por um alto grau de imprecisão:
Art. 323. Divulgar, na propaganda eleitoral ou durante período de campanha eleitoral, fatos que sabe inverídicos em relação a partidos ou a candidatos e capazes de exercer influência perante o eleitorado:
Pena – detenção de dois meses a um ano, ou pagamento de 120 a 150 dias-multa.
Mais recentemente, cumpre citar que a proibição da utilização de deepfakes, especificamente no contexto eleitoral, também foi disciplinada pela Resolução nº 23732/2024, do Tribunal Superior Eleitoral, segundo a qual a prática acarretaria, por exemplo, a cassação do registro ou do mandato:
Art. 9º-C É vedada a utilização, na propaganda eleitoral, qualquer que seja sua forma ou modalidade, de conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral.
Por mais que ainda não vigore um marco regulatório de inteligência artificial no Brasil, observa-se que há, tanto no ordenamento jurídico pátrio como mundialmente[9], a construção progressiva de uma base legal para combate à manipulação de imagens falsas geradas por inteligência artificial, sexualmente explícitas ou não.
No entanto, não basta uma produção legiferante desacompanhada de mecanismos efetivos de proteção às vítimas, cuja imagem é divulgada de modo vexatório. Afinal, embora um fake nude publicado seja posteriormente desmascarado, seus danos não se esvaem, uma vez que provoca não só a exposição nas redes sociais, mas potencialmente perda de um emprego, sensação de constrangimento com família e amigos, cancelamento de uma oportunidade empresarial, ou seja, prejuízos similares ao vazamento de um vídeo íntimo real na internet[10]. E na hipótese de remoção do fake nude, nada impediria o armazenamento desse conteúdo ou o posterior compartilhamento entre os usuários, o que aponta uma perda do controle sobre a própria imagem e a maior dificuldade de supressão em outras redes sociais e sites.
Tratando-se de crime cibernético, caracterizado pelas difíceis detecção de autoria e responsabilização penal, é imperioso destacar que o rastreio do usuário criador do deep fake nem sempre é possível, ante a difusão massiva de conteúdo e as atuais técnicas de anonimização. Ou, caso a sua localização seja viável, o criador pode estar situado fora do país, o que dificulta eventual persecução penal. Já em termos probatórios, diante do alto grau de realismo de determinados deepfakes, a realização de perícia dos materiais digitais manipulados exige ferramentas próprias para detecção de produtos de inteligência artificial, demandando, consequentemente, uma formação técnica dos atores do sistema de justiça.
Por mais que não se admita uma responsabilidade penal das empresas de inteligência artificial, é essencial que outros instrumentos normativos estabeleçam aos prestadores de serviço a obrigação de atenuar ao máximo os riscos de uso criminoso dessas ferramentas e de estabelecer medidas de transparência e de controle da geração de mídias, como prevê o AI Act na União Europeia[11], seja provendo ferramentas para detecção e remoção de conteúdos ilegais, seja identificando as mídias produzidas mediante IA com marcas d’água.
Portanto, ainda que seja pertinente uma tutela penal como desestímulo à produção e disseminação de conteúdos ilegais produzidos mediante inteligência artificial, há de se considerar que a tipificação penal dos deepfakes, por si só, não se mostra efetiva à cessação de sua produção e difusão, enquanto não houver um refinamento dos meios de investigação, de detecção do autor e de proteção à vítima pelo Estado, bem como práticas de transparência do segundo setor.
[1] NAGUMOTU, Kavyasri. Deepfakes are taking over social media: Can the law keep up?. IDEA: The Intellectual Property Law Review, v. 62, ed. 2, p. 102-146, 2022.
[2] KIRCHENGAST, Tyrone. 2020. Deepfakes and Image Manipulation: Criminalisation and Control. Information & Communications Technology Law, v. 29, ed. 3, p. 308-323, 2020.
[3] FLETCHER, John. Deepfakes, Artificial Intelligence, and Some Kind of Dystopia: The New Faces of Online Post-Fact Performance. Johns Hopkins University Press, v. 70, n. 4, p. 455-471, 2018.
[4] KING, Ross D.; ROBERTS, Stephen. Artificial intelligence and machine learning in science. In: OECD Science, Technology and
Innovation Outlook 2018: Adapting to Technological and Societal Disruption. OECD Publishing, Paris, 2018; CHESNEY, Robert; CITRON, Danielle K.. Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review, v. 107, p. 1753-1820, 2019.
[5] LIMA, Dafni. AI Agents Be Held Criminally Liable: Artificial Intelligence and the Challenges for Criminal Law. South Carolina Law Review, v. 69, n. 3, 2018.
[6] CHESNEY, CITRON, op. cit.
[7] ARSLAN, Fatih. Deepfake Technology: A Criminological Literature Review. The Sakarya Journal of Law, v. 11, n. 1, p. 701-720, 2023.
[8] NAGUMOTU, op. cit.
[9] Diferentes jurisdições ao redor do mundo passaram a regular a pornografia deepfake. Veja mais em: https://www.jota.info/artigos/deepfakes-uma-tecnologia-de-riscos-e-desafios-legais.
[10] CHESNEY, CITRON, op. cit.
[11] Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho de 13 de junho de 2024. Acesso em: https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=OJ:L_202401689.