O excesso acusatório como barreira à celebração do acordo de não persecução penal
19/01/2026O excesso acusatório como barreira à celebração do acordo de não persecução penal
19/01/2026
Por Manuela Abreu
O Superior Tribunal de Justiça foi, recentemente, chamado a enfrentar uma questão inédita e de altíssimo impacto para o processo penal brasileiro: pode um relatório produzido por inteligência artificial generativa substituir a perícia humana, prevista em lei e, a partir disso, fundamentar uma denúncia criminal?
O pano de fundo é uma partida de futebol entre Mirassol e Palmeiras, que deu origem a uma investigação por injúria racial, após a divulgação de um vídeo em que se discute o conteúdo de uma expressão supostamente proferida pelo vice-prefeito de São José do Rio Preto (PL) contra um segurança do Palmeiras[1]. O ponto central da apuração passou a ser a identificação do que efetivamente foi dito: se a expressão “macaco velho”, de inequívoco teor racista, ou “paca véa”, foneticamente semelhante, porém desprovida de carga discriminatória.
No inquérito policial instaurado para apurar os fatos, a autoridade policial encaminhou o vídeo do ocorrido à perícia oficial, com o objetivo de apurar qual teria sido a expressão efetivamente proferida pelo investigado. Conforme consta dos autos, o Instituto de Perícias Oficial elaborou dois laudos técnicos, nos quais concluiu que a fala registrada no material audiovisual correspondia à expressão “paca véa”.
Contudo, o Centro de Inteligência Policial da Polícia Civil de São Paulo produziu, posteriormente, um denominado “Relatório Técnico”, elaborado com o auxílio de ferramentas de inteligência artificial generativa (Gemini e Perplexity.ai), no qual se sustentou que a expressão utilizada teria sido, na realidade, “macaco velho”. Foi esse relatório (e não os laudos periciais oficiais) que serviu de fundamento para o indiciamento do investigado, com posterior oferecimento de denúncia pelo Ministério Público.
O caso rapidamente ultrapassou o campo esportivo e ganhou relevância jurídica e institucional, não apenas porque atos racistas configuram crimes graves, previstos na Lei nº 7.716/1989, incompatíveis com a dignidade da pessoa humana e com os valores democráticos, mas porque a forma de apuração desse tipo de delito exige especial cuidado com a legalidade e a confiabilidade da prova penal. Combater o racismo é imperativo constitucional; fazê-lo à margem do devido processo legal não é.
A investigação criminal deve observar, desde o primeiro momento, os limites impostos pelo ordenamento jurídico, especialmente no que se refere à produção da prova. A responsabilização penal legítima pressupõe a observância da cadeia de custódia e das garantias processuais previstas nos artigos 158-A a 158-F do Código de Processo Penal. Não se trata de proteger discursos discriminatórios, mas de assegurar que a resposta penal do Estado seja construída sobre bases probatórias lícitas, técnicas e verificáveis.
No caso concreto, a autoridade policial, no exercício de seu dever funcional, determinou a apuração dos fatos e o encaminhamento do material audiovisual à perícia oficial, com o objetivo de identificar, por meio de análise técnica adequada, o conteúdo efetivamente proferido. O que se seguiu, contudo, deslocou o debate para um terreno novo e sensível: o uso de modelos de inteligência artificial generativa[2] para substituir a perícia humana na produção de prova penal.
A controvérsia chegou à Corte Especial por meio do Habeas Corpus nº 1.059.475/SP, no qual se discute a validade de um “Relatório Técnico” elaborado por investigador de polícia com o uso das ferramentas Gemini e Perplexity, sem a participação de perito oficial[3], sem observância da cadeia de custódia, sem preservação de vestígios digitais, sem metadados, e sem qualquer garantia mínima de integridade, auditabilidade ou reprodutibilidade.
No caso, a denúncia foi oferecida com fundamento no relatório produzido por inteligência artificial, tratado, de modo implícito, como se fosse um laudo pericial. Diante desse cenário, a defesa impetrou HC pugnando liminarmente a suspensão da ação penal e, no mérito, a exclusão do relatório produzido por IA Generativa, anulando-se a denúncia e seu recebimento, para que outra seja, eventualmente, oferecida.
O HC em liminar foi denegado, porém em Agravo Regimental o Ministro Relator Reynaldo Soares da Fonseca, em liminar, proferida em 10 de dezembro de 2025, determinou a suspensão da ação penal até o julgamento do habeas corpus. Na decisão, o Ministro menciona que ao lançar novo olhar sobre a hipótese dos autos, percebeu que não estava diante de mais um debate ordinário sobre cadeia de custódia ou valoração probatória, mas sim diante de um marco inaugural, pois pela primeira vez o STJ precisará dizer, com todas as letras, se a inteligência artificial pode atuar como instrumento auxiliar da investigação ou se está sendo indevidamente utilizada como sucedâneo da atividade pericial humana:
“Ao lançar um novo olhar sobre a hipótese dos autos, constato que, conforme destacado pelos agravantes, a análise a respeito da validade de laudos produzidos por inteligência artificial generativa ainda não foi submetida ao crivo desta Corte Superior. Trata-se de tema de extrema relevância que não se confunde com a mera quebra da cadeia de custódia da prova, motivo pelo qual deve ser reconsiderada a decisão agravada para melhor análise da matéria”.
Portanto, o que se discute não é apenas o destino de um processo penal específico, mas sim a definição dos limites jurídicos, epistêmicos e constitucionais do uso da inteligência artificial no sistema de justiça criminal.
Com efeito, a literatura especializada tem sido enfática ao demonstrar que modelos de inteligência artificial generativa não produzem conhecimento técnico sobre o objeto da prova. Eles não analisam sons, imagens ou vestígios; não realizam medições nem observações empíricas. Operam, em essência, por meio da geração de texto estatisticamente plausível, a partir de padrões linguísticos e associações probabilísticas extraídas de grandes bases de dados.
Em contextos probatórios ambíguos, como ocorre frequentemente na análise de registros audiovisuais, esse funcionamento revela seu maior risco: diante de incertezas fonéticas ou visuais, o modelo tende a preencher lacunas com a hipótese mais frequente ou semanticamente dominante, e não necessariamente com aquela que corresponde ao que efetivamente ocorreu no mundo dos fatos. O resultado pode soar técnico e convincente, mas carece de verificabilidade, controle metodológico e possibilidade de refutação, elementos indispensáveis à prova penal.
Esse déficit epistêmico tem consequências diretas para o devido processo legal, afinal um artefato produzido por IA generativa não pode ser submetido a contraditório efetivo: não se conhece o método decisório, não se reproduz o procedimento, não se identifica a margem de erro, nem se atribui responsabilidade técnica. Trata-se, portanto, de um produto incompatível com a lógica da prova pericial, que exige transparência, auditabilidade e possibilidade real de confronto pelas partes.
Ao analisar este exato caso, Alexandre Morais da Rosa, Juliano Oliveira Leonel e Yuri Félix afirmaram, em artigo publicado no ConJur[4], que modelos de linguagem não possuem confiabilidade, previsibilidade ou capacidade contextual para substituir a perícia humana, sendo, o seu uso direto na produção de prova penal, epistemologicamente inválido e juridicamente inaceitável.
Não se trata de resistência à tecnologia, mas de compreensão institucional dos seus limites. O próprio Poder Judiciário brasileiro já reconheceu, em múltiplos precedentes (HC 1.023.732/BA e AgRg no HC 1.007.552/SP), que ferramentas de IA generativa são suscetíveis a erros graves, alucinações e referências inexistentes, razão pela qual seu uso inadequado tem sido rechaçado até mesmo na redação de peças processuais. Ora, se a Corte já demonstra cautela quando a IA é usada para redigir petições, com muito mais razão deve rejeitar sua utilização para produzir prova penal, capaz de sustentar uma acusação criminal e conduzir à privação da liberdade.
Além do mais, importante ressaltar a Resolução CNJ nº 615/2025. O caso em análise não se desenvolve em um vácuo normativo, antes mesmo da elaboração do relatório impugnado, o Conselho Nacional de Justiça editou a Resolução nº 615/2025, estabelecendo parâmetros claros para o uso de inteligência artificial no sistema de justiça.
Embora dirigida formalmente ao Poder Judiciário, a resolução expressa princípios estruturantes que irradiam efeitos sobre todo o sistema de justiça, especialmente no que diz respeito às atividades que não podem ser delegadas à IA.
O anexo da resolução classifica como atividades de risco e, portanto, vedadas, a aferição e valoração de meios de prova (AR2)[5] e a interpretação de fatos como crimes (AR3)[6]. O artigo 10, inciso I, proíbe expressamente o uso de sistemas que impossibilitem revisão humana efetiva ou que gerem dependência de resultados não supervisionáveis:
“Art. 10. São vedados ao Poder Judiciário, por acarretarem risco excessivo à segurança da informação, aos direitos fundamentais dos cidadãos ou à independência dos magistrados, o desenvolvimento e a utilização de soluções: I – que não possibilitem a revisão humana dos resultados propostos ao longo de seu ciclo de treinamento, desenvolvimento e uso, ou que gerem dependência absoluta do usuário em relação ao resultado proposto, sem possibilidade de alteração ou revisão”.
Porém, no caso apreciado pelo STJ, a autoridade policial terceirizou a função pericial a sistemas generativos opacos, sem supervisão técnica qualificada, em violação direta às salvaguardas normativas já vigentes. Nesse sentido, o Tribunal de Justiça de São Paulo, em seu Informativo Especial CADIP sobre Inteligência Artificial[7], alerta para os riscos do uso irresponsável dessas ferramentas e enfatiza a necessidade de segurança, transparência e auditabilidade, reconhecendo o potencial de dano quando aplicadas sem controle metodológico.
Além do mais, importante destacar que há um equívoco conceitual grave que permeia o assunto, a ideia de que o relatório produzido por IA Generativa poderia permanecer nos autos como um mero “subsídio investigativo”, deixando-se a discussão sobre sua licitude para o momento da valoração da prova, ao final da instrução.
Essa lógica é frontalmente incompatível com o processo penal constitucional brasileiro. Vale lembrar que o artigo 157 do Código de Processo Penal não admite ambiguidades: provas ilícitas são inadmissíveis e devem ser desentranhadas, assim como todas aquelas que delas derivarem. O controle da ilicitude não é postergável, nem relativo; é prévio e estrutural. No processo penal, não existe a figura da “prova ilícita provisória”, tolerada sob o argumento de que “tudo será melhor examinado na sentença”.
Manter nos autos um documento produzido à margem do regime legal da prova pericial, especialmente em matéria sensível como fonética forense e imputação de crime racial, equivale a permitir que a ilicitude contamine todo o curso da persecução penal. A prova digital, como já reconheceu reiteradamente o STJ, não é neutra, sua simples presença influencia a formação da convicção judicial, orienta perguntas, delimita estratégias defensivas e desequilibra a paridade de armas.
A jurisprudência das 5ª e 6ª Turmas do STJ é firme e reiterada ao afirmar que cabe ao Estado-acusação comprovar a origem, a integridade e a confiabilidade das fontes de prova que apresenta. Não se presume autenticidade quando os procedimentos da cadeia de custódia são ignorados, como bem assentado no AgRg no RHC 143.169/RJ
“É incabível, aqui, simplesmente presumir a veracidade das alegações estatais, quando descumpridos os procedimentos referentes à cadeia de custódia. No processo penal, a atividade do Estado é o objeto do controle de legalidade, e não o parâmetro do controle; isto é, cabe ao Judiciário controlar a atuação do Estado-acusação a partir do direito, e não a partir de uma autoproclamada confiança que o Estado-acusação deposita em si mesmo”
O problema se agrava exponencialmente quando se compreende o que são, de fato, os modelos de inteligência artificial generativa utilizados no caso. Ferramentas como Gemini e Perplexity não analisam sons, não examinam imagens, não produzem espectrogramas, não realizam medições técnicas. Elas operam por meio da geração estatística de texto plausível, com base em padrões linguísticos extraídos de grandes volumes de dados, sem observação direta do objeto, sem controle metodológico e sem transparência sobre os critérios decisórios, de modo que não pode ser utilizado como prova dentro do processo penal.
Não por acaso, o ministro Reynaldo Soares da Fonseca reconheceu, ao deferir a liminar, que a validade de laudos produzidos por inteligência artificial generativa ainda não foi submetida ao crivo desta Corte Superior e que o tema possui relevância extraordinária, distinta das discussões ordinárias sobre cadeia de custódia.
Permitir que a ação penal prosseguisse sob o argumento de que “tudo será debatido na instrução” significaria naturalizar a entrada da prova ilícita pela porta dos fundos, legitimando a substituição da ciência pericial por narrativas algorítmicas opacas e incontroláveis. Isso representa um risco para um processo penal acusatório e democrático, afinal hoje, um relatório de IA substitui a perícia; amanhã, poderá substituir a análise do dolo, a avaliação da credibilidade da vítima ou a própria motivação da sentença.
Como sabemos, o processo penal não pode se converter em um experimento tecnológico desprovido de garantias, a inteligência artificial pode, e talvez deva, ser instrumento auxiliar da justiça, mas jamais seu substituto epistêmico. Por isso, a resposta à pergunta que inaugura este debate é inequívoca: não, a inteligência artificial generativa não pode substituir a perícia criminal oficial.
Sendo assim, ao enfrentar este caso, o STJ não decidirá apenas sobre um caso específico, mas estará traçando uma linha de contenção civilizatória, afirmando que, no Estado de Direito, ninguém pode ser acusado, muito menos condenado, com base em provas produzidas por uma máquina que não pode ser auditada, questionada ou responsabilizada.
REFERÊNCIAS:
[1] https://www.youtube.com/watch?v=eVFZS8TGekk
[2] IA generativa é a categoria de sistemas de inteligência artificial projetados para gerar novos conteúdos com base em correlações estatísticas extraídas de dados previamente utilizados em seu treinamento, sem observação direta do objeto analisado ou controle metodológico típico das técnicas periciais.
[3] O perito oficial no processo penal brasileiro é um servidor público concursado, integrante dos órgãos oficiais de perícia criminal (Polícia Científica, Instituto Médico Legal, etc.), responsável por realizar exames técnicos e científicos para constatar a materialidade e autoria de crimes.
[4] https://www.conjur.com.br/2025-ago-08/pode-a-iagen-analisar-prova-penal-limites-em-um-caso-de-racismo/ . acesso em 11.02.2026.
[5] AR2 – aferição da adequação dos meios de prova e a sua valoração nos processos de jurisdição contenciosa, sejam documentais, testemunhais, periciais ou de outras naturezas, especialmente quando tais avaliações possam influenciar diretamente a decisão judicial.
[6] AR3 – averiguação, valoração, tipificação e a interpretação de fatos como sendo crimes, contravenções penais ou atos infracionais, ressalvadas as soluções voltadas à mera rotina da execução penal e de medidas socioeducativas.
[7] chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://www.tjsp.jus.br/Download/SecaoDireitoPublico/Pdf/Cadip/INF-ESPECIAL-CADIP-IA-2ed-2025-03-26.pdf