Inteligência Artificial na Justiça: Quando o Computador Decide Quem Vai para a Cadeia

Resumo

- O Uso de IA na decisão judicial- Problemas com o COMPAS- Impacto dos vieses- Correção e melhoria.

Imagine que você está sendo julgado por um crime que supostamente cometeu. O juiz analisa seu caso e, para decidir se você deve aguardar o julgamento em liberdade ou na prisão, ele consulta uma ferramenta de inteligência artificial que prevê a probabilidade de você reincidir, ou seja, de cometer novos crimes se for solto. Parece uma ideia interessante usar a tecnologia para auxiliar uma decisão tão importante, certo? 

Mas e se esse algoritmo, sem que ninguém saiba, estiver enviesado contra os réus, fazendo com que muito mais pessoas fiquem presas desnecessariamente do que o contrário? E se ele discriminar certos grupos, como negros e jovens? Pois é exatamente isso que pesquisadores descobriram ao analisar o COMPAS, um software usado em vários estados americanos para avaliar o risco de reincidência criminal. É o que relata o artigo científico Code is law: how COMPAS affects the way the judiciary handles the risk of recidivism, publicado no periódico científico Artificial Intelligence and Law. 

Como o COMPAS faz suas previsões? 

O COMPAS gera uma pontuação de 1 a 10, indicando a probabilidade de uma pessoa cometer novos crimes. Quanto maior a nota, maior o risco. Os juízes então usam essa previsão para decidir sobre a liberdade provisória ou prisão preventiva do réu. Parece simples, mas há vários problemas escondidos aí. Primeiro, o algoritmo do COMPAS não é transparente, é uma “caixa preta”. Não se sabe exatamente como ele calcula esse risco e que fatores considera. 

Segundo, ao analisar mais de 5 mil casos reais, os pesquisadores perceberam que o COMPAS erra muito mais soltando pessoas que de fato reincidem do que prendendo gente que não voltaria a cometer crimes. Ou seja, ele privilegia a “segurança” e os potenciais interesses das vítimas, em detrimento da liberdade e dos direitos dos réus. Mas quem decidiu que esse era o equilíbrio certo? Não foi o legislador, em um debate democrático, nem os juízes. Foi o próprio algoritmo, ou melhor, a empresa que o criou, sem nenhuma transparência ou legitimidade para tomar uma decisão normativa tão importante.

Além disso, o viés do COMPAS é ainda mais forte contra réus negros e jovens. Eles têm uma chance muito maior de serem considerados de alto risco e ficarem presos preventivamente, mesmo quando não voltam a cometer crimes depois. Enquanto isso, réus brancos e mais velhos são mais beneficiados por erros que os deixam livres, apesar de reincidirem. Esses vieses raciais e etários são profundamente problemáticos e injustos.

Mas os pesquisadores foram além e conseguiram criar uma versão corrigida do algoritmo, que remove esses vieses e melhora sua acurácia geral. Ou seja, é possível usar a inteligência artificial para auxiliar os juízes sem cometer tantas injustiças. Mas isso exige transparência sobre as decisões normativas embutidas no código e um debate público sobre que equilíbrio queremos privilegiar entre os direitos dos réus e a segurança da sociedade. Não podemos deixar que esses algoritmos tomem decisões tão sensíveis nos bastidores, sem nenhum escrutínio ou legitimidade democrática.

Conclusão 

Esse caso do COMPAS levanta questões cruciais sobre o uso responsável e ético da inteligência artificial no sistema de justiça criminal. Não se trata de ser contra ou a favor da tecnologia, mas sim de garantir que ela seja transparente, justa e esteja alinhada com os valores do estado de direito e da democracia. Os algoritmos podem e devem ser usados para auxiliar os juízes, mas eles precisam ser projetados com cuidado, auditados publicamente e ter seus vieses e implicações normativas amplamente debatidos e decididos pela sociedade, não por empresas de tecnologia. Só assim poderemos aproveitar os benefícios da inteligência artificial sem comprometer princípios tão caros quanto a presunção da inocência, o direito à liberdade e a igualdade perante a lei. Quando se trata de decidir o destino de pessoas acusadas de crimes, o código não pode se tornar lei sem passar pelo crivo da democracia.

Artigo Citado

Título: Code is law: how COMPAS affects the way the judiciary handles the risk of recidivism

Autores: Marcel Schubert

Meio de publicação: Artificial Intelligence and Law

Ano de publicação: 09 February 2024

https://link.springer.com/article/10.1007/s10506-024-09389-8
Doutor em Informática pelo Institut national des sciences appliquées de Rennes (França). Professor Associado na Universidade Federal de Alagoas e Head of Innovation na Code55. Consultor internacional em IA e Inovação Tecnológica (Fapesp, MCTI, EUA, União Européia). Autor da primeira pesquisa científica que prevê resultados de decisões judiciais de tribunais do Brasil: Predicting Brazilian Court Decisions. Foi pesquisador do Institut National de Recherche en Informatique et en Automatique (França) e participou de projetos internacionais financiados pela Microsoft Azure Research, União Européia e América Latina. Foi Coordenador de Pesquisa da Pró-Reitoria de Pesquisa e Graduação da UFAL, coordenando os programas Ciência sem Fronteiras, PIBIC e Jovens Talentos.

Sumário

Gostou? Compartilhe!

Confira nossos cursos!