Imagine que você está sendo julgado por um crime que supostamente cometeu. O juiz analisa seu caso e, para decidir se você deve aguardar o julgamento em liberdade ou na prisão, ele consulta uma ferramenta de inteligência artificial que prevê a probabilidade de você reincidir, ou seja, de cometer novos crimes se for solto. Parece uma ideia interessante usar a tecnologia para auxiliar uma decisão tão importante, certo?
Mas e se esse algoritmo, sem que ninguém saiba, estiver enviesado contra os réus, fazendo com que muito mais pessoas fiquem presas desnecessariamente do que o contrário? E se ele discriminar certos grupos, como negros e jovens? Pois é exatamente isso que pesquisadores descobriram ao analisar o COMPAS, um software usado em vários estados americanos para avaliar o risco de reincidência criminal. É o que relata o artigo científico Code is law: how COMPAS affects the way the judiciary handles the risk of recidivism, publicado no periódico científico Artificial Intelligence and Law.
Como o COMPAS faz suas previsões?
O COMPAS gera uma pontuação de 1 a 10, indicando a probabilidade de uma pessoa cometer novos crimes. Quanto maior a nota, maior o risco. Os juízes então usam essa previsão para decidir sobre a liberdade provisória ou prisão preventiva do réu. Parece simples, mas há vários problemas escondidos aí. Primeiro, o algoritmo do COMPAS não é transparente, é uma “caixa preta”. Não se sabe exatamente como ele calcula esse risco e que fatores considera.
Segundo, ao analisar mais de 5 mil casos reais, os pesquisadores perceberam que o COMPAS erra muito mais soltando pessoas que de fato reincidem do que prendendo gente que não voltaria a cometer crimes. Ou seja, ele privilegia a “segurança” e os potenciais interesses das vítimas, em detrimento da liberdade e dos direitos dos réus. Mas quem decidiu que esse era o equilíbrio certo? Não foi o legislador, em um debate democrático, nem os juízes. Foi o próprio algoritmo, ou melhor, a empresa que o criou, sem nenhuma transparência ou legitimidade para tomar uma decisão normativa tão importante.
Além disso, o viés do COMPAS é ainda mais forte contra réus negros e jovens. Eles têm uma chance muito maior de serem considerados de alto risco e ficarem presos preventivamente, mesmo quando não voltam a cometer crimes depois. Enquanto isso, réus brancos e mais velhos são mais beneficiados por erros que os deixam livres, apesar de reincidirem. Esses vieses raciais e etários são profundamente problemáticos e injustos.
Mas os pesquisadores foram além e conseguiram criar uma versão corrigida do algoritmo, que remove esses vieses e melhora sua acurácia geral. Ou seja, é possível usar a inteligência artificial para auxiliar os juízes sem cometer tantas injustiças. Mas isso exige transparência sobre as decisões normativas embutidas no código e um debate público sobre que equilíbrio queremos privilegiar entre os direitos dos réus e a segurança da sociedade. Não podemos deixar que esses algoritmos tomem decisões tão sensíveis nos bastidores, sem nenhum escrutínio ou legitimidade democrática.
Conclusão
Esse caso do COMPAS levanta questões cruciais sobre o uso responsável e ético da inteligência artificial no sistema de justiça criminal. Não se trata de ser contra ou a favor da tecnologia, mas sim de garantir que ela seja transparente, justa e esteja alinhada com os valores do estado de direito e da democracia. Os algoritmos podem e devem ser usados para auxiliar os juízes, mas eles precisam ser projetados com cuidado, auditados publicamente e ter seus vieses e implicações normativas amplamente debatidos e decididos pela sociedade, não por empresas de tecnologia. Só assim poderemos aproveitar os benefícios da inteligência artificial sem comprometer princípios tão caros quanto a presunção da inocência, o direito à liberdade e a igualdade perante a lei. Quando se trata de decidir o destino de pessoas acusadas de crimes, o código não pode se tornar lei sem passar pelo crivo da democracia.
Artigo Citado
Título: Code is law: how COMPAS affects the way the judiciary handles the risk of recidivism
Autores: Marcel Schubert
Meio de publicação: Artificial Intelligence and Law
Ano de publicação: 09 February 2024