A polícia dos EUA está treinando IAs que preveem crimes em dados falsificados

Wikimedia Commons
Compartilhe esta história!
Todo o sistema de justiça criminal na América está sendo corrompido pelo uso indevido da tecnologia de IA. A polícia não é ignorante quando busca os resultados que deseja, em vez dos fatos objetivos de uma questão. Isso é comparável à comunidade científica do falso aquecimento global. ⁃ Editor TN

Em maio de 2010, motivado por uma série de escândalos de alto nível, o prefeito de Nova Orleans pediu ao Departamento de Justiça dos EUA que investigasse o departamento de polícia da cidade (NOPD). Dez meses depois, o DOJ ofereceu sua análise de bolhas: durante o período de sua análise a partir da 2005, o NOPD violou repetidamente as leis constitucionais e federais.

Usava força excessiva e desproporcionalmente contra residentes negros; minorias raciais direcionadas, falantes de inglês não nativos e indivíduos LGBTQ; e não conseguiu combater a violência contra as mulheres. Os problemas, dito o procurador-geral adjunto Thomas Perez na época, era "sério, abrangente, sistêmico e profundamente enraizado na cultura do departamento".

Apesar das descobertas perturbadoras, a cidade entrou em um parceria secreta apenas um ano depois, com a empresa de mineração de dados Palantir, para implantar um sistema de policiamento preditivo. O sistema usou dados históricos, incluindo registros de prisões e relatórios policiais eletrônicos, para prever crimes e ajudar a moldar estratégias de segurança pública, de acordo com companhia e Governo da cidade materiais. Em nenhum momento esses materiais sugeriram qualquer esforço para limpar ou alterar os dados para resolver as violações reveladas pelo DOJ. Com toda a probabilidade, os dados corrompidos foram alimentados diretamente no sistema, reforçando as práticas discriminatórias do departamento.

Algoritmos de policiamento preditivo estão se tornando uma prática comum em cidades dos EUA. Embora a falta de transparência torne difícil definir estatísticas exatas, a PredPol, um fornecedor líder, ostenta que ajuda a "proteger" o 1 nos americanos do 33. O software é frequentemente apontado como uma maneira de ajudar os departamentos de polícia pouco desenvolvidos a tomar decisões mais eficientes e baseadas em dados.

Mas uma nova pesquisa sugere que não é apenas Nova Orleans que treinou esses sistemas com “dados sujos”. papel lançado hoje, a ser publicado na NYU Law Review, pesquisadores do AI Now Institute, um centro de pesquisa que estuda o impacto social da inteligência artificial, descobriram que o problema é generalizado entre as jurisdições que estudou. Isso tem implicações significativas para a eficácia do policiamento preditivo e outros algoritmos usados ​​no sistema de justiça criminal.

"Seu sistema é tão bom quanto os dados que você usa para treiná-lo", diz Kate Crawford, cofundadora e co-diretora da AI Now e autora do estudo. “Se os dados em si estiverem incorretos, fará com que mais recursos policiais se concentrem nas mesmas comunidades com excesso de vigilância e, muitas vezes, com alvos raciais. Então, o que você fez é, na verdade, um tipo de lavagem de tecnologia em que as pessoas que usam esses sistemas assumem que são de alguma forma mais neutras ou objetivas, mas na verdade elas arraigaram uma forma de inconstitucionalidade ou ilegalidade. ”

Os pesquisadores examinaram as jurisdições da 13, concentrando-se naquelas que usaram sistemas preditivos de policiamento e foram sujeitas a uma investigação encomendada pelo governo. O último requisito garantiu que as práticas de policiamento tivessem documentação legalmente verificável. Em nove das jurisdições, eles encontraram fortes evidências de que os sistemas haviam sido treinados em "dados sujos".

O problema não eram apenas os dados distorcidos pelo direcionamento desproporcional das minorias, como em Nova Orleans. Em alguns casos, os departamentos de polícia tinham uma cultura de manipular ou falsificar propositalmente dados sob intensa pressão política para reduzir as taxas oficiais de criminalidade. Em Nova York, por exemplo, para esvaziar artificialmente as estatísticas de crimes, os comandantes das delegacias pediam regularmente às vítimas nas cenas de crime que não apresentassem queixas. Alguns policiais até plantaram drogas em pessoas inocentes para cumprir suas cotas de detenções. Nos sistemas atuais de policiamento preditivo, que dependem do aprendizado de máquina para prever crimes, esses pontos de dados corrompidos se tornam preditores legítimos.

Leia a história completa aqui…

Subscrever
Receber por
convidado

2 Comentários
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários
Tom S

GIGO! Lixo em; Lixo para fora!