Algoritmo de reconhecimento facial causado detenção injusta

Compartilhe esta história!
Esta história revela por que a Amazon, IBM e Microsoft abandonaram o negócio de reconhecimento facial, a fim de desviar certas críticas sobre o viés racial. Nesse caso, o algoritmo acertou o homem errado por um crime que não cometeu. ⁃ Editor TN

Em uma tarde de quinta-feira em janeiro, Robert Julian-Borchak Williams estava em seu escritório em uma empresa de suprimentos automotivos quando recebeu uma ligação do Departamento de Polícia de Detroit pedindo que ele viesse à delegacia para ser preso. Ele pensou a princípio que era uma brincadeira.

Uma hora depois, quando ele entrou na garagem em uma subdivisão tranquila em Farmington Hills, Michigan, um carro da polícia parou atrás, bloqueando-o. Dois policiais saíram e algemaram o Sr. Williams no gramado da frente, em frente ao carro. esposa e duas filhas jovens, que estavam perturbadas. A polícia não quis dizer por que ele estava sendo preso, apenas mostrando a ele um pedaço de papel com sua foto e as palavras "mandado de crime" e "furto".

Sua esposa, Melissa, perguntou para onde ele estava sendo levado. “Pesquise no Google”, ela lembra um policial respondendo.

A polícia levou o Sr. Williams a um centro de detenção. Ele teve sua foto, impressões digitais e DNA, e foi mantido durante a noite. Por volta do meio-dia da sexta-feira, dois detetives o levaram a uma sala de interrogatório e colocaram três pedaços de papel sobre a mesa, com a face para baixo.

"Quando foi a última vez que você foi a uma loja Shinola?" um dos detetives perguntou, na lembrança do Sr. Williams. Shinola é uma boutique de luxo que vende relógios, bicicletas e artigos de couro no moderno bairro de Detroit em Midtown. Williams disse que ele e sua esposa fizeram o check-out quando a loja abriu em 2014.

O detetive virou o primeiro pedaço de papel. Era uma imagem parada de um vídeo de vigilância, mostrando um homem corpulento, vestido de preto e com um gorro vermelho do St. Louis Cardinals, em pé na frente de um relógio. Cinco relógios, no valor de US $ 3,800, foram roubados em lojas.

"É você?" perguntou o detetive.

O segundo pedaço de papel era um close-up. A foto estava embaçada, mas claramente não era o Sr. Williams. Ele pegou a imagem e a segurou perto do rosto.

"Não, não sou eu", disse Williams. "Você acha que todos os homens negros são parecidos?"

Williams sabia que não havia cometido o crime em questão. O que ele não poderia saber, sentado na sala de interrogatório, é que seu caso pode ser o primeiro relato conhecido de um americano sendo preso indevidamente com base em uma partida defeituosa de um algoritmo de reconhecimento facial, de acordo com especialistas em tecnologia e lei. .

Um sistema defeituoso

Um debate nacional está sendo travado sobre racismo na aplicação da lei. Em todo o país, milhões estão protestando não apenas contra as ações de policiais individuais, mas também com preconceitos nos sistemas usados ​​para vigiar comunidades e identificar pessoas para serem processadas.

Os sistemas de reconhecimento facial foram usados ​​pelas forças policiais para mais de duas décadas. Estudos recentes de MIT e o Instituto Nacional de Padrões e Tecnologia, ou NIST, descobriram que, embora a tecnologia funcione relativamente bem em homens brancos, os resultados são menos precisos para outras informações demográficas, em parte devido à falta de diversidade nas imagens usadas para desenvolver os bancos de dados subjacentes.

No ano passado, durante uma audiência pública sobre o uso de reconhecimento facial em Detroit, um chefe de polícia assistente estava entre os que levantaram preocupações. "A questão dos falsos positivos - isso é absolutamente factual e está bem documentado", disse James White. "Então isso me preocupa como homem afro-americano."

Este mês, AmazonMicrosoft e às IBM anunciou que iria parar ou pausa suas ofertas de reconhecimento facial para aplicação da lei. Os gestos foram amplamente simbólicos, uma vez que as empresas não são grandes players do setor. O uso dos departamentos de polícia tecnológica é fornecido por empresas que não são nomes de família, como Vigilant Solutions, Cognitec, NEC, Rank One Computing e Clearview AI.

Leia a história completa aqui…

Subscrever
Receber por
convidado

2 Comentários
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários
DawnieR

Esqueça os negros ... Eu diria que isso NUNCA funcionaria para os asiáticos também !!

dP_Ted

Estava prestes a acontecer. O que me surpreende é que a pessoa que o computador escolhe às vezes parece um pouco diferente da pessoa real, mas é o que o computador diz que funciona. smh