A maré crescente de algoritmos que correm o mundo

Controle da menteYoutube
Compartilhe esta história!

Os tecnocratas já criaram algoritmos suficientes para governar o mundo, mas ele mal arranhou a superfície. No final, a ditadura científica controlará praticamente tudo.  TN Editor

Quando você procura on-line um novo par de sapatos, escolhe um filme para transmitir na Netflix ou solicita um empréstimo de carro, um algoritmo provavelmente tem a palavra a dizer sobre o resultado.

As fórmulas matemáticas complexas estão desempenhando um papel crescente em todas as esferas da vida: desde detectar câncer de pele a sugerir novos amigos no Facebook, decidir quem consegue um emprego, como os recursos da polícia são empregados, quem consegue seguro a que custo, ou quem está “ lista no fly ”.

Algoritmos estão sendo usados ​​- experimentalmente - para escrever artigos de notícias a partir de dados brutos, enquanto a campanha presidencial de Donald Trump foi auxiliada por profissionais de marketing comportamentais que usaram um algoritmo para localizar as maiores concentrações de “eleitores persuadíveis”.

Mas, embora essas ferramentas automatizadas possam injetar uma medida de objetividade em decisões subjetivas anteriores, aumentam os temores sobre a falta de transparência que os algoritmos podem acarretar, com o aumento da pressão para aplicar padrões de ética ou "responsabilidade".

A cientista de dados Cathy O'Neil adverte sobre fórmulas de "confiar cegamente" para determinar um resultado justo.

“Algoritmos não são inerentemente justos, porque a pessoa que constrói o modelo define o sucesso”, disse ela.

Desvantagens amplificadoras

O'Neil argumenta que, embora alguns algoritmos possam ser úteis, outros podem ser nefastos. Em seu livro de 2016, "Weapons of Math Destruction", ela cita alguns exemplos preocupantes nos Estados Unidos:

  • Escolas públicas em Washington DC em 2010 demitiram mais de 200 professores - incluindo vários instrutores respeitados - com base em pontuações em uma fórmula algorítmica que avaliou o desempenho.
  • Um homem com diagnóstico de transtorno bipolar foi rejeitado para trabalhar em sete grandes varejistas depois que um teste de "personalidade" de terceiros o considerou de alto risco com base em sua classificação algorítmica.
  • Muitas jurisdições estão usando "policiamento preditivo" para transferir recursos para prováveis ​​"pontos críticos". O'Neill diz que dependendo de como os dados são inseridos no sistema, isso pode levar à descoberta de mais crimes menores e a um “ciclo de feedback” que estigmatiza as comunidades pobres.
  • Alguns tribunais contam com fórmulas classificadas por computador para determinar sentenças de prisão e liberdade condicional, o que pode discriminar as minorias levando em consideração fatores de “risco”, como sua vizinhança e ligações de amigos ou familiares com o crime.
  • No mundo das finanças, os corretores “extraem” dados on-line e de outras fontes de novas maneiras para tomar decisões sobre crédito ou seguro. Isso muitas vezes amplia o preconceito contra os desfavorecidos, argumenta O'Neil.

Suas descobertas foram ecoadas em um relatório da Casa Branca no ano passado alertando que os sistemas algorítmicos “não são infalíveis - eles dependem de entradas imperfeitas, lógica, probabilidade e pessoas que os projetam”.

O relatório observou que os sistemas de dados podem idealmente ajudar a eliminar o preconceito humano, mas alertou contra algoritmos "sistematicamente prejudicados por certos grupos".

Leia a história completa aqui…

Subscrever
Receber por
convidado

0 Comentários
Comentários em linha
Ver todos os comentários