Professores alertam sobre perigos sobre a tecnologia que toma decisões dos seres humanos

Compartilhe esta história!

Não é preciso ser um professor para compreender intuitivamente que os programas criados por humanos não podem superar os preconceitos de seus criadores. Os tecnocratas perdem esse ponto, acreditando que qualquer decisão automatizada é mais eficiente e consistente do que um julgamento humano.  TN Editor

No futuro, seu futuro poderá depender de uma série de zeros e uns cuidadosamente calculados.

À medida que a tecnologia melhora, os humanos se envolvem menos nas decisões que afetam nossas vidas - e isso não é exatamente uma coisa boa.

À medida que a inteligência artificial ganha terreno, os professores da Universidade de Massachusetts-Amherst desenvolveram um programa para testar software quanto a preconceitos e discriminação.

Sim, discriminação racial. Mas mais que isso. Decisões de saúde. Decisões de empréstimo. Caramba, mesmo como a Amazon decide as taxas de envio de pacotes.

"Hoje, o software determina quem recebe um empréstimo ou é contratado, calcula as pontuações da avaliação de risco que ajudam a decidir quem vai para a cadeia e quem é libertado, além de ajudar no diagnóstico e tratamento de pacientes médicos" segundo para os desenvolvedores do programa.

Com isso, é fundamental que "o software não discrimine grupos ou indivíduos", argumentam os pesquisadores, acrescentando que seu campo de estudo é "subvalorizado" e "surgiram inúmeros exemplos de software injusto".

Em um acadêmico artigo publicado para uma próxima engenharia de software conferência, os cientistas da computação Alexandra Meliou e Yuriy Brun, que criaram o programa junto com a aluna de doutorado Sainyam Galhotra, detalham a "crescente preocupação" da discriminação de software.

No artigo, os dois professores preveem a influência crescente e crescente do software na vida humana no futuro e argumentam que o software atualmente desempenha um papel desproporcional na sociedade.

"No futuro, a importância de garantir justiça no software só aumentará", afirma o documento.

Os estudiosos usaram exemplos que ilustram preconceitos contra os ricos e oprimidos.

Um dos exemplos de discriminação de software fornecidos por Brun e Meliou é a programação usada pela Amazon.com para determinar quais áreas geográficas receberiam entrega gratuita no mesmo dia. Após o lançamento do programa no ano passado, foi alegado que os bairros minoritários receberam o benefício em uma taxa muito menor do que os bairros predominantemente brancos.

Os autores também destacam como o software usado no setor público pode projetar preconceitos, destacando a tecnologia usada em vários estados que calcula as pontuações na probabilidade de um criminoso cometer crimes adicionais. Segundo os pesquisadores, verificou-se que o software “sinaliza falsamente réus negros como futuros criminosos, rotulando-os erroneamente dessa maneira com quase o dobro da taxa de réus brancos”.

Leia a história completa aqui…

Subscrever
Receber por
convidado

1 Comentário
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários
M11S

Em nosso sistema econômico de capitalismo baseado em mercados "livres", a parte dos mercados já é 90% artificial (HFTs)