No futuro, seu futuro poderá depender de uma série de zeros e uns cuidadosamente calculados.
À medida que a tecnologia melhora, os humanos se envolvem menos nas decisões que afetam nossas vidas - e isso não é exatamente uma coisa boa.
À medida que a inteligência artificial ganha terreno, os professores da Universidade de Massachusetts-Amherst desenvolveram um programa para testar software quanto a preconceitos e discriminação.
Sim, discriminação racial. Mas mais que isso. Decisões de saúde. Decisões de empréstimo. Caramba, mesmo como a Amazon decide as taxas de envio de pacotes.
"Hoje, o software determina quem recebe um empréstimo ou é contratado, calcula as pontuações da avaliação de risco que ajudam a decidir quem vai para a cadeia e quem é libertado, além de ajudar no diagnóstico e tratamento de pacientes médicos" segundo para os desenvolvedores do programa.
Com isso, é fundamental que "o software não discrimine grupos ou indivíduos", argumentam os pesquisadores, acrescentando que seu campo de estudo é "subvalorizado" e "surgiram inúmeros exemplos de software injusto".
Em um acadêmico artigo publicado para uma próxima engenharia de software conferência, os cientistas da computação Alexandra Meliou e Yuriy Brun, que criaram o programa junto com a aluna de doutorado Sainyam Galhotra, detalham a "crescente preocupação" da discriminação de software.
No artigo, os dois professores preveem a influência crescente e crescente do software na vida humana no futuro e argumentam que o software atualmente desempenha um papel desproporcional na sociedade.
"No futuro, a importância de garantir justiça no software só aumentará", afirma o documento.
Os estudiosos usaram exemplos que ilustram preconceitos contra os ricos e oprimidos.
Um dos exemplos de discriminação de software fornecidos por Brun e Meliou é a programação usada pela Amazon.com para determinar quais áreas geográficas receberiam entrega gratuita no mesmo dia. Após o lançamento do programa no ano passado, foi alegado que os bairros minoritários receberam o benefício em uma taxa muito menor do que os bairros predominantemente brancos.
Os autores também destacam como o software usado no setor público pode projetar preconceitos, destacando a tecnologia usada em vários estados que calcula as pontuações na probabilidade de um criminoso cometer crimes adicionais. Segundo os pesquisadores, verificou-se que o software “sinaliza falsamente réus negros como futuros criminosos, rotulando-os erroneamente dessa maneira com quase o dobro da taxa de réus brancos”.
Em nosso sistema econômico de capitalismo baseado em mercados "livres", a parte dos mercados já é 90% artificial (HFTs)