E se um robô decidir que te odeia?
Isso pode parecer uma pergunta boba, mas, de acordo com a pesquisa, desenvolver preconceito em relação aos outros não requer um alto nível de capacidade cognitiva e pode ser facilmente exibido por robôs e outras máquinas artificialmente inteligentes.
O estudo, conduzido por especialistas em ciência da computação e psicologia da Cardiff University e do MIT, revelou que grupos de máquinas autônomas podiam demonstrar preconceito simplesmente identificando, copiando e aprendendo o comportamento um do outro. Os resultados foram publicados na revista Natureza.
Os robôs são capazes de formar preconceitos como os humanos.
In um comunicado de imprensa, a equipe de pesquisa explicou que, embora possa parecer que a cognição humana seria necessária para formar opiniões e estereotipar outras, parece que não é o caso. O preconceito não parece ser um fenômeno humano específico.
Alguns tipos de algoritmos de computador já exibiram preconceitos como racismo e sexismo, que as máquinas aprendem com registros públicos e outros dados gerados por seres humanos. Em duas instâncias anteriores de IA exibindo esse preconceito, os chatbots da Microsoft Tay e Zo foram fechadas depois que as pessoas as ensinaram a pronunciar comentários racistas e sexistas nas mídias sociais.
Isso significa que os robôs podem ser tão odiosos quanto os seres humanos. E como são milhares de vezes mais inteligentes que nós, você pode imaginar o futuro se eles desenvolverem um viés contra a humanidade?
Nenhuma entrada humana é necessária.
Não é necessária orientação dos humanos para que os robôs aprendam a não gostar de certas pessoas.
No entanto, este estudo mostrou que a IA não precisa de provocação e inspiração dos trolls para fazê-la exibir preconceitos: é capaz de formar todos eles por si mesma.
Para conduzir a pesquisa, a equipe montou simulações em computador de como indivíduos preconceituosos podem formar um grupo e interagir entre si. Eles criaram um jogo de "dar e receber", no qual cada bot de IA tomava a decisão de doar ou não a outro indivíduo dentro de seu próprio grupo de trabalho ou outro grupo. As decisões foram tomadas com base na reputação de cada indivíduo e em sua estratégia de doação, incluindo seus níveis de preconceito em relação a indivíduos de grupos externos.
À medida que o jogo progredia e um supercomputador acumulava milhares de simulações, cada indivíduo começou a aprender novas estratégias copiando outras dentro de seu próprio grupo ou de toda a população.
Co-autor do estudo, o professor Roger Whitaker, do Instituto de Pesquisa sobre Crime e Segurança da Universidade de Cardiff e da Escola de Ciência da Computação e Informática, dito das conclusões:
Executando essas simulações milhares e milhares de vezes, começamos a entender como o preconceito evolui e as condições que o promovem ou o impedem.
As descobertas envolvem indivíduos que atualizam seus níveis de preconceito, copiando preferencialmente aqueles que obtêm maior retorno a curto prazo, o que significa que essas decisões não exigem necessariamente habilidades cognitivas avançadas.
É possível que máquinas autônomas com a capacidade de se identificar com a discriminação e copiar outras possam, no futuro, ser suscetíveis a fenômenos prejudiciais que vemos na população humana.
Muitos dos desenvolvimentos de IA que estamos vendo envolvem autonomia e autocontrole, o que significa que o comportamento dos dispositivos também é influenciado por outras pessoas ao seu redor. Veículos e a Internet das Coisas são dois exemplos recentes. Nosso estudo fornece uma visão teórica em que agentes simulados recorrem periodicamente a outros por algum tipo de recurso. (fonte)
Autonomia e autocontrole. Não foi isso que aconteceu em a franquia Terminator?
Musk adicionou, "Com inteligência artificial, estamos convocando o demônio."