O que acontece quando as máquinas aprendem a nos manipular fingindo nossas emoções? A julgar pela taxa em que os pesquisadores estão desenvolvendo agentes de IA semelhantes a humanos, estamos prestes a descobrir.
Pesquisadores de todo o mundo estão tentando criar uma IA mais humana. Por definição, eles estão desenvolvendo psicopatas artificiais. Isso não é necessariamente uma coisa ruim - não há nada inerentemente errado em ser um psicopata, e todos os agentes da IA são psicopatas artificiais simplesmente porque não possuem toda a gama de emoções humanas neurotípicas.
Mas a sobreposição entre comportamento psicopático e comportamento de agente de IA é inegável. Devemos investigar antes que seja tarde demais.
Dilema do Prisioneiro
Um trio de pesquisadores da Universidade de Waterloo recentemente realizou um experimento para determinar como as demonstrações de emoção podem ajudar a IA a manipular os humanos para cooperar. O estudo usou um experimento clássico de teoria dos jogos chamado “O Dilema do Prisioneiro”, que mostra por que as pessoas que se beneficiariam com a cooperação geralmente não o fazem.
Há muitas variações no jogo, mas é basicamente isso: existem dois prisioneiros isolados um do outro sendo interrogados pela polícia por um crime que cometeram juntos. Se um deles denuncia e o outro não, o não traidor recebe três anos e o denunciante caminha. Isso funciona nos dois sentidos. Se ambos denunciam, ambos recebem dois anos. Se nenhum dos dois denuncia, cada um recebe apenas um ano com uma tarifa menor.
O estudo de Waterloo substituiu um dos 'prisioneiros' humanos por um avatar da IA e permitiu que eles interpretassem as emoções um do outro. E, em vez das sentenças de prisão, eles usavam ouro; portanto, o objetivo era obter a maior pontuação possível, em oposição à menor. Como dissemos, existem variações no jogo. Mas, mais importante, eles descobriram que os seres humanos eram mais facilmente manipulados em resultados cooperativos, melhorando o nível de comportamento humano da IA. De acordo com a pesquisa da equipe de Waterloo papel:
Embora os pesquisadores possam melhorar com êxito a percepção dos traços de exclusividade humana, tornando os agentes mais inteligentes, as emoções são críticas para a percepção dos traços da natureza humana. Essa melhoria também afetou positivamente a cooperação dos usuários com o agente e sua satisfação.
Enquanto isso, outra equipe de pesquisadores publicou recentemente um experimento diferente envolvendo o problema do dilema do prisioneiro. Cientistas da Universidade Victoria de Wellington e da Universidade de Southampton classificaram os voluntários estudantes 190 em quatro grupos compostos por diferentes proporções de estudantes neurotípicos e aqueles que apresentavam traços de psicopatia. Os pesquisadores descobriram que ter psicopatas em uma dinâmica de grupo era consistente com menos cooperação.
Para deixar claro, o estudo Victory / Southhampton não usou pessoas consideradas psicopatas completas, mas estudantes que apresentaram um número maior de traços psicopatas do que os outros. O objetivo deste estudo foi determinar se a introdução de pessoas que apresentavam até alguma psicopatia mudaria a dinâmica do grupo. Eles descobriram que sim:
Nossos resultados mostram que pessoas com níveis mais altos de características psicopáticas afetam a dinâmica do grupo. Encontramos uma divergência significativa de cooperação nos grupos com alta densidade de participantes psicopatas em comparação com os grupos com densidade zero.
O extorsor amigável
A introdução de agentes emocionais semi-cozidos na sociedade tem o potencial de ser um pesadelo. Ainda outro estudo recente do experimento do dilema do prisioneiro, este da Sociedade Max Planck, indica que a melhor estratégia para o jogo é se tornar o "Extortioner Amigável". Em essência, diz que quando bônus e incentivos estão em jogo, a melhor jogada é criar a ilusão de cooperação enquanto manipula o outro jogador para cooperar, não importa quantas vezes você não o faça.
Bem, seguiu uma rota indireta, mas no final eu percebi o que o autor está dizendo é que a IA é sociopática e pode estragar nossa sociedade em grande escala.