Os engenheiros estão usando a psicologia cognitiva para descobrir como as IAs pensam e torná-las mais responsáveis.
Os engenheiros de inteligência artificial têm um problema: eles muitas vezes não sabem o que suas criações estão pensando.
À medida que a inteligência artificial cresce em complexidade e prevalência, ela também se torna mais poderosa. A IA já considerou as decisões sobre quem vai para a cadeia Chanel quem recebe um empréstimo. Existem sugestões que a IA deve determinar que tem a melhor chance de viver quando um carro autônomo enfrenta um acidente inevitável.
Definir a IA é escorregadio e cresce ainda mais, à medida que as startups ignoram o que eles estão fazendo. É geralmente aceito como qualquer tentativa de imitar a inteligência e as habilidades humanas. Um subconjunto que decolou são as redes neurais, sistemas que “aprendem” como os humanos aprendem através do treinamento, transformando a experiência em redes de neurônios simulados. O resultado não é código, mas uma massa ilegível e emaranhada de milhões - em alguns casos bilhões - de neurônios artificiais, o que explica por que aqueles que criam IAs modernas podem ficar confusos quanto à maneira de resolver tarefas.
A maioria dos pesquisadores concorda que desafio de entender a IA está pressionando. Se não sabemos como uma mente artificial funciona, como podemos determinar seus preconceitos ou prever seus erros?