Isaac Asimov nos deu as regras básicas do bom comportamento do robô: não prejudique os seres humanos, obedeça às ordens e proteja-se. Agora, o British Standards Institute emitiu um versão mais oficial destinado a ajudar os designers a criar robôs eticamente sólidos.
O documento, BS8611 Robôs e dispositivos robóticos, está escrito no idioma seco de um manual de saúde e segurança, mas os cenários indesejáveis que destaca podem ser extraídos diretamente da ficção. O engano do robô, o vício do robô e a possibilidade de os sistemas de autoaprendizagem excederem suas atribuições são todos considerados perigos que os fabricantes devem considerar.
Saudando as diretrizes no Robótica Social e Inteligência Artificial Em uma conferência em Oxford, Alan Winfield, professor de robótica da Universidade do Oeste da Inglaterra, disse que eles representam "o primeiro passo para incorporar valores éticos à robótica e à IA".
"Até onde eu sei, esse é o primeiro padrão publicado para o design ético de robôs", disse Winfield após o evento. "É um pouco mais sofisticado do que as leis de Asimov - basicamente define como fazer uma avaliação ética dos riscos de um robô".
O documento da BSI começa com alguns princípios éticos gerais: “Os robôs não devem ser projetados exclusiva ou principalmente para matar ou prejudicar seres humanos; humanos, não robôs, são os agentes responsáveis; deve ser possível descobrir quem é responsável por qualquer robô e seu comportamento. ”
Em seguida, destaca uma série de questões mais controversas, como se é desejável um vínculo emocional com um robô, principalmente quando o robô é projetado para interagir com crianças ou idosos.
Noel Sharkey, professor emérito de robótica e IA da Universidade de Sheffield, disse que este é um exemplo de onde os robôs podem nos enganar sem querer. "Houve um estudo recente em que pequenos robôs foram incorporados em uma escola infantil", disse ele. “As crianças adoraram e realmente se uniram aos robôs. Mas, quando perguntadas depois, as crianças pensaram claramente que os robôs eram mais cognitivos do que o animal de estimação da família. ”
Os robôs precisam saber o que um humano considera “dano” para fazer isso. Isso pode ser qualquer coisa, desde eliminar nossos empregos até comentários micro-agressivos. A polícia já usou robôs para explodir um “suspeito” em pedaços, então, assim como tudo mais, o governo e seus robôs podem ignorar as regras enquanto nós e nossos robôs devemos obedecê-las.