Lançada a ética oficial do robô: não prejudique, obedeça às ordens

Compartilhe esta história!

Um professor de robótica na Inglaterra diz: "O problema com os sistemas de IA agora, especialmente esses sistemas de aprendizado profundo, é que é impossível saber por que eles tomam as decisões que tomam.“Se isso for verdade, então os robôs já estão fora de controle.  TN Editor

Isaac Asimov nos deu as regras básicas do bom comportamento do robô: não prejudique os seres humanos, obedeça às ordens e proteja-se. Agora, o British Standards Institute emitiu um versão mais oficial destinado a ajudar os designers a criar robôs eticamente sólidos.

O documento, BS8611 Robôs e dispositivos robóticos, está escrito no idioma seco de um manual de saúde e segurança, mas os cenários indesejáveis ​​que destaca podem ser extraídos diretamente da ficção. O engano do robô, o vício do robô e a possibilidade de os sistemas de autoaprendizagem excederem suas atribuições são todos considerados perigos que os fabricantes devem considerar.

Saudando as diretrizes no Robótica Social e Inteligência Artificial Em uma conferência em Oxford, Alan Winfield, professor de robótica da Universidade do Oeste da Inglaterra, disse que eles representam "o primeiro passo para incorporar valores éticos à robótica e à IA".

"Até onde eu sei, esse é o primeiro padrão publicado para o design ético de robôs", disse Winfield após o evento. "É um pouco mais sofisticado do que as leis de Asimov - basicamente define como fazer uma avaliação ética dos riscos de um robô".

O documento da BSI começa com alguns princípios éticos gerais: “Os robôs não devem ser projetados exclusiva ou principalmente para matar ou prejudicar seres humanos; humanos, não robôs, são os agentes responsáveis; deve ser possível descobrir quem é responsável por qualquer robô e seu comportamento. ”

Em seguida, destaca uma série de questões mais controversas, como se é desejável um vínculo emocional com um robô, principalmente quando o robô é projetado para interagir com crianças ou idosos.

Noel Sharkey, professor emérito de robótica e IA da Universidade de Sheffield, disse que este é um exemplo de onde os robôs podem nos enganar sem querer. "Houve um estudo recente em que pequenos robôs foram incorporados em uma escola infantil", disse ele. “As crianças adoraram e realmente se uniram aos robôs. Mas, quando perguntadas depois, as crianças pensaram claramente que os robôs eram mais cognitivos do que o animal de estimação da família. ”

Leia a história completa aqui…

Subscrever
Receber por
convidado

1 Comentário
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários
Jerry Day

Os robôs precisam saber o que um humano considera “dano” para fazer isso. Isso pode ser qualquer coisa, desde eliminar nossos empregos até comentários micro-agressivos. A polícia já usou robôs para explodir um “suspeito” em pedaços, então, assim como tudo mais, o governo e seus robôs podem ignorar as regras enquanto nós e nossos robôs devemos obedecê-las.