Ex-engenheiro do Google: 'Killer Robots' pode começar uma guerra

Compartilhe esta história!
image_pdfimage_print
À medida que os governos aumentam a corrida armamentista da IA ​​para direcionar robôs autônomos com uma 'licença para matar', o risco de erros horríveis também aumenta, incluindo a possibilidade de iniciar uma guerra de robôs. ⁃ Editor TN

Uma nova geração de armas autônomas ou "robôs assassinos" poderia acidentalmente iniciar uma guerra ou causar atrocidades em massa, um ex-top google engenheiro de software alertou.

Laura Nolan, que renunciou ao Google no ano passado em protesto por ter sido enviada para trabalhar em um projeto para melhorar drasticamente Militares dos EUA tecnologia drone, pediu que todas as máquinas de matar AI não operadas por seres humanos fossem proibidas.

Nolan disse que os robôs assassinos não guiados pelo controle remoto humano deveriam ser proibidos pelo mesmo tipo de tratado internacional que proíbe armas químicas.

Ao contrário dos drones, que são controlados por equipes militares muitas vezes a milhares de quilômetros de onde a arma voadora está sendo usada, Nolan disse que os robôs assassinos têm o potencial de fazer "coisas calamitosas para as quais não foram originalmente programados".

Não há sugestões de que o Google esteja envolvido no desenvolvimento de sistemas de armas autônomos. No mês passado, um painel de especialistas do governo da ONU debateu armas autônomas e constatou que o Google estava evitando a IA para uso em sistemas de armas e adotando as melhores práticas.

Nolan, que se juntou ao Campanha parar os robôs assassinos e informou os diplomatas da ONU em Nova York e Genebra sobre os perigos das armas autônomas, disse: “A probabilidade de um desastre é proporcional ao número de máquinas que estarão em uma área específica de uma só vez. O que você está vendo são possíveis atrocidades e assassinatos ilegais, mesmo sob as leis da guerra, especialmente se centenas ou milhares dessas máquinas forem implantadas.

“Pode haver acidentes em larga escala, porque essas coisas começarão a se comportar de maneiras inesperadas. É por isso que qualquer sistema avançado de armas deve estar sujeito a um controle humano significativo, caso contrário, eles precisam ser banidos porque são imprevisíveis e perigosos demais. ”

O Google recrutou Nolan, formada em ciência da computação pelo Trinity College Dublin, para trabalhar no Projeto Maven no 2017 depois de trabalhar na gigante da tecnologia por quatro anos, tornando-se um dos principais engenheiros de software da Irlanda.

Ela disse que ficou "cada vez mais eticamente preocupada" com seu papel no programa Maven, desenvolvido para ajudar o Departamento de Defesa dos EUA a acelerar drasticamente a tecnologia de reconhecimento de vídeo por drones.

Em vez de usar um grande número de militares para passar horas e horas gravando vídeos com drones de possíveis alvos inimigos, Nolan e outros foram convidados a construir um sistema em que as máquinas de IA pudessem diferenciar pessoas e objetos em uma velocidade infinitamente mais rápida.

O Google permitiu que o contrato do Project Maven terminasse em março deste ano, depois que mais de 3,000 de seus funcionários assinou uma petição em protesto contra o envolvimento da empresa.

“Como engenheiro de confiabilidade do site, minha experiência no Google era garantir que nossos sistemas e infra-estruturas continuassem funcionando, e é com isso que eu deveria ajudar o Maven. Embora eu não estivesse diretamente envolvido na aceleração do reconhecimento de imagens de vídeo, percebi que ainda fazia parte da cadeia de assassinatos; que isso acabaria por levar mais pessoas a serem alvejadas e mortas pelos militares dos EUA em lugares como o Afeganistão ”.

Embora tenha renunciado ao Projeto Maven, Nolan previu que armas autônomas sendo desenvolvidas representam um risco muito maior para a raça humana do que drones com controle remoto.

Ela descreveu como forças externas, que variam de sistemas climáticos em mudança a máquinas incapazes de elaborar comportamentos humanos complexos, podem tirar os robôs assassinos do curso, com conseqüências possivelmente fatais.

“Você pode ter um cenário em que armas autônomas enviadas para fazer um trabalho confrontem sinais inesperados de radar em uma área que eles estão procurando; pode haver clima que não foi incluído no software ou eles se deparam com um grupo de homens armados que parecem ser inimigos insurgentes, mas na verdade estão sem armas procurando comida. A máquina não possui o discernimento ou o bom senso que o toque humano possui.

“A outra coisa assustadora sobre esses sistemas de guerra autônomos é que você só pode realmente testá-los implantando-os em uma zona de combate real. Talvez isso esteja acontecendo com os russos atualmente na Síria, quem sabe? O que sabemos é que, na ONU, a Rússia se opôs a qualquer tratado e muito menos à proibição dessas armas.

“Se você está testando uma máquina que está tomando suas próprias decisões sobre o mundo ao seu redor, ela precisa ser em tempo real. Além disso, como você treina um sistema que roda exclusivamente em software para detectar o comportamento humano sutil ou discernir a diferença entre caçadores e insurgentes? Como a máquina de matar por aí, por si só, distingue entre o combatente de dez anos da 18 e o de dez anos que está caçando coelhos? ”

Leia a história completa aqui…

Junte-se à nossa lista de endereços!


avatar
1 Comentar tópicos
0 Respostas do Tópico
0 Seguidores
Comentário Mostv¯ve
Tópico de comentário mais quente
1 Autores de comentários
steve Autores recentes de comentários
Subscrever
o mais novo mais velho mais votado
Notificar a
steve
Convidado

Isso me lembra aquela cena dos Jogos de Guerra - um pouco antiquada para assistir agora - mas altamente relevante. https://www.youtube.com/watch?v=NHWjlCaIrQo