Robôs assassinos: ainda não existem leis internacionais para governar seu uso

Tecnocratas nas forças armadas de todo o mundo estão em uma corrida armamentista para desenvolver robôs assassinos totalmente autônomos. Os defensores afirmam que isso tornará a guerra mais eficiente e ainda mais "humana", porque menos pessoas seriam mortas.

Isso é pensamento insano. O risco de uso indevido por governos e terroristas desonestos e autoritários é de 100%. No entanto, os tecnocratas inventam porque podem, e não porque há uma necessidade demonstrada de fazê-lo. ⁃ Editor TN

Os países estão desenvolvendo rapidamente "robôs assassinos" - máquinas com inteligência artificial (IA) que matam independentemente -, mas estão se movendo no ritmo de um acordo para estabelecer regras globais sobre seu uso em guerras futuras, alertam especialistas em tecnologia e direitos humanos.

De drones e mísseis a tanques e submarinos, sistemas de armas semi-autônomas são usados ​​há décadas para eliminar alvos na guerra moderna - mas todos eles têm supervisão humana.

Dramatização / Simulação

Nações como Estados Unidos, Rússia e Israel estão agora investindo no desenvolvimento de sistemas letais de armas autônomas (LEIS) que podem identificar, alvejar e matar uma pessoa por conta própria - mas até o momento não existem leis internacionais que governem seu uso.

"É necessário algum tipo de controle humano ... Somente os humanos podem fazer julgamentos específicos de contexto, de distinção, proporcionalidade e precauções em combate", disse Peter Maurer, Presidente do Comitê Internacional da Cruz Vermelha (CICV).

“(Construir consenso) é o grande problema com o qual estamos lidando e, sem surpresa, aqueles que hoje investiram muitas capacidades e possuem certas habilidades que prometem vantagens para eles são mais relutantes do que aqueles que não.”

O CICV supervisionou a adoção das Convenções de Genebra de 1949, que definem as leis da guerra e os direitos dos civis à proteção e assistência durante os conflitos, e se envolve com os governos para adaptar essas regras à guerra moderna.

Pesquisadores de IA, analistas de defesa e roboticistas dizem que as LEIS, como os robôs militares, não estão mais confinadas ao reino da ficção científica ou dos videogames, mas estão progredindo rapidamente das placas de design gráfico para os laboratórios de engenharia de defesa.

Dentro de alguns anos, eles poderiam ser enviados pelos militares do estado para o campo de batalha, acrescentam, pintando cenários distópicos de enxames de drones movendo-se por uma cidade ou cidade, examinando e matando seletivamente seus alvos em segundos.

Morte por Algoritmo

Isso levantou preocupações éticas de grupos de direitos humanos e de alguns especialistas em tecnologia que dizem que dar às máquinas o poder da vida e da morte viola os princípios da dignidade humana.

Além disso, as LEIS são vulneráveis ​​a interferências e hackers que resultariam em aumento de mortes de civis, acrescentam, mas sua implantação levantaria questões sobre quem seria responsabilizado em caso de uso indevido.

"Não se engane com o absurdo de quão inteligentes essas armas serão", disse Noel Sharkey, presidente do Comitê Internacional para Controle de Armas de Robôs.

"Você simplesmente não pode confiar em um algoritmo - não importa quão inteligente - para procurar, identificar e matar o alvo correto, especialmente na complexidade da guerra", disse Sharkey, que também é especialista em inteligência artificial e robótica na Universidade de Sheffield, na Grã-Bretanha. .

Leia a história completa aqui…