Adeus Mundo: Corrida de armas da AI em direção a robôs assassinos autônomos

Foto da Marinha dos EUA por John F. Williams / Liberado
Compartilhe esta história!
A corrida armamentista de IA, que está emergindo rapidamente, para criar máquinas de matar autônomas é a loucura do Tecnocrata no seu pico mais alto. Para a mente tecnocrata, todo problema tem uma solução científica; então por que não deixar que um robô de IA armado e letal faça todo o trabalho de soldados humanos? ⁃ Editor TN

Quando se trata de decidir matar um humano em tempos de guerra, uma máquina deve tomar essa decisão ou outro humano?

A questão é moral, trazida ao primeiro plano pelas técnicas e incentivos da tecnologia moderna. Trata-se de uma questão cujo escopo se enquadra diretamente nos auspícios do direito internacional e que as nações debatem há anos. No entanto, também é um problema de ação coletiva, que exige não apenas estados, mas também empresas e trabalhadores de empresas que chegam a um acordo para renunciar a uma vantagem percebida. O perigo não é tanto na fabricação de uma arma, mas na fabricação de uma arma que possa escolher alvos independentemente do responsável humano que inicia sua ação.

Em um relatório de maio da 8, de Pax - uma organização sem fins lucrativos com o objetivo explícito de proteger civis da violência, reduzir conflitos armados e construir uma paz justa - os autores analisam o estado existente da inteligência artificial em armas e instam nações, empresas e trabalhadores a pensar sobre como impedir uma corrida armamentista de IA, em vez de pensar em como vencer uma. Sem ação corretiva, alerta o relatório, o status quo pode levar todos os participantes a uma situação sem vitória, com qualquer vantagem obtida com o desenvolvimento temporário e limitado de uma arma autônoma.

"Vemos essa corrida armamentista de IA emergente e pensamos que, se nada acontecer, isso será uma grande ameaça para a humanidade", disse Frank Slijper, um dos autores da o relatório. “Há uma janela de oportunidade para impedir que uma corrida armamentista de IA aconteça. Os Estados devem tentar impedir uma corrida armamentista da IA ​​e trabalhar em direção à regulamentação internacional. Enquanto isso, empresas e institutos de pesquisa têm uma grande responsabilidade de garantir que esse trabalho na área de IA e áreas afins não esteja contribuindo para possíveis armas autônomas letais. ”

O relatório foi escrito com um olhar específico para os sete principais poderes da IA. Estes incluem os cinco membros permanentes do conselho de segurança da ONU: China, França, Rússia, Reino Unido e Estados Unidos. Além disso, o relatório detalha a pesquisa de inteligência artificial de Israel e da Coréia do Sul, ambos países cujas posturas geográficas e políticas incentivaram o desenvolvimento da IA ​​militar.

“Identificamos os principais atores em termos de uso e esforços de pesquisa e desenvolvimento na IA e no uso militar da IA ​​em armas cada vez mais autônomas. Eu não conseguia pensar em ninguém, em qualquer estado que teríamos perdido desses sete ”, diz Slijper. "Claro, sempre há o número oito e o número nove."

Para cada poder de IA coberto, o relatório examina o estado da IA, o papel da IA ​​nas forças armadas e o que se sabe da cooperação entre desenvolvedores de IA no setor privado ou universidades e nas forças armadas. Em países como os Estados Unidos, onde os programas militares de IA são nomeados, as políticas de governo podem ser apontadas e os debates sobre a relação da IA ​​comercial com o uso militar são conhecidos, o relatório detalha esse processo. A abrangência da pesquisa é usada para ressaltar a missão explicitamente ativista de Pax, embora também forneça uma pesquisa valiosa sobre o estado da IA ​​no mundo.

Como o relatório sustenta, esse papel da IA ​​no armamento não é apenas uma questão para os governos. É uma pergunta para os responsáveis ​​das empresas e uma pergunta para os trabalhadores que criam IA para as empresas.

"Muito disso tem a ver com o caráter único da tecnologia de armas com infusão de IA", diz Slijper. “Tradicionalmente, muitas empresas que agora trabalham em IA trabalhavam com isso de uma perspectiva puramente civil para fazer o bem e ajudar a humanidade. Essas empresas não eram tradicionalmente produtores militares ou fornecedores dominantes das forças armadas. Se você trabalha para uma empresa de armas, sabe para o que está trabalhando.

Nos Estados Unidos, tem sido expressada resistência a contribuir para os contratos do Pentágono de trabalhadores do setor de tecnologia. Depois que os funcionários do Google protestaram depois de saber do compromisso da empresa com Projeto Maven, que desenvolveu uma IA de processamento de imagens por drone para os militares, a liderança da empresa concordou em encerrar o projeto. (O Project Maven agora é gerenciado pelo Andruil, apoiado por Peter Thiel.)

A Microsoft também experimentou resistência do trabalhador ao uso militar de sua ferramenta de realidade aumentada HoloLens, com alguns trabalhadores escrevendo uma carta informando que nas mãos do Pentágono, os sensores e o processamento do fone de ouvido o aproximavam perigosamente de um componente de arma. Os trabalhadores notaram especificamente que eles tinha construído HoloLens "Para ajudar as pessoas a fazer cirurgia ou tocar piano, ultrapassar os limites dos jogos e se conectar com o Mars Rover", tudo isso está longe de ajudar os militares na identificação de ameaças na patrulha.

“E eu acho que é para muitas pessoas que trabalham no setor de tecnologia bastante perturbadoras que, embora inicialmente, essa empresa estivesse trabalhando principalmente ou apenas em aplicações civis dessa tecnologia, agora cada vez mais elas veem que essas tecnologias também são usadas para fins militares. projetos ou até armamento letal ”, disse Slijper.

Slijper aponta para o Protocolo sobre Armas Cegas, como uma maneira pela qual a comunidade internacional regulava uma tecnologia com aplicações civis e militares para garantir que seu uso se enquadrasse nas leis da guerra.

Leia a história completa aqui…

Subscrever
Receber por
convidado

1 Comentário
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários
Elle

Bem, duh. Pelo menos houve recuo por parte dos funcionários, uma vez que eles confirmaram que estavam sendo usados. Mas, sério, pense nisso. Você trabalha em componentes de IA para organizações conhecidas e financiadas pelo governo e não acha que o ponto principal é transformar essa tecnologia em uma arma para a máquina de guerra? ACORDEM, KIDDIES! Eles não dão financiamento porque são legais. Toda a história do complexo governo / militar / inteligência e o que eles financiam é encoberta e esquecida por aqueles que não querem ver.