O mundo deve agir rapidamente para evitar um futuro no qual robôs autônomos com inteligência artificial perambulam pelos campos de batalha matando seres humanos, alertaram cientistas e especialistas em armas em uma reunião de elite nos Alpes suíços.
As regras devem ser acordadas para impedir o desenvolvimento de tais armas, disseram eles em uma reunião de bilionários, cientistas e líderes políticos 19-23 em janeiro na estação de esqui coberta de neve de Davos.
Angela Kane, Alta Representante da ONU para Assuntos de Desarmamento da 2012-2015, disse que o mundo demorou a tomar medidas preventivas para proteger a humanidade da tecnologia letal.
“Pode ser tarde demais”, disse ela em um debate em Davos.
“Há muitos países e muitos representantes na comunidade internacional que realmente não entendem o que está envolvido. Esse desenvolvimento é algo que se limita a um certo número de países avançados ”, disse Kane.
O envio de armas autônomas representaria uma nova era perigosa na guerra, disseram os cientistas.
“Não estamos falando de drones, em que um piloto humano está controlando o drone”, disse Stuart Russell, professor de ciência da computação na Universidade da Califórnia, Berkeley.
“Estamos falando de armas autônomas, o que significa que não há ninguém por trás delas. AI: armas de inteligência artificial ”, disse ele em um fórum em Davos. “Muito precisamente, armas que podem localizar e atacar alvos sem intervenção humana.”
Russell disse que não previu um dia em que os robôs lutassem pela guerra pelos humanos e no final do dia um dos lados diria: “OK, você venceu, então pode ficar com todas as nossas mulheres”
Mas alguns chefes de ciência e tecnologia da 1,000, incluindo o físico britânico Stephen Hawking, disseram em carta aberta em julho passado que o desenvolvimento de armas com um grau de capacidade autônoma de tomada de decisões poderia ser viável dentro de anos, não décadas.
Eles pediram a proibição de armas autônomas ofensivas que estão além do controle humano significativo, alertando que o mundo corre o risco de entrar em uma corrida armamentista de inteligência artificial e alarmar os riscos de tais armas caírem nas mãos de extremistas violentos.
O problema é cultural, não tecnológico.
Se toleramos o assassinato como uma solução para os desafios daqueles que pensam de maneira diferente da nossa, importa como nos envolvemos no assassinato?