Cientistas protestam contra novo laboratório letal de armas de IA lançado na Universidade da Coréia do Sul

Compartilhe esta história!
A Coréia do Sul é uma tecnocracia de cima para baixo e, portanto, não há inibição de usar os recursos da universidade para desenvolver tecnologia que possa ser usada na guerra; nesse caso, são robôs assassinos autônomos equipados com inteligência artificial. ⁃ Editor TN

A universidade KAIST supostamente lançou um novo laboratório de armas de IA em fevereiro, levando dezenas de pesquisadores a acreditar que os produtos “terão o potencial de ser armas do terror”.

oby Walsh, professor da Universidade de New South Wales em Sydney, organizou o boicote com outros pesquisadores da 49.

Ele disse em uma carta aberta: “Se desenvolvidas, as armas autônomas irão (…) permitir que a guerra seja travada mais rápido e em uma escala maior do que nunca.

“Eles terão o potencial de serem armas de terror.”

KAIST disse que não tinha “nenhuma intenção de se envolver no desenvolvimento de sistemas de armas autônomas letais e robôs assassinos”.

O presidente da universidade, Sung-Chul Shin, disse que a universidade estava “significativamente ciente” das preocupações éticas relacionadas à IA.

Mas ontem, os pesquisadores anunciaram um boicote à universidade, dizendo que se absteriam de visitar o KAIST, hospedar visitantes da universidade ou cooperar com seus programas de pesquisa até que prometesse parar de desenvolver as armas.

Os cientistas acrescentaram: “Eles têm potencial para ser armas de terror.

“Déspotas e terroristas poderiam usá-los contra populações inocentes, removendo quaisquer restrições éticas.

“Esta caixa de Pandora será difícil de fechar se for aberta.”

O professor Walsh reconheceu que havia muitos bons usos da robótica e da inteligência artificial nas forças armadas.

Os cientistas citaram proibições eficazes de tecnologias de armas anteriores e instaram o KAIST a proibir qualquer trabalho com armas autônomas letais e a se abster de usos de IA que prejudicariam vidas humanas.

Mas ele disse que eles não deveriam ser capazes de decidir “quem vive ou morre”.

A carta, também assinada pelos principais especialistas em aprendizado profundo e robótica, foi divulgada antes da reunião de segunda-feira em Genebra pelos países membros da 123 ONU, sobre os desafios impostos pelas armas autônomas letais, descritas como "robôs assassinos".

Leia a história completa aqui…

Subscrever
Receber por
convidado

0 Comentários
Comentários em linha
Ver todos os comentários