Especialistas: A única defesa contra a IA assassina não está desenvolvendo

Compartilhe esta história!
A inteligência artificial fora de controle na guerra é inevitável, porque se tornará muito complexa para o gerenciamento e controle humano. A única resposta real é não desenvolvê-lo em primeiro lugar. ⁃ Editor TN

Uma análise recente sobre o futuro da guerra indica que os países que continuam a desenvolver IA para uso militar correm o risco de perder o controle do campo de batalha. Aqueles que não correm o risco de erradicação. Se você é a favor ou contra a corrida armamentista da IA: está acontecendo. Aqui está o que isso significa, de acordo com um trio de especialistas.

pesquisadores da ASRC Federal, uma empresa privada que fornece suporte às comunidades de inteligência e defesa, e a Universidade de Maryland publicou recentemente um artigo sobre servidor de pré-impressão ArXivdiscutindo as ramificações potenciais da integração de sistemas de IA na guerra moderna.

O papel - leia aqui - concentra-se nas conseqüências de futuro próximo para a corrida armamentista da IA, pressupondo que a IA não de alguma forma, correr amok ou aquisição. Em essência, é uma visão curta, sóbria e aterradora de como toda essa tecnologia de aprendizado de máquina se desenvolverá com base na análise das atuais tecnologias militares de IA de ponta e na integração prevista em escala.

O artigo começa com um aviso sobre uma catástrofe iminente, explicando que certamente haverá um "acidente normal", relativo à IA - um incidente esperado de natureza e escopo que não podemos prever. Basicamente, as forças armadas do mundo quebrarão alguns ovos civis, fazendo com que as armas da IA ​​sejam omeletes:

O estudo desse campo começou com acidentes como a Three Mile Island, mas as tecnologias de IA incorporam riscos semelhantes. Encontrar e explorar essas fraquezas para induzir um comportamento defeituoso se tornará uma característica permanente da estratégia militar.

Se você está pensando em robôs assassinos brigando em nossas cidades enquanto civis correm gritando por abrigo, você não está errado - mas robôs como proxy para soldados não são a maior preocupação da humanidade quando se trata de guerra de IA. Este artigo discute o que acontece depois que chegamos ao ponto em que se torna óbvio que os humanos estão retendo máquinas na guerra.

Segundo os pesquisadores, o problema não é aquele que podemos considerar bom e mau. É claro que é fácil dizer que não devemos permitir que robôs matem humanos com autonomia, mas não é assim que o processo de tomada de decisões do futuro vai funcionar.

Os pesquisadores a descrevem como uma ladeira escorregadia:

Se os sistemas de IA forem eficazes, a pressão para aumentar o nível de assistência ao guerreiro seria inevitável. O sucesso contínuo significaria empurrar gradualmente o ser humano para fora do circuito, primeiro para um papel de supervisão e, finalmente, para o papel de um "operador de interruptor de controle" que monitora as LEIS sempre ativas.

LAWS, ou sistemas de armas autônomas letais, irão quase imediatamente ultrapassar a capacidade dos humanos de trabalhar com computadores e máquinas - e provavelmente mais cedo do que a maioria das pessoas pensa. O combate corpo a corpo entre máquinas, por exemplo, será totalmente autônomo por necessidade:

Com o tempo, à medida que a IA se torna mais capaz de pensamento reflexivo e integrativo, o componente humano terá que ser eliminado por completo, à medida que a velocidade e a dimensionalidade se tornarem incompreensíveis, chegando mesmo a dar assistência cognitiva.

E, eventualmente, as táticas e a capacidade de resposta necessárias para trocar golpes com a IA estarão além do conhecimento humano:

Dado um espaço de batalha tão avassalador que os humanos não podem se envolver manualmente com o sistema, o papel humano será limitado à análise forense post-hoc, assim que as hostilidades cessarem ou os tratados forem assinados.

Se isso soa um pouco sombrio, é porque é. Como Importar AIs Jack Clark ressalta: "Este é um artigo rápido que expõe as preocupações da guerra de inteligência artificial + de uma comunidade da qual não ouvimos frequentemente: pessoas que trabalham como fornecedores diretos de tecnologia do governo".

Pode ser do interesse de todos prestar muita atenção em como acadêmicos e o governo continuam a enquadrar o problema no futuro.

Leia a história completa aqui…

Subscrever
Receber por
convidado

2 Comentários
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários
Elle

Sempre me surpreende como um 'estudo' deve ser conduzido para 'determinar' as probabilidades das ações óbvias que estão por vir. Bem, DUH! na frente da IA, rapazes. Lembra-me de ter sido convidado para jantar pela esposa do CEO de uma empresa de marketing. Eu o defino como tal porque foi só sobre isso que ele falou. Durante a refeição, ele falou sem parar sobre sua companhia, ad nauseum para o restante de nós. Quando, finalmente, ele alcançou a recompensa. Ele disse à mesa que sua 'incrível' empresa havia recebido $ 4 milhões para descobrir por que as pessoas escolheram um... Leia mais »