As máquinas se erguem, subjugando a humanidade. É um tropo de ficção científica que é quase tão antigo quanto as próprias máquinas. Os cenários do dia do juízo final girados em torno deste tema são tão estranhos - como A matriz, em que a inteligência artificial criada pelo homem conecta os humanos a uma realidade simulada para coletar energia de seus corpos - é difícil visualizá-los como ameaças sérias.
Enquanto isso, sistemas artificialmente inteligentes continuam se desenvolvendo rapidamente. Carros autônomos estão começando a compartilhar nossas estradas; dispositivos de bolso respondem às nossas perguntas e gerenciam nossas agendas em tempo real; algoritmos nos venceram no Go; os robôs se tornam melhores em se levantar quando caem. É óbvio como o desenvolvimento dessas tecnologias beneficiará a humanidade. Mas então - todas as histórias de ficção científica distópicas começam assim?
Qualquer discussão sobre o potencial distópico da IA corre o risco de gravitar em direção a um dos dois extremos. Um deles é excessivamente crédulo e assustador. Claro, Siri não está prestes a se transformar em HAL assassino de 2001: Uma Odisséia no Espaço. Mas o outro extremo é igualmente perigoso - complacência que não precisamos pensar sobre essas questões, porque a IA ameaçadora à humanidade está a décadas ou mais.
É verdade que a “superinteligência” artificial amada pela ficção científica pode levar muitas décadas no futuro, se for possível. No entanto, um pesquisa recente dos principais pesquisadores de IA da TechEmergence encontraram uma grande variedade de preocupações sobre os perigos de segurança da IA em um período muito mais realista do ano 20 - incluindo o colapso do sistema financeiro à medida que os algoritmos interagem inesperadamente e o potencial da IA para ajudar atores mal-intencionados a otimizar armas biotecnológicas.
Esses exemplos mostram como, juntamente com o progresso tecnológico em muitas frentes, a Quarta Revolução Industrial promete uma democratização rápida e massiva da capacidade de causar estragos em uma escala muito grande. No lado sombrio da “deep web”, onde as informações estão ocultas dos mecanismos de busca, já existem ferramentas destrutivas em uma gama de tecnologias emergentes, desde armas impressas com 3D até material físsil e equipamentos para engenharia genética em laboratórios domésticos. Em cada caso, a IA exacerba o potencial de dano.
Considere outra possibilidade mencionada na pesquisa TechEmergence. Se combinarmos uma arma, um zangão quadrocopter, uma câmera de alta resolução e um algoritmo de reconhecimento facial que não precisaria ser muito mais avançado do que o atual o melhor da classe, poderíamos, em teoria, fazer uma máquina que possamos programar para sobrevoar multidões, procurando rostos particulares e assassinando alvos à vista.
Esse dispositivo não exigiria superinteligência. É concebível usando a IA atual, "estreita", que ainda não pode dar o tipo de salto criativo de entendimento entre domínios distintos que os humanos podem. Quando a “inteligência geral artificial”, ou AGI, é desenvolvida - como parece provável, mais cedo ou mais tarde - aumentará significativamente os benefícios potenciais da IA e, no palavras de Jeff Goddell, seus riscos à segurança, "forçando um novo tipo de contabilidade com o gênio tecnológico".
Mas não está sendo feito um pensamento suficiente sobre o potencial de armas da IA. Como Wendell Wallach coloca: “Navegar no futuro de possibilidades tecnológicas é um empreendimento perigoso”, observa ele. "Começa com o aprendizado de fazer as perguntas certas - perguntas que revelam as armadilhas da inação e, mais importante, as passagens disponíveis para traçar um percurso para um porto seguro".
Desafios de não proliferação
Acadêmicos proeminentes, incluindo Stuart Russell emitiram um chamado para ação para evitar “armadilhas potenciais” no desenvolvimento da IA que tem sido Apoiado pelos principais tecnólogos, incluindo Elon Musk, Demis Hassabis, Steve Wozniak e Bill Gates. Uma armadilha de alto perfil poderia ser "sistemas letais de armas autônomas" (LEIS) - ou, mais coloquialmente, "robôs assassinos". Os avanços tecnológicos da robótica e a transformação digital da segurança já mudaram o paradigma fundamental da guerra. Segundo para Christopher Coker “A tecnologia do século XIX está mudando nossa compreensão da guerra de maneiras profundamente perturbadoras.” As leis totalmente desenvolvidas provavelmente transformarão a guerra moderna tão dramaticamente quanto a pólvora e as armas nucleares.
O Conselho de Direitos Humanos da ONU pediu uma moratória sobre o desenvolvimento futuro das LEIS, enquanto outros grupos e campanhas ativistas advogam a proibição total, fazendo uma analogia com armas químicas e biológicas, que a comunidade internacional considera além dos limites. Pelo terceiro ano consecutivo, os Estados-Membros das Nações Unidas se reuniram no mês passado para debater o pedido de proibição e como garantir que qualquer desenvolvimento adicional das LEIS permaneça dentro do Direito Internacional Humanitário. No entanto, quando a tecnologia de armas inovadora não está mais confinada a algumas grandes forças armadas, os esforços de não proliferação se tornam muito mais difíceis.
O debate é complicado pelo fato de as definições permanecerem confusas. Plataformas, como drones, geralmente são confundidas com armas que podem ser carregadas em plataformas. A idéia de que os sistemas são solicitados a executar tarefas estritamente definidas, como identificar e eliminar veículos blindados que se deslocam em uma área geográfica específica, nem sempre se distingue da idéia de que os sistemas recebem escopo discricionário para interpretar missões mais gerais, como “vencer a guerra" .