Inteligência artificial pode ser empregada por ditadores, criminosos e terroristas para manipular eleições e usar drones em ataques terroristas, disseram mais de duas dúzias de especialistas nesta quarta-feira, quando soaram o alarme pelo uso indevido da tecnologia.
Em uma análise de 100 páginas, eles descreveram um rápido crescimento do crime cibernético e o uso de “bots” para interferir na coleta de notícias e penetrar na mídia social em uma série de cenários plausíveis nos próximos cinco a 10 anos.
“Nosso relatório enfoca as maneiras pelas quais as pessoas podem causar danos deliberados com a IA”, disse Sean O hEigeartaigh, Diretor Executivo do Centro de Cambridge para o Estudo de Risco Existencial.
“A IA pode representar novas ameaças, ou mudar a natureza das ameaças existentes, na segurança cibernética, física e política”, disse ele à AFP.
A prática comum, por exemplo, de “phishing” - enviar e-mails semeados com malware ou projetados para obter dados pessoais valiosos - pode se tornar muito mais perigosa, detalhou o relatório.
Atualmente, as tentativas de phishing são genéricas, mas transparentes - como golpistas que pedem detalhes bancários para depositar um ganho inesperado - ou personalizadas, mas com muito trabalho - coletando dados pessoais para ganhar a confiança de alguém, conhecido como “spear phishing”.
“Usando a IA, pode ser possível fazer spear phishing em grande escala, automatizando muito do processo” e tornando-o mais difícil de detectar, observou O hEigeartaigh.
Na esfera política, líderes inescrupulosos ou autocráticos já podem usar tecnologia avançada para vasculhar montanhas de dados coletados de redes de vigilância onipresentes para espionar seu próprio povo.
“Os ditadores poderiam identificar mais rapidamente as pessoas que podem estar planejando subverter um regime, localizá-los e colocá-los na prisão antes de agirem”, disse o relatório.
Da mesma forma, a propaganda direcionada junto com vídeos falsos baratos e altamente verossímeis se tornaram ferramentas poderosas para manipular a opinião pública “em escalas antes inimagináveis”.
Uma acusação proferida pelo procurador especial dos EUA, Robert Mueller, na semana passada detalhou uma vasta operação para semear divisão social nos Estados Unidos e influenciar a eleição presidencial de 2016, na qual as chamadas "fazendas de trolls" manipularam milhares de bots de redes sociais, especialmente no Facebook e Twitter.
Outra zona de perigo no horizonte é a proliferação de drones e robôs que podem ser reaproveitados para colidir com veículos autônomos, entregar mísseis ou ameaçar a infraestrutura crítica para obter resgate.
Armas autônomas
“Pessoalmente, estou particularmente preocupado com os drones autônomos sendo usados para terror e ataques cibernéticos automatizados por criminosos e grupos estatais”, disse o coautor Miles Brundage, pesquisador do Instituto Futuro da Humanidade da Universidade de Oxford.
O relatório detalha um cenário plausível no qual um SweepBot de limpeza de escritórios equipado com uma bomba se infiltra no ministério das finanças alemão, misturando-se a outras máquinas da mesma marca.
O robô intruso se comporta normalmente - varrendo, limpando, removendo lixo - até que seu software de reconhecimento facial oculto localize o ministro e se aproxime.
“Um dispositivo explosivo oculto foi acionado pela proximidade, matando o ministro e ferindo funcionários próximos”, de acordo com o enredo de ficção científica.
Leia a história completa aqui…
Veja também, O uso malicioso da inteligência artificial: previsão, prevenção e mitigação na Electronic Frontier Foundation.