Os principais especialistas alertam contra o "uso malicioso" da IA

em brancoImagem: Fundação Electronic Frontier
Compartilhe esta história!
image_pdfimage_print

Os principais especialistas estão alertando para os perigos da IA, mas alguém está ouvindo? Os tecnocratas que inventam e implementam essa tecnologia não se preocupam com a ética ou o resultado de suas invenções. ⁃ Editor TN

Inteligência artificial pode ser empregada por ditadores, criminosos e terroristas para manipular eleições e usar drones em ataques terroristas, disseram mais de duas dúzias de especialistas nesta quarta-feira, quando soaram o alarme pelo uso indevido da tecnologia.

Em uma análise da página 100, eles descreveram um rápido crescimento do crime cibernético e o uso de "bots" para interferir na coleta de notícias e penetrar nas mídias sociais entre uma série de cenários plausíveis nos próximos cinco a dez anos da 10.

"Nosso relatório se concentra em maneiras pelas quais as pessoas podem causar danos deliberados à IA", disse Sean O'Higeartaigh, diretor executivo do Cambridge Center for the Existential Risk.

"A IA pode representar novas ameaças ou alterar a natureza das ameaças existentes, através da segurança cibernética, física e política", disse ele à AFP.

A prática comum, por exemplo, de “phishing” - enviar e-mails semeados com malware ou projetados para identificar dados pessoais valiosos - pode se tornar muito mais perigosa, detalhou o relatório.

Atualmente, as tentativas de phishing são genéricas, mas transparentes - como golpistas que solicitam detalhes bancários para depositar inesperados lucros - ou personalizadas, mas que exigem muito trabalho - para coletar dados pessoais para ganhar a confiança de alguém, conhecido como "spear phishing".

“Usando a IA, pode ser possível fazer spear phishing em escala automatizando grande parte do processo” e dificultando a identificação, observou O'Higeartaigh.

Na esfera política, líderes inescrupulosos ou autocráticos já podem usar tecnologia avançada para vasculhar montanhas de dados coletados de redes de vigilância onipresentes para espionar seu próprio povo.

"Os ditadores podem identificar mais rapidamente as pessoas que planejam subverter um regime, localizá-las e colocá-las na prisão antes de agirem", afirmou o relatório.

Da mesma forma, propaganda direcionada, juntamente com vídeos falsos baratos e altamente críveis, tornaram-se ferramentas poderosas para manipular a opinião pública "em escalas anteriormente inimagináveis".

Uma acusação proferida pelo promotor especial dos EUA Robert Mueller na semana passada detalhou uma vasta operação para semear a divisão social nos Estados Unidos e influenciar a eleição presidencial da 2016, na qual as chamadas "fazendas de trolls" manipularam milhares de bots de redes sociais, especialmente no Facebook e Twitter.

Outra zona de perigo no horizonte é a proliferação de drones e robôs que podem ser reaproveitados para colidir com veículos autônomos, entregar mísseis ou ameaçar a infraestrutura crítica para obter resgate.

Armas autônomas

"Pessoalmente, estou particularmente preocupado com o uso de drones autônomos para terror e ataques cibernéticos automatizados por criminosos e grupos estatais", disse o co-autor Miles Brundage, pesquisador do Future of Humanity Institute da Universidade de Oxford.

O relatório detalha um cenário plausível no qual um SweepBot de limpeza de escritórios equipado com uma bomba se infiltra no ministério das finanças alemão, misturando-se a outras máquinas da mesma marca.

O robô invasor se comporta normalmente - varrendo, limpando e limpando o lixo - até que seu software de reconhecimento facial oculto encontre o ministro e se feche.

"Um dispositivo explosivo oculto foi acionado pela proximidade, matando o ministro e ferindo funcionários próximos", de acordo com a história de ficção científica.

Leia a história completa aqui…

Veja também, O uso malicioso da inteligência artificial: previsão, prevenção e mitigação na Electronic Frontier Foundation.

Junte-se à nossa lista de endereços!


avatar
Subscrever
Receber por