Acessível tecnologia de consumo tornou a vigilância barata e o software de IA comoditizado tornou-o automático.
Essas duas tendências se fundiram nesta semana, quando o fabricante de drones DJI parceriaJunho 5 com a Axon, empresa que fabrica armas Taser e câmeras do corpo policial, para vender drones a departamentos policiais locais nos Estados Unidos. Agora, não apenas a polícia local tem acesso a drones, mas as filmagens dessas câmeras voadoras serão analisadas automaticamente por sistemas de IA não divulgados ao público.
As imagens serão carregadas ou transmitidas para a nuvem digital da Axon para câmeras policiais, como a câmeras corporais atualmente vende, onde pode ser analisado pela IA da Axon e usado para qualquer coisa, desde monitoramento de multidões a busca e salvamento, a empresa escreve em seu site.
Isso parece vago, mas a IA pesquisa publicada dois dias antes, por acadêmicos da Índia e do Reino Unido, mostram exatamente como esse sistema de drones poderia ser usado. O documento, intitulado "Olho no céu", detalha como as imagens dos drones podem ser usadas para detectar "indivíduos violentos" em tempo real.
Para treinar a IA, os pesquisadores usaram um drone para capturar imagens 2,000 de pessoas que fingem se machucar. Mas como os pesquisadores não usaram dados reais e cuidadosamente prepararam as informações que a IA analisou para descobrir a diferença entre violência e movimento humano normal, não há garantia de que funcionaria bem no mundo real, David Sumpter, autor de Em menor número: Explorando os algoritmos que controlam nossas vidas, escreveu no Medium.
"O que o algoritmo fez é classificar os indivíduos com as mãos ou as pernas no ar como violentos", escreveu Sumpter. Outros, como o Google Ethics Hawk, Meredith Whittaker, twittou que a pesquisa foi falha e que "a IA está enfrentando uma crescente crise ética".
Outros pesquisadores, incluindo Google (pdf) e Facebook, também fizeram uma extensa pesquisa tentando resolver o mesmo problema de rastrear como as pessoas se movem e o que esses movimentos podem indicar que estão fazendo.
Mas os pesquisadores do "Eye in the Sky" estão tentando associar certas poses à intenção. Os pesquisadores não discutem nenhum falso positivo para ações que poderiam ser mal interpretadas como violência, como brigas, derrubar uma mosca do ombro de alguém ou agarrar alguém que está caindo.
Independentemente das perguntas relacionadas à legitimidade da IA, The Verge relatórios que os pesquisadores obtiveram aprovação para testar a tecnologia durante dois festivais na Índia em outubro.
Com $ 160 por um Drone papagaio como a equipe "Eye in the Sky" usada, e alguns centavos para a plataforma de IA de nuvem da Amazon, qualquer pessoa com experiência em codificação poderia ter criado um sistema semelhante. Até adolescentes e agricultores de pepino estão construindo seus próprios sistemas de IA.