A IA será usada para distorcer os resultados das eleições de 2024?

Compartilhe esta história!
Chatbots, duplicação de voz, deep fakes e algoritmos de busca nas mãos de atores progressistas e tecnocratas pretendem congelar todas as outras vozes nas eleições de 2024. Esta é uma ameaça existencial à integridade eleitoral na América, mas o diálogo nacional não está acontecendo. Notícias sobre a ameaça em si estão sendo censuradas.⁃ Editor TN

Engenheiros de computação e cientistas políticos com inclinação para a tecnologia alertam há anos que ferramentas baratas e poderosas de inteligência artificial em breve permitirão que qualquer um crie imagens, vídeos e áudios falsos que sejam realistas o suficiente para enganar os eleitores e talvez influenciar uma eleição.

As imagens sintéticas que emergiram foram muitas vezes brutopouco convincente e caro para produzir, especialmente quando outros tipos de desinformação eram tão baratos e fáceis de espalhar nas redes sociais. A ameaça representada pela IA e pelos chamados deepfakes sempre parecia estar a um ou dois anos de distância.

Não mais.

Ferramentas sofisticadas de IA generativa agora podem criar vozes humanas clonadas e imagens hiper-realistas, vídeos e áudio em segundos, a um custo mínimo. Quando amarrado a poderosos algoritmos de mídia social, esse conteúdo falso e criado digitalmente pode se espalhar rapidamente e atingir públicos altamente específicos, potencialmente levando os truques sujos da campanha a um novo nível.

As implicações para as campanhas e eleições de 2024 são tão grandes quanto preocupantes: a IA generativa pode não apenas produzir rapidamente e-mails, textos ou vídeos de campanha direcionados, mas também pode ser usada para enganar os eleitores, se passam por candidatos e minam as eleições em uma escala e velocidade ainda não vistas.

“Não estamos preparados para isso”, alertou AJ Nash, vice-presidente de inteligência da empresa de segurança cibernética ZeroFox. ”Para mim, o grande avanço são os recursos de áudio e vídeo que surgiram. Quando você puder fazer isso em grande escala e distribuí-lo em plataformas sociais, bem, terá um grande impacto.”

Especialistas em IA pode citar rapidamente uma série de cenários alarmantes nos quais a IA generativa é usada para criar mídia sintética com o objetivo de confundir os eleitores, caluniar um candidato ou até mesmo incitar a violência.

Aqui estão alguns: mensagens automáticas de chamada automática, na voz de um candidato, instruindo os eleitores a votar na data errada; gravações de áudio de um candidato supostamente confessando um crime ou expressando opiniões racistas; imagens de vídeo mostrando alguém fazendo um discurso ou entrevista eles nunca deram. Imagens falsas projetadas para se parecer com reportagens locais, alegando falsamente que um candidato desistiu da corrida.

“E se Elon Musk ligar pessoalmente para você e pedir para você votar em um determinado candidato?” disse Oren Etzioni, CEO fundador do Allen Institute for AI, que deixou o cargo no ano passado para iniciar a organização sem fins lucrativos AI2. “Muitas pessoas ouviriam. Mas não é ele.”

O ex-presidente Donald Trump, que concorre em 2024, compartilhou conteúdo gerado por IA com seus seguidores nas redes sociais. Um vídeo manipulado do apresentador da CNN Anderson Cooper que Trump compartilhou em sua plataforma Truth Social na sexta-feira, que distorceu a reação de Cooper ao Câmara Municipal da CNN semana passada com Trump, foi criado usando uma ferramenta de clonagem de voz AI.

Um anúncio de campanha distópico lançado no mês passado pelo Comitê Nacional Republicano oferece outro vislumbre desse futuro manipulado digitalmente. O anúncio online, que veio depois O presidente Joe Biden anunciou sua campanha de reeleição, e começa com uma imagem estranha e ligeiramente distorcida de Biden e o texto “E se o presidente mais fraco que já tivemos fosse reeleito?”

Segue uma série de imagens geradas por IA: Taiwan sob ataque; vitrines fechadas com tábuas nos Estados Unidos enquanto a economia desmorona; soldados e veículos militares blindados patrulhando as ruas locais enquanto criminosos tatuados e ondas de imigrantes criam pânico.

“Uma visão gerada por IA sobre o possível futuro do país se Joe Biden for reeleito em 2024”, diz a descrição do anúncio do RNC.

O RNC reconheceu seu uso de IA, mas outros, incluindo campanhas políticas nefastas e adversários estrangeiros, não o farão, disse Petko Stoyanov, diretor global de tecnologia da Forcepoint, uma empresa de segurança cibernética com sede em Austin, Texas. Stoyanov previu que os grupos que buscam se intrometer na democracia dos EUA empregarão IA e mídia sintética como forma de minar a confiança.

“O que acontece se uma entidade internacional – um cibercriminoso ou um estado nacional – personifica alguém. Qual é o impacto? Temos algum recurso?” disse Stoyanov. “Vamos ver muito mais desinformação de fontes internacionais.”

A desinformação política gerada por IA já se tornou viral online antes da eleição de 2024, de um vídeo adulterado de Biden parecendo fazer um discurso atacando pessoas transgênero para Imagens de crianças geradas por IA supostamente aprendendo satanismo em bibliotecas.

imagens de IA aparecendo para mostrar a foto de Trump também enganou alguns usuários de mídia social, embora o ex-presidente não tenha feito uma quando foi autuado e indiciado em um tribunal criminal de Manhattan por falsificação de registros comerciais. Outras imagens geradas por IA mostraram Trump resiste à prisão, embora seu criador tenha reconhecido rapidamente sua origem.

A legislação que exige que os candidatos rotulem os anúncios de campanha criados com IA foi apresentada na Câmara pela deputada Yvette Clarke, DN.Y., que também patrocinou uma legislação que exigiria que qualquer pessoa que criasse imagens sintéticas adicionasse uma marca d'água indicando o fato.

Alguns estados ofereceram suas próprias propostas por abordar preocupações sobre deepfakes.

Clarke disse que seu maior medo é que a IA generativa possa ser usada antes da eleição de 2024 para criar um vídeo ou áudio que incite a violência e coloque os americanos uns contra os outros.

“É importante estarmos atualizados com a tecnologia”, disse Clarke à Associated Press. “Temos que colocar algumas grades de proteção. As pessoas podem ser enganadas e isso leva apenas uma fração de segundo. As pessoas estão ocupadas com suas vidas e não têm tempo para verificar todas as informações. A IA sendo armada, em uma temporada política, pode ser extremamente perturbadora”.

No início deste mês, uma associação comercial para consultores políticos em Washington condenou o uso de deepfakes na propaganda política, chamando-os de “um engano” sem “lugar em campanhas legítimas e éticas”.

Outras formas de inteligência artificial têm sido uma característica da campanha política há anos, usando dados e algoritmos para automatizar tarefas como direcionar eleitores nas mídias sociais ou rastrear doadores. Estrategistas de campanha e empreendedores de tecnologia esperam que as inovações mais recentes também ofereçam alguns aspectos positivos em 2024.

Mike Nellis, CEO da agência digital progressiva Authentic, disse que usa ChatGPT “todos os dias” e incentiva sua equipe a usá-la também, desde que qualquer conteúdo elaborado com a ferramenta seja revisado por olhos humanos posteriormente.

Leia a história completa aqui…

Sobre o Editor

Patrick Wood
Patrick Wood é um especialista líder e crítico em Desenvolvimento Sustentável, Economia Verde, Agenda 21, Agenda 2030 e Tecnocracia histórica. Ele é o autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) e co-autor de Trilaterals Over Washington, Volumes I e II (1978-1980) com o falecido Antony C. Sutton.
Subscrever
Receber por
convidado

1 Comentário
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários

[…] A IA será usada para distorcer os resultados das eleições de 2024? […]