Cientistas: dados e IA podem dizer quem está mentindo

Fotos da Universidade de Rochester / J. Adam Fenster
Compartilhe esta história!
À medida que os algoritmos de análise facial de IA proliferam, eles serão implementados em todas as aplicações e circunstâncias concebíveis. No entanto, esse software nunca será 'certificado' como 100% eficaz, criando um caos social à medida que as acusações voam. Cientistas tecnocratas que inventam essas coisas não têm visão da ética ou das implicações sociais. ⁃ Editor TN

Alguém está remexendo em uma longa fila no portão de segurança do aeroporto. Essa pessoa está simplesmente nervosa com a espera?

Ou é um passageiro que tem algo sinistro para esconder?

Mesmo os oficiais de segurança aeroportuária da Administração de Segurança em Transportes (TSA), altamente treinados, ainda têm dificuldade em dizer se alguém está mentindo ou dizendo a verdade - apesar dos bilhões de dólares e anos de estudo dedicados ao assunto.

Agora, os pesquisadores da Universidade de Rochester estão usando ciência de dados e uma estrutura de crowdsourcing on-line chamada ADDR (Automated Dyadic Data Recorder) para aprimorar nossa compreensão do engano com base em dicas faciais e verbais.

Eles também esperam minimizar os casos de perfis raciais e étnicos que os críticos da TSA alegam que ocorrem quando os passageiros são afastados pelo programa de triagem de passageiros por técnicas de observação da agência (SPOT).

"Basicamente, nosso sistema é como o Skype em esteróides", diz Tay Sen, estudante de doutorado no laboratório de Ehsan Hoque, professor assistente de Ciência da Computação. Sen colaborou estreitamente com Karmul Hasan, outro estudante de doutorado do grupo, em dois trabalhos em Reconhecimento automatizado de rosto e gestos IEEE e a Procedimentos do ACM em tecnologias interativas, móveis, vestíveis e ubíquas. Os documentos descrevem a estrutura que o laboratório usou para criar o maior conjunto de dados de fraude disponível publicamente até agora - e por que alguns sorrisos são mais enganosos que outros.

Jogo revela a verdade por trás de um sorriso

Veja como o ADDR funciona: duas pessoas se inscrevem no Amazon Mechanical Turk, o mercado de crowdsourcing da Internet que combina pessoas com tarefas que os computadores não podem executar no momento. Um vídeo designa uma pessoa para ser o descritor e a outra para o interrogador.

O descritor é então mostrado uma imagem e é instruído a memorizar o máximo de detalhes possível. O computador instrui o descritor a mentir ou contar a verdade sobre o que acabou de ver. O interrogador, que não teve conhecimento das instruções para o descritor, então pergunta ao descritor um conjunto de questões básicas não relevantes para a imagem. Isso é feito para capturar as diferenças individuais de comportamento que podem ser usadas para desenvolver um "modelo personalizado". As perguntas de rotina incluem "o que você vestiu ontem?" - para provocar um estado mental relevante para recuperar uma memória - e "quanto é 14 vezes 4?" - provocar um estado mental relevante para a memória analítica.

"Muitas vezes as pessoas tendem a parecer de certa maneira ou a mostrar algum tipo de expressão facial quando se lembram de coisas", disse Sen. "E quando recebem uma pergunta computacional, eles têm outro tipo de expressão facial."

Também são perguntas sobre as quais a testemunha não teria incentivo para mentir e que fornecem uma linha de base das respostas "normais" desse indivíduo ao responder honestamente.

E, é claro, existem perguntas sobre a própria imagem, às quais a testemunha dá uma resposta verdadeira ou desonesta.

Toda a troca é gravada em um vídeo separado para análise posterior.

1 milhões de rostos

Uma vantagem dessa abordagem de crowdsourcing é que ela permite que os pesquisadores utilizem um grupo muito maior de participantes da pesquisa - e coletem dados muito mais rapidamente - do que ocorreria se os participantes tivessem que ser trazidos para um laboratório, diz Hoque. Não ter um conjunto de dados padronizado e consistente com uma verdade confiável sobre o solo tem sido o maior revés para a pesquisa de fraude, diz ele. Com a estrutura do ADDR, os pesquisadores reuniram o milhão de quadros de expressões faciais 1.3 de pares de indivíduos 151 jogando o jogo, em poucas semanas de esforço. Mais coleta de dados está em andamento no laboratório.

A ciência de dados está permitindo que os pesquisadores analisem rapidamente todos esses dados de maneiras novas. Por exemplo, eles usaram um software automatizado de análise de características faciais para identificar quais unidades de ação estavam sendo usadas em um determinado quadro e atribuir um peso numérico a cada uma.

Os pesquisadores então usaram uma técnica de agrupamento não supervisionado - um método de aprendizado de máquina que pode encontrar padrões automaticamente sem ser atribuído a quaisquer rótulos ou categorias predeterminadas.

Ele nos disse que havia basicamente cinco tipos de 'rostos' relacionados a sorrisos que as pessoas faziam ao responder a perguntas ”, disse Sen. A mais frequentemente associada à mentira foi uma versão de alta intensidade do chamado sorriso de Duchenne, envolvendo os músculos das bochechas / olhos e boca. Isso é consistente com a teoria do "Duping Delight" de que "quando você está enganando alguém, costuma se deliciar com isso", explicou Sen.

Mais intrigante foi a descoberta de que testemunhas honestas costumavam contrair os olhos, mas nem sorrir com a boca. "Quando voltamos a reproduzir os vídeos, descobrimos que isso geralmente acontecia quando as pessoas tentavam se lembrar do que havia em uma imagem", disse Sen. "Isso mostrou que eles estavam se concentrando e tentando se lembrar honestamente".

Leia a história completa aqui…

Subscrever
Receber por
convidado

1 Comentário
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários
Tomsen

Eu só me pergunto como as pessoas podem viver uma vida completamente sem conteúdo, apenas com ilusões.
Se o AI Facial pode dizer quem está mentindo, por que eles não tentaram fazer isso com Al Gore, Obama, Bush e 9 de setembro há muito tempo?
A resposta é que a IA é baseada em premissas falsas, por que o resultado fora do curso também deve ser falso