Facebook para usar a IA para escanear seus pensamentos, 'Melhorar a segurança do usuário'

Wikipedia Commons
Compartilhe esta história!
Os engenheiros sociais com espírito tecnocrata do Facebook acham que agora podem escanear seus pensamentos lendo suas postagens, declarando quando você precisa de serviços de saúde mental. Realmente? Eles vão denunciá-lo automaticamente para que homens de jaleco branco apareçam na porta do seu apartamento com uma jaqueta reta? Essa linha de pensamento está além de perigosa. ⁃ Editor TN

Este é um software para salvar vidas. A nova tecnologia de inteligência artificial de “detecção proativa” do Facebook fará a varredura em todas as postagens em busca de padrões de pensamentos suicidas e, quando necessário, enviará recursos de saúde mental para o usuário em risco ou seus amigos, ou contatará os primeiros respondentes locais. Ao usar a IA para sinalizar postagens preocupantes para moderadores humanos, em vez de esperar por relatórios de usuários, o Facebook pode diminuir o tempo que leva para enviar ajuda.

Facebook anteriormente testado usando AI para detectar posts preocupantes e opções de notificação de suicídio com maior destaque para amigos nos EUA. Agora o Facebook está vasculhará todos os tipos de conteúdo ao redor do mundo com esta IA, exceto na União Europeia, onde Regulamento geral de proteção de dados as leis de privacidade de criação de perfil de usuários com base em informações confidenciais complicam o uso dessa tecnologia.

O Facebook também usará a IA para priorizar relatórios de usuários particularmente arriscados ou urgentes, para que sejam abordados mais rapidamente por moderadores e ferramentas para exibir instantaneamente recursos do idioma local e informações de contato de quem responde primeiro. Também está dedicando mais moderadores à prevenção do suicídio, treinando-os para lidar com os casos 24 / 7, e agora tem parceiros locais 80 como Save.org, National Suicide Prevention Lifeline e Forefront, para fornecer recursos a usuários em risco e suas redes .

“Trata-se de economizar minutos em cada etapa do processo, especialmente no Facebook Live”, afirma o vice-presidente de gerenciamento de produtos Guy Rosen. No último mês de testes, o Facebook iniciou mais de 100 “verificações de bem-estar” com os primeiros respondentes visitando os usuários afetados. “Houve casos em que o primeiro respondente chegou e a pessoa ainda está transmitindo.”

A idéia de o Facebook digitalizar proativamente o conteúdo das postagens das pessoas pode desencadear alguns medos distópicos sobre como a tecnologia poderia ser aplicada. O Facebook não tinha respostas sobre como evitar a busca por dissidência política ou pequenos delitos, com Rosen apenas dizendo "temos uma oportunidade de ajudar aqui, então vamos investir nisso". Certamente, existem aspectos benéficos maciços sobre o tecnologia, mas é outro espaço em que temos pouca escolha a não ser esperar que o Facebook não vá longe demais.

O CEO do Facebook, Mark Zuckerberg, elogiou a atualização do produto em um post hoje, escrevendo isso "No futuro, a IA será capaz de entender mais nuances sutis da linguagem e também identificará questões diferentes além do suicídio, incluindo rapidamente detectar mais tipos de bullying e ódio".

Infelizmente, depois que o TechCrunch perguntou se havia uma maneira de os usuários optarem por não receber suas postagens, um porta-voz do Facebook respondeu que os usuários não podem optar por não participar. Eles observaram que o recurso foi desenvolvido para aumentar a segurança do usuário e que os recursos de suporte oferecidos pelo Facebook podem ser rapidamente descartados se um usuário não quiser vê-lo.]

O Facebook treinou a IA encontrando padrões nas palavras e imagens usadas nas postagens que foram relatadas manualmente para risco de suicídio no passado. Ele também procura comentários como "você está bem?" E "Você precisa de ajuda?"

Leia a história completa aqui…

Subscrever
Receber por
convidado

0 Comentários
Comentários em linha
Ver todos os comentários