Serviços de proteção infantil para uso de IA e big data para prever abuso infantil

Compartilhe esta história!
O pré-crime é levado a um novo extremo para acabar com as situações de abuso infantil, mas para chegar lá, milhões de cidadãos sofrerão abuso de privacidade. Muitos falsos positivos também serão abusados ​​injustamente. Isso está trocando um tipo de abuso por outro? Na verdade, os tecnocratas criaram uma tempestade ética. ⁃ Editor TN

Em uma era de austeridade e um clima de medo sobre o abuso infantil, talvez não seja surpreendente que os assistentes sociais tenham recorrido a novas tecnologias para obter ajuda.

Autoridades locais - que enfrentam demanda crescente e um déficit de financiamento de £ 800m - estão começando a perguntar se o big data pode ajudar a identificar crianças vulneráveis.

Um programa de computador poderia sinalizar uma família problemática, identificar uma vítima em potencial e impedir outro bebê P ou Victoria Climbié?

Anos atrás, essas perguntas teriam sido o material da ficção científica; agora eles são o material do fato científico.

Bristol é um lugar que experimenta esses novos recursos e enfrenta as questões éticas e morais que os acompanham.

Gary Davies, que supervisiona o sistema preditivo do conselho, pode ver as vantagens.

Ele argumenta que isso não significa tirar os seres humanos do processo de tomada de decisão; ao contrário, significa usar dados para impedir que os humanos cometam erros.

"Não está dizendo que você será explorado sexualmente ou desaparecerá", diz Davies. “Está demonstrando as características comportamentais de ser explorado ou desaparecido. Está sinalizando esse risco e vulnerabilidade. ”

Tais técnicas têm trabalhado em outras áreas há anos. Os sistemas de aprendizado de máquina criados para extrair grandes quantidades de dados pessoais são utilizados há muito tempo para prever o comportamento do cliente no setor privado.

Os programas de computador avaliam a probabilidade de inadimplência de um empréstimo ou o risco que representamos para um provedor de seguros.

Os projetistas de um modelo preditivo precisam identificar uma "variável de resultado", que indica a presença do fator que eles estão tentando prever.

Para a proteção de crianças, pode ser uma criança entrando no sistema de assistência.

Eles então tentam identificar características comumente encontradas em crianças que entram no sistema de atendimento. Uma vez identificados, o modelo pode ser executado em grandes conjuntos de dados para encontrar outros indivíduos que compartilham as mesmas características.

O Guardian obteve detalhes de todos os indicadores preditivos considerados para inclusão no sistema de proteção infantil do conselho de Thurrock. Eles incluem histórico de abuso doméstico, ofensas juvenis e evasão escolar.

Indicadores mais surpreendentes, como atrasos de aluguel e dados de saúde, foram considerados inicialmente, mas excluídos do modelo final. No caso de Thurrock, um conselho em Essex, e da cidade de Hackney, em Londres, as famílias podem ser sinalizadas para assistentes sociais como possíveis candidatos ao programa Troubled Families. Através desse esquema, os conselhos recebem subsídios do governo central para ajudar famílias com dificuldades de longo prazo, como o desemprego.

Tais sistemas inevitavelmente levantam preocupações com a privacidade. Wajid Shafiq, executivo-chefe da Xantura, empresa que fornece trabalho de análise preditiva para Thurrock e Hackney, insiste que existe um equilíbrio a ser alcançado entre direitos de privacidade e uso da tecnologia para proporcionar um bem público.

Leia a história completa aqui…

Subscrever
Receber por
convidado

0 Comentários
Comentários em linha
Ver todos os comentários