Mais do que nunca, Facebook está sob pressão para provar que seus algoritmos estão sendo implantados com responsabilidade.
Na quarta-feira, em sua conferência de desenvolvedores F8, a empresa revelou que formou uma equipe especial e desenvolveu software discreto para garantir que seus sistemas de inteligência artificial tomem decisões da forma mais ética possível, sem preconceitos.
Facebook, como outras grandes empresas de tecnologia com produtos utilizados por grandes e diversos grupos de pessoas, é incorporando mais profundamente AI em seus serviços. O Facebook anunciou esta semana que começará a oferecer a tradução de mensagens que as pessoas recebem por meio do aplicativo Messenger. Os sistemas de tradução devem primeiro ser treinados em dados, e a pressão ética pode ajudar a garantir que os sistemas do Facebook sejam ensinados a fornecer traduções justas.
O Facebook disse que esses esforços não são o resultado de quaisquer mudanças que ocorreram nas sete semanas desde que foi revelado que a empresa de análise de dados Cambridge Analytica uso indevido de dados pessoais de usuários da rede social antes da eleição de 2016. Mas está claro que o sentimento público em relação ao Facebook se tornou dramaticamente negativo nos últimos tempos, tanto que o CEO Mark Zuckerberg teve que passar horas questionando o congresso no mês passado.
Todo anúncio está agora sob um microscópio.
O Facebook parou de formar um conselho focado na ética da IA, como Axon (anteriormente Taser) fez na semana passada. Mas os movimentos se alinham com um reconhecimento mais amplo da indústria de que os pesquisadores de IA precisam trabalhar para tornar seus sistemas inclusivos. O grupo DeepMind AI da Alphabet formou um equipe de ética e sociedade ano passado. Antes disso, Microsoft A organização de pesquisa estabeleceu um grupo de Transparência e Ética em Prestação de Contas.
O campo da IA teve sua parte de vergonha, como quando o Google Fotos foi visto três anos atrás categorizando os negros como gorilas.
No ano passado, a equipe de Kloumann desenvolveu um software chamado Fairness Flow, que desde então foi integrado ao sistema amplamente usado do Facebook FBLearner Flow software interno para treinar e executar sistemas de IA com mais facilidade. O software analisa os dados, levando em consideração seu formato e, em seguida, produz um relatório resumindo-os.
Kloumann disse que tem trabalhado no assunto da justiça desde que ingressou no Facebook em 2016, exatamente quando as pessoas na indústria de tecnologia começaram a falar sobre isso mais abertamente e as preocupações da sociedade surgiram sobre o poder da IA.
Leia a história completa aqui…