Atualização: Google cancela painel de ética da IA ​​após tumulto

Wikimedia Commons
Compartilhe esta história!
O painel de ética do Google foi cercado por milhares de (antiéticos?) Não participantes atacando membros individuais de seu painel de ética. O resultado foi o caos total, renúncias e, finalmente, o cancelamento de tudo. Big Tech e ética estão se aproximando de um status oximorônico. ⁃ Editor TN

Esta semana, Vox e outros pontos de venda relatado que o recém criado conselho de ética em IA do Google estava desmoronando em meio a controvérsias sobre vários membros do conselho.

Bem, é oficialmente feito desmoronar - foi cancelado. O Google disse à Vox na quinta-feira que está desconectando o conselho de ética.

O conselho sobreviveu por pouco mais de uma semana. Fundada para orientar o "desenvolvimento responsável da IA" no Google, ela teria oito membros e se reuniu quatro vezes ao longo da 2019 para considerar preocupações com o programa de IA da Google. Essas preocupações incluem como a IA pode permitir estados autoritários, como os algoritmos da IA ​​produzem resultados díspares, se trabalharão em aplicações militares da IA ​​e muito mais. Mas teve problemas desde o início.

Milhares de funcionários do Google assinaram um petição pedindo a remoção de um membro do conselho, Kay Coles James, presidente da Heritage Foundation, sobre seus comentários sobre pessoas trans e o ceticismo de mudanças climáticas de sua organização. Enquanto isso, a inclusão do CEO da empresa de drones Dyan Gibbens reabriu antigas divisões da empresa durante o uso da IA ​​da empresa para aplicações militares.

Membro do Conselho Alessandro Acquisti resignado. Outra membro, Joanna Bryson, defendendo sua decisão de não renunciar, reivindicado de James, "Acredite ou não, sei pior sobre uma das outras pessoas." Outros membros do conselho se viram inundado com exigências que justifiquem sua decisão de permanecer no conselho.

Na quinta-feira à tarde, um porta-voz do Google disse à Vox que a empresa decidiu dissolver completamente o painel, chamado Conselho Consultivo Externo de Tecnologia Avançada (ATEAC). Aqui está a declaração da empresa na íntegra:

Ficou claro que, no ambiente atual, o ATEAC não pode funcionar como queríamos. Então, estamos encerrando o conselho e voltando à prancheta. Continuaremos a ser responsáveis ​​em nosso trabalho sobre as questões importantes levantadas pela IA e encontraremos maneiras diferentes de obter opiniões externas sobre esses tópicos.

O painel deveria acrescentar perspectivas externas ao trabalho contínuo de ética em IA dos engenheiros do Google, e tudo continuará. Felizmente, o cancelamento do conselho não representa um recuo do trabalho de ética em IA do Google, mas uma chance de considerar como se envolver de forma mais construtiva com as partes interessadas externas.

O conselho estava se tornando uma enorme responsabilidade para o Google

A credibilidade do conselho foi atingida pela primeira vez quando Alessandro Acquisti, pesquisador de privacidade, anunciou no Twitter que ele estava deixando o cargo, argumentando: “Embora eu me dedique a pesquisar as principais questões éticas de justiça, direitos e inclusão na IA, não acredito que este seja o fórum certo para eu me envolver neste importante trabalho”.

Enquanto isso, o petição para remover Kay Coles James atraiu mais de assinaturas do 2,300 dos funcionários do Google até o momento e não mostrou sinais de perda de força.

À medida que a raiva sobre o conselho se intensificava, os membros do conselho eram atraídos para amplos debates éticos sobre por que eles estavam no conselho, o que não poderia ser o que o Google esperava. No Facebook, o membro do conselho Luciano Floridi, filósofo da ética em Oxford, ponderou:

Pedir conselhos [de Kay Coles James] foi um erro grave e envia a mensagem errada sobre a natureza e os objetivos de todo o projeto da ATEAC. De uma perspectiva ética, o Google julgou mal o que significa ter visões representativas em um contexto mais amplo. Se a Sra. Coles James não se demitir, como espero que ela faça, e se o Google não a remover (https://medium.com/…/googlers-against-transphobia-and-hate-…), como eu pessoalmente recomendei, a pergunta é: qual é a posição moral correta a ser tomada diante desse grave erro?

Ele acabou decidindo permanecer no painel, mas esse não era o tipo de debate ético que o Google esperava desencadear - e ficou difícil imaginar os dois trabalhando juntos.

Esse não era o único problema. Eu argumentou há um dia que, indignação à parte, o conselho não estava bem preparado para o sucesso. Os conselhos de ética em IA, como o do Google, que estão em voga no Vale do Silício, parecem não estar preparados para resolver, ou mesmo progredir, sobre questões difíceis sobre o progresso ético da IA.

Um papel no comitê de inteligência artificial do Google era uma posição não remunerada e desdentada que não pode, em quatro reuniões ao longo de um ano, chegar a um entendimento claro de tudo o que o Google está fazendo, muito menos oferecer orientações detalhadas sobre ele. Há questões éticas urgentes sobre o trabalho de IA que o Google está realizando - e não há um caminho real pelo qual o conselho possa resolvê-las satisfatoriamente. Desde o início, ele foi mal projetado para o objetivo.

Agora foi cancelado.

Leia a história completa aqui…

Subscrever
Receber por
convidado

0 Comentários
Comentários em linha
Ver todos os comentários