Nas semanas desde a eleição presidencial nos EUA, o CEO do Facebook, Mark Zuckerberg, está combatendo incêndios. Não literalmente, mas figurativamente. Acusações generalizadas afirmam que sua empresa de mídia social contribuiu para o resultado inesperado da eleição propagando notícias falsas e "bolhas de filtro". Zuckerberg refutou duramente essas alegações, mas o caso coloca uma pergunta espinhosa: como podemos garantir que a tecnologia funcione para a sociedade?
Está surgindo uma quarta revolução industrial que colocará questões éticas difíceis com poucas respostas simples em preto e branco. Sensores menores, mais poderosos e mais baratos; avanços da computação cognitiva em inteligência artificial, robótica, análise preditiva e aprendizado de máquina; nano, neuro e biotecnologia; a Internet das coisas; Impressão 3D; e muito mais, já estão exigindo respostas reais muito rapidamente. E isso só ficará mais difícil e complexo quando incorporarmos esses novo tecnologias em nossos corpos e cérebros para melhorar nosso funcionamento físico e cognitivo.
Faça a escolha que a sociedade em breve terá que fazer sobre carros autônomos como exemplo. Se um acidente não puder ser evitado, um carro deve ser programado para minimizar as vítimas, mesmo que isso prejudique os ocupantes, ou o carro deve proteger seus ocupantes sob quaisquer circunstâncias?
Pesquisas demonstram que o público está em conflito. Os consumidores preferem minimizar o número total de vítimas em um acidente de carro, mas não estão dispostos a comprar um carro autônomo, se este não for autoprotetor. Obviamente, a opção ideal é que as empresas desenvolvam algoritmos que ignoram completamente essa possibilidade, mas isso nem sempre pode ser uma opção. O que está claro, no entanto, é que tais dilemas éticos devem ser reconciliados antes que qualquer consumidor entregue suas chaves aos algoritmos de orifício escuro.
Com tantas partes interessadas envolvidas, como garantimos um modelo de governança que fará a tecnologia funcionar para a sociedade?