A União Europeia publicou hoje um conjunto de diretrizes sobre como empresas e governos devem desenvolver aplicações éticas da inteligência artificial.
Essas regras não são como as “Três Leis da Robótica” de Isaac Asimov. Elas não oferecem uma estrutura moral rígida que nos ajudará a controlar robôs assassinos. Em vez disso, eles abordam os problemas obscuros e difusos que afetarão a sociedade à medida que integramos a IA em setores como assistência médica, educação e tecnologia do consumidor.
Assim, por exemplo, se um sistema de IA diagnosticar você com câncer em algum momento no futuro, as diretrizes da UE deverão garantir que várias coisas ocorram: que o software não seja influenciado por sua raça ou sexo, mas não substitui as objeções de um médico humano e deu ao paciente a opção de ter seu diagnóstico explicado.
Então, sim, essas diretrizes tratam de impedir que a IA fique louca, mas no nível de administração e burocracia, não nos mistérios do assassinato no estilo Asimov.
Para ajudar nesse objetivo, a UE convocou um grupo de especialistas da 52 que criaram sete requisitos que acham que os futuros sistemas de IA devem atender. Eles são os seguintes:
- Agência e fiscalização humana - A IA não deve pisar na autonomia humana. As pessoas não devem ser manipuladas ou coagidas pelos sistemas de IA, e os seres humanos devem poder intervir ou supervisionar todas as decisões tomadas pelo software.
- Robustez e segurança técnicas - A IA deve ser segura e precisa. Não deve ser facilmente comprometido por ataques externos (como exemplos contraditórios) e deve ser razoavelmente confiável.
- Privacidade e governança de dados - Os dados pessoais coletados pelos sistemas de IA devem ser seguros e privados. Não deve ser acessível a ninguém, e não deve ser facilmente roubado.
- Transparência - Os dados e algoritmos usados para criar um sistema de IA devem estar acessíveis, e as decisões tomadas pelo software devem ser “entendidas e rastreadas pelos seres humanos”. Em outras palavras, os operadores devem ser capazes de explicar as decisões que seus sistemas de IA tomam.
- Diversidade, não discriminação e justiça - Os serviços fornecidos pela IA devem estar disponíveis para todos, independentemente da idade, sexo, raça ou outras características. Da mesma forma, os sistemas não devem ser tendenciosos nesse sentido.
- Bem-estar ambiental e social - Os sistemas de IA devem ser sustentáveis (ou seja, devem ser ecologicamente responsáveis) e "melhorar a mudança social positiva"
- Responsabilidade - Os sistemas de IA devem ser auditáveis e cobertos pelas proteções existentes para os denunciantes corporativos. Os impactos negativos dos sistemas devem ser reconhecidos e relatados com antecedência.
Você notará que alguns desses requisitos são bastante abstratos e seriam difíceis de avaliar em um sentido objetivo. (As definições de “mudança social positiva”, por exemplo, variam enormemente de pessoa para pessoa e de país para país.) Mas outras são mais diretas e podem ser testadas através da supervisão do governo. Compartilhar os dados usados para treinar os sistemas de IA do governo, por exemplo, pode ser uma boa maneira de lutar contra algoritmos tendenciosos.
Essas diretrizes não são juridicamente vinculativas, mas podem moldar qualquer legislação futura elaborada pela União Europeia. A UE disse repetidamente que quer ser líder em IA ética e demonstrou com GDPR que está disposto a criar leis de longo alcance que protejam os direitos digitais.
Mas esse papel foi parcialmente imposto à UE por circunstâncias. Ele não pode competir com a América e a China - líderes mundiais em IA - quando se trata de investimentos e pesquisas de ponta, por isso escolheu a ética como sua melhor aposta para moldar o futuro da tecnologia.
O problema é… A ideia das pessoas que hoje controlam a UE do que pode ser uma “mudança social positiva” é, com toda a probabilidade, muito diferente do que a população em geral vê como “mudança social positiva”. Por exemplo, eles são a favor da abolição dos Estados-nação em favor do globalismo e da imigração ilegal irrestrita, não somos. É complicado quando eles brincam com a semântica ...