Um grupo de especialistas independentes encarregado de aconselhar o Comissão Europeia para informar sua resposta regulatória à inteligência artificial - para sustentar o objetivo declarado dos legisladores da UE de garantir que o desenvolvimento da IA seja “humano” - publicou suas recomendações de política e investimento.
Isso segue as diretrizes éticas anteriores para “IA confiável”, apresentadas pelo High Level Expert Group (HLEG) para IA novamente em Abril, quando a Comissão também pediu aos participantes que testassem os projetos de regras.
As recomendações políticas completas do AI HLEG compreendem um documento de página 50 altamente detalhado - que pode ser baixado deste página da Internet. O constituído em junho do 2018, é constituído de uma mistura de especialistas em IA da indústria, representantes da sociedade civil, consultores políticos e especialistas em políticas, acadêmicos e especialistas em direito.
O documento inclui avisos sobre o uso de IA para vigilância em massa e pontuação de cidadãos da UE, como Sistema de crédito social da China, com o grupo pedindo uma proibição total da "pontuação em massa de indivíduos habilitados para IA". Ele também insta os governos a se comprometerem a não se envolver em uma vigilância geral das populações para fins de segurança nacional. (Então talvez seja melhor que o Reino Unido tenha votado em deixar a UE, dada a poderes de vigilância estatal foi aprovada no final do 2016.)
“Embora possa haver uma forte tentação para os governos de 'proteger a sociedade' construindo um sistema de vigilância difundido baseado em sistemas de IA, isso seria extremamente perigoso se levado a níveis extremos”, escreve o HLEG. “Os governos devem comprometer-se a não se envolver na vigilância em massa de indivíduos e a implantar e adquirir apenas sistemas de IA confiáveis, projetados para respeitar a lei e os direitos fundamentais, alinhados aos princípios éticos e robustos tecnologicamente.”
O grupo também pede que a vigilância comercial de indivíduos e sociedades seja “combatida” - sugerindo que a resposta da UE à potência e ao potencial uso indevido de tecnologias de IA deva incluir a garantia de que o rastreamento de pessoas on-line esteja “estritamente alinhado com direitos fundamentais, como a privacidade ”, Incluindo (o grupo especifica) quando se trata de serviços 'gratuitos' (embora com uma pequena ressalva sobre a necessidade de considerar como os modelos de negócios são impactados).
Na semana passada, o órgão de proteção de dados do Reino Unido deu um tiro ainda mais específico em toda a indústria de anúncios comportamentais on-line - avisando que o processamento em escala de massa da adtech dos dados pessoais dos usuários da web para segmentar anúncios não cumpre as normas de privacidade da UE. Foi dito à indústria que suas práticas de violação de direitos devem mudar, mesmo que o Gabinete do Comissário da Informação ainda não esteja prestes a derrubar o martelo. Mas o aviso de reforma foi claro.
À medida que os legisladores da UE trabalham na criação de uma estrutura regulatória que respeite os direitos da IA, buscando orientar os próximos dez anos + de desenvolvimentos de tecnologia de ponta na região, a atenção e o escrutínio mais amplos que atrairão para as práticas digitais e modelos de negócios parecem destinados a impulsionar uma limpeza de práticas digitais problemáticas que foram capazes de proliferar sob regulamentação de toque muito leve ou nenhum, antes de agora.
O HLEG também pede apoio para o desenvolvimento de mecanismos para a proteção de dados pessoais e para os indivíduos “controlarem e se fortalecerem com seus dados” - o que eles argumentam que abordaria “alguns aspectos dos requisitos de IA confiável”.
“As ferramentas devem ser desenvolvidas para fornecer uma implementação tecnológica do GDPR e desenvolver a preservação / privacidade da privacidade, projetando métodos técnicos para explicar critérios, causalidade no processamento de dados pessoais de sistemas de IA (como aprendizado de máquina federado)”, escrevem eles.
“Apoie o desenvolvimento tecnológico de técnicas de anonimização e criptografia e desenvolva padrões para o intercâmbio seguro de dados com base no controle de dados pessoais. Promover a educação do público em geral no gerenciamento de dados pessoais, incluindo a conscientização e o empoderamento dos indivíduos nos processos de tomada de decisão com base em dados pessoais de IA. Crie soluções tecnológicas para fornecer às pessoas informações e controle sobre como seus dados estão sendo usados, por exemplo, para pesquisa, sobre gerenciamento de consentimento e transparência através das fronteiras europeias, bem como quaisquer melhorias e resultados resultantes disso, e desenvolva padrões para segurança. troca de dados com base no controle de dados pessoais ".