A desculpa é prender abusadores de crianças e predadores sexuais, mas no processo 100 por cento de suas fotos também devem ser escaneadas. Uma vez que a porta de vigilância é aberta, qualquer outro tipo de foto pode ser direcionado para qualquer outro propósito. Isso pode incluir protestos políticos, informações de rastreamento de localização, perfis psicológicos, ou seja, o que você está tirando fotos, etc. ⁃ Editor TN
Apple irá denunciar imagens de exploração infantil carregadas no iCloud nos EUA para as autoridades de aplicação da lei, a empresa disse na quinta-feira.
O novo sistema detectará imagens denominadas Child Sexual Abuse Material (CSAM) por meio de um processo denominado hashing, onde as imagens são transformadas em números únicos que correspondem a essa imagem.
A Apple começou a testar o sistema na quinta-feira, mas a maioria dos usuários do iPhone nos Estados Unidos não fará parte dele até uma atualização do iOS 15 ainda este ano, disse a Apple.
A mudança coloca a Apple em linha com outros serviços em nuvem que já fazem a varredura de arquivos de usuários, muitas vezes usando sistemas de hash, em busca de conteúdo que viole seus termos de serviço, incluindo imagens de exploração infantil.
Também representa um teste para a Apple, que afirma que seu sistema é mais privado para os usuários do que as abordagens anteriores para eliminar imagens ilegais de abuso sexual infantil, porque usa criptografia sofisticada em servidores da Apple e dispositivos de usuários e não faz a varredura de imagens reais, apenas hashes.
Mas muitos usuários sensíveis à privacidade ainda recuam de software que notifica governos sobre o conteúdo em um dispositivo ou na nuvem, e podem reagir negativamente a este anúncio, especialmente porque a Apple defendeu veementemente a criptografia do dispositivo e opera em países com menos proteção de voz do que o nós
Policiais em todo o mundo também pressionaram a Apple a enfraquecer sua criptografia para o iMessage e outros serviços de software como o iCloud para investigar exploração infantil ou terrorismo. O anúncio de quinta-feira é uma forma da Apple resolver alguns desses problemas sem abrir mão de alguns de seus princípios de engenharia em torno da privacidade do usuário.
Como Funciona
Antes de uma imagem ser armazenada no iCloud da Apple, a Apple compara o hash da imagem com um banco de dados de hashes fornecido pelo National Center for Missing and Exploited Children (NCMEC). Esse banco de dados será distribuído no código do iOS a partir de uma atualização para o iOS 15. O processo de correspondência é feito no iPhone do usuário, não na nuvem, disse a Apple.
Se a Apple detectar um certo número de arquivos violadores em uma conta do iCloud, o sistema fará o upload de um arquivo que permite à Apple descriptografar e ver as imagens dessa conta. Uma pessoa revisará manualmente as imagens para confirmar se há uma correspondência ou não.
A Apple só poderá revisar imagens que correspondam a conteúdo já conhecido e reportado a esses bancos de dados - não será capaz de detectar fotos dos pais de seus filhos no banho, por exemplo, porque essas imagens não farão parte de o banco de dados NCMEC.
Se a pessoa que está fazendo a revisão manual concluir que o sistema não cometeu um erro, a Apple desativará a conta iCloud do usuário e enviará um relatório ao NCMEC ou notificará as autoridades, se necessário. Os usuários podem entrar com um recurso para a Apple se acharem que sua conta foi sinalizada por engano, disse um representante da Apple.
O sistema só funciona com imagens enviadas ao iCloud, que os usuários podem desligar, disse a Apple. Fotos ou outras imagens em um dispositivo que não foram enviadas para servidores Apple não farão parte do sistema.
Bom. Já é hora de as pessoas acordarem para o que está acontecendo o tempo todo. A única mudança agora é que eles começarão a perseguir as pessoas para abrir um precedente. Mas se você acha que eles não sabem o que está em seu iCloud ou em seu telefone, você não é muito inteligente. Eles criaram a coisa. E eu trabalhei em telecomunicações, FYI. Eu poderia simplesmente subir ao próximo andar e ver a sala do servidor. Na época, o FBI aparentemente queria entrar lá ... porque os telefones eram de um tipo específico que supostamente era muito útil para traficantes, e não de... Leia mais »
A melhor resposta é usar um armazenamento em nuvem de terceiros que não tenha interesse em seus assuntos privados. Eles estão lá fora, mas você precisa procurá-los. Você pode criptografar seu conteúdo com eles. Apenas saiba que todo o conteúdo criptografado não pode ser recuperado pela empresa se você perder sua senha.
Para ser honesto, você não tem ideia de quem são essas empresas. Descobri, ao fazer pesquisas, que todas as empresas de “privacidade” têm fundos bastante duvidosos. E isso sem exceção.
[…] Leia mais: Apple começa a digitalizar todas as fotos pessoais e imagens carregadas para o iCloud […]
Melhor não tirar fotos de bebês ou crianças tomando banho ou chuveiros ... você é um pervertido se tirar agora, eu acho.
[…] A Apple começa a digitalizar todas as fotos pessoais e imagens carregadas para o iCloud […]