O advogado de privacidade da Surfshark, Gabriele Kaveckyte, analisou as práticas de coleta de dados do ChatGPT e apresentou cinco possíveis problemas de privacidade relacionados à coleta e segurança de dados com base no GDPR e outras regulamentações relacionadas à privacidade.
ChatGPT está crescendo em popularidade. Ao mesmo tempo, está sendo expressa preocupação com as questionáveis práticas e segurança de coleta de dados da gigante da IA. Essa preocupação resultou na proibição temporária do ChatGPT¹ na Itália e na criação de forças-tarefa do ChatGPT pelo European Data Protection Board (EDPB) e pelo Departamento de Segurança Interna dos EUA (DHS). O advogado de privacidade do Surfshark analisou as práticas de coleta de dados do ChatGPT e descobriu algumas possíveis falhas. Muitas das questões discutidas foram apresentadas pela Autoridade Italiana de Proteção de Dados² ao justificar o banimento temporário.
Possíveis problemas de privacidade de dados do ChatGPT:
Questão # 1
O ChatGPT coletou uma enorme quantidade de dados pessoais para treinar seus modelos, mas pode não ter base legal para tal coleta de dados. De acordo com o GDPR³, os dados coletados sem uma base legal apropriada (como o consentimento do usuário) são ilegais. Esta foi uma das principais razões para a proibição temporária do ChatGPT na Itália. Em resposta, a Open AI forneceu recentemente um formulário para usuários da UE⁴, permitindo que eles optassem por não coletar seus dados para treinar o modelo de IA. No entanto, o formulário está disponível apenas na UE e aqueles que não o preencherem ativamente podem esperar que seus dados permaneçam na plataforma.
Questão # 2
De acordo com o GDPR³, os controladores de dados (neste caso, ChatGPT/Open AI) devem informar os usuários cujos dados eles coletam e usam. No entanto, o ChatGPT não notificou todas as pessoas cujos dados foram usados para treinar o modelo AI² – outra razão pela qual o uso desses dados pode ser ilegal. Como muitas pessoas não sabem que seus dados foram coletados e estão sendo usados pelo ChatGPT, elas não sabem que devem preencher o formulário de opt-out⁴, ampliando ainda mais a questão da coleta de dados potencialmente ilegal.
Questão # 3
ChatGPT não está de acordo com o princípio da precisão – O fornecimento de informações imprecisas pela plataforma pode prejudicar significativamente a reputação de um indivíduo. Por exemplo, pode afirmar falsamente a culpa de uma pessoa ou acusá-la de crimes com os quais nunca esteve associada⁵.
Questão # 4
O ChatGPT carece de ferramentas eficazes de verificação de idade para impedir que crianças menores de 13 anos o usem. Em resposta à proibição da Itália, o ChatGPT desenvolveu uma ferramenta para determinar se os usuários têm mais de 13⁴. No entanto, o ChatGPT não pode confirmar que a idade informada é a verdadeira idade do usuário, o que significa que as crianças podem mentir que são adultos e usar a plataforma livremente.
Questão # 5
O ChatGPT não possui verificação de consentimento dos pais para crianças de 13 a 18 anos. Os termos de uso do ChatGPT⁶ exigem que crianças de 13 a 18 anos recebam o consentimento dos pais antes de usar a plataforma. No entanto, não existe um processo de verificação que assegure que este consentimento foi dado, pelo que crianças entre estas idades também podem utilizar a plataforma livremente, mesmo sem consentimento.
Referências:
² Disposição da Autoridade Italiana de Proteção de Dados (2023) de 30 de março de 2023 0[9870832];
³ Regulamento Geral de Proteção de Dados (2023);
⁴ Kelvin Chan (2023) OpenAI: ChatGPT de volta à Itália após atender demandas de watchdog;
Uma ação coletiva deve ser considerada?
Ação de classe!
[…] Cinco razões pelas quais o ChatGPT exibe privacidade […]