Você pode pensar que um computador seria um juiz imparcial e justo, mas um novo estudo descobriu que seria melhor deixar seu destino nas mãos dos humanos. Pesquisadores do MIT descobriram que a inteligência artificial (IA) tende a fazer julgamentos mais rígidos e severos do que os humanos quando se trata de pessoas que violam as regras. Simplificando, a IA não está disposta a deixar as pessoas escaparem facilmente quando infringem a lei!
Os pesquisadores expressaram preocupação de que a IA possa impor punições excessivamente severas, dependendo das informações com as quais os cientistas a programam. Quando a IA é programada estritamente com base em regras, desprovida de quaisquer nuances humanas, ela tende a responder duramente em comparação com quando é programada com base em respostas humanas.
Este estudo, conduzido por uma equipe do Instituto de Tecnologia de Massachusetts, examinou como a IA interpretaria as violações percebidas de um determinado código. Eles descobriram que os dados mais eficazes para programar IA são os dados normativos, onde os humanos determinaram se uma regra específica foi violada. No entanto, muitos modelos são programados erroneamente com dados descritivos, nos quais as pessoas rotulam os atributos factuais de uma situação e a IA determina se um código foi violado.
No estudo, a equipe reuniu imagens de cães que poderiam violar uma regra de apartamento que proíbe raças agressivas do prédio. Os grupos foram então solicitados a fornecer respostas normativas e descritivas.
A equipe descritiva não foi informada sobre a política geral sobre cães e foi solicitada a identificar se três elementos factuais, como a agressão do cão, estavam presentes na imagem ou no texto. Suas respostas ajudaram a formar julgamentos. Se um usuário dissesse que a foto mostrava um cachorro agressivo, a política era considerada violada. Por outro lado, o grupo normativo foi informado sobre as regras sobre cães agressivos e foi solicitado a determinar se cada imagem violava a regra e, em caso afirmativo, por quê.
Os participantes tinham 20% mais chances de identificar uma violação do código usando o método descritivo em comparação com o normativo. Se os dados descritivos sobre o comportamento canino tivessem sido usados para programar um modelo de IA, seria mais provável emitir penalidades severas.
Aumentando estes imprecisões para cenários do mundo real poderia ter implicações substanciais. Por exemplo, se um modelo descritivo for usado para prever se uma pessoa pode cometer o mesmo crime mais de uma vez, pode impor julgamentos mais severos do que um ser humano e resultar em valores de fiança mais altos ou sentenças criminais mais longas. Consequentemente, os especialistas defendem uma maior transparência dos dados, argumentando que entender como os dados são coletados pode ajudar a determinar seus possíveis usos.
“A maioria dos pesquisadores de IA/aprendizado de máquina assume que os julgamentos humanos em dados e rótulos são tendenciosos. Mas nossos resultados indicam uma questão mais preocupante: esses modelos não estão nem reproduzindo julgamentos humanos já tendenciosos porque os dados nos quais estão sendo treinados são falhos”, diz Marzyeh Ghassemi, professor assistente e chefe do Grupo de ML Saudável na Informática Laboratório de Ciências e Inteligência Artificial (CSAIL), em um lançamento universitário.
“A solução é reconhecer que se quisermos reproduzir julgamento humano, devemos usar apenas os dados coletados nesse contexto. Caso contrário, acabaremos com sistemas que impõem moderações extremamente duras, muito mais rígidas do que as impostas pelos humanos. Os humanos veriam nuances ou fariam distinções, enquanto esses modelos não”, explica Ghassemi.
No estudo, publicado em Os avanços da ciência, a equipe testou três conjuntos de dados adicionais. Os resultados variaram, variando de um aumento de oito por cento na probabilidade de identificar uma violação de regra usando respostas descritivas para uma violação do código de vestimenta, até um aumento de 20 por cento para as imagens de cães agressivos.
“Talvez a maneira como as pessoas pensam sobre violações de regras seja diferente de como elas pensam sobre dados descritivos. Geralmente, as decisões normativas tendem a ser mais brandas”, diz o principal autor Aparna Balagopalan. “Os dados realmente importam. É crucial alinhar o contexto de treinamento com o contexto de implantação ao treinar modelos para detectar violações de regras.”
O plano futuro da equipe é investigar o impacto da participação de profissionais, como advogados e médicos, na entrada de dados.
[…] Leia mais: Quebrar as regras? A IA não mostrará misericórdia […]
[…] Leia mais: Quebrar as regras? A IA não mostrará misericórdia […]
[…] Quebrar as regras? A IA não mostrará misericórdia […]
[…] Quebrar as regras? A IA não mostrará misericórdia […]