As ferramentas de IA podem ser usadas para 'editar' e 'polir' o trabalho dos autores, dizem os organizadores da conferência, mas o texto 'produzido inteiramente' por IA não é permitido. Isso levanta a questão: onde você traça a linha entre editar e escrever?
Uma das conferências de aprendizado de máquina mais prestigiadas do mundo proibiu os autores de usar ferramentas de IA como o ChatGPT para escrever artigos científicos, desencadeando um debate sobre o papel do texto gerado por IA na academia.
A Conferência Internacional sobre Aprendizado de Máquina (ICML) anunciou a política no início desta semana, afirmando: “Papéis que incluem texto gerado a partir de um modelo de linguagem de grande escala (LLM) como o ChatGPT são proibidos, a menos que o texto produzido seja apresentado como parte do análise experimental do artigo”. A notícia provocou discussão generalizada nas mídias sociais, com acadêmicos e pesquisadores de IA defendendo e criticando a política. Os organizadores da conferência responderam por publicando uma declaração mais longa explicando seu pensamento. (O ICML respondeu a pedidos de The Verge para comentar, direcionando-nos para esta mesma declaração.)
De acordo com o ICML, o surgimento de modelos de linguagem de IA publicamente acessíveis, como o ChatGPT — um chatbot de IA de uso geral que lançado na web em novembro passado – representa um desenvolvimento “emocionante” que, no entanto, vem com “consequências imprevistas [e] perguntas sem resposta”. O ICML diz que isso inclui perguntas sobre quem possui a saída de tais sistemas (eles são treinados em dados públicos, que geralmente são coletados sem consentimento e às vezes regurgitam essas informações textualmente) e se textos e imagens gerados por IA devem ser “considerados novos ou meros derivados de trabalhos existentes”.
A última questão se conecta a um debate complicado sobre autoria – ou seja, quem “escreve” um texto gerado por IA: a máquina ou seu controlador humano? Isso é particularmente importante, visto que o ICML está banindo apenas textos “produzidos inteiramente” por IA. Os organizadores da conferência dizem que estão não proibindo o uso de ferramentas como ChatGPT “para edição ou polimento de texto escrito pelo autor” e observe que muitos autores já usaram “ferramentas de edição semiautomáticas” como o software de correção gramatical Grammarly para essa finalidade.
“É certo que essas perguntas, e muitas outras, serão respondidas com o tempo, à medida que esses modelos generativos em larga escala forem mais amplamente adotados. No entanto, ainda não temos respostas claras para nenhuma dessas perguntas”, escrevem os organizadores da conferência.
Como resultado, o ICML diz que sua proibição de texto gerado por IA será reavaliada no próximo ano.
As questões que o ICML está abordando podem não ser facilmente resolvidas. A disponibilidade de ferramentas de IA como o ChatGPT está causando confusão para muitas organizações, algumas das quais responderam com suas próprias proibições. No ano passado, codificando o site de perguntas e respostas Stack Overflow usuários banidos de enviar respostas criadas com ChatGPT, enquanto o Departamento de Educação da cidade de Nova York bloqueou o acesso à ferramenta para qualquer pessoa em sua rede apenas esta semana.
Em cada caso, existem diferentes temores sobre os efeitos nocivos do texto gerado por IA. Uma das mais comuns é que a saída desses sistemas simplesmente não é confiável. Essas ferramentas de IA são vastos sistemas de preenchimento automático, treinados para prever qual palavra segue a próxima em qualquer frase. Como tal, eles não têm nenhum banco de dados codificado de “fatos” para se basear – apenas a capacidade de escrever declarações que pareçam plausíveis. Isso significa que eles têm tendência a apresentar informações falsas como verdadeiras uma vez que uma determinada sentença sons plausível não garante sua factualidade.
No caso da proibição do ICML de texto gerado por IA, outro desafio potencial é distinguir entre a escrita que foi apenas “polida” ou “editada” pela IA e aquela que foi “produzida inteiramente” por essas ferramentas. Em que ponto uma série de pequenas correções guiadas por IA constituem uma reescrita maior? E se um usuário pedir a uma ferramenta de IA para resumir seu artigo em um resumo ágil? Isso conta como texto recém-gerado (porque o texto é novo) ou mero polimento (porque é um resumo das palavras que o autor escreveu)?
Isso é como promulgar uma lei em 1905 que permite automóveis, mas apenas se puxados por um cavalo.
Proibir autores de usar ferramentas de IA! Boa sorte com isso. E OJ Simpson ainda está procurando o verdadeiro assassino.
Eu estava apenas ouvindo seu Quickening Report sobre este tópico e decidi comentar aqui. (1) Você indica que o ChatGPT pode executar deep fakes of voice over para vídeos. Isso também pode ser um estratagema de propaganda para que os atores do Deep State possam negar o que realmente disseram nas evidências de vídeo que reunimos. (2) Tudo o que posso ter certeza é que não sei o que está do outro lado da interface. Quem ou o que é o homem atrás da cortina? Quando é uma IA, humana ou propagandista? Veja também o conceito de Mecânica... Leia mais »