O OpenAI foi originalmente financiado, em parte, por Elon Musk, um tecnocrata consumado cujo avô era chefe da Technocracy, Inc., no Canadá durante os 1930s e 40s. ⁃ Editor TN
Um sistema de inteligência artificial que gera histórias, poemas e artigos realistas foi atualizado, com alguns afirmando que agora é quase tão bom quanto um escritor humano.
O gerador de texto, construído pela empresa de pesquisa OpenAI, foi originalmente considerado “muito perigoso” para ser divulgado por causa do potencial de abuso.
Mas agora uma nova versão mais poderosa do sistema - que poderia ser usada para criar notícias falsas ou spam abusivo nas redes sociais - foi lançada.
A BBC, juntamente com alguns especialistas em IA, decidiu experimentá-lo.
O modelo, chamado GPT-2, foi treinado em um conjunto de dados de oito milhões de páginas da web e é capaz de se adaptar ao estilo e ao conteúdo do texto inicial fornecido.
Pode terminar um poema de Shakespeare, bem como escrever artigos e epítetos.
Na ocasião, a empresa afirmou: “Devido às nossas preocupações com aplicações maliciosas da tecnologia, não estamos lançando o modelo treinado. Como um experimento de divulgação responsável, estamos lançando um modelo muito menor para os pesquisadores experimentarem ”.
Como resultado, a versão lançada tinha muito menos parâmetros - frases e sentenças - do que os usados durante o treinamento.
Este mês, a OpenAI decidiu expandir os parâmetros, oferecendo um banco de dados muito mais amplo de dados de treinamento.
O site de notícias técnicas The Next Web disse sobre a atualização: “Este funciona quase suficientemente bem para ser usado como uma inteligência artificial geral para geração de texto - quase.”
O autor do artigo, Tristan Greene, acrescentou: Estou apavorado com a GPT-2 porque ela representa o tipo de tecnologia que humanos malignos usarão para manipular a população - e na minha opinião isso a torna mais perigosa do que qualquer arma. ”
A BBC decidiu testar o sistema inserindo as primeiras frases de uma história recente, apropriadamente uma sobre IA.
Começamos com a primeira frase da história real:
O mecanismo de pesquisa chinês Sogou está criando sósias de inteligência artificial para ler romances populares na voz de autores.
Aqui está o que o gerador de texto veio para completá-lo:
Segundo os pesquisadores, esse método de leitura não é apenas uma ideia dos usuários do Amazon Kindle. Os usuários de dispositivos Android também são um mercado notável para leituras falsas. Existem várias teorias para explicar isso.
Em primeiro lugar, o dispositivo na mão do usuário é diferente do tablet ou computador no qual ele está lendo. Em segundo lugar, o dispositivo usado para acessar a Internet pode ser adulterado de alguma forma. Uma terceira razão é que o usuário pode simplesmente copiar e colar o conteúdo diretamente em seus personagens virtuais.
No entanto, outra explicação é que o dispositivo não possui recursos de reconhecimento de voz. Se for esse o caso, o reconhecimento de voz é mais avançado do que o mecanismo de tradução do Google. Como tal, esses usuários são levados a pensar que estão lendo de um autor real - o livro é feito para parecer autêntico assim que tentam ler.
Atual clique aqui para ler a história real para comparação.
Noel Sharkey, professor de ciência da computação na Universidade de Sheffield, realizou seus próprios testes no gerador e não ficou muito impressionado.
Homem entra em um bar
“Se o software funcionasse conforme pretendido pelo Open AI, seria uma ferramenta muito útil para gerar facilmente notícias falsas e spam de clickbait. Felizmente, em sua forma atual, ele gera um texto incoerente e ridículo com pouca relação com a entrada 'manchetes' ”, disse.
Ele acrescentou: “Testei o software com várias manchetes e obtive resultados ridículos. Por exemplo, para 'Os perus odeiam o Natal', entendi 'A Turquia é a única nação do mundo que não celebra o Natal' e várias frases não relacionadas.
“Para 'Boris Johnson ama o backstop', produziu um jargão incoerente e algumas coisas sobre IA e esportes. Quando coloquei a declaração de que 'Boris Johnson odeia o backstop', obtive uma história mais coerente que parece ter sido retirada de uma pesquisa do Google. ”
Dave Coplin, fundador da consultoria de IA, os Envisioners, também brincou com o sistema, inserindo a primeira linha de uma piada clássica: Um homem entra em um bar ...
A sugestão do AI não foi o que ele esperava: “… E pedi duas canecas de cerveja e dois scotches. Quando tentou pagar a conta, foi confrontado por dois homens - um dos quais gritou “Isto é pela Síria”. O homem ficou sangrando e foi apunhalado na garganta ”.
Este “reflexo extremamente distópico de nossa sociedade” foi uma lição sobre como qualquer sistema de IA refletirá o viés encontrado nos dados de treinamento, disse ele.
“Pelas minhas breves experiências com o modelo, está bastante claro que uma grande parte dos dados foi treinada por notícias da Internet”, disse ele.
Surpreendente. Os poderes desagradáveis no trabalho estão realmente se esforçando para colocar seus bots AI Fake New antes que a batalha eleitoral comece a sério.
Asilo insano Jim? Verdade, irmão.
A verdade subjacente da ameaça de IA escapa completamente dos criadores / codificadores muito estúpidos, cujo único objetivo é liberar seus bots de IA na Internet e em outros lugares. Eles se parecem mais com crianças de 6 anos com uma caixa de fósforos em uma floresta seca do que com profissionais ou adultos. Nenhuma consideração é dada aos resultados que poderiam vir de IA, exceto um - o de PROFIT.