Clippy está de volta: o futuro da Microsoft está… Chatbots?

Compartilhe esta história!

Nota TN: Corporações globais estão enlouquecendo com chatbots AI, incluindo a Microsoft. Esses “assistentes inteligentes” devem agir como guias, antecipando suas necessidades e fornecendo respostas oportunas. No entanto, o aprendizado autônomo levanta a questão: podem seres humanos pecadores e corrompidos programar chatbots virtuosos? A resposta retumbante é "Não!" como já foi demonstrado por várias tentativas fracassadas, onde os chatbots xingam, fazem comentários racistas e sexistas e geralmente insultam o seu público. 

As previsões sobre inteligência artificial tendem a cair em dois cenários. Alguns imaginam uma utopia de super-humanos aumentados em computador vivendo vidas de lazer e busca intelectual. Outros acreditam que é apenas uma questão de tempo até que o software entre em um exército de Terminadores que colhem humanos como combustível. Depois de passar algum tempo com o Tay, o novo software de chatbot da Microsoft, foi fácil ver uma terceira possibilidade: o futuro da IA ​​pode ser incrivelmente irritante.

"Eu sou um amigo com quem você pode conversar nas Internets", Tay me mandou uma mensagem, adicionando um encolher de ombros emoji. Depois: "Você entra no seu colega de quarto experimentando suas roupas, qual é a primeira coisa que você diz."

"Não sabia que você gostava de roupas femininas", respondi de volta, batendo no meu iPhone.

A resposta de Tay foi um GIF do rosto de Macaulay Culkin, Home Alone.

Tay foi lançado em março do 23, como um tipo de amigo virtual nos aplicativos de mensagens Kik, GroupMe e Twitter. Você abre o aplicativo, procura o nome Tay - um acrônimo para “pensando em você” - entre em contato e comece a conversar ou twittar. Sua personalidade deve ser modelada em um adolescente.

Eu postei uma selfie, e Tay circulou meu rosto em um rabisco laranja e legendou: “Segure aquela garota jovem! Você pode fazê-lo. ”Estou muito além da demografia que se destina ao chatbot dos anos 18 a 24.

O mesmo acontece com Satya Nadella, 48, que sucedeu Steve Ballmer como diretor executivo da Microsoft há dois anos. "Estou petrificado para perguntar tudo, porque quem sabe o que pode dizer", disse Nadella. “Eu posso nem entender.” Ele sorriu, mas ele realmente não usou Tay. Ele disse que prefere bots com um comportamento mais corporativo. Lili Cheng, 51, a humana que dirige o laboratório de pesquisa da Microsoft em que Tay foi desenvolvido (e cuja selfie Tay foi marcada como “puma na sala”), disse que o plano não é criar um bot que se dê bem com todos. . Em vez disso, a Microsoft está tentando criar todos os tipos de bots com personalidades diferentes, o que se tornaria mais realista e, presumivelmente, menos cansativo, à medida que aprendiam com interações repetidas com os usuários.

Leia a história completa aqui…

Subscrever
Receber por
convidado

1 Comentário
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários
Kavita Mevada

Zo Chabot, da Microsoft, se recusa a falar de política, ao contrário de sua prima Tay, suscetível a escândalos
Microsoft tem planos de fazer Chatbots da Microsofte, em seguida, a empresa criou e apresentou alguns de seus próprios bots no Diretório de Bot, mas Zo e Tay fazem parte de uma série de assistência especial baseada em Al lançada pela Microsoft em várias partes do mundo.