Inovação da Google AI: Deep Mind pode aprender sem contribuição humana

Compartilhe esta história!

O Google está no topo das empresas que buscam a tecnocracia global, e seu esforço por IA autônoma ameaça o núcleo da sociedade mundial. A ameaça é real, mas poucos cidadãos entendem a complexidade dessa tecnologia.  TN Editor

Não faz muito tempo, dominar o antigo jogo chinês de Go estava além do alcance de inteligência artificial. Mas então AlphaGo, o player de IA do Google DeepMind, começou a sair até os melhores oponentes humanos na poeira. No entanto, mesmo essa IA de ponta a ponta precisava de humanos para aprender. Então, na quarta-feira, a nova versão do DeepMind abandonou completamente as pessoas.

O AlphaGo Zero superou as habilidades de seu antecessor, ignorando o método tradicional de aprender jogos da AI, que envolve assistir milhares de horas de jogo humano. Em vez disso, ele simplesmente começa a jogar aleatoriamente, aprimorando suas habilidades jogando repetidamente contra si mesmo. Três dias e 4.9 milhões desses jogos depois, o resultado é a melhor IA de jogabilidade do mundo.

"É mais poderoso do que as abordagens anteriores, porque removemos as restrições do conhecimento humano", diz David Silver, pesquisador principal da AlphaGo.

"A humanidade acumulou o conhecimento do Go de milhões de jogos jogados ao longo de milhares de anos", escrevem os autores em seu artigo. "No espaço de alguns dias ... o AlphaGo Zero conseguiu redescobrir grande parte desse conhecimento do Go, além de estratégias inovadoras que fornecem novas idéias sobre os jogos mais antigos."

A abordagem alternativa do AlphaGo Zero permitiu descobrir estratégias que os humanos nunca encontraram. Por exemplo, ele aprendeu muitos josekis diferentes - seqüências de movimentos que resultam em nenhuma perda líquida para nenhum dos lados. Muitos Josephus foram escritos durante os milhares de anos em que Go foi tocado e, inicialmente, o AlphaGo Zero aprendeu muitos dos mais conhecidos. Mas, à medida que o autotreinamento continuava, começou a favorecer sequências anteriormente desconhecidas.

Para testar esses novos movimentos, a DeepMind colocou o AlphaGo Zero na versão que derrotou o campeão do mundo da 18, Lee Sedol. Em um jogo 100 partida de rancor, ganhou 100-0. Isso ocorre apesar do treinamento apenas por três dias, comparado a vários meses para seu antecessor. Após os dias de treinamento do 40, ele também venceu o 89-11 contra uma versão melhorada do AlphaGo que havia derrotado o número um do mundo Ke Jie (NaturezaDOI: 10.1038 / nature24270).

Leia a história completa aqui…

Subscrever
Receber por
convidado

0 Comentários
Comentários em linha
Ver todos os comentários