Cientista adverte: robôs inteligentes de IA são capazes de destruir a humanidade

Wikipedia Commons
Compartilhe esta história!

Nota TN: Dr Eden pode ter assistido muitos filmes de ficção científica, mas a biografia dele é impressionante. Ele pergunta abaixo: "A era do sobre-humano inaugurará uma era em que a noção de ser humano já passou?" TN publica tais histórias para permitir que o espectador entenda que muitos cientistas e engenheiros proeminentes realmente acreditam nessas coisas; ou, eles acabaram de pular os trilhos.

Robôs de IA de pensamento livre podem acabar destruindo a humanidade ou até mesmo mudar completamente o que significa ser humano se os deixarmos pensar por si mesmos, alertou um cientista.

O Dr. Amnon Eden disse que mais precisa ser feito para examinar os riscos de continuar rumo a um mundo de IA.

Ele alertou que estávamos chegando perto de um ponto sem volta em termos de IA, sem uma compreensão adequada das consequências.

O Dr. Eden disse: “O Ano Novo precisa ver essa controvérsia mal informada substituída por uma análise mais bem informada do impacto potencial da IA ​​e de suas aplicações.

“Em 2016, a análise de risco especializada deve ganhar um papel muito maior no pensamento de formuladores de políticas e tomadores de decisão, de governos e corporações.”

O Dr. Eden é o diretor do Sapience Project, um grupo de estudos que foi formado para analisar o potencial impacto perturbador da inteligência artificial AI.

A ficção científica tem explorado regularmente se os robôs podem destruir a humanidade, principalmente os filmes Exterminadores do Futuro, estrelados por Arnold Schwarzenegger.

A posição do Dr. Eden vem depois que o professor Nick Bostrom de Oxford disse que a superinteligência AI pode “avançar a um ponto onde seus objetivos não são compatíveis com os dos humanos”.

Ele afirmou que, ao contrário das mudanças climáticas e da engenharia genética, onde disse que os governos em todo o mundo estão criando mecanismos para minimizar os riscos do que são, “nada está sendo feito para controlar o avanço da IA”.

Bostrom disse: “Há um vácuo político que deve ser preenchido se este avanço inevitável for usado com sabedoria”.

Discutindo os riscos potenciais, ele disse: “Um computador é basicamente uma caixa e o que está dentro dele é tudo o que ele pode usar, então, a menos que digamos que pessoas em países frios podem morrer se não tiverem aquecimento, e isso é ruim, como vai saber? Como podemos definir o que realmente é 'bom' ou 'amigável'?

“O resultado da singularidade pode não ser que a IA seja maliciosa, mas pode muito bem ser que ela não é capaz de 'pensar fora de sua caixa' e não tem nenhuma concepção da moral humana.

“A outra preocupação da IA ​​é aquela que Hollywood vem usando há anos como tema e é a ascensão do tipo 'Exterminador' e a luta para sobreviver contra um exército de robôs que mudam de forma hostis dirigidos por um autoconsciente Eu chamei Skynet. ”

Leia a história completa aqui…

Subscrever
Receber por
convidado

0 Comentários
Comentários em linha
Ver todos os comentários