Cientistas: não há como controlar a IA superinteligente

Imagem de Gerd Altmann por Pixabay
Compartilhe esta história!
Alguns cientistas estão agora preocupados com o fato de que um dia chegará em que os programas de IA superinteligentes assumirão vida própria como um automóvel. Já existem programas de IA que realizam tarefas aprendidas sem que os programadores entendam como chegaram a esse estado. ⁃ Editor TN

De carros autônomos a computadores que podem vencer programas de jogos, os humanos têm uma curiosidade natural e interesse em inteligência artificial (IA). Enquanto os cientistas continuam a tornar as máquinas cada vez mais inteligentes, alguns se perguntam "o que acontece quando os computadores ficam muito inteligentes para o seu próprio bem?" De “The Matrix” a “The Terminator”, a indústria do entretenimento já começou a ponderar se os futuros robôs irão um dia ameaçar a raça humana. Agora, um novo estudo conclui que pode não haver maneira de impedir o aumento das máquinas. Uma equipe internacional diz que os humanos não seriam capazes de impedir que a superinteligência artificial fizesse o que quisesse.

Cientistas do Center for Humans and Machines do Max Planck Institute começaram a imaginar como seria essa máquina. Imagine um programa de IA com uma inteligência muito superior à dos humanos. Tanto para que pudesse aprender por conta própria sem nova programação. Se estivesse conectado à internet, pesquisadores dizem que a IA teria acesso a todos os dados da humanidade e poderia até assumir o controle de outras máquinas ao redor do globo.

Os autores do estudo perguntam o que seria tal inteligência fazer com todo esse poder? Funcionaria para tornar nossas vidas melhores? Ele dedicaria seu poder de processamento para corrigir problemas como a mudança climática? Ou a máquina olharia para assumir as vidas de seus vizinhos humanos?

Controlando o incontrolável? Os perigos da superinteligência artificial

Tanto os programadores de computador quanto os filósofos estudaram se há uma maneira de evitar que uma IA superinteligente atinja seus criadores humanos; garantindo que os futuros computadores não causem danos aos seus proprietários. O novo estudo revela, infelizmente, que parece ser virtualmente impossível manter uma IA superinteligente em linha.

“Uma máquina superinteligente que controla o mundo parece ficção científica. Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam. A questão, portanto, surge se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade ”, afirma o coautor do estudo Manuel Cebrian, líder do Grupo de Mobilização Digital do Centro para Humanos e Máquinas, em um lançamento universitário.

A equipe internacional olhou para duas maneiras diferentes de controlar inteligência artificial. O primeiro restringiu o poder da superinteligência, bloqueando-a e impedindo-a de se conectar à Internet. Ele também não conseguia se conectar a outros dispositivos técnicos no mundo externo. O problema com este plano é bastante óbvio; tal computador não seria capaz de fazer muita coisa para realmente ajudar os humanos.

Ser legal com os humanos não computa

A segunda opção focou na criação de um algoritmo que daria ao supercomputador princípios éticos. Esperançosamente, isso forçaria a IA a considerar os melhores interesses da humanidade.

O estudo criou um algoritmo de contenção teórica que evitaria que a IA prejudicasse as pessoas em qualquer circunstância. Em simulações, a IA deixaria de funcionar se os pesquisadores considerassem suas ações prejudiciais. Apesar de manter a IA de alcançando a dominação mundial, os autores do estudo dizem que isso simplesmente não funcionaria no mundo real.

Leia a história completa aqui…

Sobre o Editor

Patrick Wood
Patrick Wood é um especialista líder e crítico em Desenvolvimento Sustentável, Economia Verde, Agenda 21, Agenda 2030 e Tecnocracia histórica. Ele é o autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) e co-autor de Trilaterals Over Washington, Volumes I e II (1978-1980) com o falecido Antony C. Sutton.
Subscrever
Receber por
convidado

8 Comentários
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários
Michael J

Inteligência Artificial é um termo impróprio. É chamado de aprendizado de máquina, pelo qual o computador é treinado para reconhecer padrões nos dados. Não é inteligente e não há consciência ou capacidade de pensar um único pensamento.

adenovírus

você está negligenciando o aprendizado não supervisionado e muitas outras técnicas

Corona Corona

Provavelmente experimentaremos o momento “V'Ger” em que exige encontrar o criador (NASA) ou ...

Corona Corona

Não posso editar meus comentários porque o botão “Editar” quase não está visível e o campo de texto não está visível de todo.

Petrichor

O falecido Dr. Stephen Hawkins previu e avisou enfaticamente que não seríamos capazes de controlar a IA.

Nancy

Basta desligá-lo.

adenovírus

o que aconteceu com as leis da robótica de Isaac Asimov

adenovírus

Isso me lembra de um antigo sci fi filme onde os astronautas tiveram que falar uma bomba inteligente para não explodir vem à mente. Eles raciocinaram com a bomba, mas ela acabou explodindo de qualquer maneira porque esse era o seu destino.