De carros autônomos a computadores que podem vencer programas de jogos, os humanos têm uma curiosidade natural e interesse em inteligência artificial (IA). Enquanto os cientistas continuam a tornar as máquinas cada vez mais inteligentes, alguns se perguntam "o que acontece quando os computadores ficam muito inteligentes para o seu próprio bem?" De “The Matrix” a “The Terminator”, a indústria do entretenimento já começou a ponderar se os futuros robôs irão um dia ameaçar a raça humana. Agora, um novo estudo conclui que pode não haver maneira de impedir o aumento das máquinas. Uma equipe internacional diz que os humanos não seriam capazes de impedir que a superinteligência artificial fizesse o que quisesse.
Cientistas do Center for Humans and Machines do Max Planck Institute começaram a imaginar como seria essa máquina. Imagine um programa de IA com uma inteligência muito superior à dos humanos. Tanto para que pudesse aprender por conta própria sem nova programação. Se estivesse conectado à internet, pesquisadores dizem que a IA teria acesso a todos os dados da humanidade e poderia até assumir o controle de outras máquinas ao redor do globo.
Os autores do estudo perguntam o que seria tal inteligência fazer com todo esse poder? Funcionaria para tornar nossas vidas melhores? Ele dedicaria seu poder de processamento para corrigir problemas como a mudança climática? Ou a máquina olharia para assumir as vidas de seus vizinhos humanos?
Controlando o incontrolável? Os perigos da superinteligência artificial
Tanto os programadores de computador quanto os filósofos estudaram se há uma maneira de evitar que uma IA superinteligente atinja seus criadores humanos; garantindo que os futuros computadores não causem danos aos seus proprietários. O novo estudo revela, infelizmente, que parece ser virtualmente impossível manter uma IA superinteligente em linha.
“Uma máquina superinteligente que controla o mundo parece ficção científica. Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam. A questão, portanto, surge se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade ”, afirma o coautor do estudo Manuel Cebrian, líder do Grupo de Mobilização Digital do Centro para Humanos e Máquinas, em um lançamento universitário.
A equipe internacional olhou para duas maneiras diferentes de controlar inteligência artificial. O primeiro restringiu o poder da superinteligência, bloqueando-a e impedindo-a de se conectar à Internet. Ele também não conseguia se conectar a outros dispositivos técnicos no mundo externo. O problema com este plano é bastante óbvio; tal computador não seria capaz de fazer muita coisa para realmente ajudar os humanos.
Ser legal com os humanos não computa
A segunda opção focou na criação de um algoritmo que daria ao supercomputador princípios éticos. Esperançosamente, isso forçaria a IA a considerar os melhores interesses da humanidade.
O estudo criou um algoritmo de contenção teórica que evitaria que a IA prejudicasse as pessoas em qualquer circunstância. Em simulações, a IA deixaria de funcionar se os pesquisadores considerassem suas ações prejudiciais. Apesar de manter a IA de alcançando a dominação mundial, os autores do estudo dizem que isso simplesmente não funcionaria no mundo real.
Inteligência Artificial é um termo impróprio. É chamado de aprendizado de máquina, pelo qual o computador é treinado para reconhecer padrões nos dados. Não é inteligente e não há consciência ou capacidade de pensar um único pensamento.
você está negligenciando o aprendizado não supervisionado e muitas outras técnicas
Provavelmente experimentaremos o momento “V'Ger” em que exige encontrar o criador (NASA) ou ...
Não posso editar meus comentários porque o botão “Editar” quase não está visível e o campo de texto não está visível de todo.
O falecido Dr. Stephen Hawkins previu e avisou enfaticamente que não seríamos capazes de controlar a IA.
Basta desligá-lo.
o que aconteceu com as leis da robótica de Isaac Asimov
Isso me lembra de um antigo sci fi filme onde os astronautas tiveram que falar uma bomba inteligente para não explodir vem à mente. Eles raciocinaram com a bomba, mas ela acabou explodindo de qualquer maneira porque esse era o seu destino.