'Longtermismo' e 'Altruísmo Efetivo' são as novas faces do transumanismo

Compartilhe esta história!
“Os lunáticos realmente estão comandando o asilo, e se você ousar chamar a atenção deles para a loucura, eles o colocarão em uma camisa de força e lhe injetarão tranqüilizantes. Já passou da hora de roubar as chaves e escapar deste manicômio. E se ainda restar algum espírito em nós, deixaremos o asilo queimando para trás. – Joe Allen ⁃ Editor TN

Os futuristas não apenas prevêem os próximos eventos. Eles também procuram moldá-los. Cada previsão é estruturada para trazer mudanças em uma determinada direção, seja por promessas ousadas ou profecias apocalípticas.

Por exemplo, quando você ouve avisos de que a inteligência artificial pode ser mais esperta que a humanidade e destruir a todos nós – ou mais precisamente, se você acredita nessas afirmações – não há escolha a não ser repensar sua estratégia de longo prazo. Talvez você destrua as máquinas preventivamente. Ou talvez você ensine a IA a ser legal e depois coloque um trode Neuralink em seu cérebro para acompanhar a conversa.

Na medida em que nossas decisões imediatas são guiadas por esses futuros imaginados, somos todos ferramentas involuntárias do futurista.

Após a queda espetacular da bolsa de criptomoedas FTX, as filosofias gêmeas de “altruísmo eficaz” e “longtermismo” invadiram a consciência pública. Como uma infestação de cupins eussociais, uma vez que você percebe o primeiro altruísta eficaz rastejando pela casa, você começa a vê-los em todos os lugares.

O altruísmo eficaz é um movimento acadêmico cabeça-de-ovo focado em ajudar um grande número de pessoas, ou talvez todas as entidades conscientes, em escala global. Uma proposta popular é acumular o máximo de dinheiro possível e doá-lo para caridade. Essas estratégias geralmente dependem de cálculos elaborados e estruturas éticas complicadas que apenas “especialistas” poderiam inventar.

O longtermismo pega essa bola benfeitora e corre com ela para o futuro distante. Seus proponentes imaginam como nossas ações altruístas hoje podem beneficiar todas as mentes conscientes que eventualmente virão a existir. Em teoria, isso inclui incontáveis ​​trilhões de seres humanos vivendo no espaço, bem como uploads mentais e bots de IA vivendo em vastas simulações digitais.

Você pode ter problemas hoje. Mas se formos levar o utilitarismo a sério, a maior prioridade moral pertence a todos os ciborgues invasores do espaço que ainda virão. Desculpe, mas no final do dia, há mais deles do que você.

Na prática, essas filosofias parecem envolver muita sinalização de virtude e gastar o dinheiro dos outros. O gordo e desleixado vocalista do FTX, Sam Bankman-Fried projetado essas ideologias altruístas como uma cortina de fumaça para seu esquema de criptografia Ponzi, onde ele fraudado investidores de bilhões. Bankman-Fried garantiu a seus clientes e ao mundo que usaria seus lucros gigantescos para ajudar a salvar a humanidade de a próxima pandemia ou guerra nuclear - ou ambos.

Em vez disso, ele gastou todo o dinheiro em mansões e outros luxos, desperdiçou seu tempo com videogames, destruiu seu cérebro com drogas exóticas de aprimoramento cognitivo e, aparentemente, hospedou orgias estranhas do repulsivo novo-rico. Pelo lado positivo, seu escândalo hilário lançou luz sobre os movimentos intelectuais que o geraram, desmascarando a arrogância delirante que sustenta o altruísmo eficaz, o longo prazo e a teorização da elite.

Como mencionei, ambas as escolas filosóficas são utilitarista. Os defensores buscam maximizar a felicidade para o maior número de pessoas – ou em versões mais universais, o maior número de seres sencientes – incluindo todos os animais e futuras mentes digitais. Semelhante à antiga crença de que os deuses precisam de sangue para fazer as colheitas crescerem, no entanto, eles admitem que sacrifícios devem ser feitos. Enquanto o New York Times escritor Walter Duranty disse da coletivização comunista em 1933, “Para ser brutal - você não pode fazer uma omelete sem quebrar os ovos”.

Como um exemplo hipotético, se você quisesse parar uma pandemia mortal, então, para o bem de toda a humanidade, você teria que trancar as pessoas que recusam a vacina em suas casas. Se eles continuassem fugindo, você enviaria policiais para espancá-los ou talvez trancá-los em campos de quarentena. Quando o empurrão chegar a golpes forçados, mate todos com gentileza.

De maior interesse, ambas as filosofias também se sobrepõem e derivam do transumanismo - aquele infame culto tecnológico cujos membros acreditam que os humanos serão como deuses ao se fundirem com as máquinas. A Universidade de Oxford foi o cadinho do altruísmo efetivo e do longo prazo, onde o filósofo bem pago e transumanista declarado Nick Bostrom teve um impacto decisivo no movimento.

Bostrom é mais conhecido por alertar que a inteligência artificial é um “risco existencial” para a humanidade em seu livro de 2014 Superinteligência: Caminhos, Perigos, Estratégias. Suas ideias eram extremamente influente sobre o transumanista mais rico do mundo, Elon Musk, que sugere que implantemos interfaces cérebro-computador para acompanhar a inteligência das máquinas.

Bostrom também é membro fundador do Future of Humanity Institute, localizado em Oxford, ao qual Musk doada 1 milhão de libras. Os futuristas sempre podem usar mais dinheiro para nos salvar do futuro que estão prevendo.

Essa transição da elite do tecno-otimismo para o altruísmo corporativo caiado é facilmente aparente nas agendas globais definidas no Fórum Econômico Mundial. Em 2016, o presidente do FEM, Klaus Schwab, publicou A quarta revolução industrialno qual anunciou a “fusão dos mundos físico, digital e biológico”.

Quatro anos depois, seu abominável tratado A Grande Restauração identificou a pandemia do COVID-19 como uma “oportunidade sem precedentes” para acelerar essa revolução tecnológica. Naturalmente, as pessoas normais em todo o planeta ficaram furiosas. Assim, em dezembro de 2021, Schwab garantiu a todos as boas intenções das elites com um volume de acompanhamento intitulado A Grande Narrativa.

“Essa narrativa emergente é muito útil porque mostra que essa capacidade de cuidar”, escreveram ele e seu coautor, “podem ser aproveitados para o bem social”.

Em outras palavras, seu coração sangrando pode ser usado como uma bateria para alimentar a Máquina.

Longtermismo e altruísmo eficaz apareceu pela primeira vez no meu radar em agosto passado, quando Elon Musk citou um tweet para o então livro de William MacAskill O que devemos ao futuro“Isso defende o longo prazo”, escreveu o filósofo de Oxford, “a visão de que afetar positivamente o futuro a longo prazo é uma prioridade moral fundamental de nosso tempo”. Aliás, MacAskill também foi um mentor para Bankman-Fried e aconselhou a FTX no caminho místico do altruísmo eficaz.

“Vale a pena ler”, respondeu Musk, rompendo com suas habituais autodescrições vagas. “Esta é uma correspondência próxima da minha filosofia.”

Num piscar de olhos, a última entrevista TED de Musk fez muito mais sentido. “SpaceX, Tesla, Neuralink e a Boring Company são filantropia”, ele insistiu.

A Tesla está acelerando a energia sustentável. Isso é amor — filantropia. A SpaceX está tentando garantir a sobrevivência a longo prazo da humanidade com uma espécie multiplanetária. Isso é amor pela humanidade. Você sabe, o Neuralink está tentando ajudar a resolver lesões cerebrais e riscos existenciais com IA. Amor da humanidade.

Por que ele comprou o Twitter? “Acho que o risco civilizacional diminui quanto mais aumentamos a confiança no Twitter como plataforma pública”, respondeu ele.

Logo após o tweet de “filosofia pessoal” de Musk, os algoritmos do Twitter me apresentaram ao trabalho de Émile Torres. Essa pessoa pode estar na extrema esquerda do espectro político, mas admito prontamente que Torres é um excelente escritor. Os artigos do filósofo em Eternidade Salão expor as ideias básicas do longotermismo, que Torres chama de “o credo secular mais perigoso do mundo”. Como ex-integrante de longa data que deixou o movimento desgostoso, Torres saberia.

Este louco trem futurista parte de uma estação tranquila, onde todos trabalham para aumentar a felicidade geral e diminuir o sofrimento, sempre pensando no longo prazo. Quanto mais avançamos, no entanto, passando por armas biológicas genocidas e exterminadores robóticos - juntamente com as soluções propostas para esses eventos em nível de extinção - a busca pelo bem-estar sai dos trilhos.

“O longotermismo pode ser uma das ideologias mais influentes que poucas pessoas fora das universidades de elite e do Vale do Silício já ouviram falar”, escreveu Torres em Éon. “O fato crucial que os de longo prazo não percebem é que é muito mais provável que a tecnologia cause nossa extinção antes desse evento futuro distante do que nos salve dele."

Torres é tão certeiro aqui que estou inclinado a ignorar aqueles irritantes pronomes “eles/eles” na biografia do Twitter. Essas brigas do dia-a-dia parecem mesquinhas diante de uma tecno-distopia disfuncional.

https://twitter.com/xriskology/status/1592115774302584834?s=20&t=JX0g8yElcBj_x7rCizt0pw

Como aprendemos com o recente surto de pandemia, a “cura” costuma ser pior que a doença. É a diferença entre tossir na manga e usar três máscaras para pegar seu décimo reforço. Longtermismo e altruísmo eficaz são personificações cômicas de tais extremos. Eles começam com alguns mosquiteiros para crianças famintas na África e terminam com poeira inteligente reunindo-se debaixo de sua cama.

Para ilustrar, Nick Bostrom tem argumentou para um sistema de vigilância global inescapável, que envolve todos os cidadãos usando “etiquetas da liberdade” que alimentam “estações patriotas” para que os governos possam identificar possíveis ameaças em nível de extinção, como superinteligência artificial ilícita ou enxames de nanobots gosmento cinza feitos em porões. E ele estava apenas começando.

In Superinteligência, Bostrom lançou um curioso plano de longo prazo para aumentar o QI médio e reduzir a estupidez humana: fertilizar um exército de fetos in vitro, examinar seus códigos genéticos, selecionar os espécimes supremos, implantá-los em mulheres reais ou gerá-los em massa em úteros artificiais e em seguida, jogue os rejeitos em lixeiras de biolixo. Ele nunca parece se preocupar em gerar uma ninhada de sociopatas sem emoção, mas talvez seja esse o ponto.

Você quer omeletes? Melhor começar a quebrar alguns ovos.

Já vemos programas de eugenia semelhantes Em andamento no movimento pronatalista obcecado por inteligência. Sam Altman, o magnata gay da tecnologia que cofundou a OpenAI com Elon Musk, investiu na empresa Genomic Predictor, que filtra zigotos indesejados, e em outra chamada Conception. De acordo com um fascinante business Insider exposto, a última startup “planeja cultivar óvulos humanos viáveis ​​a partir de células-tronco e pode permitir que dois machos biológicos se reproduzam”.

Na mesma linha, Vitalik Buterin (o co-fundador da criptomoeda Ethereum, um notável impulsionador do FTX e outro nó no movimento de altruísmo eficaz) sugeriu recentemente que os bebês devem ser gestados em biosacos plásticos para salvaguardar os direitos das mulheres:

As disparidades no sucesso econômico entre homens e mulheres são muito maiores quando casamento+filhos entram em cena. Os úteros sintéticos removeriam o alto peso da gravidez, reduzindo significativamente a desigualdade.

Em uma linha do tempo longa o suficiente - e com capital suficiente para contemplar o umbigo ininterruptamente - os altruístas eficazes e de longo prazo podem inventar o esquema suicida final para eliminar a dor. Eles já têm um começo de corrida decente.

Alguns anos atrás, William MacAskill argumentou “Para realmente acabar com o sofrimento animal, a escolha mais ética é matar predadores selvagens (especialmente Cecil, o leão).” Soando como um budista suburbano tendo uma viagem ruim de ácido, o vegetariano esquelético elaborou:

Ao matar predadores, podemos salvar a vida de muitas presas como gnus, zebras e búfalos na área local que, de outra forma, seriam mortos. … E não há razão para considerar a vida de predadores como leões mais importante do que a vida da presa.

Não é difícil imaginar essa campanha de extermínio estendendo-se aos machos humanos hiperagressivos. Ou, com avanços em gametas derivados de células-tronco, você poderia eliminar completamente os machos. Já que estamos filosofando, porém, por que não aplicar esse padrão aos filósofos autistas? Se algum dia eles dominassem o mundo – digamos, por meio de uma infraestrutura tecnológica global – eles causariam muito mais sofrimento do que qualquer predador selvagem.

Muito do pensamento de MacAskill e o altruísmo efetivo como um todoO que herdado do filósofo Peter Singer. No início dos anos 90, Singer notoriamente argumentou que os bebês - especialmente os deficientes - são passíveis de aborto até trinta dias após o nascimento. A premissa era que isso reduziria o sofrimento dos pais sobrecarregados e de seus filhos potencialmente retardados. É apenas uma questão de cálculo moral.

Ignorando toda a consideração pelo sagrado ou profano, a filosofia de Singer extrai a bondade humana por tudo o que vale, por mais azedo que esse leite possa ser. Se não estamos matando bebês deformados e velhos inúteis, para o bem deles, deveríamos estar libertando os animais da fazenda.

“O único ponto de parada justificável para a expansão do altruísmo é o ponto em que todos aqueles cujo bem-estar pode ser afetado por nossas ações são incluídos no círculo do altruísmo”, escreveu ele em seu livro de 1981 O Círculo em Expansão“Isso significa que todos os seres com capacidade de sentir prazer ou dor devem ser incluídos.”

Hoje, enquanto a Quarta Revolução Industrial se desenrola em todo o planeta, Singer também estendeu seu extremismo altruísta à vida artificial. ele recentemente explicado esta posição em um Big Think episódio:

Se criássemos robôs do nosso nível, acho que teríamos que dar a eles, realmente, os mesmos direitos que temos. Não haveria justificativa para dizer: “Ah, sim, mas somos uma criatura biológica e você é um robô”. Acho que isso não tem nada a ver com o estatuto moral do ser.

Para recapitular, os recém-nascidos merecem menos status moral do que os animais de fazenda, enquanto os robôs merecem direitos humanos. Você não pode parar o progresso!

Com relação ao valor moral das mentes artificiais, MacAskill apresenta argumentos semelhantes. Em seu artigo de 2021 “O caso para um forte longtermismo”, em coautoria com Hilary Greaves para o Global Priorities Institute, ele estima que a “sensibilidade digital” deve expandir exponencialmente o pool de mentes futuras, chegando ao máximo em torno de 10 ^ 45 - ou um quattuordecilhão - almas digitais se expandindo pela Via Láctea.

Se você pesar esse futuro cibernético superpovoado contra nossas necessidades e desejos atuais, isso é uma grande preocupação moral.

“Assumindo que, em média, as pessoas tenham vidas de bem-estar significativamente positivo”, escrevem MacAskill e Greaves, “de acordo com um utilitarismo total, a existência da humanidade é significativamente melhor do que sua inexistência, a qualquer momento. Combinando isso com o fato de que ambos os estados são persistentes, a extinção humana prematura seria astronomicamente ruim”.

A implicação é horrível. Se nosso propósito moral é beneficiar o maior número possível de seres, então é nosso dever moral evitar a extinção – como impactos de asteroides ou superinteligência artificial maligna – por qualquer meio necessário.

Levado à sua conclusão lógica, tal raciocínio moral justificaria qualquer coisa, desde matar de fome as populações atuais para alimentar a Máquina para futuras mentes digitais, até acabar com as massas amontoadas que são estúpidas demais para entender o quão importante esta Máquina realmente é.

Afinal, quanto valem os 8 bilhões de dumdums que vivem hoje quando comparados com o quarteto decilhão almas digitais que ainda não nasceram?

Você quer colonizar a galáxia ou não?

Ziggy Stardust e as Aranhas que colonizaram Marte

O colapso do mercado FTX, juntamente com a retórica moralista de Sam Bankman-Fried, nos dá alguma indicação de onde o longo prazo e o altruísmo efetivo podem nos levar como filosofias dominantes. Em primeiro lugar, vemos como toda essa sinalização de virtude corporativa realmente é insípida. Enquanto a tempestade de fogo crescia, Bankman-Fried estava perguntou via texto por uma Vox entrevistador - quem é ela mesma um altruísta eficaz– se “a questão da ética” é “principalmente uma fachada”. Ele respondeu:

sim

quero dizer, isso não é *tudo*

mas é muito

Ele passou a explicar:

é do que as reputações são feitas, até certo ponto

eu me sinto mal por aqueles que se fodem com isso

por este jogo idiota que acordamos os ocidentais jogam onde todos dizemos os shiboleths certos e então todo mundo gosta de nós

A segunda coisa que o desastre do FTX nos mostra, ao introduzir o longo prazo e o altruísmo efetivo na consciência pública, é o quão difundido é esse tipo de ideologia entre nossas elites tecnológicas, acadêmicas e econômicas. Cultura “acordada”, loucura Covidiana, filantropia radical – é tudo uma nova versão de um golpe antigo:

“Se você não obedece aos Poderes Instituídos, deve ser uma pessoa egoísta. Na verdade, você dificilmente é uma 'pessoa'.

Por fim, esse escândalo revela como nossas elites são facilmente enganadas e como elas acreditam que somos estúpidos. FTX foi sensacionalista por todos, desde Sequoia Capital e professores estabelecidos de Oxford a salteadores de ilhas como Bill Clinton e Tony Blair. Mesmo quando as mentiras se desenrolam diante de nossos olhos, o New York Times e a Wall Street Journal continuar a girar todo o caso como uma série de decisões de negócios infelizes. Atualmente, Bankman-Fried é ainda agendado para falar no NYT DealBook Summit ao lado de Janet Yellen, Mark Zuckerberg e Volodymyr Zelensky.

Os lunáticos realmente estão comandando o asilo, e se você ousar chamar a loucura deles, eles o colocarão em uma camisa de força e injetarão tranqüilizantes. Já passou da hora de roubar as chaves e escapar deste manicômio. E se ainda restar algum espírito em nós, deixaremos o asilo queimando para trás.

Sobre o Editor

Patrick Wood
Patrick Wood é um especialista líder e crítico em Desenvolvimento Sustentável, Economia Verde, Agenda 21, Agenda 2030 e Tecnocracia histórica. Ele é o autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) e co-autor de Trilaterals Over Washington, Volumes I e II (1978-1980) com o falecido Antony C. Sutton.
Subscrever
Receber por
convidado

5 Comentários
mais velho
Os mais novos Mais votados
Comentários em linha
Ver todos os comentários

[…] Leia o artigo original […]

Dália Leton

“Por que ele comprou o Twitter? “Acho que o risco civilizacional diminui quanto mais aumentamos a confiança no Twitter como plataforma pública”, respondeu ele.

Em outras palavras, um pote de mel para a liberdade de expressão. Permita a liberdade de expressão e vá atrás dos alto-falantes. Fácil.

Eles estão salvando a civilização DELES, não aquela em que você vive... ou viveu/viveu.

[…] ‘Longtermismo’ e ‘Altruísmo Efetivo’ são as novas faces do transumanismo […]