“Longo-Termismo” vs. “Riscos Existenciais”

Por Scott Alexander (EA Forum)

LongotermismoVsRiscosX.fx

“Longo-termismo” ou “riscos existenciais”? (Arte digital: José Oliveira | Fotografias: Pixabay)

Tenho notado que a expressão “longo-termismo” está a ocupar uma parte crescente da “imagem de marca” da comunidade no que respeita ao exterior. Por exemplo, o Fundo do Futuro a Longo Termo, o Future Fund do FTX (“apoiamos projectos ambiciosos para melhorar as perspectivas da humanidade a longo termo”) e o lançamento iminente do What We Owe The Future (“making the case for long-termism”) [O Que Devemos ao Futuro (“em defesa do longo-termismo”)].

Will MacAskill descreve o longo-termismo do seguinte modo:

Tx.LongotermismoWM

Penso que esta é uma filosofia interessante, mas preocupa-me que em situações práticas e ao estabelecer uma imagem de marca, raramente acrescente valor e possa até subtraí-lo.

A curto prazo, estaremos todos mortos

O alinhamento da IA é um exemplo central daquilo em que estão interessados os longo-termistas.

Mas o relatório de Ajeya Cotra sobre Âncoras Biológicas prevê uma hipótese de 10% de IA transformadora até 2031 e uma hipótese de 50% até 2052. Outros (por exemplo Eliezer Yudkowsky) pensam que isso poderá acontecer ainda mais cedo.

Deixe-me reformular isto de uma forma deliberadamente provocatória: no caso de ter menos de ~50, a IA não alinhada pode matá-lo a si e a todas as pessoas que conhece. Não os seus tata(…)tataranetos no ano 30 000 DC. Nem mesmo os seus filhos. A si e a toda a gente que conhece. No que diz respeito a slogans para fazer com que as pessoas se preocupem com alguma coisa, este é um bem forte.

Mas neste momento, muita discussão no AE sobre este assunto passa por um argumento que começa com “sabia que poderá querer atribuir aos seus descendentes no ano 30 000 DC um valor moral exactamente igual ao que atribui a si mesmo? Sabia que deveria talvez preocupar-se tanto com os problemas deles como com o aquecimento global e outros problemas que estão a acontecer nos dias de hoje?”.

Independentemente destas afirmações serem verdadeiras, ou de eventualmente conseguir convencer alguém quanto a isso, esta não é a forma mais eficiente de fazer com que as pessoas se preocupem com algo que, a curto prazo, também as irá matar e a toda gente que conhecem.

O mesmo argumento se aplica a outras prioridades do longo-termismo, como a biossegurança e as armas nucleares. Ideias bem conhecidas como “o ponto crucial da história”, “o século mais importante” e “o precipício” apontam todas para a ideia de que os riscos existenciais se concentram num futuro relativamente próximo — provavelmente antes de 2100.

Em média, os projectos de biossegurança financiados pelo Fundo do Futuro a Longo Termo ou pelo Future Fund do FTX destinam-se a prevenir pandemias nos próximos 10 ou 30 anos. O projecto médio de contenção nuclear visa a prevenção de guerras nucleares nos próximos 10 a 30 anos. Uma razão pela qual todos estes projectos são bons é que irão impedir que a humanidade seja dizimada, levando a um futuro próspero a longo termo. Mas outra razão é que se houver uma pandemia ou uma guerra nuclear daqui a 10 ou 30 anos, poderá matá-lo a si e a toda a gente que conhece.

Será que o Longo-Termismo chega a conclusões diferentes do que o Curto-Termismo ponderado?

Parece-me que sim, mas muito raramente, de formas que raramente afectam a prática real.

O longo-tremismo pode estar mais disposto a financiar projectos do tipo Estudos de Progresso que aumentem a taxa de crescimento do PIB em 0,01% por ano de uma forma que compense ao longo de muitos séculos. Trabalhos do tipo “mudança de valores” — mudando gradualmente os valores civilizacionais para aqueles que estão mais de acordo com o florescimento humano — podem também enquadrar-se nesta categoria.

Na prática, raramente vejo os longo-tremistas a trabalhar nestes projectos, excepto quando têm efeitos a curto prazo. Penso que há uma sensação de que nos próximos 100 anos, ou teremos uma singularidade tecnológica negativa que acabará com a civilização, ou uma singularidade tecnológica positiva que resolverá todos os nossos problemas — ou pelo menos mudará profundamente a forma como pensamos sobre coisas como o “crescimento do PIB”. A maior parte dos longo-termistas que vejo estão a tentar moldar a conjuntura do progresso e dos valores até chegar essa singularidade, na esperança de afectar o rumo que a singularidade toma — o que os coloca em sintonia com os curto-termistas ponderados que estão a planear para os próximos 100 anos.

Os longo-termistas também podem classificar os riscos-x de forma diferente do alívio do sofrimento. Por exemplo, suponha que poderia escolher entre salvar mil milhões [Br. 1 bilhão] de pessoas da pobreza (com toda a certeza), ou evitar uma guerra nuclear que mata todos os 10 mil milhões [Br. 10 bilhões] de pessoas (com 1% de probabilidade), e assumimos que a pobreza seja 10% tão má como a morte. Um curto-termista pode permanecer indiferente face a estas duas causas, mas um longo-termista iria considerar a prevenção da guerra muito mais importante, uma vez que está a pensar em todas as gerações futuras que nunca viriam a nascer se a humanidade fosse dizimada.

Na prática, penso que quase nunca há uma opção para salvar com toda a certeza mil milhões [Br. 1 bilhão] de pessoas da pobreza. Quando disse que havia, isso foi um artifício que tive de introduzir para fazer com que as contas funcionassem para que o curto-termista chegasse a uma conclusão diferente da do longo-termista. Uma hipótese de 1/1 milhão de prevenir o apocalipse vale 7000 vidas, o que custa 30 milhões de dólares com instituições de caridade do tipo que a GiveWell recomenda. Mas não creio que os longo-termistas estejam na realidade a pedir 30 milhões de dólares para tornar o apocalipse 0,0001% menos provável — quer porque não podemos calcular de forma fiável números tão baixos, quer porque se tivéssemos 30 milhões de dólares poderíamos provavelmente fazer muito melhor do que 0,0001%. Por isso, vejo com cepticismo que seja provável que problemas como este surjam na vida real.

Quando as pessoas destinam dinheiro a outras causas em vez dos riscos existenciais, penso que é mais frequente que seja uma espécie de manobra parlamentar moral, em vez de ser porque fizeram o cálculo e a outra causa é melhor de uma forma que mudaria se considerássemos o futuro a longo prazo.

“Longo-termismo” vs. “riscos existenciais”

Os filósofos não se devem sentir constrangidos por considerações tipo relações públicas. Se são de facto longo-termistas, e é isso que os está a motivar, devem dizê-lo.

Mas quando falo com não-filósofos, prefiro um enquadramento baseado nos “riscos existenciais” do que um enquadramento baseado no “longo-termismo”. O enquadramento baseado nos riscos existenciais identifica imediatamente um problema convincente (você e toda a gente que conhece podem morrer) sem pedir ao seu ouvinte que aceite pressupostos filosóficos controversos. Previne ataques sobre como é não-empático ou politicamente incorrecto não dar prioridade a vários tipos de pessoas que estão a sofrer neste momento. E concentra as objecções nas áreas em que é mais importante esclarecer (há realmente uma grande probabilidade de virmos todos a morrer em breve?) e não em premissas tangenciais (temos a certeza de que sabemos como as nossas acções irão afectar o ano 30 000 DC?)

Estou interessado em saber se outras pessoas têm razões diferentes para preferir o enquadramento baseado no “longo-termismo” que me estejam a escapar.


Publicado originalmente por Scott Alexander no EA Forum, a 6 de Abril de 2022.

Tradução de Rosa Costa e José Oliveira.

 

Um comentário sobre ““Longo-Termismo” vs. “Riscos Existenciais”

Deixe um comentário

Faça o login usando um destes métodos para comentar:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s