Que mundo será salvo?

Por Philip Trammell (EA Forum)

QueMundoSalvar(19)

Que mundo será salvo? (Arte digital: José Oliveira | Fotografias: Pixabay)

É comum argumentar-se a favor da importância da redução dos riscos existenciais (riscos-x), enfatizando o imenso valor que pode existir ao longo do futuro, se o futuro vier. Por exemplo, é famoso o cálculo de Nick Bostrom segundo o qual, mesmo mediante estimativas relativamente sóbrias do número e tamanho das futuras gerações humanas, “o valor esperado ao reduzir o risco existencial em apenas um milionésimo de um ponto percentual é pelo menos cem vezes o valor de um milhão de vidas humanas”.

[Nota: As pessoas às vezes usam o termo “risco-x” para se referirem a coisas ligeiramente diferentes. Aqui, uso o termo para me referir a um evento que levaria o valor da civilização humana futura aproximadamente a zero — um evento de extinção, uma guerra na qual nos bombardeássemos até voltarmos à Idade da Pedra e ficássemos lá presos para sempre, ou algo semelhante.]

Entre aqueles que levam a sério estes argumentos em favor da redução dos riscos-x, parece haver dois contra-argumentos normalmente apresentados como resposta (por exemplo, aqui). Primeiro, o futuro poderá conter mais dor do que prazer. Se pensarmos que isso é provável, pelo menos do ponto de vista utilitarista, a redução dos riscos-x deixa de parecer tão boa. Segundo, podemos ter oportunidades de melhorar a trajectória do futuro, tais como melhorar a qualidade das instituições globais ou acelerando o crescimento económico, e tais esforços podem ter um valor esperado ainda maior do que a redução (imediata) dos riscos-x. Os esforços “mundanos” de desenvolvimento de instituições também podem ter o benefício de reduzir futuros riscos catastróficos, caso estes venham a surgir.

Parece-me que há outra consideração importante que complica a posição a favor dos esforços de redução dos riscos-x, e que as pessoas, até ao momento, têm negligenciado. A consideração é que, mesmo se pensarmos que o valor do futuro é positivo e grande, o valor do futuro, condicionado pelo facto de que evitamos marginalmente um dado risco-x, pode não ser. E, em qualquer dos casos, esses valores irão depender do risco-x em questão.

Por exemplo: Há coisas que actualmente não sabemos sobre a psicologia humana, algumas das quais reflectem-se no quanto estaremos inclinados em favor da paz e da cooperação. Talvez Steven Pinker esteja certo, e a violência continuará o seu declínio constante, até que uma noite se assista pela última vez no mundo a uma briga num bar e a humanidade fique em paz para sempre. Ou talvez ele esteja errado — talvez uma certa medida de impulsividade e raiva permaneça para sempre, por mais favorável que seja o ambiente, e esses impulsos tendam a surgir periodicamente em brigas, torturas em massa e guerras mundiais. No caso extremo, se pensarmos que o valor esperado do futuro (se este vier) for grande e positivo de acordo com a primeira hipótese, mas grande e negativo de acordo com a segunda, então a possibilidade de que a fúria humana possa acabar com o mundo é uma fonte de consolo, não de preocupação. Isso significa que o risco existencial representado pela guerra mundial servirá como uma espécie de “fusível”, desligando as luzes em vez de deixar a família arder.

Para se implementar: se pensarmos que a hipótese da psicologia pacífica é mais provável do que a hipótese da psicologia violenta, poderíamos pensar que o futuro tem um alto valor esperado. Poderíamos, portanto, considerar importante evitar eventos de extinção como impactos de asteróides, que “em média” destruiriam mundos. Mas podemos opor-nos a esforços como a Iniciativa face à Ameaça Nuclear, que salva desproporcionalmente mundos de psicologia violenta. Ou podemos pensar que o sinal do valor do futuro é positivo em ambos os cenários, mas julgar que vale mais a pena encetar esforços num risco-x do que noutro, tudo o resto sendo igual.

Quando começamos a pensar nesse sentido, abrimos várias caixas de Pandora. Se o nosso esforço de redução de riscos-x começa longe, a “montante”, por exemplo com um esforço para tornar as pessoas mais cooperativas e amantes da paz em geral, até que ponto devemos levar o sucesso dos passos intermediários (quais devem ter sucesso para que o esforço de redução do risco-x tenha sucesso) como prova de que o mundo salvo viria a ter um bom futuro? Deveríamos incorporar o próprio facto da nossa escolha de procurar atingir a redução dos riscos-x na nossa estimativa do valor esperado do futuro, como recomendado pela teoria da decisão evidencial, ou devemos excluí-lo, como recomendado pela causal? Afinal, como devemos gerar todos estes valores condicionais esperados?

Pode valer a pena responder com cuidado a algumas destas perguntas, e a outras não. O meu objectivo aqui é apenas levantar a ampla consideração de valor condicional que, embora óbvia uma vez declarada, até agora parece ter recebido pouca atenção. (Para referência: ao discutir esta consideração com Will MacAskill e Toby Ord, ambos disseram que não tinham pensado nisso e pareceu-lhes que era um boa observação.) Em resumo, “O imperativo utilitarista «Maximize a utilidade agregada esperada!»“, como diz Bostrom (2002), poderá realmente não ser “simplificado à máxima «Minimize o risco existencial»”. Pode não ser suficiente fazer o nosso melhor para salvar o mundo. Podemos também ter que considerar que mundo será salvo.


Texto de Philip Trammell publicado originalmente no EA Forum, a 9 de Novembro de 2018.

Tradução de José Oliveira.

Botao-assineBoletim

Deixe um comentário

Faça o login usando um destes métodos para comentar:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s