Os argumentos a favor da redução dos riscos existenciais

Por Benjamin Todd  (EA Forum, Outubro 2017)

Como impedir riscos existenciais? (Arte digital: José Oliveira | Fotografias: Pixabay)

Em 1939, Einstein escreveu a Roosevelt:[1]

Pode ser possível criar uma reacção nuclear em cadeia numa grande massa de urânio… e é concebível — embora muito menos provável — que desse modo possam ser construídas bombas extremamente poderosas de um novo tipo.

Poucos anos mais tarde, estas bombas foram criadas. Em pouco mais de uma década, tinham sido produzidas quantidades suficientes para que, pela primeira vez na história, um punhado de dirigentes pudesse destruir a civilização.

A humanidade tinha entrado numa nova era, na qual passamos a enfrentar não só os riscos existenciais[2] do nosso ambiente natural, mas também os riscos que nós próprios criámos.

Nesta nova era, qual deveria ser a nossa maior prioridade como civilização? Melhorar a tecnologia? Ajudar os pobres? Mudar o sistema político?

Eis uma sugestão que não é discutida frequentemente: a nossa primeira prioridade deveria ser sobreviver.

Enquanto a civilização continuar a existir, teremos a oportunidade de resolver todos os nossos outros problemas e de ter um futuro muito melhor. Mas no caso de nos extinguirmos, acabou-se tudo.

Porque será que esta prioridade não é mais discutida? Eis uma razão: muitas pessoas ainda não consideram a mudança da situação e, portanto, não acham que o nosso futuro esteja em risco.

O investigador de ciências sociais Spencer Greenberg realizou um estudo sobre as estimativas dos americanos face às hipóteses de extinção humana dentro de 50 anos. Os resultados revelaram que muitos pensam que as probabilidades são extremamente baixas, com mais de 30% a supor que estas sejam inferiores a uma em dez milhões.[3]

Também costumávamos pensar que os riscos eram extremamente baixos, mas quando analisámos o assunto, mudámos de ideias. Como veremos, os investigadores que estudam estas questões pensam que os riscos são mais de mil vezes superiores e provavelmente estão a aumentar.

Estas preocupações iniciaram um novo movimento que trabalha para salvaguardar a civilização, ao qual se juntaram Stephen Hawking, Max Tegmark e novos institutos fundados por investigadores em Cambridge, MIT, Oxford e noutros locais.

No resto deste artigo, abordamos os maiores riscos para a civilização, incluindo alguns que podem ser maiores do que a guerra nuclear e as alterações climáticas. Depois, defendemos a ideia que a redução destes riscos pode ser a coisa mais importante que fará com a sua vida e explicamos exactamente o que se pode fazer para ajudar. Caso gostasse de usar a sua carreira para trabalhar nestas questões, também podemos prestar um serviço de aconselhamento individual.

Continuar a ler no site das 80.000 Hours

  1. “No decurso dos últimos quatro meses, tornou-se provável — através do trabalho de Joliot em França, bem como de Fermi e Szilárd na América — que seria possível criar uma reacção nuclear em cadeia numa grande massa de urânio, através da qual seriam geradas grandes quantidades de energia e grandes quantidades de novos elementos semelhantes ao rádio. Agora parece quase certo que isso poderia ser alcançado no futuro imediato. Esse novo fenómeno levaria também à construção de bombas e é concebível — embora muito menos provável — que desse modo possam ser construídas bombas extremamente poderosas de um novo tipo. Uma única bomba deste tipo, transportada por barco e detonada num porto, poderia muito bem destruir todo o porto juntamente com algum do território circundante. Contudo, tais bombas podem muito bem revelar-se demasiado pesadas para serem transportadas por via aérea”.

    Carta Einstein-Szilárd, Wikipédia, Ligação de arquivo, recuperada a 17 de Outubro de 2017. ↩︎
  1. Nick Bostrom define um risco existencial como um evento que “poderia causar a extinção humana ou reduzir de forma permanente e drástica o potencial da humanidade”. Um risco existencial é distinto de um risco catastrófico global (RCG) no seu alcance um RCG é catastrófico à escala global, mas mantém a possibilidade de recuperação. Uma ameaça existencial parece ser usada como um modificador linguístico de uma ameaça para a fazer parecer mais terrível. ↩︎

  2. Greenberg entrevistou os utilizadores do Mechanical Turk, que tendem a ter entre 20 a 40 anos e a ser mais instruídos do que a média, pelo que o inquérito não representa a opinião de todos os americanos. Veja mais detalhes neste vídeo: As Ciências Sociais como lente sobre a Caridade Eficaz: resultados de quatro novos estudos – Spencer Greenberg.

    O inquérito inicial encontrou uma estimativa mediana de 1 em 10 milhões da hipótese de extinção dentro de 50 anos. Greenberg fez três estudos de replicação e estes deram estimativas mais elevadas das hipóteses de extinção. A mais elevada encontrou uma mediana de 1 em 100 em 50 anos. Contudo, mesmo neste caso, 39% dos inquiridos ainda supuseram que as hipóteses eram inferiores a 1 em 10 mil (mais ou menos o mesmo que a hipótese de sermos atingidos por um asteróide de 1 km). Em todos os casos, mais de 30% pensavam que as probabilidades eram inferiores a 1 em 10 milhões. Pode ver aqui um resumo de todas as sondagens.

    Note-se que quando perguntamos às pessoas sobre as hipóteses de extinção sem prazo, as estimativas eram muito mais elevadas. Um inquérito deu uma mediana de 75%. Isto faz sentido — a humanidade eventualmente acabará por se extinguir. Isso ajuda a explicar a discrepância com alguns outros inquéritos. Por exemplo, “As Alterações Climáticas na Mente dos Americanos” (Maio 2017, ligação de arquivo), descobriu que o americano mediano pensava que a hipótese de extinção por causa das alterações climáticas era de cerca de 1 em 3. Este inquérito, no entanto, não perguntou acerca de um prazo específico. Quando Greenberg tentou replicar o resultado com a mesma pergunta, encontrou um número semelhante. Mas quando Greenberg perguntou acerca da probabilidade de extinção devido às alterações climáticas nos próximos 50 anos, a mediana caiu para apenas 1%. Muitos outros estudos também não têm uma amostra correcta de estimativas de baixa probabilidade — as pessoas normalmente não respondem 0,00001%, a menos que a opção seja explicitamente apresentada.

    No entanto, como poderá ver, este tipo de inquéritos tendem a dar resultados muito instáveis. As respostas parecem variar sobre a forma exacta como a pergunta é feita e sobre o contexto. Em parte, isto deve-se ao facto de as pessoas serem muito más a fazer estimativas de probabilidades minúsculas. Isto torna difícil dar uma estimativa estreita do que a população em geral pensa, mas nada do que descobrimos refuta a ideia de que um número significativo de pessoas (digamos mais de 25%) pensa que as hipóteses de extinção a curto prazo são muito, muito, baixas e provavelmente inferiores apenas ao risco de sermos atingidos por um asteróide. Além disso, a instabilidade das estimativas não parece ser motivo de confiança de que a humanidade esteja a lidar racionalmente com estes riscos. ↩︎

Publicado originalmente por Benjamin Todd no EA Forum, a 1 de Outubro de 2017.

Tradução de José Oliveira.

Deixe um comentário

Faça o login usando um destes métodos para comentar:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s