Estamos a fazer o suficiente para impedir a extinção humana?

Por Dylan Matthews (Vox)

contra-extinção.fx

Como impedir a extinção humana? (Arte digital: José Oliveira | Fotografias: Pixabay)

A probabilidade de a humanidade se extinguir num futuro próximo é baixa — mas não é nula. E, a menos que nos preparemos de imediato, podemos acabar por fazer com que uma catástrofe à qual conseguiríamos sobreviver se torne numa que garanta a desgraça para todos nós.

Esse é o argumento principal de End Times: A Brief Guide to the End of the World [Fim dos tempos: um breve guia para o fim do mundo], um novo livro de Bryan Walsh, detalhado, aterrorizador, mas, em última análise, esperançoso. Repórter de longa data na revista Time, agora editor da revista científica OneZero, Walsh explora todas as principais ameaças à sobrevivência da humanidade, das mudanças climáticas à guerra nuclear e aos “supervulcões”, e mostra como cada uma delas nos pode destruir, como as ameaças se comparam entre si e o que é que podemos fazer já, se é que podemos fazer alguma coisa, para evitar a desgraça.

Podem parecer catástrofes muito improváveis e, em alguns casos, são. Mas vale a pena levar a sério uma ameaça que possa acabar com a humanidade, mesmo que a probabilidade seja baixa, simplesmente porque os interesses em causa são incrivelmente elevados. E, entre os gigantescos arsenais nucleares e a biologia sintética, os seres humanos nunca tiveram tanto poder para se destruir como agora.

Walsh e eu conversámos por Skype sobre o livro, no início deste mês; segue-se uma transcrição, editada por questões de extensão e clareza.

Dylan Matthews: Quando percorreu estes riscos, um por um, a sua ideia de quais seriam as ameaças mais sérias mudou de algum modo? Houve ameaças que fossem maiores do que pensava quando começou?

Bryan Walsh: Comecei pouco depois da eleição de Donald Trump. A guerra nuclear é algo que — eu cresci nos anos 1980 e preocupei-me com isso, e era algo de que tinha medo, claro, e depois de algum modo assumi que tinha desaparecido. Eu sabia que era uma possibilidade, mas de algum modo tinha deixado de ser um perigo activo como tinha sido durante tantos anos depois de 1945.

Agora parece-me que podemos realmente ver que isso não é assim. Em termos de como a política mudou, em termos de Donald Trump assumir o cargo, pode ver-se esse risco de uma maneira muito mais real. Neste livro conversei com o [ex-secretário de Defesa] William Perry. Ele viveu a crise dos mísseis de Cuba, trabalhando como analista. Agora tem 91 anos e está de regresso e a dizer, sabe, temos que ter cuidado com isto novamente. Esta situação actual é análoga ou até potencialmente mais arriscada do que em alguns dos dias mais sombrios da Guerra Fria. Eu definitivamente acabei por me sentir muito mais preocupado com isso.

E tudo em torno da biotecnologia me preocupa cada vez mais a cada dia que passa. Sabe, se eu pensasse qual seria o maior risco no futuro a curto prazo, seria esse.

Dylan Matthews: Encontrou algumas ameaças que não eram tão eminentes como pensava quando começou?

Bryan Walsh: Sem dúvida. Eu fui repórter e trabalhei em alterações climáticas durante vários anos, quando estava na revista Time. [Depois de escrever o livro] eu não deixei de pensar que o clima não se qualifica como um risco existencial. Mas cheguei à conclusão que, actualmente, não está a ser contextualizado da forma correcta.

Actualmente, verificamos que é dedicada muita atenção por parte dos meios de comunicação, de algumas partes da comunidade científica e, definitivamente, de algumas partes da comunidade activista, relativamente à ideia de que as mudanças do clima são algo que pode acabar connosco num período muito curto de tempo. Antes, eu suspeitava que isso não era verdade. Agora, depois de passar mais tempo a investigar, esse não é definitivamente o caso.

[Essa conclusão] não me fez necessariamente sentir melhor. Pelo contrário, fez-me perceber que é algo que nos deve preocupar a longo prazo. Também cheguei à conclusão que a maneira como estamos a lidar com o assunto não será muito bem-sucedida. O que eu vi nas conferências [climáticas] foi como é difícil conseguir com que os líderes, mas na verdade incluindo a maioria das pessoas neste planeta, actuem de uma maneira que limite o seu próprio crescimento, o seu próprio desejo de usar energia.

Parece-me que temos mais tempo, mas é algo em que precisamos de pensar em soluções tecnológicas de maior escala, porque realmente não tenho muita confiança na capacidade da humanidade de lidar com algo que é um risco que sempre será ao longo do futuro.

Dylan Matthews: No início do livro apresenta esta citação do filósofo Derek Parfit a perguntar o quanto é pior toda a humanidade morrer, por comparação com a morte de 99% da humanidade. Parfit assumiu a posição de que a nossa extinção é dramaticamente pior, ponto final.

Poderia desenvolver um pouco e explicar o seu próprio pensamento sobre esta questão? Eu acho que isso afecta o quanto nos importamos com esses riscos em relação uns aos outros, uma vez que alguns deles podem matar imensas pessoas, mas não literalmente toda a gente.

Bryan Walsh: É difícil de entender, porque a ideia de um planeta onde 99% da humanidade desapareceu parece algo tão mau quanto poderíamos possivelmente imaginar.

O que isto exige que façamos é realmente começar a pensar no futuro. Exige que percebamos que, se desaparecermos agora, se por nossa própria acção ou por nossa própria inacção permitirmos que a extinção ocorra, que sim, obviamente qualquer pessoa viva neste momento será a primeira vítima. Mas quando se somam os milhões, potencialmente milhares de milhões [Br. biliões] — se realmente se quiser acreditar no lado transumanista do argumento, bilhões [Br. triliões] — de pessoas que poderiam viver, se nos extinguirmos agora, acabou. É o fim. Tudo isso desaparece. Eu acho que esta é uma maneira muito eficaz de fazer com que se entenda isto.

E isto vai contra a corrente da psicologia humana, que é o facto de nós realmente não pensarmos muito no futuro distante. Na economia convencional, não valorizamos muito isso. Eu falo um pouco sobre isso a propósito das mudanças climáticas, em termos de como descontamos os danos no futuro. Mas no final das contas, se desaparecermos, acabou. Perdemos um valor potencialmente infinito.

Dylan Matthews: No final do livro, fala um pouco sobre estratégias para evitar a extinção definitiva caso haja algum tipo de evento apocalíptico. Porque é que isso é importante? Quais são os tipos de coisas que parecem promissoras como formas de garantir que um último suspiro da humanidade persista?

Bryan Walsh: É a resposta ao cenário que Parfit apresenta. Se se nos for possível fazer a diferença entre 99% e a extinção total, é preciso agir.

Em termos de estratégias que se podem usar, primeiro e acima de tudo, é investigar esta questão sobre alimentos alternativos. Kelsey Piper, no vosso site, fez uma entrevista a David Denkenberger, com quem conversei também, tratando desta questão. É importante fazer esse trabalho agora, para descobrir como poderemos cultivar alimentos no caso de uma das várias catástrofes que poderiam basicamente bloquear a luz solar e acabar com a agricultura por um determinado período de tempo. Podemos tentar responder a isso neste momento, mas não me parece que isso nos corresse bem.

A outra são os refúgios, que é algo que Robin Hanson abordou — a ideia de manter um banco de seres humanos, por falta de um termo melhor, que possa começar tudo de novo, caso aconteça o pior. Estes não são abrigos do tipo que costumamos ver através dos filmes ou dos sobrevivencialistas do Apocalipse. Seria algo que pudesse estar verdadeiramente protegido de tudo o que pudesse acontecer e onde isso seria feito de uma maneira visionária. Imagine um tipo de serviço nacional em que alguém seja o banco da humanidade e ficará lá em baixo por, não sei bem, dois anos, e estará em rotação entrando e saindo.

Durante a era nuclear, a defesa civil em certa medida ganhou má fama. O governo disse: “Baixem-se e protejam-se e assim sobreviveremos a uma guerra nuclear”. E havia pessoas como Herman Kahn a falar sobre “estados trágicos, mas distintos, do pós-guerra”. Mas todos nós acabámos por perceber, especialmente quando a Guerra Fria atingiu o seu auge, dado o grande número de ogivas que existiam, e que isso era absurdo, e o mais provável é que não seria possível sobrevivermos. Mas isso não significa que não devamos tentar fazer isso antes de outros desastres potenciais.

Dylan Matthews: Concordo que a defesa civil ganhou má fama e os sobrevivencialistas realmente ganharam má fama. Parte daquilo que está a dizer é que precisamos de reavaliar isso, ou criar um novo tipo de identidade de sobrevivencialista que seja um pouco mais séria e mais comprometida a desempenhar o papel de reserva em caso de catástrofe?

Bryan Walsh: A natureza do sobrevivencialismo do Apocalipse nos EUA parece um fenómeno muito americano, isto é: “Vamos esconder-nos num buraco, vamos ter as nossas armas, vamos ter as nossas provisões e, de alguma forma, vamos aguentar isto por conta própria“. Há também a versão de alto nível para pessoas ricas de Silicon Valley, tendo o seu próprio rancho e refúgio na Nova Zelândia e onde se vai de avião particular e se acaba por sobreviver ao fim do mundo.

Mas do que estou a falar é algo que realmente requer um movimento nacional, ou mesmo mundial. Provavelmente é por isso que é tão difícil de se fazer. Realmente não queremos fazer isso nos EUA — parece-me que realmente não confiamos no governo para fazer isso.

Essas catástrofes não são algo a que se possa sobreviver por conta própria. Se houver um inverno nuclear sério, um grande supervulcão, um impacto de asteróide em que se observem temperaturas significativamente reduzidas por um longo período de tempo — irá ficar sem comida como todas as outras pessoas. É aí que uma união nacional pode fazer a diferença. É claro, não se trata da sua sobrevivência, trata-se da sobrevivência desta espécie. Trata-se de haver um futuro, o que, novamente, não é o tipo de modelo individualista do sobrevivencialista.

Dylan Matthews: Falemos um pouco sobre o capítulo dedicado ao risco da IA, visto que é nesse ponto que perco muitas pessoas que não são do tipo altruísta eficaz e que já estejam convencidas de que é uma ameaça séria. Acho que há a sensação de que as armas nucleares e as mudanças climáticas são sérias, mas porque é que todos esses tipos do Sillicon Valley estão preocupados com robôs que ainda não existem? Explique-me o seu argumento e como ficou convencido de que isso era importante.

Bryan Walsh: Ainda não sei com certeza se existe algum risco. Pode ser que a inteligência das máquinas esteja, de alguma forma, fora do nosso acesso. Que não seja apenas: “Isso não vai acontecer nos próximos 10 a 15 anos”, mas sim “Não vai acontecer em nenhum futuro concebível”. Isso é algo que se torna difícil de abarcar.

Mas se for possível, está-se perante algo que potencialmente sairia do nosso controlo muito rapidamente. Podemos preparar-nos de algum modo ou tentar sobreviver à maioria [das catástrofes]. Mas se existir uma inteligência artificial verdadeiramente super poderosa que saia do nosso controlo e que dê errado da maneira descrita por quem escreve sobre o assunto, não há qualquer escapatória. Por isso, o que é preciso fazer é agir para tentar moldá-la de alguma forma.


Entrevista a Bryan Walsh originalmente publicada por Dylan Matthews na Vox, a 29 de Agosto de 2019.

Tradução de Luis Campos. Revisão de José Oliveira.

Deixe um comentário

Faça o login usando um destes métodos para comentar:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s