Desperdício Astronómico: O Custo de Oportunidade da Demora do Desenvolvimento Tecnológico

Por Nick Bostrom (Site pessoal)

Colonizar o espaço(19)fx

Colonizar o espaço, será o melhor para nós? (Arte digital: José Oliveira | Fotografias: Pixabay)

RESUMO: Com tecnologia muito avançada, poderia sustentar-se uma população muito grande de pessoas que viveriam felizes na região acessível do universo. Por cada ano que o desenvolvimento de tais tecnologias e a colonização do universo são adiados, há, portanto, um custo de oportunidade: um bem potencial, vidas dignas de serem vividas, não está a ser realizado. Dadas algumas suposições plausíveis, esse custo é extremamente grande. No entanto, a lição para os utilitaristas não é a de que devemos maximizar o ritmo do desenvolvimento tecnológico, mas sim que devemos maximizar a sua segurança, ou seja, a probabilidade de que a colonização eventualmente ocorra.

I. A TAXA DE PERDA DE VIDAS POTENCIAIS

Enquanto escrevo estas palavras, sóis estão a iluminar e a aquecer salas vazias, energia não usada está a escoar-se por buracos negros e o nosso grande património comum de sintropia está a degradar-se irreversivelmente em entropia a uma escala cósmica. Estes são recursos que uma civilização avançada poderia ter usado para criar estruturas de valor, tais como seres sencientes que vivessem vidas dignas.

A taxa dessa perda é inacreditável. Um artigo recente especula, usando considerações teóricas vagas, baseadas na taxa de aumento da entropia, que a perda de vidas humanas potenciais no nosso próprio superaglomerado galáctico é de pelo menos ~1046 por cada século de colonização adiada. [1] Essa estimativa pressupõe que toda a entropia perdida pudesse ter sido usada para fins produtivos, embora nenhum mecanismo tecnológico atualmente conhecido seja remotamente capaz de fazer isso. Como a estimativa pretende ser um limite inferior, essa suposição radicalmente não conservadora é indesejável.

Podemos, no entanto, obter um limite mais baixo de maneira mais directa, simplesmente ao contar o número de estrelas no nosso superaglomerado galáctico e multiplicando esse número pela quantidade de poder computacional que os recursos de cada estrela poderiam ser usados para gerar, usando tecnologias para as quais já existem razões fortes para pensar que são viáveis. Podemos então dividir esse total pela quantidade estimada de poder computacional necessário para simular uma vida humana.

Como uma estimativa aproximada, digamos que o Superaglomerado local contenha 1013 estrelas. Uma estimativa do poder de computação extraível de uma estrela e com uma estrutura computacional associada do tamanho de um planeta, usando nanotecnologia molecular avançada [2], é de 1042 operações por segundo. [3] Uma estimativa típica do poder de processamento do cérebro humano é de aproximadamente 1017 operações por segundo ou menos. [4] Não parece ser necessário muito mais para simular as partes relevantes do ambiente em detalhe suficiente para permitir que as mentes simuladas tenham experiências indistinguíveis das típicas experiências humanas actuais. [5] Dadas estas estimativas, segue-se que um potencial de aproximadamente 1038 vidas humanas é perdido a cada século em que a colonização do nosso superaglomerado local é adiada; ou de forma equivalente, cerca de 1029 vidas humanas potenciais por segundo.

Embora esta estimativa seja conservadora, pois pressupõe apenas mecanismos computacionais cuja implementação foi pelo menos esboçada na literatura, é útil ter uma estimativa ainda mais conservadora que não pressuponha uma instanciação não biológica das pessoas potenciais. Suponhamos que cerca de 1010 seres humanos biológicos possam ser sustentados na proximidade de uma estrela comum. Então, o Superaglomerado local poderia conter 1023 seres humanos biológicos. Isso corresponde a uma perda de potencial igual a cerca de 1014 vidas humanas potenciais por cada segundo de adiamento da colonização.

O que importa para os propósitos actuais não são os números exactos, mas sim o facto de serem enormes. Mesmo com a estimativa mais conservadora, assumindo uma implementação biológica de todas as pessoas, um potencial de cem mil biliões [Br. cem trilhões] de seres humanos potenciais é perdido a cada segundo de adiamento da colonização do nosso superaglomerado. [6]

II. O CUSTO DE OPORTUNIDADE DA DEMORA DA COLONIZAÇÃO

De uma perspectiva utilitarista, esta enorme perda de vidas humanas potenciais constitui uma enorme perda de valor potencial correspondente. Estou a assumir aqui que as vidas humanas que poderiam ter sido criadas teriam valido a pena. Como geralmente se supõe que mesmo as vidas humanas actuais valem a pena, esta é um pressuposto fraco. Qualquer civilização suficientemente avançada para colonizar o superaglomerado local provavelmente também teria a capacidade de estabelecer pelo menos as condições minimamente favoráveis necessárias para que as vidas futuras valessem a pena ser vividas.

O efeito no valor total parece, portanto, maior para acções que acelerem o desenvolvimento tecnológico do que para praticamente qualquer outra acção possível. O avanço da tecnologia (ou dos seus factores facilitadores, como a produtividade económica), mesmo numa quantidade tão pequena que leve à colonização do superaglomerado local apenas um segundo antes do que teria acontecido de outro modo, equivale a trazer mais de 1029 vidas humanas (ou 1014 vidas humanas se usarmos o limite inferior mais conservador) que de outra forma não existiriam. Poucas causas filantrópicas que não esta podem esperar atingir esse nível de recompensa utilitarista.

Os utilitaristas não são os únicos que se deveriam opor fortemente ao desperdício astronómico. Há muitas visões sobre o que tem valor que coincidiriam com a avaliação de que a taxa actual de desperdício constitui uma enorme perda de valor potencial. Por exemplo, podemos adoptar uma concepção mais elaborada de bem-estar humano do que normalmente é suposta por utilitaristas (sejam eles de tendência hedonista, experiencialista ou de satisfação de desejos), como uma concepção que vê valor também no florescimento humano, relacionamentos significativos, carácter nobre, expressão individual, apreciação estética e assim por diante. Desde que a função de avaliação seja agregadora (não considere menor o bem-estar de uma pessoa, apenas porque existem muitas outras pessoas que também desfrutam de vidas felizes) e não seja relativizada por um momento específico no tempo (sem preferência temporal), a conclusão verifica-se.

Estas condições podem ser ainda mais flexibilizadas. Mesmo que a função de bem-estar não seja perfeitamente agregadora (talvez porque uma componente do bem seja a diversidade, cuja taxa marginal de produção pode diminuir com o aumento do tamanho da população), ela pode ainda gerar conclusões semelhantes, desde que pelo menos algum componente significativo do bem seja suficientemente agregador. Da mesma forma, algum grau de preferência temporal que afecte bens futuros, poderia ser acomodado sem alterar a conclusão. [7]

III. O OBJETIVO PRINCIPAL PARA OS UTILITARISTAS DEVE SER REDUZIR OS RISCOS EXISTENCIAIS

À luz da discussão acima, pode parecer que um utilitarista deveria concentrar os seus esforços na aceleração do desenvolvimento tecnológico. A recompensa de um sucesso muito pequeno nesse empreendimento é tão grande que iria eclipsar o sucesso de quase qualquer outra actividade. Parece que temos um argumento utilitarista a favor da maior urgência possível no desenvolvimento tecnológico.

No entanto, a verdadeira lição é outra. Se estamos preocupados com (algo como) maximizar o número esperado de vidas que valham a pena que iremos criar, então, para além do custo de oportunidade da demora da colonização, teremos que levar em conta o risco de falharmos até na própria colonização. Podemos vir a ser vítimas de um risco existencial, onde um resultado adverso aniquilaria a vida inteligente originária da Terra ou reduziria permanentemente e drasticamente o seu potencial. [8] Como a vida útil das galáxias é medida em milhares de milhões [Br. biliões] de anos, enquanto que a escala de tempo de qualquer adiamento que possamos afectar realisticamente seria medida em anos ou décadas, a consideração do risco supera a consideração do custo de oportunidade. Por exemplo, um único ponto percentual na redução dos riscos existenciais valeria (do ponto de vista utilitarista face à utilidade esperada) um adiamento de mais de 10 milhões de anos.

Portanto, se as nossas acções tiverem apenas o menor efeito sobre a probabilidade da eventual colonização, isso irá superar o seu efeito relativamente a quando a colonização vai ocorrer. Para os utilitaristas comuns, a prioridade número um, dois, três e quatro deveria ser, consequentemente, reduzir o risco existencial. O imperativo utilitarista “Maximize a utilidade agregada esperada!” pode ser simplificado na máxima “Minimize o risco existencial!”.

IV. IMPLICAÇÕES PARA VISÕES AGREGADORAS CENTRADAS NA PESSOA

O argumento acima pressupõe que a nossa preocupação é maximizar a quantidade total de bem-estar. Suponha, em vez disso, que adoptamos uma versão de utilitarismo “centrada na pessoa”, segundo a qual as nossas obrigações são principalmente para com as pessoas existentes neste momento e para com as pessoas que virão a existir. [9] Nessa visão centrada na pessoa, a extinção humana seria má apenas porque piora as vidas passadas ou presentes, e não porque constitui uma perda de vidas potenciais que valham a pena. O que deveria fazer alguém que adopta essa doutrina? Deveria dar mais importância à rapidez ou à segurança, ou a outra coisa?

Para responder a isto, será necessário considerar alguns assuntos adicionais. Suponhamos que considera insignificante a probabilidade de qualquer pessoa existente sobreviver o tempo suficiente para usar uma porção significativa dos recursos astronómicos acessíveis, os quais, conforme descrito na secção de abertura deste artigo, estão gradualmente a ser desperdiçados. Então, a razão para minimizar o risco existencial é que a extinção repentina cortaria uma média de, digamos, 40 anos de cada uma das (cerca de seis mil milhões [Br. cerca de 6 biliões]) vidas humanas actuais. [10]  Embora isso certamente seja uma grande catástrofe, está ao mesmo nível de outras tragédias humanas actuais, como a pobreza, a fome e as doenças no mundo. Sob esse pressuposto, então, um utilitarista centrado na pessoa deve considerar a redução do risco existencial como uma preocupação muito importante, mas não completamente dominante. Nesse caso, não haveria resposta fácil para o que este deveria fazer. Onde deveria focar os seus esforços dependeria de cálculos detalhados sobre qual seria a área da actividade filantrópica para a qual estaria melhor posicionado para contribuir.

Possivelmente, no entanto, deveríamos atribuir uma probabilidade não-insignificante à sobrevivência de algumas pessoas actuais durante o tempo suficiente para colher os benefícios de uma diáspora cósmica. A chamada “singularidade” tecnológica poderá ocorrer no nosso tempo de vida natural [11], ou poderá haver um avanço considerável na extensão de vida, provocada, talvez, como resultado da nanotecnologia em fase-de-máquina que nos daria um controlo sem precedentes sobre os processos bioquímicos dos nossos corpos e nos permitiria interromper e reverter o processo de envelhecimento. [12] Muitos tecnólogos proeminentes e pensadores futuristas atribuem uma probabilidade bastante alta a que estes desenvolvimentos aconteçam nas próximas décadas. [13] Mesmo para quem seja céptico em relação a estes prognósticos, deverá considerar o fraco histórico das previsões tecnológicas. Tendo em conta a estabelecida falta de fiabilidade de muitas dessas previsões, parece despropositado estar tão confiante numa previsão de que as descobertas necessárias não ocorrerão no nosso tempo de vida, a ponto de atribuir à hipótese de que ocorrerão uma probabilidade menor do que, digamos, 1%.

A utilidade esperada de uma possibilidade de 1% de realizar um bem astronomicamente grande pode ainda assim ser astronómica. Mas em que medida seria bom para (um subconjunto substancial das) pessoas actualmente vivas obter acesso a quantidades astronómicas de recursos? A resposta não é óbvia. Por um lado, pode-se reflectir que, no mundo de hoje, a utilidade marginal, para um indivíduo, de recursos materiais, diminui rapidamente, uma vez que as suas necessidades básicas sejam atendidas. O nível de bem-estar do Bill Gates não parece exceder drasticamente o de muitas pessoas de meios muito mais modestos. Por outro lado, tecnologias avançadas do tipo que provavelmente seriam desenvolvidas à época em que pudéssemos colonizar o superaglomerado local poderão muito bem fornecer novas maneiras de converter recursos em bem-estar. Em particular, os recursos materiais poderiam ser usados para expandir bastante as nossas capacidades mentais e prolongar indefinidamente o nosso tempo de vida subjectivo. E não é claro, de maneira alguma, que a utilidade marginal da extensão de vida saudável e do aumento de poderes mentais diminua acentuadamente acima de um certo nível. Se não houver tal declínio na utilidade marginal, devemos concluir que a utilidade esperada, para os indivíduos actuais, face à colonização bem-sucedida do nosso superaglomerado é astronomicamente grande, e essa conclusão verifica-se mesmo que se atribua uma probabilidade razoavelmente baixa a esse resultado. Pode ser um tiro no escuro, mas, para quem maximize a utilidade esperada, o benefício de viver talvez milhares de milhões [Br. biliões] de anos subjetivos com capacidades muito expandidas sob condições fantasticamente favoráveis poderia mais do que compensar as perspectivas remotas de sucesso.

Ora, caso se partam desses pressupostos, o que se seguirá relativamente ao modo como um utilitarista centrado na pessoa deverá agir? Claramente, evitar calamidades existenciais é importante, não apenas porque encurtaria o tempo de vida natural de mais ou menos seis milhares de milhões [Br. seis biliões] de pessoas, mas também – e dados os pressupostos essa é uma consideração ainda mais importante – porque extinguiria a possibilidade que as pessoas actuais têm de colher os enormes benefícios de uma eventual colonização. No entanto, em contraste com o utilitarista total, o utilitarista centrado na pessoa teria que comparar esse objetivo com outra aspiração igualmente importante, a de maximizar as hipóteses de que as pessoas actuais sobrevivessem para beneficiarem da colonização. Para o utilitarista centrado na pessoa, não basta que a humanidade sobreviva para colonizar; é crucial que as pessoas actualmente existentes sejam salvas. Isso deveria levá-lo a enfatizar a rapidez do desenvolvimento tecnológico, já que a rápida chegada de tecnologia avançada certamente seria necessária para ajudar as pessoas actuais a permanecerem vivas até que os frutos da colonização pudessem ser colhidos. Se o objetivo da rapidez entrar em conflicto com o objetivo da segurança global, o utilitarista total deve sempre optar por maximizar a segurança, mas o utilitarista centrado na pessoa deve equilibrar o risco de pessoas morrerem de velhice com o risco de estas sucumbirem a uma catástrofe capaz de destruir uma espécie. [14]


[1] M. Cirkovic, ‘Cosmological Forecast and its Practical Significance’, Journal of Evolution and Technology, xii (2002), http://www.jetpress.org/volume12/CosmologicalForecast.pdf.

[2] K. E. Drexler, Nanosystems: Molecular Machinery, Manufacturing, and Computation, New York, John Wiley & Sons, Inc., 1992.

[3] R. J. Bradbury, ‘Matrioshka Brains’, Manuscript, 2002, http://www.aeiveos.com/~bradbury/MatrioshkaBrains/MatrioshkaBrains.html

[4] N. Bostrom, ‘How Long Before Superintelligence?’, International Journal of Futures Studies ii (1998); R. Kurzweil, The Age of Spiritual Machines: When Computers Exceed Human Intelligence, New York, Viking, 1999. A estimativa mais baixa encontra-se em H. Moravec, Robot: Mera Machine to Transcendent Mind, Oxford, 1999.

[5] N. Bostrom, ‘Are You Living in a Simulation?’, Philosophical Quarterly, liii (211). Veja também http://www.simulation-argument.com.

[6] O Superaglomerado local contém apenas uma pequena parte dos recursos colonizáveis do universo, mas é suficientemente grande para explicar a ideia. Quanto maior a região que considerarmos, menos confiantes podemos estar de que partes significativas dela não terão já sido colonizadas por uma civilização de origem não terrestre no momento em que pudéssemos lá chegar.

[7] Os utilitaristas geralmente consideram a preferência temporal como algo inadequado na avaliação de bens morais (ver, por exemplo, R. B. Brandt, Morality, Utilitarianism, and Rights, Cambridge, 1992, pp. 23f.). No entanto, não é claro que os utilitaristas possam evitar comprometer-se com esse princípio, tendo em conta a possibilidade de que as nossas acções podem ter consequências concebíveis para um número infinito de pessoas (uma possibilidade que deixamos de lado para os propósitos deste artigo).

[8] N. Bostrom, ‘Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards’, Journal of Evolution and Technology, ix (2002), http://www.jetpress.org/volume9/risks.html.

[9] Esta formulação da posição não é necessariamente a melhor possível, mas é simples e servirá para os objectivos deste artigo.

[10] Ou qualquer que fosse a população provável no momento em que ocorresse o desastre.

[11] Ver, por exemplo, V. Vinge, ‘The Coming Technological Singularity’, Whole Earth Review, Winter issue (1993).

[12] R. A. Freitas Jr., Nanomedicine, Vol. 1, Georgetown, Landes Bioscience, 1999.

[13] Por exemplo, Moravec, Kurzweil, and Vinge op. cit.; E. Drexler, Engines of Creation, New York, Anchor Books, 1986.

[14] Estou grato pelo apoio financeiro de uma Bolsa de Pós-Doutoramento da Academia Britânica.


Publicado originalmente por Nick Bostrom na revista Utilitas Vol. 15, No. 3 (2003): pp. 308-314 e retirado do seu site pessoal.

Tradução de Luís Campos. Revisão de José Oliveira.

Botao-assineBoletim

Deixe um comentário

Faça o login usando um destes métodos para comentar:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s