O que acontece depois de criarmos Deus? [Breves do AE]

Por José Oliveira

.

Criar deus.fx

O que acontece depois de criarmos Deus? (Arte digital: José Oliveira | Fotografias: Marc-Olivier Jodoin)

.

Se pudéssemos curar doenças como o cancro [BR. câncer], porque é que não haveríamos de fazê-lo? Imagine que para isso tínhamos a capacidade de criar algo com o poder de um deus. O que poderia correr mal? Bom, imagine que esse deus teria a capacidade de curar doenças e de fazer desaparecer miraculosamente os males que assolam a humanidade, mas haveria 1% de probabilidade de, ao operar de forma misteriosa, acabar por exterminar toda a vida na terra. Deveríamos, ainda assim, criar esse deus? Essa ínfima probabilidade, por contraste com o paraíso na terra, seria negligenciável? Mas atenção, seria uma probabilidade de extermínio total… e se houvesse uma probabilidade maior disso acontecer?

Como já deve estar a perceber, estas questões referem-se ao rápido desenvolvimento da inteligência artificial e à apreensão que isso tem gerado (e que temos vindo a acompanhar aqui).

Coloco a questão nestes termos a partir da seguinte afirmação:

“É extremamente improvável que a forma mais fácil de construir um poderoso produto de IA seja também a forma mais segura de construir um deus” — Jeffrey Ladish

Tentemos analisar, por partes, este enigma que alguns julgam ser o maior do nosso tempo:

  • Será possível criar uma IA com o poder de um deus?
  • Quão poderoso seria esse deus?
  • Qual seria a probabilidade desse deus acabar connosco?
  • Face a isso, o que decidir?

Comecemos então:

1. Será possível criar uma IA com o poder de um deus?

Acabo de vir do dentista e, apesar da tremenda evolução (desde o tempo em que se arrancavam dentes a sangue frio), certamente concordaria comigo que, se fosse possível evitar o incómodo e a dor que isso ainda causa, valeria a pena fazê-lo. Portanto, nem seria necessário pensar duas vezes face ao sofrimento provocado pelas cerca de 150 000 mortes que ocorrem diariamente, por não termos tecnologia suficientemente avançada para o evitar. E o mesmo se coloca face aos 5 milhões de famílias que perdem os seus filhos antes destes chegarem aos 5 anos, ou às centenas de milhões que vivem em pobreza extrema, ou ainda aos milhares de milhões que não atingem o seu máximo potencial devido a carências de toda a ordem.

É este cenário que Kelsey Piper (Planned Obsolescence) nos traça antes de apresentar um possível antídoto e o custo da precaução face à possibilidade de usá-lo.

Refere primeiro que, assim que seja possível criar uma IA que consiga desenvolver investigação científica ao nível dos seres humanos, não faltará muito para que esse nível seja vastamente ultrapassado. Bastará pensar que, em vez de dezenas de milhares de cientistas de topo, teríamos centenas de milhões de super-cientistas digitais (e que estes seriam ajudados por outras IA, encarregues de melhorar as suas capacidades e outras ainda que estariam encarregues de melhorar o hardware de todas as anteriores). Daí que, para quem possa acreditar que será possível descobrirmos a cura do cancro [BR. câncer] até 2200, ao cumprir-se a etapa em que a IA atinge o nível da investigação humana, haverá boas hipóteses dessa descoberta estar apenas a alguns anos de distância.

Seria esse o momento em que os poderes de deus se iriam revelar?

2. Quão poderoso seria esse deus?

Imaginar que o advento deste tipo de tecnologia seja apenas um meio de superar e substituir aquilo que a nossa própria inteligência nos permite conceber, pode ser uma tremenda falta de visão, argumenta Piper: seria como pensar que a electricidade veio apenas para superar e substituir as tochas que nos iluminavam outrora, esquecendo o mundo extraordinário que, desde as máquinas de lavar ao Twitter, essa mesma electricidade permitiu (mesmo que isso escapasse à visão do homem iluminado por uma tocha).

Mas nem tudo seria luz, pois a possibilidade de tornar indistinguível a mentira da verdade, poderia representar as trevas na nossa sociedade de comunicação. E o que dizer da proliferação dessas trevas à escala planetária de uma forma que possa tornar impossível, para muitos, discernir a verdade (ou até a realidade)? Não estará já isso, em certa medida, a acontecer? O que dizer da descoberta de dezenas de novas agências noticiosas recheadas de conteúdos falsos gerados pela IA?

Repare-se que até a nossa melhor hipótese de iluminar o futuro, ou seja, o nosso próprio pensamento, se pode tornar um livro aberto para a IA. Mas quem criaria um deus que pudesse entrar na sua cabeça e ler os seus pensamentos mais íntimos — e potencialmente manipulá-los? Felizmente isso é matéria de ficção científica. Ou já não será? Bom, cientistas na Universidade do Texas associaram um modelo de linguagem IA (o GPT1) à neurotecnologia e estão a conseguir resultados que levantam sérias questões éticas: ligados a um aparelho de ressonância magnética, os sujeitos ouvem horas de podcasts e as imagens do fluxo sanguíneo da sua actividade neural fornecem pistas suficientes para essa IA prever as palavras que permitem captar uma ideia bastante próxima ao pensamento destes sujeitos.

Isto parecem óptimas notícias para pessoas com paralisia cerebral, dando-lhes uma possibilidade de comunicação, ou será até como um sonho tornado realidade ao permitir falar com os outros (e até com todo o tipo de aparelhos) apenas com um mero pensamento. Mas nem mesmo estas maravilhas se sobrepõem ao pesadelo de ser constantemente espiado (naquilo que temos de mais íntimo) e controlado pelos outros (ou por uma IA): basta pensar na customização do marketing de forma a torná-lo irresistível, na perseguição policial por crimes em que apenas pensamos, na reconstrução psicológica da nossa identidade, deixando-nos, por fim, sem qualquer hipótese de defesa.

3. Qual seria a probabilidade desse deus acabar connosco?

Embora certos precursores da IA (como a OpenAI) possam ver o cenário de 1% de probabilidade de catástrofe existencial como uma evolução inevitável (do tipo, se não formos nós, serão os outros), e mesmo que publicitem estar a tentar atrasar essa probabilidade para quando estivéssemos preparados para lidar com ela, talvez os seus lucros terem multiplicado cerca de 100x não seja o melhor incentivo para esta empresa parar e pensar.

Mas há outros investigadores da IA que concentram os seus esforços na prevenção de vários cenários desse tipo. Vejamos as distinções que Paul Christiano (do Alignment Research Center) apresenta face a esses cenários:

  • A diferença entre “risco de extinção” (morrermos) e “risco existencial” (termos um péssimo futuro)
  • A “IA assumir o poder” é uma das possibilidades de um “péssimo futuro”: um mundo governado por sistemas de IA desalinhados com os nossos interesses e valores, e que pode ser péssimo apenas porque a humanidade perdeu o controle sobre o seu destino.
  • A diferença entre “morrer agora” e “morrer mais tarde”: há grandes hipóteses de não morrermos por causa da IA, mas o desenvolvimento desta e de outras tecnologias, contribuírem para acelerar as mudanças no mundo e morrermos logo a seguir (o facto de isso só ser indirectamente causado pela IA, parece ser irrelevante).

E aqui estão as suas últimas estimativas para a probabilidade de catástrofe mediante vários cenários (a partir do gráfico de William Kiely):

4. Face a isso, o que decidir?

Que sinal mais evidente podemos ter da gravidade deste problema do que as pessoas mais proeminentes no desenvolvimento da IA passarem agora a concentrar-se nos riscos da IA?

É esse o caso daquele que tem sido apelidado como o “Padrinho da IA”, Geoffrey Hinton (o criador das redes neurais artificiais), que abandonou recentemente a Google para poder falar livremente sobre estas matérias. E começa por afirmar que parte de si se arrepende do trabalho de toda uma vida — o que inclui a criação de sistemas que permitiram a criação de chatbots como o ChatGPT e o Google Bard.

“Eu mudei subitamente a minha visão acerca da possibilidade dessas coisas poderem vir a ser mais inteligentes do que nós.” — Geoffrey Hinton 

Acudir à urgência de certas situações (por exemplo, na esfera pessoal, basta pensar nos nossos entes queridos que possam estar doentes ou ser muito idosos), como refere Kelsey Piper, contribuirá certamente como um impulso para que se avance na investigação da IA. E apesar de algumas pessoas questionarem a importância destas tecnologias, Piper reforça que é necessário entendê-las como sendo o início do desenvolvimento de uma segunda espécie inteligente, considerando também as suas sérias consequências. E estas podem ser, em caso de decidirmos atrasar tudo, consequências entre a vida e a morte e, caso se acelere (e se errarmos), podem ser consequências que só levam à morte.

Face à dificuldade de se poder implementar legislação (pois é virtualmente impossível controlar o que as companhias ou os países investigam — mas ainda assim há avanços), ou face à dificuldade de antecipar (e prevenir) os danos que agentes mal intencionados poderão cometer, já para não falar na imprevisibilidade dos próprios sistemas de IA, Hinton acredita que a nossa melhor hipótese é a colaboração entre cientistas. Isto para que o desenvolvimento incremental desta tecnologia apenas ocorra em função da nossa capacidade de a controlar.


“Breves do AE”: resumos de publicações relacionadas com o AE que, por constrangimentos de tempo, ou restrições de direitos autorais, não poderíamos traduzir. Estes resumos servem essencialmente como estímulo à leitura dos textos originais aqui referidos. 

Por José Oliveira.

 


Descubra mais sobre Altruísmo Eficaz

Assine para receber nossas notícias mais recentes por e-mail.

Deixe um comentário