Quando a informação é um risco

“Uma grande esperança relacionada com a IA, à medida que a aprendizagem de máquina melhora, é que a possamos utilizar para a descoberta de medicamentos […].
Será melhor avançarmos cautelosamente: Qualquer sistema com poder e precisão suficientes na identificação de medicamentos que sejam seguros para os seres humanos é inerentemente um sistema que também será bom na identificação de medicamentos que sejam incrivelmente perigosos para os seres humanos.”

Série de posts sobre o “século mais importante”

A série de posts sobre o “século mais importante” argumenta que o século XXI poderá ser o século mais importante para a humanidade, como resultado do desenvolvimento de sistemas avançados de IA que poderão acelerar drasticamente o avanço científico e tecnológico, levando-nos mais rapidamente do que a maioria das pessoas imagina para um futuro profundamente desconhecido.

Um olhar actualizado sobre os riscos da IA a longo termo

[O novo artigo] Em vez de fazer um questionário a todos os especialistas em IA, faz um questionário a pessoas que trabalham na “segurança e governação da IA”, ou seja, pessoas que já se preocupam com o facto de a IA ser potencialmente perigosa, e que dedicaram as suas carreiras a abordar esta questão. Como tal, estavam em média mais preocupadas do que as pessoas dos questionários anteriores, e deram uma probabilidade média de ~10% de catástrofe relacionada com a IA.

Estamos a fazer o suficiente para impedir a extinção humana?

A probabilidade de a humanidade se extinguir num futuro próximo é baixa — mas não é nula. E, a menos que nos preparemos de imediato, podemos acabar por fazer com que uma catástrofe à qual conseguiríamos sobreviver se torne numa que garanta a desgraça para todos nós.
Esse é o argumento principal de End Times: A Brief Guide to the End of the World [Fim dos tempos: um breve guia para o fim do mundo], um novo livro de Bryan Walsh, detalhado, aterrorizador, mas, em última análise, esperançoso.