Che cos'è il rischio esistenziale?
Un rischio esistenziale è un disastro così grande che o cancella tutta l'umanità o ci paralizza permanentemente. Questi possono essere disastri naturali o disastri causati dall'uomo di natura intenzionale o accidentale. Un rischio esistenziale potrebbe esistere da molto tempo, o solo pochi decenni, o forse sta nel nostro futuro. Esempi di rischio esistenziale includono grandi attacchi di asteroidi, guerra nucleare e Intelligenza Artificiale canaglia.
Il concetto di rischio esistenziale fu inizialmente articolato nella sua forma attuale dal Dr. Nick Bostrom, un filosofo di Oxford. Usa una tabella dei rischi simile alla seguente per spiegare i rischi esistenziali:
Ambito di rischio | |||
Globale | El Nino | la deforestazione | rischio esistenziale |
Locale | temporale | crisi economica | uragano |
Personale | papercut | caviglia slogata | ti hanno sparato |
Intensità del rischio | Trascurabile | trattabile | terminale |
I rischi esistenziali sono globali e terminali, o forse quasi terminali. Un virus estremamente contagioso con un tasso di mortalità del 99,9% a cui nessuno è immune è un esempio di rischio esistenziale.
Bostrom sottolinea che le nostre menti e le nostre istituzioni sono mal equipaggiate per affrontare il pensiero sul rischio esistenziale, perché non ne abbiamo mai sperimentato uno prima: se avessimo avuto, non saremmo qui per pensarci. Come un bambino che non sa che una stufa è calda finché non la tocca, abbiamo poca esperienza con le catastrofi a questo livello. La peste bubbonica dell'Europa medievale e l'influenza spagnola della prima guerra mondiale ci offrono un assaggio di come sarebbe un disastro esistenziale. Dozzine di milioni di persone sane sono state colpite a morte in poche ore da entrambe le malattie.
Nel suo articolo canonico sull'argomento, Bostrom elenca una dozzina di rischi esistenziali e li classifica in base alla loro gravità e recuperabilità. Alcuni dei più plausibili sono elencati qui:
- virus geneticamente modificati
- gare di armi nanotecnologiche
- catastrofica guerra nucleare
- robotica autoreplicante fuori controllo
- intelligenza artificiale superintelligente indifferente agli umani
- disastro fisico in un acceleratore di particelle
- l'esplosione del supervolcano blocca il sole
A causa dell'estrema severità e irreversibilità del rischio esistenziale, vale la pena fare brainstorming e implementare possibili contromisure. Anche se la possibilità che una data minaccia esistenziale diventi una realtà è piccola, le immense poste in gioco richiedono un serio programma di elusione. Per le minacce di origine umana, le contromisure comprendono sofisticati sistemi di osservazione e allarme e la regolamentazione di determinate tecnologie per garantire che non vengano utilizzate per la distruzione di massa. I paesi sospettati di possedere armi di distruzione di massa sono talvolta invasi da altri paesi preoccupati per le conseguenze a lungo termine, come dimostra vividamente la guerra in Iraq.