Hva er eksistensiell risiko?
En eksistensiell risiko er en katastrofe så stor at den enten utsletter hele menneskeheten eller ødelegger oss permanent. Dette kan være naturkatastrofer, eller menneskeskapte katastrofer av forsettlig eller tilfeldig karakter. En eksistensiell risiko kan ha eksistert i lang tid, eller bare noen få tiår, eller kanskje ligger den i fremtiden. Eksempler på eksistensiell risiko inkluderer store asteroidestreik, atomkrig og useriøs kunstig intelligens.
Begrepet eksistensiell risiko ble først artikulert i sin nåværende form av Dr. Nick Bostrom, en Oxford-filosof. Han bruker et risikokart som ligner på følgende for å forklare eksistensielle risikoer:
Omfang av risiko | |||
Global | El Niño | avskoging | eksistensiell risiko |
lokal | tordenvær | økonomisk nedgang | orkan |
Personlig | papirkutt | forstuet ankel | du blir skutt |
Risikointensitet | ubetydelig | Overkommelig | Terminal |
Eksistensielle risikoer er globale og terminale, eller kanskje nærterminale. Et ekstremt smittsomt virus med en dødelighet på 99,9% som ingen er immun mot, er et eksempel på en eksistensiell risiko.
Bostrom påpeker at vårt sinn og institusjoner er dårlig utstyrt til å takle tenk på eksistensiell risiko, fordi vi aldri har opplevd en før - hvis vi hadde hatt det, ville vi ikke vært her for å tenke på dem. Som et barn som ikke vet at ovnen er varm før han berører den, har vi liten erfaring med katastrofer på dette nivået. Bubonic-pesten i det middelalderske Europa og den spanske influensa fra WWI gir oss en smak av hvordan en eksistensiell katastrofe ville være. Flere titalls millioner friske mennesker ble drept om i løpet av timer av begge sykdommene.
I sin kanoniske artikkel om temaet lister Bostrom rundt et dusin eksistensielle risikoer og kategoriserer dem ut fra alvorlighetsgraden og utvinnbarheten. Noen av de mest sannsynlige er listet her:
- genetisk manipulerte virus
- nanoteknologiske våpenløp
- katastrofale atomkrig
- out-of-control selvreplikerende robotikk
- superintelligent AI likegyldig til mennesker
- fysikk katastrofe i en partikkelakselerator
- supervolcano-eksplosjon blokkerer solen
På grunn av den ekstreme alvorlighetsgraden og irreversibiliteten av eksistensiell risiko, er mulige mottiltak verdt å brainstorme og implementere. Selv om sjansen for at en gitt eksistensiell trussel blir en realitet, krever de enorme innsatsene det involverte et alvorlig unngåelsesprogram. For trusler fra mennesker inkluderer mottiltak sofistikerte observasjons- og varslingssystemer og regulering av visse teknologier for å sikre at de ikke brukes til masseødeleggelse. Land som mistenkes for å ha masseødeleggelsesvåpen blir noen ganger invadert av andre land som er bekymret for de langsiktige konsekvensene, slik krigen i Irak tydelig viser.