Vad är existerande risk?
En existentiell risk är en katastrof så stor att den antingen utplånar hela mänskligheten eller permanent lider av oss. Det kan vara naturkatastrofer eller människokatastrofer av avsiktlig eller oavsiktlig karaktär. En existentiell risk kan ha funnits länge, eller bara några decennier, eller kanske ligger den i vår framtid. Exempel på existentiella risker inkluderar stora asteroidstrejker, kärnvapenkrig och rogue Artificial Intelligence.
Begreppet existensiell risk formulerades först i sin nuvarande form av Dr. Nick Bostrom, en Oxford-filosof. Han använder ett riskdiagram som liknar följande för att förklara existentiella risker:
Riskens omfattning | |||
Global | El Niño | avskogning | existentiell risk |
Lokal | åskväder | ekonomisk svacka | orkan |
Personlig | papperssår | stukad fotled | du är skjuten |
Riskens intensitet | Försumbar | Hanterlig | Terminal |
Existentiella risker är globala och terminala, eller kanske nära-terminala. Ett extremt smittsamt virus med en dödlighet på 99,9% som ingen är immun mot är ett exempel på en existensiell risk.
Bostrom påpekar att våra sinnen och institutioner är dåligt utrustade för att ta itu med existentiella risker, för vi har aldrig upplevt en förut - om vi hade gjort det, skulle vi inte vara här för att tänka på dem. Som ett barn som inte vet att en spis är varm tills han rör vid den, har vi lite erfarenhet av katastrofer på denna nivå. Bubonic-pesten i det medeltida Europa och den spanska influensan från WWI ger oss en smak av hur en existensiell katastrof skulle vara. Tiotals miljoner friska människor dödades på bara timmar av båda sjukdomarna.
I sin kanoniska artikel om ämnet listar Bostrom ett dussin existentiella risker och kategoriserar dem utifrån deras svårighetsgrad och återvinningsbarhet. Några av de mest troliga är listade här:
- genetiskt manipulerade virus
- nanoteknologiska vapen raser
- katastrofalt kärnkraftkrig
- out-of-control självreplikerande robotik
- superintelligent AI likgiltig mot människor
- fysikkatastrof i en partikelaccelerator
- supervolcano explosion blockerar solen
På grund av den existerande allvarligheten och irreversibiliteten av existentiella risker är möjliga motåtgärder värda brainstorming och genomförande. Även om risken för att ett givet existensiellt hot blir verklighet kräver de enorma insatserna ett allvarligt undvikelseprogram. För hot från mänskligt ursprung innefattar motåtgärder sofistikerade observations- och varningssystem och reglering av viss teknik för att säkerställa att de inte används för massförstörelse. Länder som misstänks ha besittning av massförstörelsevapen invaderas ibland av andra länder som är oroliga för de långsiktiga konsekvenserna, vilket kriget i Irak visar på ett tydligt sätt.