Vad är existentiell risk?
En existentiell risk är en katastrof så stor att den antingen utplånar hela mänskligheten eller permanent kramar oss. Dessa kan vara naturkatastrofer, eller människokatastrofer av en avsiktlig eller oavsiktlig karaktär. En existentiell risk kan ha funnits länge, eller bara några decennier, eller kanske ligger den i vår framtid. Exempel på existentiell risk inkluderar stora asteroidstrejker, kärnkraft och skurk artificiell intelligens.
Begreppet existentiell risk formulerades först i sin nuvarande form av Dr. Nick Bostrom, en Oxford -filosof. Han använder ett riskdiagram som liknar följande för att förklara existentiella risker:
existentiella risker är globala och terminala eller kanske nästan terminala. Ett extremt smittsamt virus med en 99,9% dödlighet som ingen är immun mot är ett exempel på en existensiell risk.
Bostrom påpekar att våra sinnen och institutioner är dåligt utrustade för att ta itu med att tänka på existensiell risk, eftersom vi aldrig har upplevt en tidigare-om vi hade, skulle vi inte vara här för att tänka på dem. Som ett barn som inte vet att en spis är varm tills han berör den, har vi liten erfarenhet av katastrofer på denna nivå. Den buboniska pesten i det medeltida Europa och den spanska influensan från WWI ger oss en smak av hur en existensiell katastrof skulle vara. Dussintals miljoner friska människor slogs döda på bara timmar av båda sjukdomarna.
I sitt kanoniska papper om ämnet listar Bostrom ungefär ett dussin existentiella risker och kategoriserar dem baserat på deras svårighetsgrad och återvinningsbarhet. Några av de mest troliga listas här:
- Genetiskt konstruerade virus
- Nanoteknologiska vapenlopp
- Katastrofalt kärnkraftskrig
- Självreplikerande robotik utanför kontrollen
- Superintelligent AI likgiltig mot människor
- Fysikatastrof i en partikelaccelerator
- Supervolcano -explosion blockerar solen
På grund av den extrema svårighetsgraden och irreversibilitet av existentiella risker är möjliga motåtgärder värda brainstorming och implementering. Även om chansen att ett givet existentiellt hot blir verklighet är liten, kräver de enorma insatserna som involverar ett allvarligt undvikande program. För mänskliga iniginerande hot inkluderar motåtgärder sofistikerade observations- och alertsystem och reglering av vissa tekniker för att säkerställa att de inte används för massförstörelse. Länder suspecectTed att ha massförstörelsevapen invaderas ibland av andra länder som är oroliga för de långsiktiga konsekvenserna, som kriget i Irak levande visar.