Hvad er eksistentiel risiko?
En eksistentiel risiko er en katastrofe, der er så stor, at den enten udsletter hele menneskeheden eller permanent ødelægger os. Dette kan være naturkatastrofer eller menneskeskabte katastrofer af forsætlig eller utilsigtet art. En eksistentiel risiko kan have været i lang tid, eller kun i nogle få årtier, eller måske ligger den i vores fremtid. Eksempler på eksistentiel risiko inkluderer store asteroidestrejker, atomkrig og useriøs kunstig intelligens.
Begrebet eksistentiel risiko blev først artikuleret i sin nuværende form af Dr. Nick Bostrom, en Oxford-filosof. Han bruger et risikokort, der ligner det følgende for at forklare eksistentielle risici:
Risikoomfang | |||
Global | El Niño | skovrydning | eksistentiel risiko |
Lokal | tordenvejr | Økonomiske afmatning | orkan |
Personlig | Papirsklip | forstuvet ankel | du er skudt |
Risikens intensitet | ubetydelig | håndterbar | Terminal |
Eksistentielle risici er globale og terminale eller måske nærterminale. En ekstremt smitsom virus med en dødelighed på 99,9%, som ingen er immun mod, er et eksempel på en eksistentiel risiko.
Bostrom påpeger, at vores sind og institutioner er dårligt rustet til at tackle tanker om eksistentiel risiko, fordi vi aldrig har oplevet en før - hvis vi havde gjort det, ville vi ikke være her for at tænke på dem. Som et barn, der ikke ved, at en ovn er varm, indtil han rører ved den, har vi ringe erfaring med katastrofer på dette niveau. Bubonic-pesten i det middelalderlige Europa og den spanske influenza fra WWI giver os en smag af, hvordan en eksistentiel katastrofe ville være. Dusinvis af millioner af sunde mennesker blev slået ihjel på få timer af begge sygdomme.
I sin kanoniske artikel om emnet lister Bostrom omkring et dusin eksistentielle risici og kategoriserer dem baseret på deres sværhedsgrad og genvindbarhed. Nogle af de mest plausible findes her:
- genetisk manipulerede vira
- nanoteknologiske våbenløb
- katastrofale atomkrig
- out-of-control selvreplikerende robotik
- superintelligent AI ligeglad med mennesker
- fysik katastrofe i en partikelaccelerator
- supervolcano-eksplosion blokerer for solen
På grund af den ekstreme alvorlighed og irreversibilitet af eksistentiel risiko, er mulige modforanstaltninger værd at brainstorme og gennemføre. Selv hvis chancen for, at en given eksistentiel trussel bliver en realitet, er lille, kræver de enorme indsatser et alvorligt undgåelsesprogram. Til trusler fra mennesker inkluderer modforanstaltninger sofistikerede observations- og alarmsystemer og regulering af visse teknologier for at sikre, at de ikke bruges til masseødelæggelse. Lande, der mistænkes for at have besiddelse af masseødelæggelsesvåben, invaderes undertiden af andre lande, der er bekymrede over de langsigtede konsekvenser, som krigen i Irak klart viser.