¿Qué es el riesgo existencial?

Un riesgo existencial es un desastre tan grande que aniquila a toda la humanidad o nos paraliza permanentemente. Estos pueden ser desastres naturales o desastres provocados por el hombre de naturaleza intencional o accidental. Un riesgo existencial puede haber existido durante mucho tiempo, o solo unas pocas décadas, o tal vez se encuentre en nuestro futuro. Ejemplos de riesgo existencial incluyen grandes ataques de asteroides, guerra nuclear e inteligencia artificial deshonesta.

El concepto de riesgo existencial fue articulado por primera vez en su forma actual por el Dr. Nick Bostrom, un filósofo de Oxford. Utiliza una tabla de riesgos similar a la siguiente para explicar los riesgos existenciales:

Alcance del riesgo
Global El niño deforestación riesgo existencial
Local tormenta caída económica huracán
Personal corte de papel Esguince de tobillo te dispararon
Intensidad de riesgo Despreciable Manejable Terminal

Los riesgos existenciales son globales y terminales, o quizás casi terminales. Un virus extremadamente contagioso con una tasa de letalidad del 99.9% a la que nadie es inmune es un ejemplo de riesgo existencial.

Bostrom señala que nuestras mentes e instituciones están mal equipadas para lidiar con el pensamiento sobre el riesgo existencial, porque nunca hemos experimentado uno antes; si lo hubiéramos hecho, no estaríamos aquí para pensar en ellos. Como un niño que no sabe que una estufa está caliente hasta que la toca, tenemos poca experiencia con catástrofes en este nivel. La peste bubónica de la Europa medieval y la gripe española de la Primera Guerra Mundial nos ofrecen una idea de cómo sería un desastre existencial. Decenas de millones de personas sanas fueron asesinadas en solo unas horas por ambas enfermedades.

En su artículo canónico sobre el tema, Bostrom enumera alrededor de una docena de riesgos existenciales y los clasifica según su gravedad y capacidad de recuperación. Aquí se enumeran algunos de los más plausibles:

  • virus genéticamente modificados
  • carreras armamentistas nanotecnológicas
  • guerra nuclear catastrófica
  • Robótica autorreplicante fuera de control
  • IA superinteligente indiferente a los humanos
  • desastre de física en un acelerador de partículas
  • explosión de supervolcán bloquea el sol

Debido a la extrema severidad e irreversibilidad del riesgo existencial, vale la pena hacer una lluvia de ideas e implementar posibles contramedidas. Incluso si la posibilidad de que una amenaza existencial dada se convierta en una realidad es pequeña, los inmensos riesgos involucrados exigen un programa de evasión serio. Para las amenazas de origen humano, las contramedidas incluyen sistemas sofisticados de observación y alerta y regulación de ciertas tecnologías para garantizar que no se utilicen para la destrucción masiva. Los países sospechosos de poseer armas de destrucción masiva a veces son invadidos por otros países preocupados por las consecuencias a largo plazo, como lo demuestra vívidamente la Guerra en Irak.

OTROS IDIOMAS

¿Te ha resultado útil este artículo? Gracias por la respuesta Gracias por la respuesta

¿Cómo podemos ayudar? ¿Cómo podemos ayudar?