¿Cuál es la singularidad tecnológica?

La Singularidad tecnológica , o simplemente "singularidad", es un concepto multifacético en futurismo con varias definiciones superpuestas y a veces conflictivas. Vernor Vinge dio la definición más adecuada y prominente de la singularidad en su ensayo, la próxima singularidad tecnológica . It refers to the point at which superhuman intelligence is created technologically. Estas inteligencias sobrehumanas podrían aplicar su capacidad intelectual y experiencia a la tarea de crear inteligencias sobrehumanas adicionales o más poderosas, lo que resultó en un efecto de bola de nieve con consecuencias más allá de nuestra capacidad actual de imaginar.

El término "singularidad tecnológica" fue acuñado por la analogía a la singularidad en el centro de un agujero negro, donde las fuerzas de la naturaleza se vuelven tan intensas y no improvisables que la capacidad de la capacidad de la capacidad de la capacidad de la conducta. A menudo mencionado junto con la idea de la inteligencia sobrehumanaEn los diálogos de singularidad es la noción de acelerar el cambio tecnológico. Algunos han argumentado que a medida que aumenta la pendiente del progreso tecnológico, culminará en una asíntota, similar visualmente a una singularidad matemática.

Sin embargo, esta noción de singularidad no es la misma que la vinge previsto; Refiriéndose a la aparición de inteligencia sobrehumana, junto con velocidades de pensamiento sobrehumanas. (Incluida la inteligencia, la capacidad de comprender y crear conceptos, convertir los datos en teorías, hacer analogías, ser creativos, etc.). Aunque las inteligencias sobrehumanas que crean inteligencias sobrehumanas adicionales realmente darían como resultado la aceleración del progreso tecnológico, el progreso no se volvería infinito, en el sentido de que una singularidad matemática sugeriría.

.

Porque las inteligencias sobrehumanas serían, por definición, más inteligentes que cualquier humano, nuestra capacidad de predecir lo que serían CEs poco probable que sea preciso con una cantidad dada de tiempo, materia o energía. Una inteligencia sobrehumana podría diseñar una supercomputadora en funcionamiento con componentes baratos y fácilmente disponibles, o desarrollar nanotecnología completa con nada más que un microscopio de fuerza atómica. Debido a que la capacidad de una inteligencia sobrehumana para diseñar y fabricar dispositivos tecnológicos superaría rápidamente los mejores esfuerzos de los ingenieros humanos, una inteligencia sobrehumana podría ser la última invención que la humanidad necesite hacer. Debido a su genio sobrehumano y las tecnologías que podrían desarrollar rápidamente, las acciones de las inteligencias que surgen de una singularidad tecnológica podrían dar lugar a la extinción o la liberación de toda nuestra especie, dependiendo de las actitudes de las inteligencias sobrehumanas más poderosas hacia los seres humanos.

El filósofo de Oxford Nick Bostrom, director del Oxford Future of Humanity Institute y el World TraLa Organización Nshumanista , argumenta que la forma en que las inteligencias sobrehumanas tratan a los humanos dependerán de sus motivaciones iniciales en el momento de su creación. Una amable inteligencia sobrehumana, al querer preservar su amabilidad, engendrar versiones amables (o más amables) de sí misma a medida que continuaba la espiral de superación personal. El resultado podría ser un paraíso en el que las inteligencias sobrehumanas resuelven los problemas del mundo y ofrecen una mejora consensuada de inteligencia a los seres humanos. Por otro lado, es probable que una inteligencia sobrehumana maliciosa o indiferente produzca más de lo mismo, lo que resulta en nuestra destrucción accidental o deliberada. Por estas razones, la singularidad tecnológica podría ser el hito más importante que nuestra especie se enfrentará.

Se han propuesto varios caminos a la inteligencia sobrehumana por analistas y defensores de singularidad. El primero es IA, o amplificación de inteligencia , tomando un humano existente y transformándola enUn ser no humano a través de la neurocirugía, la interfaz de computadoras cerebrales o tal vez incluso la interfaz del cerebro cerebral. El otro es AI, o inteligencia artificial , la creación de un sistema cognitivo dinámico que supera a los humanos en su capacidad para formar teorías y manipular la realidad. Cuando cualquiera de estas tecnologías alcanza el nivel umbral de sofisticación necesaria para producir inteligencia sobrehumana es incierta, pero una variedad de expertos, incluido Bostrom, citan las fechas dentro del rango 2010-2030.

Debido a que la singularidad puede estar más cerca de lo que muchos asumirían, y debido a que las motivaciones iniciales de la primera inteligencia sobrehumana pueden determinar el destino de nuestra especie humana, algunos filósofos-activistas ("singularitarios") ven la singularidad no solo como un tema para la especulación y la discusión, sino como un objetivo de ingeniería práctica que se pueden hacer un progreso significativo en el actual. Por lo tanto, en 2000 el Singularity Institute for Artificial IntelLigence fue fundada por Eliezer Yudkowsky para trabajar exclusivamente hacia este objetivo.

OTROS IDIOMAS