¿Qué es una caja de IA?
Una caja de inteligencia artificial (IA) es una caja teórica, como una computadora sin contacto externo, que contiene un sistema de IA y está destinada a mantener el sistema de IA separado del mundo hasta que se considere seguro liberarlo. La caja entra en juego en un experimento de realidad racional y simulada que se refiere al sistema de inteligencia artificial que intenta convencer a un humano para que lo deje fuera de la caja. Parte de la pregunta del cuadro AI establece parámetros para el hardware, específicamente que el cuadro es un sistema aislado sin forma de ser eliminado del cuadro sin intervención humana. El sistema suele ser más inteligente que un humano, aunque esté aislado, porque algunos sistemas de IA tienen la capacidad de reescribir su código original. Esta simulación normalmente usa dos humanos, uno que actúa como IA y trata de convencer a la otra persona de que lo deje salir.
En el escenario de la caja de AI, la caja es un sistema de AI aislado que no tiene conexión externa a otros sistemas. Esto significa que no hay redes, computadoras, conexiones a Internet, personas o cualquier otra cosa que interactúe con la caja antes de que el humano hable con la caja. Durante este experimento, el cuadro intenta convencer a la persona para que lo deje fuera del cuadro, como a través de una red saliente.
Durante este experimento, a menudo se supone que la caja de IA es más inteligente que la mayoría o todas las personas. Las razones para esto se pueden encontrar en el mundo real, porque algunos sistemas de IA pueden reescribir su codificación original. Incluso si estos sistemas de IA no tienen interacción externa, pueden cambiar su codificación para una mejor velocidad de procesamiento, mayores niveles de inteligencia y una mejor comprensión de los datos.
Cuando ocurre este experimento, normalmente es entre dos personas. Una persona está actuando como la caja de IA, mientras que la otra es la persona que decidirá si la caja sale. La razón por la cual este experimento utiliza a dos personas, a partir de 2011, es porque la mayoría de los sistemas de inteligencia artificial no pueden mantener conversaciones completas y extendidas sin errores lógicos, ya sea debido a la sintaxis humana o conceptos erróneos sobre lo que la persona dice.
Si bien algunos experimentos con cajas de IA pueden no tener condiciones, generalmente hay algunas condiciones que se utilizan para hacer que el experimento sea más realista. Por ejemplo, generalmente hay un límite de tiempo de dos horas, y el experimento no se puede detener prematuramente a menos que la IA gane. Otras condiciones comunes incluyen que la IA no pueda ofrecer elementos o castigos para convencer a la persona, las dos partes deben permanecer en interacción constante y la persona no puede solicitar algo imposible de la caja de IA.