Che cos'è l'IA amichevole?

L'intelligenza artificiale amichevole è un termine usato dai ricercatori di intelligenza artificiale (AI) per indicare i sistemi di intelligenza artificiale che, in generale, eseguono azioni utili all'umanità piuttosto che neutre o dannose. Ciò non significa obbedienza cieca - al contrario, il termine è usato per descrivere i sistemi di intelligenza artificiale che sono amichevoli perché vogliono essere, non a causa di una forza imposta esternamente. Oltre a fare riferimento ai sistemi completati, l'IA amichevole è anche il nome della disciplina teorica e ingegneristica che verrebbe utilizzata per creare con successo tali sistemi.

Il termine "AI amichevole" è nato con Eliezer Yudkowsky del Singularity Institute for Artificial Intelligence, il cui obiettivo è la creazione di Friendly AI abbastanza intelligente da migliorare il proprio codice sorgente senza l'intervento del programmatore. Il suo lavoro lungo il libro sull'argomento, Making Friendly AI , pubblicato online nel 2001, è probabilmente il primo trattamento rigoroso dell'argomento ovunque. Yudkowsky invoca argomenti della psicologia evolutiva e di altre scienze cognitive per sostenere il suo approccio al problema dell'IA amichevole.

L'intelligenza artificiale amichevole è considerata importante come disciplina accademica perché i tentativi passati di "rispondere" al problema dell'IA canaglia generalmente hanno invocato rigidi vincoli programmatici, che sono destinati a collassare con interpretazioni alternative, quando l'IA diventa più intelligente degli umani, o semplicemente quando guadagna capacità di riprogrammare se stessa. L'antropomorfismo è anche un problema nell'intelligenza artificiale. Poiché l'evoluzione costruisce organismi che tendono ad essere egoisti, molti pensatori ritengono che qualsiasi intelligenza artificiale che costruiamo avrebbe la stessa tendenza, immediatamente o dopo essere diventata abbastanza intelligente.

L'evoluzione costruisce organismi con sistemi di obiettivi egocentrici perché non c'è altro modo. I sistemi di obiettivi altruistici impiegarono molti milioni di anni per evolversi, e lo fecero solo in condizioni in cui i membri della stessa tribù avevano molto da guadagnare aiutandosi a vicenda e molto da perdere trascurando di farlo. Ma se dovessimo progettare una mente da zero, potremmo costruirla senza un sistema di obiettivi egocentrico. Ciò non "limiterebbe l'IA", ma semplicemente la creazione di un'IA altruista per natura.

L'osservazione di cui sopra è una delle tante che contribuiscono al campo dell'AI amichevole, che è estremamente nuovo e necessita ancora di molto lavoro. Alcuni ricercatori dell'IA sostengono che non possiamo determinare le funzionalità di progettazione necessarie per implementare l'IA amichevole fino a quando non avremo sistemi di intelligenza artificiale più intelligenti su cui sperimentare. Altri sostengono che un approccio puramente teorico non è solo possibile, ma eticamente necessario prima di iniziare un serio tentativo di AI generale.

ALTRE LINGUE

Questo articolo è stato utile? Grazie per il feedback Grazie per il feedback

Come possiamo aiutare? Come possiamo aiutare?