Qu'est-ce que Friendly AI?
L'intelligence artificielle conviviale est un terme utilisé par les chercheurs en intelligence artificielle (IA) pour désigner les systèmes d'intelligence artificielle qui, en général, effectuent des actions utiles à l'humanité plutôt que neutres ou nuisibles. Cela ne signifie pas obéissance aveugle - au contraire, le terme est utilisé pour décrire les systèmes d'IA qui sont amicaux parce qu'ils veulent l'être, et non à cause d'une force imposée de l'extérieur. En plus de faire référence aux systèmes complets, Friendly AI est également le nom de la discipline théorique et technique qui serait utilisée pour créer de tels systèmes avec succès.
Le terme "Friendly AI" a été créé à l'origine par Eliezer Yudkowsky de l'Institut Singularity pour l'intelligence artificielle, dont le but est la création de Friendly AI suffisamment intelligent pour améliorer son propre code source sans l'intervention d'un programmeur. Son ouvrage long sur le sujet, Creating Friendly AI , publié en ligne en 2001, est probablement le premier traitement rigoureux du sujet. Yudkowsky invoque des arguments tirés de la psychologie de l'évolution et d'autres sciences cognitives pour étayer son approche du problème de Friendly AI.
L’intelligence artificielle sympathique est considérée comme importante en tant que discipline universitaire, car les tentatives précédentes de "répondre" au problème des voyous ont généralement invoqué des contraintes programmatiques strictes, qui doivent s’effondrer sous d’autres interprétations, lorsque l’intelligence artificielle devient plus intelligente que les humains ou capacité à se reprogrammer. L'anthropomorphisme est également un problème dans l'IA. Puisque l'évolution crée des organismes qui ont tendance à être égoïstes, de nombreux penseurs supposent que toute IA que nous construisons aurait la même tendance, que ce soit immédiatement ou après être devenue suffisamment intelligente.
L'évolution construit des organismes avec des systèmes d'objectifs égocentriques, car il n'y a pas d'autre moyen. Il a fallu plusieurs millions d'années pour que les systèmes d'objectifs altruistes se développent et ne le faisaient que dans des conditions dans lesquelles les membres de la même tribu avaient beaucoup à gagner à s'entraider et à perdre en négligeant de le faire. Mais si nous devions concevoir un esprit à partir de rien, nous pourrions le construire sans système d'objectifs égocentrique. Ce ne serait pas "restreindre l'IA" - ce serait simplement créer une IA qui est désintéressé par nature.
L'observation ci-dessus est l'une des nombreuses qui contribuent au domaine de Friendly AI, extrêmement nouveau et qui nécessite encore beaucoup de travail. Certains chercheurs en intelligence artificielle affirment que nous ne pouvons pas déterminer les caractéristiques de conception nécessaires à la mise en œuvre de Friendly AI tant que nous ne disposerons pas de systèmes d’IA intelligents. D'autres soutiennent qu'une approche purement théorique est non seulement possible, mais nécessaire sur le plan éthique avant de commencer une tentative sérieuse d'IA générale.