Skip to main content

Что такое Дружественный ИИ?

Дружественный ИИ - это термин, используемый исследователями искусственного интеллекта (ИИ) для обозначения систем ИИ, которые, в общем, выполняют действия, которые полезны для человечества, а не нейтральны или вредны. Это не означает слепое послушание - напротив, этот термин используется для описания систем ИИ, которые являются дружественными, потому что они хотят быть, а не из-за какой-либо внешней силы. В дополнение к ссылкам на законченные системы, Дружественный ИИ - это также название теоретической и инженерной дисциплины, которая будет использоваться для успешного создания таких систем.

Термин «Дружественный ИИ» возник от Элиэзера Юдковски из Института искусственного интеллекта Сингулярности, целью которого является создание Дружественного ИИ, достаточно умного, чтобы улучшить собственный исходный код без вмешательства программиста. Его полнометражная книга по теме « Создание дружественного ИИ» , опубликованная в Интернете в 2001 году, является, вероятно, первой строгой трактовкой этой темы. Юдковский использует аргументы эволюционной психологии и других когнитивных наук, чтобы поддержать свой подход к проблеме Дружественного ИИ.

Дружественный ИИ считается важной академической дисциплиной, потому что прошлые попытки «ответить» на проблему мошеннического ИИ обычно вызывали жесткие программные ограничения, которые неизбежно разрушаются при альтернативных интерпретациях, когда ИИ становится умнее людей или просто когда он получает способность перепрограммировать себя. Антропоморфизм также является проблемой в искусственном интеллекте. Поскольку эволюция создает организмы, которые склонны к эгоизму, многие мыслители предполагают, что любой искусственный интеллект, который мы создаем, будет иметь ту же тенденцию, либо сразу, либо после того, как он станет достаточно умным.

Эволюция строит организмы с эгоцентричными системами целей, потому что другого пути нет. Альтруистическим системам целей потребовалось много миллионов лет, чтобы развиваться, и это происходило только в условиях, когда члены одного и того же племени могли много выиграть, помогая друг другу, и много потерять, пренебрегая этим. Но если бы мы разработали ум с нуля, мы могли бы построить его без эгоцентричной системы целей. Это не будет «ограничивать ИИ» - это будет просто создание ИИ, который по своей природе бескорыстен.

Вышеупомянутое наблюдение является одним из многих, которые вносят вклад в область Дружественного ИИ, которая является чрезвычайно новой и все еще требует большой работы. Некоторые исследователи ИИ утверждают, что мы не можем определить конструктивные особенности, необходимые для реализации Дружественного ИИ, пока у нас не появятся более умные системы ИИ для экспериментов. Другие утверждают, что чисто теоретический подход не только возможен, но и этически необходим перед началом серьезной попытки общего ИИ.