Skip to main content

Что такое технологическая сингулярность?

Технологическая Сингулярность , или просто «Сингулярность», - это многогранное понятие в футуризме с несколькими перекрывающимися, а иногда и противоречивыми определениями. Наиболее правильное и выдающееся определение Сингулярности было дано Вернором Винджом в его эссе «Наступающая технологическая сингулярность» . Это относится к точке, в которой сверхчеловеческий разум создается технологически. Эти сверхчеловеческие интеллекты могут затем применить свои умственные способности и опыт для создания дополнительных или более мощных сверхчеловеческих интеллектов, что приведет к эффекту снежного кома с последствиями, выходящими за пределы нашей нынешней способности к воображению.

Термин «Технологическая сингулярность» был придуман по аналогии с сингулярностью в центре черной дыры, где силы природы становятся настолько интенсивными и непредсказуемыми, что наша способность вычислять поведение вещества в этих условиях падает до нуля. Часто упоминаемое в связи с идеей сверхчеловеческого интеллекта в диалогах Сингулярности, это понятие ускорения технологических изменений. Некоторые утверждают, что по мере увеличения наклона технологического прогресса он завершится асимптотой, визуально похожей на математическую особенность.

Тем не менее, это понятие сингулярности не то, что задумал Виндж; ссылаясь на появление сверхчеловеческого интеллекта, наряду со сверхчеловеческими скоростями мышления. (Включая разумность, способность понимать и создавать концепции, превращать данные в теории, проводить аналогии, быть творческими и т. Д.) Хотя сверхчеловеческие интеллектуальные ресурсы, создающие дополнительные сверхчеловеческие интеллектуальные структуры, действительно приведут к ускорению технического прогресса, прогресс не станет бесконечным, в том смысле, что математическая особенность предполагает.

Поскольку сверхчеловеческие интеллекты по определению будут умнее любого человека, наша способность предсказать, на что они будут способны при заданном количестве времени, вещества или энергии, вряд ли будет точной. Сверхчеловеческий интеллект может быть в состоянии изготовить функционирующий суперкомпьютер из дешевых и легкодоступных компонентов или разработать полноценную нанотехнологию только с помощью атомно-силового микроскопа. Поскольку способность сверхчеловеческого интеллекта проектировать и производить технологические устройства быстро превзойдет все усилия человеческих инженеров, сверхчеловеческий интеллект вполне может быть последним изобретением, которое человечеству когда-либо нужно будет сделать. Из-за их сверхчеловеческого гения и технологий, которые они могли быстро развивать, действия интеллектов, возникающих из Технологической Сингулярности, могут привести либо к вымиранию, либо к освобождению всего нашего вида, в зависимости от отношения самых могущественных сверхчеловеческих разумов к людям.

Оксфордский философ Ник Бостром, директор Оксфордского института будущего человечества и Всемирной трансгуманистической организации , утверждает, что то, как сверхчеловеческая интеллигенция обращается с людьми, будет зависеть от их первоначальных побуждений в момент их создания. Добрый сверхчеловеческий разум, желая сохранить свою доброту, порождал добрые (или более добрые) версии себя, пока продолжалась спираль самосовершенствования. Результатом может стать рай, в котором сверхчеловеческая интеллигенция решает мировые проблемы и предлагает согласованное улучшение интеллекта для людей. С другой стороны, злонамеренная или безразличная сверхчеловеческая разведка, скорее всего, произведет больше того же самого, что приведет к нашему случайному или преднамеренному уничтожению. По этим причинам Технологическая Сингулярность может быть единственной наиболее важной вехой, с которой когда-либо столкнется наш вид.

Аналитики и защитники Сингулярности предложили несколько путей к сверхчеловеческому интеллекту. Первым является IA, или Интеллектуальное Усиление , которое берет существующего человека и превращает его в нечеловеческое существо посредством нейрохирургии, взаимодействия мозга с компьютером или, возможно, даже взаимодействия мозга с мозгом. Другой - ИИ, или Искусственный интеллект , создание динамической когнитивной системы, превосходящей людей по способности формировать теории и манипулировать реальностью. Когда какая-либо из этих технологий достигнет порогового уровня сложности, необходимого для создания сверхчеловеческого интеллекта, неизвестно, но различные эксперты, включая Бостром, приводят даты в диапазоне 2010-2030 гг. Как вероятные.

Поскольку Сингулярность может быть ближе, чем многие предполагали, и поскольку первоначальные мотивы первого сверхчеловеческого разума могут определять судьбу нашего человеческого вида, некоторые философы-активисты («Сингулярные») рассматривают Сингулярность не только как тему для спекуляций и обсуждение, но в качестве практической инженерной цели, что значительный прогресс может быть достигнут в настоящее время. Таким образом, в 2000 году Элиезер Юдковский основал Институт Сингулярности для Искусственного Интеллекта , чтобы работать исключительно для достижения этой цели.