친절한 AI 란 무엇입니까?
친화적 AI 는 인공 지능 (AI) 연구자들이 일반적으로 중립적이거나 유해하지 않고 인류에게 도움이되는 행동을 수행하는 AI 시스템을 지칭하기 위해 사용하는 용어입니다. 이것은 맹목적인 순종을 의미하지는 않습니다. 반대로,이 용어는 외부에 부과 된 힘이 아니라 원하기 때문에 친숙한 AI 시스템을 설명하는 데 사용됩니다. 친숙한 AI는 완성 된 시스템을 언급 할뿐만 아니라 그러한 시스템을 성공적으로 만드는 데 사용되는 이론 및 공학 분야의 이름이기도합니다.
"친근한 AI"라는 용어는 Singularity Institute for Artificial Intelligence의 Eliezer Yudkowsky에서 유래 한 것으로, 프로그래머의 개입없이 자체 소스 코드를 향상시킬 수있는 친화적 AI 스마트를 만드는 것이 목표입니다. 2001 년에 온라인으로 출판 된 ' 친절한 AI 만들기 (Creating Friendly AI)' 라는 주제에 관한 그의 책 길이 작품은 아마도 어디에서나 주제에 대한 첫 번째 엄격한 처리 일 것입니다. Yudkowsky는 친화적 심리학 문제에 대한 그의 접근을 지원하기 위해 진화 심리학 및 기타인지 과학의 주장을 불러 일으킨다.
친숙한 AI는 과거 불량 AI 문제를 "답변"하려는 시도가 대체로 해석이 무너 지거나 AI가 인간보다 똑똑해 지거나 단순히 그것을 얻었을 때 붕괴 될 수있는 엄격한 프로그램 제약을 불러 일으켰 기 때문에 학문 분야에서 중요한 것으로 간주됩니다. 재 프로그래밍 능력. 의인화 또한 인공 지능의 문제입니다. 진화는 이기적인 경향이있는 유기체를 형성하기 때문에 많은 사상가들은 우리가 만드는 인공 지능이 즉시 또는 충분히 똑똑해지면서 같은 경향을 가질 것이라고 생각합니다.
진화는 다른 방법이 없기 때문에 자기 중심의 목표 시스템으로 유기체를 만듭니다. 이타 적 목표 시스템은 진화하는 데 수백만 년이 걸렸으며, 같은 부족의 구성원들이 서로를 돕고 많은 것을 잃음으로써 많은 이익을 얻지 못한 상황에서만 그렇게했다. 그러나 처음부터 마음을 디자인한다면, 자체 중심 목표 시스템없이 마음을 만들 수 있습니다. 이것은 "AI를 제한하는"것이 아니라, 본질적으로 비 이기적인 AI를 만드는 것입니다.
위의 관찰은 Friendly AI 분야에 기여하는 많은 것 중 하나이며, 이는 매우 새롭고 여전히 많은 작업이 필요합니다. 일부 AI 연구자들은 더 지능적인 AI 시스템을 실험하기 전에는 친숙한 AI를 구현하는 데 필요한 디자인 기능을 결정할 수 없다고 주장합니다. 다른 사람들은 순수한 이론적 접근이 가능할뿐만 아니라 일반적인 AI에 대한 심각한 시도를 시작하기 전에 윤리적으로 필요하다고 주장합니다.