친절한 AI는 무엇입니까?
친화적 인 AI 는 인공 지능 (AI) 연구원이 일반적으로 중립적이거나 유해하기보다는 인류에게 도움이되는 행동을 수행하는 AI 시스템을 언급하기 위해 사용하는 용어입니다. 이것은 맹목적 순종을 의미하지는 않습니다. 반대로,이 용어는 외부 부과력 때문이 아니라 친근한 AI 시스템을 설명하는 데 사용됩니다. 완전한 시스템을 언급하는 것 외에도 우호적 인 AI는 그러한 시스템을 성공적으로 만들기 위해 사용될 이론 및 공학 분야의 이름입니다.
"친절한 AI"라는 용어 "친절한 AI"라는 용어는 인공 지능을위한 Singularity Institute의 Eliezer Yudkowsky에서 유래했습니다. 2001 년에 온라인으로 출판 된 친절한 AI 제작 주제에 대한 그의 책 길이 작품은 아마도 주제에 대한 최초의 엄격한 대우 일 것입니다. Yudkowsky는 논쟁을 불러 일으킨다친절한 AI의 문제에 대한 그의 접근 방식을 뒷받침하기 위해 진화론 심리학 및 기타인지 과학에서
친절한 AI는 과거 AI의 문제가 일반적으로 대체 해석에서 붕괴 될 때, AI가 인간보다 더 똑똑해 지거나 단순히 재 프로그래밍 능력을 얻을 때 붕괴 될 엄격한 프로그래밍 제약을 "답변"하려는 과거의 시도는 일반적으로 "답변"하려는 학문적 징계로 중요한 것으로 간주됩니다. AI의 인체 감소도 문제입니다. 진화는 이기적인 경향이있는 유기체를 구축하기 때문에 많은 사상가들은 우리가 구축 한 모든 AI가 즉시 또는 똑똑해지면 같은 경향을 가질 것이라고 가정합니다.
진화는 다른 방법이 없기 때문에 자기 중심 목표 시스템을 가진 유기체를 구축합니다. 이타적인 목표 시스템은 진화하는 데 수백만 년이 걸렸으며, 같은 부족의 구성원이있는 조건에서만 그렇게했습니다.d 서로를 도와 주면서 많은 것을 얻을 수 있고 그렇게하는 것을 소홀히함으로써 많은 것을 잃을 것입니다. 그러나 우리가 처음부터 마음을 디자인한다면 자기 중심 목표 시스템 없이는 그것을 구축 할 수 있습니다. 이것은 "AI를 제한하는 것"이 아닙니다. 단순히 본질적으로 비 이기적인 AI를 만들 것입니다.
위의 관찰은 친절한 AI 분야에 기여하는 많은 사람들 중 하나이며, 이는 매우 새롭고 여전히 많은 작업이 필요합니다. 일부 AI 연구자들은 실험 할 AI 시스템이 더 현명한 AI 시스템을 가질 때까지 우호적 인 AI를 구현하는 데 필요한 설계 기능을 결정할 수 없다고 주장합니다. 다른 사람들은 전적으로 이론적 인 접근 방식이 가능할뿐만 아니라 일반 AI에서 진지한 시도를 시작하기 전에 윤리적으로 필요하다고 주장합니다.