フレンドリーAIとは何ですか?
フレンドリーAIとは、人工知能(AI)の研究者が一般的に、中立または有害ではなく人類に役立つアクションを実行するAIシステムを指す用語です。 これは盲目的な服従を意味するものではありません-それどころか、この用語は、外部から課せられた力のためではなく、彼らがなりたいために友好的なAIシステムを表すために使用されます。 完成したシステムに言及することに加えて、Friendly AIは、そのようなシステムをうまく作成するために使用される理論的および工学的分野の名前でもあります。
「Friendly AI」という用語は、Singularity Institute for Artificial IntelligenceのEliezer Yudkowskyに由来します。その目標は、プログラマーの介入なしに独自のソースコードを改善できるほどスマートなFriendly AIの作成です。 2001年にオンラインで公開されたトピック「 Creating Friendly AI」に関する彼の本の長さの作品は、おそらくどこでも最初の厳密な扱いです。 ユドコフスキーは進化心理学やその他の認知科学から議論を呼び起こし、友好的なAIの問題に対する彼のアプローチをサポートしています。
フレンドリーなAIは、不正なAIの問題に「答える」過去の試みが一般に厳密なプログラム上の制約を引き起こしたため、学術的分野として重要であると考えられます。これは、AIが人間よりも賢くなるか、単にAI自分自身を再プログラムする能力。 擬人化もAIの問題です。 進化は利己的な傾向のある生物を構築するため、多くの思想家は、私たちが構築するAIは、すぐにまたは十分にスマートになった後でも同じ傾向があると想定しています。
進化は、他の方法がないため、自己中心の目標システムを持つ生物を構築します。 利他的目標システムは進化するのに何百万年もかかり、同じ部族のメンバーが互いに助け合うことで多くの利益を得、そうすることを怠ることで多くの損失を被る状況でのみそうしました。 しかし、心をゼロから設計する場合、自己中心的な目標システムなしで心を構築できます。 これは「AIを制限する」ことではありません-本来、利己的なAIを作成するだけです。
上記の観察は、非常に新しく、まだ多くの作業を必要とするフレンドリーAIの分野に貢献する多くの例の1つです。 AI研究者の中には、よりスマートなAIシステムを実験するまで、Friendly AIの実装に必要な設計機能を決定できないと主張する人もいます。 他の人たちは、純粋に理論的なアプローチが可能であるだけでなく、一般的なAIで本格的な試みを始める前に倫理的に必要だと主張しています。