Vad är vänlig AI?
Friendly AI är en term som används av artificiella intelligensforskare (AI) för att hänvisa till AI-system som i allmänhet utför åtgärder som är till hjälp för mänskligheten snarare än neutrala eller skadliga. Detta betyder inte blind lydnad - tvärtom, termen används för att beskriva AI-system som är vänliga eftersom de vill vara, inte på grund av någon externt påtvingad kraft. Förutom att hänvisa till färdiga system är Friendly AI också namnet på den teoretiska och tekniska disciplin som skulle användas för att skapa sådana system framgångsrikt.
Termen "Vänlig AI" har sitt ursprung i Eliezer Yudkowsky från Singularity Institute for Artificial Intelligence, vars mål är att skapa en vänlig AI smart nog att förbättra sin egen källkod utan programmerarens ingripande. Hans boklånga arbete om ämnet, Creating Friendly AI , publicerat online 2001, är förmodligen den första strikta behandlingen av ämnet någonstans. Yudkowsky åberopar argument från evolutionär psykologi och andra kognitiva vetenskaper för att stödja hans inställning till problemet med vänlig AI.
Vänlig AI anses vara viktig som en akademisk disciplin eftersom tidigare försök att "besvara" problemet med falska AI generellt åberopar strikta programmatiska begränsningar, som kommer att kollapsa under alternativa tolkningar, när AI blir smartare än människor, eller helt enkelt när den får förmågan att omprogrammera sig själv. Antropomorfism är också ett problem i AI. Eftersom evolution bygger organismer som tenderar att vara själviska antar många tänkare att alla AI som vi bygger skulle ha samma tendens, antingen omedelbart eller efter att ha blivit smart nog.
Evolution bygger organismer med självcentrerade målsystem eftersom det inte finns något annat sätt. Altruistiska målsystem tog många miljoner år att utvecklas, och gjorde det bara under förhållanden där medlemmar av samma stam hade mycket att vinna genom att hjälpa varandra och mycket att förlora genom att försumma att göra det. Men om vi skulle utforma ett sinne från början, skulle vi kunna bygga det utan ett självcentrerat målsystem. Detta skulle inte vara "begränsa AI" - det skulle helt enkelt skapa en AI som är osjälvisk av naturen.
Ovanstående observation är en av många som bidrar till området för vänlig AI, som är extremt ny och fortfarande behöver mycket arbete. Vissa AI-forskare hävdar att vi inte kan bestämma de designfunktioner som är nödvändiga för att implementera Friendly AI förrän vi har smartare AI-system att experimentera med. Andra hävdar att en rent teoretisk inställning inte bara är möjlig utan också etiskt nödvändig innan man påbörjar ett allvarligt försök till allmän AI.