Hva er vennlig AI?
Friendly AI er et begrep som brukes av kunstige intelligens (AI) forskere for å referere til AI-systemer som generelt utfører handlinger som er nyttige for menneskeheten snarere enn nøytrale eller skadelige. Dette betyr ikke blind lydighet - tvert imot, begrepet brukes for å beskrive AI-systemer som er vennlige fordi de vil være det, ikke på grunn av noen eksternt pålagt styrke. I tillegg til å referere til ferdige systemer, er Friendly AI også navnet på den teoretiske og ingeniørfaglige disiplinen som vil bli brukt for å lage slike systemer med hell.
Begrepet "Friendly AI" stammer fra Eliezer Yudkowsky fra Singularity Institute for Artificial Intelligence, hvis mål er å lage Friendly AI smart nok til å forbedre sin egen kildekode uten programmeringsinngrep. Hans boklengdeverk om emnet, Creating Friendly AI , publisert på nettet i 2001, er sannsynligvis den første strenge behandlingen av emnet hvor som helst. Yudkowsky påberoper seg argumenter fra evolusjonspsykologi og andre kognitive vitenskaper for å støtte sin tilnærming til problemet med Friendly AI.
Vennlig AI blir ansett som viktig som en akademisk disiplin fordi tidligere forsøk på å "svare" på problemet med useriøse AI generelt påberoper seg strenge programmatiske begrensninger, som er bundet til å kollapse under alternative tolkninger, når AI blir smartere enn mennesker, eller ganske enkelt når den får evnen til å omprogrammere seg selv. Antropomorfisme er også et problem i AI. Fordi evolusjonen bygger organismer som har en tendens til å være egoistiske, antar mange tenkere at enhver AI vi bygger ville ha den samme tendensen, enten umiddelbart eller etter å ha blitt smart nok.
Evolusjon bygger organismer med selvsentrerte målsystemer fordi det ikke er noen annen måte. Altruistiske målsystemer tok mange millioner år å utvikle seg, og gjorde det bare under forhold der medlemmer av samme stamme hadde mye å vinne ved å hjelpe hverandre og mye å tape ved å unnlate å gjøre det. Men hvis vi skulle utforme et sinn fra bunnen av, kunne vi bygge det uten et selvsentrert målsystem. Dette ville ikke være "å begrense AI" - det ville ganske enkelt være å lage en AI som er uselvisk av natur.
Ovennevnte observasjon er en av mange som bidrar til feltet Friendly AI, som er ekstremt nytt og fremdeles trenger mye arbeid. Noen AI-forskere hevder at vi ikke kan bestemme designfunksjonene som er nødvendige for å implementere Friendly AI før vi har smartere AI-systemer å eksperimentere på. Andre hevder at en rent teoretisk tilnærming ikke bare er mulig, men etisk nødvendig før man begynner på et seriøst forsøk på generell AI.