Hvad er venlig AI?
Friendly AI er et udtryk, der anvendes af kunstige intelligens (AI) forskere til at henvise til AI-systemer, der generelt udfører handlinger, der er nyttige for menneskeheden snarere end neutral eller skadelig. Dette betyder ikke blind lydighed - tværtimod bruges udtrykket til at beskrive AI-systemer, der er venlige, fordi de vil være det, ikke på grund af nogen eksternt pålagt styrke. Ud over at henvise til afsluttede systemer er Friendly AI også navnet på den teoretiske og ingeniørvidenskabelige disciplin, der ville blive brugt til at skabe sådanne systemer med succes.
Udtrykket "Venlig AI" stammer fra Eliezer Yudkowsky fra Singularity Institute for Artificial Intelligence, hvis mål er skabelsen af Friendly AI smart nok til at forbedre sin egen kildekode uden programmeringsintervention. Hans boglange arbejde om emnet, Creating Friendly AI , der blev offentliggjort online i 2001, er sandsynligvis den første strenge behandling af emnet overalt. Yudkowsky påberåber sig argumenter fra evolutionær psykologi og andre kognitive videnskaber for at støtte sin tilgang til problemet med venlig AI.
Venlig AI betragtes som vigtig som en akademisk disciplin, fordi fortidens forsøg på at "besvare" problemet med useriøs AI generelt påberåber sig strenge programmatiske begrænsninger, som er bundet til at kollapse under alternative fortolkninger, når AI bliver smartere end mennesker, eller bare når det får den evnen til at omprogrammere sig selv. Antropomorfisme er også et problem i AI. Fordi evolution bygger organismer, der har tendens til at være egoistiske, antager mange tænkere, at enhver AI, vi bygger, ville have den samme tendens, enten med det samme eller efter at have været smart nok.
Evolution bygger organismer med selvcentrede målsystemer, fordi der ikke er nogen anden måde. Altruistiske målsystemer tog mange millioner år at udvikle sig, og gjorde det kun under forhold, hvor medlemmer af den samme stamme havde meget at vinde ved at hjælpe hinanden og meget at tabe ved at forsømme at gøre det. Men hvis vi skulle designe et sind fra bunden, kunne vi bygge det uden et selvcentreret målsystem. Dette ville ikke være "at begrænse AI" - det ville simpelthen være at skabe en AI, der er uselvisk af natur.
Ovenstående observation er en af mange, der bidrager til området Friendly AI, som er ekstremt nyt og stadig har brug for meget arbejde. Nogle AI-forskere hævder, at vi ikke kan bestemme de designfunktioner, der er nødvendige for at implementere Friendly AI, før vi har smartere AI-systemer at eksperimentere på. Andre hævder, at en rent teoretisk tilgang ikke kun er mulig, men etisk nødvendig, inden man begynder et seriøst forsøg på generel AI.