Wat is Friendly AI?
Friendly AI is een term die wordt gebruikt door Artificial Intelligence (AI) -onderzoekers om te verwijzen naar AI-systemen die in het algemeen acties uitvoeren die de mensheid helpen in plaats van neutraal of schadelijk. Dit betekent niet blinde gehoorzaamheid - integendeel, de term wordt gebruikt om AI-systemen te beschrijven die vriendelijk zijn omdat ze dat willen, niet vanwege een extern opgelegde kracht. Friendly AI verwijst niet alleen naar voltooide systemen, maar is ook de naam van de theoretische en technische discipline die zou worden gebruikt om dergelijke systemen met succes te maken.
De term "Friendly AI" is afkomstig van Eliezer Yudkowsky van het Singularity Institute for Artificial Intelligence, wiens doel het creëren van Friendly AI is, slim genoeg om zijn eigen broncode te verbeteren zonder tussenkomst van de programmeur. Zijn boeklange werk over het onderwerp, Creating Friendly AI , online gepubliceerd in 2001, is waarschijnlijk de eerste rigoureuze behandeling van het onderwerp overal. Yudkowsky beroept zich op argumenten uit de evolutionaire psychologie en andere cognitieve wetenschappen om zijn benadering van het probleem van Friendly AI te ondersteunen.
Vriendelijke AI wordt als belangrijk beschouwd als een academische discipline, omdat eerdere pogingen om het probleem van malafide AI te "beantwoorden" in het algemeen strikte programmatische beperkingen opriepen, die volgens alternatieve interpretaties onherroepelijk zullen instorten, wanneer de AI slimmer wordt dan mensen, of gewoon wanneer het de vermogen om zichzelf te herprogrammeren. Antropomorfisme is ook een probleem bij AI. Omdat evolutie organismen bouwt die de neiging hebben egoïstisch te zijn, gaan veel denkers ervan uit dat elke AI die we bouwen, dezelfde neiging zou hebben, hetzij onmiddellijk of na slim genoeg te zijn.
Evolutie bouwt organismen met egocentrische doelsystemen omdat er geen andere manier is. Altruïstische doelsystemen hadden vele miljoenen jaren nodig om te evolueren, en alleen onder omstandigheden waarin leden van dezelfde stam veel te winnen hadden door elkaar te helpen en veel te verliezen door dit te verwaarlozen. Maar als we een geest vanuit het niets zouden ontwerpen, zouden we het kunnen bouwen zonder een egocentrisch doelsysteem. Dit zou niet "de AI beperken" - het zou eenvoudigweg een AI creëren die van nature onzelfzuchtig is.
De bovenstaande opmerking is een van de vele die bijdragen aan het gebied van Friendly AI, dat extreem nieuw is en nog veel werk vereist. Sommige AI-onderzoekers beweren dat we de ontwerpkenmerken die nodig zijn om Friendly AI te implementeren pas kunnen bepalen als we slimmere AI-systemen hebben om op te experimenteren. Anderen beweren dat een zuiver theoretische benadering niet alleen mogelijk is, maar ethisch noodzakelijk is alvorens een serieuze poging tot algemene AI te beginnen.