Wat is vriendelijke AI?

Vriendelijke AI is een term die wordt gebruikt door onderzoekers van kunstmatige intelligentie (AI) om te verwijzen naar AI -systemen die in het algemeen acties uitvoeren die nuttig zijn voor de mensheid in plaats van neutraal of schadelijk. Dit betekent geen blinde gehoorzaamheid - integendeel, de term wordt gebruikt om AI -systemen die vriendelijk zijn te beschrijven omdat ze willen zijn, niet vanwege een extern opgelegde kracht. Naast het verwijzen naar voltooide systemen, is Friendly AI ook de naam van de theoretische en technische discipline die zou worden gebruikt om dergelijke systemen succesvol te maken.

De term "vriendelijke AI" is ontstaan ​​met Eliezer Yudkowsky van het Singularity Institute for Artificial Intelligence, wiens doel de CREATION is van vriendelijk genoeg om te verbeteren op zijn eigen broncode. Zijn boeklengte werk over het onderwerp, het maken van vriendelijke AI , online gepubliceerd in 2001, is waarschijnlijk de eerste rigoureuze behandeling van het onderwerp overal. Yudkowsky roept argumenten opvan evolutionaire psychologie en andere cognitieve wetenschappen om zijn benadering van het probleem van vriendelijke ai te ondersteunen.

Vriendelijke AI wordt als belangrijk beschouwd als een academische discipline, omdat uit het verleden probeert het probleem van Rogue AI in het algemeen strikte programmatische beperkingen op te roepen, die zeker zullen instorten onder alternatieve interpretaties, wanneer de AI slimmer wordt dan mensen, of gewoon wanneer het het vermogen krijgt om zichzelf te herprogrammeren. Anthropomorfisme is ook een probleem in AI. Omdat evolutie organismen bouwt die de neiging hebben egoïstisch te zijn, gaan veel denkers ervan uit dat elke AI die we bouwen dezelfde neiging zou hebben, hetzij onmiddellijk of nadat ze slim genoeg zijn geworden.

evolutie bouwt organismen op met egocentrische doelsystemen omdat er geen andere manier is. Altruïstische doelsystemen duurden vele miljoenen jaren om te evolueren, en deed dit alleen onder omstandigheden waarin leden van dezelfde stam haD veel te winnen door elkaar te helpen en veel te verliezen door te verwaarlozen om dit te doen. Maar als we helemaal opnieuw een geest zouden ontwerpen, zouden we het kunnen bouwen zonder een egocentrisch doelsysteem. Dit zou niet "de AI beperken" - het zou gewoon een AI creëren die van nature onzelfzuchtig is.

De bovenstaande observatie is een van de vele die bijdragen aan het gebied van vriendelijke AI, die extreem nieuw is en nog veel werk nodig heeft. Sommige AI -onderzoekers beweren dat we de ontwerpkenmerken niet kunnen bepalen die nodig zijn om vriendelijke AI te implementeren totdat we slimmer AI -systemen hebben om op te experimenteren. Anderen beweren dat een puur theoretische benadering niet alleen mogelijk is, maar ook ethisch noodzakelijk voordat hij begint met een serieuze poging tot generaal AI.

ANDERE TALEN