Wat is de technologische singulariteit?
De technologische singulariteit , of simpelweg 'singulariteit', is een veelzijdig concept in futurisme met verschillende overlappende en soms tegenstrijdige definities. De meest juiste en prominente definitie van de singulariteit werd gegeven door Vernor Vinge in zijn essay, The Coming Technological Singularity . Het verwijst naar het punt waarop bovenmenselijke intelligentie technologisch wordt gecreëerd. Deze bovenmenselijke intelligenties zouden dan hun hersenkracht en expertise kunnen inzetten voor het creëren van extra of krachtigere bovenmenselijke intelligenties, resulterend in een sneeuwbaleffect met gevolgen die ons huidige voorstellingsvermogen te boven gaan.
De term "technologische singulariteit" werd bedacht door analogie met de singulariteit in het midden van een zwart gat, waar de natuurkrachten zo intens en onvoorspelbaar worden dat ons vermogen om het gedrag van materie in deze omstandigheden te berekenen tot nul daalt. Vaak genoemd in samenhang met het idee van bovenmenselijke intelligentie in Singularity-dialogen wordt het idee van versnelde technologische verandering genoemd. Sommigen hebben betoogd dat naarmate de helling van de technologische vooruitgang toeneemt, deze zal uitmonden in een asymptoot, visueel vergelijkbaar met een wiskundige singulariteit.
Deze notie van de singulariteit is echter niet hetzelfde als Vinge bedoelde; verwijzend naar de opkomst van bovenmenselijke intelligentie, samen met bovenmenselijke denksnelheden. (Inclusief slimheid, het vermogen om concepten te begrijpen en te creëren, gegevens om te zetten in theorieën, analogieën te maken, creatief te zijn, enzovoort.) Hoewel bovenmenselijke intelligenties die extra bovenmenselijke intelligenties creëren inderdaad zou resulteren in de versnelling van technologische vooruitgang, zou vooruitgang niet oneindig worden, in de zin dat een wiskundige singulariteit zou suggereren.
Omdat bovenmenselijke intelligenties per definitie slimmer zijn dan welke mens dan ook, is het onwaarschijnlijk dat ons vermogen om te voorspellen waartoe ze in staat zouden zijn met een bepaalde hoeveelheid tijd, materie of energie, accuraat is. Een bovenmenselijke intelligentie is misschien in staat een functionerende supercomputer te maken van goedkope en direct beschikbare componenten, of een volwaardige nanotechnologie te ontwikkelen met niets anders dan een atoomkrachtmicroscoop. Omdat het vermogen van een bovenmenselijke intelligentie om technologische gadgets te ontwerpen en te produceren snel de beste inspanningen van menselijke ingenieurs zou overtreffen, zou een bovenmenselijke intelligentie heel goed de laatste uitvinding kunnen zijn die de mensheid ooit moet doen. Vanwege hun bovenmenselijke genie en de technologieën die ze snel konden ontwikkelen, konden de acties van intelligenties die voortkwamen uit een technologische singulariteit resulteren in het uitsterven of de bevrijding van onze hele soort, afhankelijk van de houding van de meest krachtige bovenmenselijke intelligenties tegenover mensen.
Oxford-filosoof Nick Bostrom, directeur van het Oxford Future of Humanity Institute en de World Transhumanist Organisation , betoogt dat de manier waarop bovenmenselijke intelligenties mensen behandelen afhankelijk zal zijn van hun initiële motivaties op het moment van hun creatie. Een vriendelijke bovenmenselijke intelligentie zou, in het willen behouden van zijn vriendelijkheid, vriendelijke (of vriendelijkere) versies van zichzelf voortbrengen naarmate de zelfverbeteringsspiraal zich voortzette. Het resultaat zou een paradijs kunnen zijn waarin bovenmenselijke intelligenties de problemen van de wereld oplossen en menselijke intelligentie een consensuele intelligentie bieden. Aan de andere kant zou een kwaadwillende of onverschillige bovenmenselijke intelligentie waarschijnlijk meer van hetzelfde produceren, resulterend in onze toevallige of opzettelijke vernietiging. Om deze redenen is de technologische singulariteit misschien wel de belangrijkste mijlpaal die onze soort ooit zal tegenkomen.
Singularity-analisten en advocaten hebben verschillende wegen naar bovenmenselijke intelligentie voorgesteld. De eerste is IA, of intelligentie-versterking , die een bestaande mens neemt en haar in een niet-menselijk wezen transformeert door neurochirurgie, hersen-computer-interface, of misschien zelfs hersen-hersen-interface. De andere is AI, of kunstmatige intelligentie , de creatie van een dynamisch cognitief systeem dat de mens overtreft in zijn vermogen om theorieën te vormen en de realiteit te manipuleren. Wanneer een van deze technologieën het drempelniveau van verfijning bereikt dat nodig is om bovenmenselijke intelligentie te produceren, is onzeker, maar verschillende experts, waaronder Bostrom, noemen datums binnen het bereik van 2010-2030 waarschijnlijk.
Omdat de singulariteit dichterbij kan zijn dan velen zouden veronderstellen, en omdat de initiële motivaties van de eerste bovenmenselijke intelligentie het lot van onze menselijke soort kunnen bepalen, beschouwen sommige filosoof-activisten ("singularitarians") de singulariteit niet alleen als een onderwerp voor speculatie en discussie, maar als een praktisch technisch doel waar vandaag veel vooruitgang in kan worden geboekt. Zo werd in 2000 het Singularity Institute for Artificial Intelligence opgericht door Eliezer Yudkowsky om uitsluitend aan dit doel te werken.