Wat is de technologische singulariteit?
De technologische singulariteit , of gewoon "singulariteit", is een veelzijdig concept in futurisme met verschillende overlappende en soms tegenstrijdige definities. De meest juiste en prominente definitie van de singulariteit werd gegeven door Vernor Vinge in zijn essay, de komende technologische singulariteit . Het verwijst naar het punt waarop de bovenmenselijke intelligentie technologisch wordt gecreëerd. These superhuman intelligences could then apply their brainpower and expertise to the task of creating additional or more powerful superhuman intelligences, resulting in a snowball effect with consequences beyond our present ability to imagine.
The term "Technological Singularity" was coined by analogy to the singularity in the center of a black hole, where the forces of nature become so intense and unpredictable that our ability to calculate the behavior of matter in these circumstances drops to nul. Vaak genoemd in combinatie met het idee van bovenmenselijke intelligentieIn singulariteitsdialogen is het idee van het versnellen van technologische verandering. Sommigen hebben betoogd dat naarmate de helling van technologische vooruitgang toeneemt, deze in een asymptoot zal culmineren, visueel vergelijkbaar met een wiskundige singulariteit.
Dit idee van de singulariteit is echter niet hetzelfde als de bedoeld van Vinge; Verwijzend naar de opkomst van bovenmenselijke intelligentie, samen met bovenmenselijke denksnelheden. (Inclusief slimheid, vermogen om concepten te begrijpen en te creëren, gegevens te veranderen in theorieën, analogieën te maken, creatief te zijn, enzovoort.) Hoewel bovenmenselijke intelligenties extra bovenmenselijke intelligenties creëren, zouden inderdaad leiden tot de versnelling van technologische vooruitgang, zou vooruitgang niet oneindig worden, in de zin dat een wiskundige singulariteit zou suggereren.
Omdat bovenmenselijke intelligenties per definitie slimmer zouden zijn dan welke mens dan ook, is ons vermogen om te voorspellen wat ze zouden zijn cOpenbaar met een bepaalde hoeveelheid tijd, materie of energie is waarschijnlijk niet nauwkeurig. Een bovenmenselijke intelligentie kan mogelijk een functionerende supercomputer maken uit goedkope en direct beschikbare componenten, of een volwaardige nanotechnologie ontwikkelen met niets anders dan een atoomkrachtmicroscoop. Omdat het vermogen van een bovenmenselijke intelligentie om technologische gadgets te ontwerpen en te produceren, snel de beste inspanningen van menselijke ingenieurs zou overtreffen, zou een bovenmenselijke intelligentie heel goed de laatste uitvinding kunnen zijn die de mensheid ooit moet maken. Vanwege hun bovenmenselijke genie en de technologieën die ze snel zouden kunnen ontwikkelen, kunnen de acties van intelligenties die voortkomen uit een technologische singulariteit leiden tot het uitsterven of de bevrijding van onze hele soort, afhankelijk van de houding van de meest krachtige bovenmenselijke intelligenties ten opzichte van mensen.
Oxford -filosoof Nick Bostrom, directeur van de Oxford Future of Humanity Institute en de World TraNshumanistische organisatie , beweert dat de manier waarop bovenmenselijke intelligenties mensen behandelen, afhankelijk zullen zijn van hun eerste motivaties op het moment van hun creatie. Een vriendelijke bovenmenselijke intelligentie zou, door zijn vriendelijkheid te willen behouden, vriendelijke (of vriendelijkere) versies van zichzelf te verwekken naarmate de zelfverbeteringsspiraal voortduurde. Het resultaat kan een paradijs zijn waarin bovenmenselijke intelligenties de problemen van de wereld oplossen en consensuele intelligentieverbetering bieden aan mensen. Aan de andere kant zou een kwaadaardige of onverschillige bovenmenselijke intelligentie waarschijnlijk meer van hetzelfde produceren, wat resulteert in onze toevallige of opzettelijke vernietiging. Om deze redenen is de technologische singulariteit misschien de belangrijkste mijlpaal waarmee onze soort ooit zal confronteren.
Verschillende paden naar bovenmenselijke intelligentie zijn voorgesteld door singulariteitsanalisten en advocaten. De eerste is IA, of intelligentie -versterking , neemt een bestaand mens mee en transformeert haar inEen niet-menselijk is door neurochirurgie, hersencomputer interface of misschien zelfs hersen-hersen interface. De andere is AI, of kunstmatige intelligentie , het creëren van een dynamisch cognitief systeem dat mensen overtreft in zijn vermogen om theorieën te vormen en de realiteit te manipuleren. Wanneer een van deze technologieën het drempelniveau van verfijning zal bereiken die nodig is om bovenmenselijke intelligentie te produceren, is onzeker, maar een verscheidenheid aan experts, waaronder Bostrom, citeren datums binnen het bereik van 2010-2030 als waarschijnlijk.
Omdat de singulariteit dichterbij kan zijn dan velen zouden aannemen, en omdat de eerste motivaties van de eerste bovenmenselijke intelligentie het lot van onze menselijke soort kunnen bepalen, beschouwen sommige filosoof-activisten ("singularitarians") de singulariteit niet alleen als een onderwerp voor speculatie en discussie, maar als een praktische engineering doel in de huidige tijd. Dus in 2000 het Singularity Institute for Artificial IntelLigence is opgericht door Eliezer Yudkowsky om exclusief aan dit doel te werken.