Hvad er den teknologiske singularitet?
Den teknologiske singularitet , eller simpelthen "Singularitet", er et mangesidet begreb i futurisme med flere overlappende og til tider modstridende definitioner. Den mest korrekte og fremtrædende definition af Singulariteten blev givet af Vernor Vinge i hans essay, The Coming Technological Singularity . Det henviser til det punkt, hvor overmenneskelig intelligens skabes teknologisk. Disse overmenneskelige intelligenser kunne derefter anvende deres hjernekraft og ekspertise til opgaven med at skabe yderligere eller mere magtfulde overmenneskelige intelligenser, hvilket resulterede i en sneboldeffekt med konsekvenser ud over vores nuværende forestillingsevne.
Udtrykket "Teknologisk singularitet" blev myntet analogt med singulariteten i midten af et sort hul, hvor naturens kræfter bliver så intense og uforudsigelige, at vores evne til at beregne opførsel af stof under disse omstændigheder falder til nul. Ofte nævnt i forbindelse med ideen om overmenneskelig intelligens i Singularitetsdialoger er forestillingen om at fremskynde teknologisk forandring. Nogle har hævdet, at efterhånden som den teknologiske udvikling skrider frem, vil den kulminere med en asymptot, der visuelt ligner en matematisk singularitet.
Imidlertid er denne forestilling om entydighed ikke den samme som Vinge havde til hensigt; der henviser til fremkomsten af overmenneskelig intelligens sammen med overmenneskelige tænkningshastigheder. (Inkluderet smarthed, evne til at forstå og skabe koncepter, omdanne data til teorier, lave analogier, være kreative osv.) Selvom overmenneskelige intelligenser, der skaber yderligere overmenneskelige intelligenser virkelig ville resultere i en acceleration af den teknologiske udvikling, ville fremskridt ikke blive uendelig, i den forstand, at en matematisk singularitet antyder.
Fordi overmenneskelige intelligenser per definition ville være smartere end noget menneske, er vores evne til at forudsige, hvad de ville være i stand til med en given mængde tid, materie eller energi, usandsynligt at være nøjagtige. En overmenneskelig intelligens kan muligvis danne en fungerende supercomputer ud af billige og let tilgængelige komponenter eller udvikle fuldt udbygget nanoteknologi med intet andet end et atomkraftmikroskop. Fordi en overmenneskelig intelligens evne til at designe og fremstille teknologiske gadgets hurtigt ville overgå de bedste bestræbelser fra menneskelige ingeniører, kunne en overmenneskelig intelligens meget vel være den sidste opfindelse, som menneskeheden nogensinde har brug for. På grund af deres overmenneskelige geni og de teknologier, de hurtigt kunne udvikle, kunne handlinger fra intelligenser, der stammer fra en teknologisk singularitet, resultere i enten udryddelse eller frigørelse af vores hele art afhængigt af holdningerne til de mest magtfulde overmenneskelige intelligenser overfor mennesker.
Oxford-filosof Nick Bostrom, direktør for Oxford Future of Humanity Institute og World Transhumanist Organization , argumenterer for, at den måde, hvorpå overmenneskelige intelligenser behandler mennesker, vil afhænge af deres oprindelige motivering i det øjeblik, de blev oprettet. En venlig overmenneskelig intelligens ville, når man ønsker at bevare sin venlighed, vildt venlige (eller venlige) versioner af sig selv, da spiralen til selvforbedring fortsatte. Resultatet kan være et paradis, hvor overmenneskelige intelligenser løser verdens problemer og tilbyder konsensus intelligensforbedring til mennesker. På den anden side ville en ondsindet eller ligeglad overmenneskelig intelligens sandsynligvis producere mere af det samme, hvilket resulterer i vores utilsigtede eller bevidste ødelæggelse. Af disse grunde er den teknologiske singularitet muligvis den eneste vigtigste milepæl, som vores art nogensinde vil konfrontere.
Flere stier til overmenneskelig intelligens er blevet foreslået af Singularity-analytikere og -advokater. Den første er IA eller Intelligence Amplification , der tager et eksisterende menneske og omdanner hende til et ikke-menneskeligt væsen gennem neurokirurgi, interface mellem hjerne og computere eller måske endda mellem hjerne og hjerne. Den anden er AI eller kunstig intelligens , skabelsen af et dynamisk kognitivt system, der overgår mennesker i dets evne til at danne teorier og manipulere virkeligheden. Hvornår en af disse teknologier vil nå det tærskelniveau for raffinement, der er nødvendigt for at producere overmenneskelig intelligens, er usikkert, men en række forskellige eksperter, herunder Bostrom, citerer datoer inden for området 2010-2030 som sandsynligt.
Fordi Singulariteten kan være nærmere, end mange ville antage, og fordi de oprindelige motiveringer fra den første overmenneskelige intelligens kan bestemme skæbnen for vores menneskelige arter, betragter nogle filosof-aktivister ("Singularitarians") Singulariteten ikke kun som et emne til spekulation og diskussion, men som et praktisk teknisk mål, at meningsfulde fremskridt kan gøres i dag. Således blev Singularity Institute for Artificial Intelligence i 2000 grundlagt af Eliezer Yudkowsky for udelukkende at arbejde mod dette mål.