Hva er den teknologiske singulariteten?

Den teknologiske singulariteten , eller ganske enkelt "Singularity", er et mangesidig begrep i futurisme med flere overlappende og til tider motstridende definisjoner. Den mest riktige og fremtredende definisjonen av Singularity ble gitt av Vernor Vinge i hans essay, The Coming Technological Singularity . Det refererer til det punktet der overmenneskelig intelligens skapes teknologisk. Disse overmenneskelige intelligensene kunne deretter bruke sin hjernekraft og kompetanse til oppgaven med å skape flere eller kraftigere overmenneskelige intelligenser, noe som resulterte i en snøballeffekt med konsekvenser utover vår nåværende forestillingsevne.

Begrepet "Teknologisk singularitet" ble myntet på analogi med singulariteten i midten av et svart hull, der naturkreftene blir så intense og uforutsigbare at vår evne til å beregne oppførsel av materie under disse omstendighetene faller til null. Ofte nevnt i forbindelse med ideen om overmenneskelig intelligens i Singularitetsdialoger er forestillingen om å akselerere teknologisk endring. Noen har hevdet at etterhånden som den teknologiske utviklingen øker, vil den kulminere med en asymptot, visuelt lik en matematisk singularitet.

Imidlertid er denne forestillingen om singulariteten ikke den samme som Vinge hadde til hensikt; med henvisning til fremveksten av overmenneskelig intelligens, sammen med overmenneskelige tenkehastigheter. (Inkludert smarthet, evne til å forstå og skape konsepter, gjøre data om til teorier, lage analogier, være kreative og så videre.) Selv om overmenneskelige intelligenser som skaper ytterligere overmenneskelige intelligenser faktisk ville resultert i akselerasjon av teknologisk fremgang, ville fremgangen ikke bli uendelig, i den forstand en matematisk singularitet antyder.

Fordi overmenneskelige intelligenser per definisjon ville være smartere enn noe menneske, er det lite sannsynlig at vår evne til å forutsi hva de vil være i stand til med en gitt tid, materie eller energi, vil være nøyaktig. En overmenneskelig intelligens kan være i stand til å lage en fungerende superdatamaskin av billige og lett tilgjengelige komponenter, eller utvikle fullverdig nanoteknologi uten annet enn et atomkraftmikroskop. Fordi evnen til en overmenneskelig intelligens til å designe og produsere teknologiske dingser raskt vil overgå den beste innsatsen fra menneskelige ingeniører, kan en overmenneskelig intelligens meget vel være den siste oppfinnelsen som menneskeheten noensinne trenger å gjøre. På grunn av deres overmenneskelige geni og teknologiene de raskt kunne utvikle, kan handlingene til intelligenser som stammer fra en teknologisk singularitet resultere i enten utryddelse eller frigjøring av hele arten vår, avhengig av holdningene til de mektigste superhuman intelligensene overfor mennesker.

Oxford-filosofen Nick Bostrom, direktør for Oxford Future of Humanity Institute og World Transhumanist Organization , argumenterer for at måten supermenneskelige intelligenser behandler mennesker vil avhenge av deres første motivasjoner i øyeblikket de ble opprettet. En snill overmenneskelig intelligens ville, i å ønske å bevare sin godhet, vinne snille (eller snillere) versjoner av seg selv når den selvforbedringsspiralen fortsatte. Resultatet kan være et paradis der overmenneskelige intelligenser løser verdens problemer og tilbyr konsensual intelligensforbedring til mennesker. På den annen side vil det være sannsynlig at en ondsinnet eller likegyldig overmenneskelig intelligens vil produsere mer av det samme, noe som resulterer i utilsiktet eller bevisst ødeleggelse. Av disse grunnene kan den teknologiske singulariteten være den viktigste milepælen vår art noensinne vil konfrontere.

Flere veier til overmenneskelig intelligens er blitt foreslått av Singularity-analytikere og forkjempere. Den første er IA, eller Intelligence Amplification , tar et eksisterende menneske og forvandler henne til et ikke-menneskelig vesen gjennom nevrokirurgi, hjern-datamaskin-grensesnitt, eller kanskje til og med hjerne-hjerne-grensesnitt. Den andre er AI, eller kunstig intelligens , etableringen av et dynamisk kognitivt system som overgår mennesker i sin evne til å danne teorier og manipulere virkeligheten. Når en av disse teknologiene vil nå terskelen til raffinement som er nødvendig for å produsere overmenneskelig intelligens, er usikkert, men en rekke eksperter, inkludert Bostrom, siterer datoer innen området 2010-2030 som sannsynlig.

Fordi Singulariteten kan være nærmere enn mange antar, og fordi de innledende motivasjonene til den første overmenneskelige intelligensen kan avgjøre skjebnen til vår menneskelige art, ser noen filosof-aktivister ("Singularitarians") Singulariteten ikke bare som et tema for spekulasjoner og diskusjon, men som et praktisk ingeniørmål som meningsfull fremgang kan gjøres mot i dag. Dermed ble Singularity Institute for Artificial Intelligence i 2000 grunnlagt av Eliezer Yudkowsky for å utelukkende jobbe mot dette målet.

ANDRE SPRÅK

Hjalp denne artikkelen deg? Takk for tilbakemeldingen Takk for tilbakemeldingen

Hvordan kan vi hjelpe? Hvordan kan vi hjelpe?