Hva er den teknologiske singulariteten?
teknologisk singularitet , eller ganske enkelt "singularitet", er et mangesidig konsept i futurisme med flere overlappende og noen ganger motstridende definisjoner. Den mest rette og fremtredende definisjonen av singulariteten ble gitt av Vernor Vinge i essayet hans, The Coming Technological Singularity . Det refererer til det punktet hvor overmenneskelig intelligens opprettes teknologisk. Disse overmenneskelige intelligensene kan da bruke hjernekraften og kompetansen på oppgaven med å skape flere eller kraftigere overmenneskelige intelligenser, noe Omstendighetene synker til null. Ofte nevnt i forbindelse med ideen om overmenneskelig intelligensI singularitet er dialoger forestillingen om å akselerere teknologisk endring. Noen har hevdet at når skråningen av teknologisk fremgang øker, vil den kulminere i en asymptot, lignende visuelt som en matematisk singularitet.
Imidlertid er denne forestillingen om singulariteten ikke den samme som vinge ment; med henvisning til fremveksten av overmenneskelig intelligens, sammen med overmenneskelige tenkningshastigheter. (Inkludert smarthet, evne til å forstå og lage begreper, gjøre data til teorier, lage analogier, være kreative og så videre.) Selv om overmenneskelige intelligenser som skaper ytterligere overmenneskelige intelligenser, vil faktisk resultere i akselerasjonen av teknologisk fremgang, fremgang ikke ville bli uendelig, i den forstand at en matematisk singularitet antyder.
Fordi overmenneskelige intelligenser per definisjon ville være smartere enn noe menneske, vår evne til å forutsi hva de ville være cAntabilt med en gitt mengde tid, materie eller energi er usannsynlig å være nøyaktig. En overmenneskelig intelligens kan være i stand til å lage en fungerende superdatamaskin av billige og lett tilgjengelige komponenter, eller utvikle fullverdig nanoteknologi uten annet enn et atomkraftmikroskop. Fordi en overmenneskelig intelligens til å designe og produsere teknologiske dingser raskt ville overgå den beste innsatsen fra menneskelige ingeniører, kan en overmenneskelig intelligens være den siste oppfinnelsen som menneskeheten noen gang trenger å gjøre. På grunn av deres overmenneskelige geni og teknologiene de raskt kunne utvikle
Oxford -filosof Nick Bostrom, direktør for Oxford Future of Humanity Institute og World TraNshumanist Organization , argumenterer for at hvordan overmenneskelige intelligenser behandler mennesker vil avhenge av deres første motivasjoner i det øyeblikket deres skapelse. En snill overmenneskelig intelligens ville, når han ønsket å bevare sin vennlighet, tømme snille (eller snillere) versjoner av seg selv som selvforbedringsspiralen fortsatte. Resultatet kan være et paradis der overmenneskelige intelligenser løser verdens problemer og gir konsensus for intelligensforbedring for mennesker. På den annen side vil en ondsinnet eller likegyldig overmenneskelig etterretning sannsynligvis gi mer av det samme, noe som resulterer i vår tilfeldige eller bevisste ødeleggelse. Av disse grunner kan den teknologiske singulariteten være den viktigste milepælen vår art noensinne vil konfrontere.
Flere veier til overmenneskelig etterretning er blitt foreslått av singularitetsanalytikere og talsmenn. Den første er IA, eller intelligensforsterkning , tar et eksisterende menneske og forvandler henne tilEt ikke-menneskelig å være gjennom nevrokirurgi, grensesnitt mellom hjerne-datamaskiner, eller kanskje til og med hjerne-hjerne-grensesnitt. Den andre er AI, eller kunstig intelligens , opprettelsen av et dynamisk kognitivt system som overgår mennesker i sin evne til å danne teorier og manipulere virkeligheten. Når en av disse teknologiene vil nå terskelnivået for sofistikering som er nødvendig for å produsere overmenneskelig intelligens, er usikker, men en rekke eksperter, inkludert Bostrom, siterer datoer innen 2010-2030-serien som sannsynlig.
Fordi singulariteten kan være nærmere enn mange vil anta, og fordi de første motivasjonene til den første overmenneskelige intelligensen kan bestemme skjebnen til vår menneskelige art, ser noen filosofaktiverte ("singularitarians") singulariteten ikke bare som et tema for spekulasjoner og diskusjon, men som et praktisk ingeniørmål som meningsfull fremgang kan gjøres mot i nåtiden. Dermed i 2000 Singularity Institute for Artificial IntelLigence ble grunnlagt av Eliezer Yudkowsky for å jobbe utelukkende mot dette målet.