Hvad er den teknologiske singularitet?
teknologisk singularitet eller simpelthen "singularitet" er et mangesidet koncept i futurisme med adskillige overlappende og undertiden modstridende definitioner. Den mest rigtige og fremtrædende definition af singulariteten blev givet af Vernor Vinge i hans essay, den kommende teknologiske singularitet . Det henviser til det punkt, hvor overmenneskelig intelligens skabes teknologisk. Disse overmenneskelige intelligenser kunne derefter anvende deres hjernekraft og ekspertise til opgaven med at skabe yderligere eller mere magtfulde overmenneskelige intelligenser, hvilket resulterede i en sneboldvirkning med konsekvenser ud over vores nuværende evne til at forestille falder til nul. Ofte nævnt i forbindelse med ideen om overmenneskelig intelligensI singularitet er dialogerne forestillingen om at fremskynde teknologisk forandring. Nogle har hævdet, at når hældningen af teknologiske fremskridt øges, vil den kulminere i en asymptot, der visuelt visuelt som en matematisk singularitet.
Imidlertid er denne opfattelse af singulariteten ikke den samme som vinge beregnet; Under henvisning til fremkomsten af overmenneskelig intelligens sammen med overmenneskelige tænkningshastigheder. (Inklusive smarthed, evne til at forstå og skabe koncepter, omdanne data til teorier, gøre analogier, være kreative og så videre.) Selvom overmenneskelige intelligenser, der skaber yderligere overmenneskelige intelligenser, faktisk ville resultere i accelerationen af teknologiske fremskridt, ville fremskridt ikke blive uendelige, i den forstand, at en matematisk singularitet antyder.
Fordi overmenneskelige intelligenser pr. Definition ville være smartere end noget menneske, vores evne til at forudsige, hvad de ville være CAmble af med en given mængde tid, stof eller energi er usandsynligt, at det er nøjagtigt. En overmenneskelig intelligens kan være i stand til at mode en fungerende supercomputer ud af billige og let tilgængelige komponenter eller udvikle fuldgyldig nanoteknologi med intet andet end et atomkraftmikroskop. Da evnen til en overmenneskelig intelligens til at designe og fremstille teknologiske gadgets hurtigt ville overgå den bedste indsats fra menneskelige ingeniører, kunne en overmenneskelig intelligens meget vel være den sidste opfindelse, som menneskeheden nogensinde har brug for. På grund af deres overmenneskelige geni og de teknologier, de hurtigt kunne udvikle sig, kunne handlingerne om intelligenser, der kommer ud af en teknologisk singularitet, resultere i enten udryddelse eller befrielse af hele vores art, afhængigt af holdningerne til de mest magtfulde overmenneskelige intelligenser over for mennesker.
Oxford Philosopher Nick Bostrom, direktør for Oxford Future of Humanity Institute og World TraNshumanistisk organisation hævder, at den måde, overmenneskelige intelligenser behandler mennesker, vil afhænge af deres oprindelige motiver i øjeblikket af deres skabelse. En venlig overmenneskelig intelligens ville i at ønske at bevare sin venlighed være en slags (eller venligere) versioner af sig selv, da selvforbedringsspiralen fortsatte. Resultatet kan være et paradis, hvor overmenneskelige intelligenser løser verdens problemer og tilbyder konsensus intelligensforbedring til mennesker. På den anden side ville en ondsindet eller ligeglad overmenneskelig intelligens sandsynligvis producere mere af det samme, hvilket resulterer i vores utilsigtede eller bevidst ødelæggelse. Af disse grunde kan den teknologiske singularitet være den eneste vigtigste milepæl, som vores art nogensinde vil konfrontere.
Flere stier til overmenneskelig intelligens er blevet foreslået af singularitetsanalytikere og fortalere. Den første er IA eller intelligensforstærkning , der tager et eksisterende menneske og omdanner hende tilEt ikke-menneskeligt væsen gennem neurokirurgi, hjerne-computergrænseflade eller måske endda hjernens hjerne-grænseflade. Den anden er AI eller kunstig intelligens , skabelsen af et dynamisk kognitivt system, der overgår mennesker i dets evne til at danne teorier og manipulere virkeligheden. Når en af disse teknologier når tærskelniveauet for raffinement, der er nødvendig for at producere overmenneskelig intelligens, er usikker, men en række forskellige eksperter, inklusive Bostrom, citerer datoer inden for 2010-2030-området som sandsynligt.
Fordi singulariteten kan være nærmere, end mange ville antage, og fordi de oprindelige motiveringer fra den første overmenneskelige intelligens kan bestemme skæbnen for vores menneskelige arter, ser nogle filosof-aktivister ("entallige fremskridt") ikke kun et emne for spekulation og diskussion, men som et praktisk teknisk mål, som der kan gøres meningsfulde fremskridt i dag. Således i 2000 Singularity Institute for Artificial IntelLigence blev grundlagt af Eliezer Yudkowsky for at arbejde udelukkende mod dette mål.