Vad är den tekniska singulariteten?

teknisk singularitet , eller helt enkelt "singularitet", är ett mångfacetterat koncept i futurism med flera överlappande och ibland motstridiga definitioner. Den mest korrekta och framträdande definitionen av singulariteten gavs av Vernor Vinge i hans uppsats, den kommande tekniska singulariteten . Det hänvisar till den punkt där övermänsklig intelligens skapas tekniskt. These superhuman intelligences could then apply their brainpower and expertise to the task of creating additional or more powerful superhuman intelligences, resulting in a snowball effect with consequences beyond our present ability to imagine.

The term "Technological Singularity" was coined by analogy to the singularity in the center of a black hole, where the forces of nature become so intense and unpredictable that our ability to calculate the behavior of matter in these circumstances drops to noll. Ofta nämns i samband med idén om övermänsklig intelligensI singularitet är dialoger uppfattningen om att påskynda teknisk förändring. Vissa har hävdat att när lutningen av tekniska framsteg ökar kommer den att kulminera i en asymptot, liknande visuellt som en matematisk singularitet.

Men denna uppfattning om singulariteten är inte densamma som vinge avsedd; Med hänvisning till uppkomsten av övermänsklig intelligens, tillsammans med övermänskliga tänkande hastigheter. (Inklusive smarthet, förmåga att förstå och skapa begrepp, förvandla data till teorier, göra analogier, vara kreativa och så vidare.) Även om övermänskliga intelligenser som skapar ytterligare övermänskliga intelligenser verkligen skulle resultera i accelerationen av tekniska framsteg, skulle framsteg inte bli oändliga, i den meningen att en matematisk singularitet skulle föreslå.

Eftersom övermänskliga intelligenser per definition skulle vara smartare än någon människa, vår förmåga att förutsäga vad de skulle vara CFörsättas med en viss tid, materia eller energi är troligtvis inte korrekt. En övermänsklig intelligens kanske kan skapa en fungerande superdator av billiga och lätt tillgängliga komponenter, eller utveckla fullfjädrad nanoteknologi med inget annat än ett atomkraftsmikroskop. Eftersom förmågan hos en övermänsklig intelligens att utforma och tillverka tekniska prylar skulle snabbt överträffa de bästa ansträngningarna från mänskliga ingenjörer, kan en övermänsklig intelligens mycket väl vara den sista uppfinningen som mänskligheten någonsin behöver göra. På grund av deras övermänskliga geni och de tekniker som de snabbt kunde utvecklas, kan handlingarna från intelligenser som kommer från en teknisk singularitet resultera i antingen utrotningen eller befrielsen av hela vår art, beroende på attityderna hos de mest kraftfulla superhuman intelligenserna gentemot människor.

Oxford -filosof Nick Bostrom, chef för Oxford Future of Humanity Institute och World TraNSHUMANIST Organisation hävdar att hur övermänskliga intelligenser behandlar människor kommer att bero på deras första motiv i det ögonblick av deras skapelse. En snäll övermänsklig intelligens skulle, i att vilja bevara sin vänlighet, förverkliga vänliga (eller vän) versioner av sig själv när den självförbättringsspiralen fortsatte. Resultatet kan vara ett paradis där övermänskliga intelligenser löser världens problem och erbjuder en konsensual intelligensförbättring för människor. Å andra sidan skulle en skadlig eller likgiltig övermänsklig intelligens sannolikt producera mer av samma, vilket resulterar i vår oavsiktliga eller avsiktliga förstörelse. Av dessa skäl kan den tekniska singulariteten vara den enskilt viktigaste milstolpen som vår art någonsin kommer att konfrontera.

Flera vägar till övermänsklig intelligens har föreslagits av singularitetsanalytiker och förespråkare. Den första är IA, eller intelligensförstärkning , tar en befintlig människa och förvandlar henne tillEn icke-mänsklig varelse genom neurokirurgi, hjärndatorgränssnitt eller kanske till och med hjärnhjärngränssnitt. Den andra är AI, eller artificiell intelligens , skapandet av ett dynamiskt kognitivt system som överträffar människor i sin förmåga att bilda teorier och manipulera verkligheten. När någon av dessa tekniker kommer att nå tröskelnivån för sofistikering som är nödvändig för att producera övermänsklig intelligens är osäker, men en mängd olika experter, inklusive Bostrom, citerar datum inom 2010-2030 som troligt.

Eftersom singulariteten kan vara närmare än många skulle anta, och eftersom de första motivationerna från den första övermänskliga intelligensen kan bestämma ödet för vår mänskliga art, kan vissa filosofer-aktivister ("singularitärer") se singulariteten inte bara som ett ämne för spekulation och diskussion, utan som ett praktiskt mål som meningsfulla framsteg kan göras mot i dagens dag. Således 2000 Singularity Institute for Artificial IntelLigens grundades av Eliezer Yudkowsky för att uteslutande arbeta mot detta mål.

ANDRA SPRÅK

Hjälpte den här artikeln dig? Tack för feedbacken Tack för feedbacken

Hur kan vi hjälpa? Hur kan vi hjälpa?