Vad är den teknologiska singulariteten?
Den teknologiska singulariteten , eller helt enkelt "singularitet", är ett mångsidig begrepp i futurism med flera överlappande och ibland motstridiga definitioner. Den mest korrekta och framträdande definitionen av Singulariteten gavs av Vernor Vinge i hans uppsats, The Coming Technological Singularity . Det hänvisar till den punkt där övermänsklig intelligens skapas tekniskt. Dessa övermänskliga intelligenser kunde sedan tillämpa sin hjärnkraft och expertis på uppgiften att skapa ytterligare eller kraftigare övermänskliga intelligenser, vilket resulterade i en snöbolleffekt med konsekvenser utöver vår nuvarande förmåga att föreställa oss.
Termen "Teknologisk singularitet" myntades analogt med singulariteten i mitten av ett svart hål, där naturens krafter blir så intensiva och oförutsägbara att vår förmåga att beräkna materiens beteende under dessa omständigheter sjunker till noll. Ofta nämns i samband med idén om övermänsklig intelligens i Singularitetsdialoger är idén om att påskynda teknisk förändring. Vissa har hävdat att när lutningen för den tekniska utvecklingen ökar kommer den att kulminera i en asymptot, visuellt liknar en matematisk singularitet.
Men denna uppfattning om singulariteten är inte densamma som Vinge avsåg; med hänvisning till uppkomsten av övermänsklig intelligens, tillsammans med övermänskliga tänkningshastigheter. (Inklusive smarthet, förmåga att förstå och skapa koncept, förvandla data till teorier, göra analogier, vara kreativ och så vidare.) Även om övermänskliga intelligenser som skapar ytterligare övermänskliga intelligenser verkligen skulle leda till att teknologiska framsteg accelereras, skulle framstegen inte bli oändliga, i den meningen att en matematisk singularitet skulle föreslå.
Eftersom övermänskliga intelligenser per definition skulle vara smartare än någon människa, är vår förmåga att förutsäga vad de skulle kunna med en viss tid, materia eller energi osannolikt att vara korrekt. En övermänsklig intelligens skulle kunna skapa en fungerande superdator av billiga och lättillgängliga komponenter, eller utveckla fullfjädrad nanoteknologi med bara ett atomkraftsmikroskop. Eftersom förmågan hos en övermänsklig intelligens att designa och tillverka tekniska prylar snabbt skulle överträffa de bästa ansträngningarna för mänskliga ingenjörer, kan en övermänsklig intelligens mycket väl vara den sista uppfinningen som mänskligheten någonsin behöver göra. På grund av deras övermänskliga geni och de teknologier som de snabbt kunde utveckla, kan handlingarna från intelligenser som härstammar från en teknologisk singularitet resultera i antingen utrotning eller befrielse av hela vår art, beroende på attityderna hos de mäktigaste övermänskliga intelligenserna mot människor.
Oxford-filosofen Nick Bostrom, chef för Oxford Future of Humanity Institute och World Transhumanist Organization , hävdar att det sätt på vilket superhuman intelligenser behandlar människor kommer att bero på deras ursprungliga motiv i det ögonblick de skapades. En snäll övermänsklig intelligens skulle, i att vilja bevara sin vänlighet, få goda (eller snällare) versioner av sig själv när den självförbättrande spiralen fortsatte. Resultatet kan vara ett paradis där övermänskliga intelligenser löser världens problem och erbjuder konsensual intelligensförbättring för människor. Å andra sidan skulle en skadlig eller likgiltig övermänsklig intelligens sannolikt producera mer av detsamma, vilket resulterar i vår oavsiktliga eller avsiktliga förstörelse. Av dessa skäl kan den teknologiska singulariteten vara den viktigaste milstolpen som vår art någonsin kommer att möta.
Flera vägar till övermänsklig intelligens har föreslagits av Singularity-analytiker och förespråkare. Den första är IA, eller intelligensförstärkning , som tar en befintlig människa och omvandlar henne till ett icke-mänskligt varelse genom neurokirurgi, hjärn-dator-gränssnitt eller kanske till och med gränssnitt mellan hjärnor och hjärnor. Den andra är AI, eller artificiell intelligens , skapandet av ett dynamiskt kognitivt system som överträffar människor i dess förmåga att bilda teorier och manipulera verkligheten. När någon av dessa teknologier kommer att nå den tröskelnivå för sofistikering som är nödvändig för att producera övermänsklig intelligens är osäkert, men många olika experter, inklusive Bostrom, citerar datum inom intervallet 2010-2030 som troligt.
Eftersom singulariteten kan vara närmare än många skulle anta, och eftersom de första motiveringarna för den första övermänskliga intelligensen kan bestämma ödet för vår mänskliga art, ser vissa filosof-aktivister ("Singularitarians") Singulariteten inte bara som ett ämne för spekulation och diskussion, men som ett praktiskt konstruktionsmål som meningsfulla framsteg kan göras mot i dag. År 2000 grundades således Singularity Institute for Artificial Intelligence av Eliezer Yudkowsky för att uteslutande arbeta mot detta mål.