O que é a singularidade tecnológica?
A singularidade tecnológica , ou simplesmente "singularidade", é um conceito multifacetado no futurismo, com várias definições sobrepostas e às vezes conflitantes. A definição mais apropriada e proeminente da Singularidade foi dada por Vernor Vinge em seu ensaio, The Coming Technological Singularity . Refere-se ao ponto em que a inteligência sobre-humana é criada tecnologicamente. Essas inteligências sobre-humanas poderiam então aplicar sua capacidade cerebral e conhecimento à tarefa de criar inteligências sobre-humanas adicionais ou mais poderosas, resultando em um efeito de bola de neve com consequências além da nossa capacidade atual de imaginar.
O termo "Singularidade tecnológica" foi cunhado por analogia à singularidade no centro de um buraco negro, onde as forças da natureza se tornam tão intensas e imprevisíveis que nossa capacidade de calcular o comportamento da matéria nessas circunstâncias cai para zero. Muitas vezes mencionada em conjunto com a idéia de inteligência sobre-humana nos diálogos da Singularidade é a noção de acelerar a mudança tecnológica. Alguns argumentaram que, à medida que a inclinação do progresso tecnológico aumenta, culminará em uma assíntota, semelhante visualmente a uma singularidade matemática.
No entanto, essa noção de singularidade não é a mesma que Vinge pretendia; referindo-se ao surgimento de inteligência sobre-humana, juntamente com velocidades de pensamento sobre-humano. (Incluindo inteligência, capacidade de entender e criar conceitos, transformar dados em teorias, fazer analogias, ser criativo etc.) Embora as inteligências sobre-humanas, criando inteligências sobre-humanas adicionais, de fato resultassem na aceleração do progresso tecnológico, o progresso não se tornaria infinito, no sentido que uma singularidade matemática sugeriria.
Como as inteligências sobre-humanas seriam, por definição, mais inteligentes que qualquer humano, é improvável que nossa capacidade de prever do que elas seriam capazes com um determinado período de tempo, matéria ou energia. Uma inteligência sobre-humana pode ser capaz de criar um supercomputador em funcionamento a partir de componentes baratos e facilmente disponíveis, ou desenvolver nanotecnologia completa com nada além de um microscópio de força atômica. Como a capacidade de uma inteligência sobre-humana de projetar e fabricar aparelhos tecnológicos superaria rapidamente os melhores esforços dos engenheiros humanos, uma inteligência sobre-humana poderia muito bem ser a última invenção que a humanidade precisa fazer. Devido ao seu gênio sobre-humano e às tecnologias que eles poderiam desenvolver rapidamente, as ações das inteligências emergentes de uma singularidade tecnológica poderiam resultar na extinção ou na liberação de toda a nossa espécie, dependendo das atitudes das mais poderosas inteligências sobre-humanas em relação aos seres humanos.
O filósofo de Oxford Nick Bostrom, diretor do Oxford Future of Humanity Institute e da Organização Transhumanista Mundial , argumenta que o modo como as inteligências sobre-humanas tratam os seres humanos dependerá de suas motivações iniciais no momento de sua criação. Uma inteligência sobre-humana amável, ao querer preservar sua gentileza, geraria versões gentis (ou mais gentis) de si mesma à medida que a espiral de auto-aperfeiçoamento continuasse. O resultado poderia ser um paraíso no qual inteligências sobre-humanas resolvem os problemas do mundo e oferecem aprimoramento consensual da inteligência aos seres humanos. Por outro lado, uma inteligência sobre-humana mal-intencionada ou indiferente provavelmente produzirá mais do mesmo, resultando em nossa destruição acidental ou deliberada. Por esses motivos, a singularidade tecnológica pode ser o marco mais importante que nossa espécie jamais enfrentará.
Vários caminhos para a inteligência sobre-humana foram propostos por analistas e defensores da Singularity. A primeira é a IA, ou Amplificação de Inteligência , pegando um humano existente e transformando-o em um ser não humano através de neurocirurgia, interface cérebro-computador, ou talvez até interface cérebro-cérebro. O outro é AI, ou Inteligência Artificial , a criação de um sistema cognitivo dinâmico que supera os humanos em sua capacidade de formar teorias e manipular a realidade. Quando qualquer uma dessas tecnologias atingirá o nível mínimo de sofisticação necessário para produzir inteligência sobre-humana é incerta, mas uma variedade de especialistas, incluindo Bostrom, cita datas dentro do intervalo 2010-2030 como prováveis.
Como a Singularidade pode estar mais próxima do que muitos supõem, e como as motivações iniciais da primeira inteligência sobre-humana podem determinar o destino de nossa espécie humana, alguns filósofos-ativistas ("Singularitarianos") veem a Singularidade não apenas como um tópico para especulação e discussão, mas como uma meta prática de engenharia que pode ser alcançado um progresso significativo nos dias de hoje. Assim, em 2000, o Instituto Singularity de Inteligência Artificial foi fundado por Eliezer Yudkowsky para trabalhar exclusivamente para esse objetivo.