O que é a singularidade tecnológica?

A singularidade tecnológica , ou simplesmente "singularidade", é um conceito multifacetado no futurismo, com várias definições sobrepostas e às vezes conflitantes. A definição mais apropriada e proeminente da Singularidade foi dada por Vernor Vinge em seu ensaio, The Coming Technological Singularity . Refere-se ao ponto em que a inteligência sobre-humana é criada tecnologicamente. Essas inteligências sobre-humanas poderiam então aplicar sua capacidade cerebral e conhecimento à tarefa de criar inteligências sobre-humanas adicionais ou mais poderosas, resultando em um efeito de bola de neve com consequências além da nossa capacidade atual de imaginar.

O termo "Singularidade tecnológica" foi cunhado por analogia à singularidade no centro de um buraco negro, onde as forças da natureza se tornam tão intensas e imprevisíveis que nossa capacidade de calcular o comportamento da matéria nessas circunstâncias cai para zero. Muitas vezes mencionada em conjunto com a idéia de inteligência sobre-humana nos diálogos da Singularidade é a noção de acelerar a mudança tecnológica. Alguns argumentaram que, à medida que a inclinação do progresso tecnológico aumenta, culminará em uma assíntota, semelhante visualmente a uma singularidade matemática.

No entanto, essa noção de singularidade não é a mesma que Vinge pretendia; referindo-se ao surgimento de inteligência sobre-humana, juntamente com velocidades de pensamento sobre-humano. (Incluindo inteligência, capacidade de entender e criar conceitos, transformar dados em teorias, fazer analogias, ser criativo etc.) Embora as inteligências sobre-humanas, criando inteligências sobre-humanas adicionais, de fato resultassem na aceleração do progresso tecnológico, o progresso não se tornaria infinito, no sentido que uma singularidade matemática sugeriria.

Como as inteligências sobre-humanas seriam, por definição, mais inteligentes que qualquer humano, é improvável que nossa capacidade de prever do que elas seriam capazes com um determinado período de tempo, matéria ou energia. Uma inteligência sobre-humana pode ser capaz de criar um supercomputador em funcionamento a partir de componentes baratos e facilmente disponíveis, ou desenvolver nanotecnologia completa com nada além de um microscópio de força atômica. Como a capacidade de uma inteligência sobre-humana de projetar e fabricar aparelhos tecnológicos superaria rapidamente os melhores esforços dos engenheiros humanos, uma inteligência sobre-humana poderia muito bem ser a última invenção que a humanidade precisa fazer. Devido ao seu gênio sobre-humano e às tecnologias que eles poderiam desenvolver rapidamente, as ações das inteligências emergentes de uma singularidade tecnológica poderiam resultar na extinção ou na liberação de toda a nossa espécie, dependendo das atitudes das mais poderosas inteligências sobre-humanas em relação aos seres humanos.

O filósofo de Oxford Nick Bostrom, diretor do Oxford Future of Humanity Institute e da Organização Transhumanista Mundial , argumenta que o modo como as inteligências sobre-humanas tratam os seres humanos dependerá de suas motivações iniciais no momento de sua criação. Uma inteligência sobre-humana amável, ao querer preservar sua gentileza, geraria versões gentis (ou mais gentis) de si mesma à medida que a espiral de auto-aperfeiçoamento continuasse. O resultado poderia ser um paraíso no qual inteligências sobre-humanas resolvem os problemas do mundo e oferecem aprimoramento consensual da inteligência aos seres humanos. Por outro lado, uma inteligência sobre-humana mal-intencionada ou indiferente provavelmente produzirá mais do mesmo, resultando em nossa destruição acidental ou deliberada. Por esses motivos, a singularidade tecnológica pode ser o marco mais importante que nossa espécie jamais enfrentará.

Vários caminhos para a inteligência sobre-humana foram propostos por analistas e defensores da Singularity. A primeira é a IA, ou Amplificação de Inteligência , pegando um humano existente e transformando-o em um ser não humano através de neurocirurgia, interface cérebro-computador, ou talvez até interface cérebro-cérebro. O outro é AI, ou Inteligência Artificial , a criação de um sistema cognitivo dinâmico que supera os humanos em sua capacidade de formar teorias e manipular a realidade. Quando qualquer uma dessas tecnologias atingirá o nível mínimo de sofisticação necessário para produzir inteligência sobre-humana é incerta, mas uma variedade de especialistas, incluindo Bostrom, cita datas dentro do intervalo 2010-2030 como prováveis.

Como a Singularidade pode estar mais próxima do que muitos supõem, e como as motivações iniciais da primeira inteligência sobre-humana podem determinar o destino de nossa espécie humana, alguns filósofos-ativistas ("Singularitarianos") veem a Singularidade não apenas como um tópico para especulação e discussão, mas como uma meta prática de engenharia que pode ser alcançado um progresso significativo nos dias de hoje. Assim, em 2000, o Instituto Singularity de Inteligência Artificial foi fundado por Eliezer Yudkowsky para trabalhar exclusivamente para esse objetivo.

OUTRAS LÍNGUAS

Este artigo foi útil? Obrigado pelo feedback Obrigado pelo feedback

Como podemos ajudar? Como podemos ajudar?