Qual é a singularidade tecnológica?
A singularidade tecnológica , ou simplesmente "singularidade", é um conceito multifacetado em futurismo com várias definições sobrepostas e às vezes conflitantes. A definição mais adequada e proeminente da singularidade foi dada por Vernor Vinge em seu ensaio, A singularidade tecnológica que se aproxima . Refere -se ao ponto em que a inteligência sobre -humana é criada tecnologicamente. Essas inteligências sobre -humanas poderiam então aplicar sua força cerebral e experiência à tarefa de criar inteligências sobre -humanas adicionais ou mais poderosas, resultando em um efeito de bola de neve com consequências além da nossa capacidade atual de imaginar. zero. Frequentemente mencionado em conjunto com a idéia de inteligência sobre -humanaNos diálogos de singularidade, é a noção de acelerar a mudança tecnológica. Alguns argumentaram que, à medida que a inclinação do progresso tecnológica aumenta, ele culminará em uma assíntota, semelhante visualmente a uma singularidade matemática. referindo -se ao surgimento da inteligência sobre -humana, juntamente com as velocidades de pensamento sobre -humanas. (Incluindo inteligência, capacidade de entender e criar conceitos, transformar dados em teorias, fazer analogias, ser criativo e assim por diante.) Embora as inteligências sobre -humanas que criem inteligências sobre -humanas adicionais resultariam na aceleração do progresso tecnológico, o progresso não se tornaria infinito, no sentido de que uma singularidade matemática sugeriria.
Porque as inteligências sobre -humanas seriam, por definição, mais inteligentes do que qualquer humano, nossa capacidade de prever o que seria CÉ improvável que, com um determinado período de tempo, matéria ou energia seja precisa. Uma inteligência sobre-humana pode ser capaz de criar um supercomputador em funcionamento de componentes baratos e prontamente disponíveis ou desenvolver nanotecnologia completa com nada além de um microscópio de força atômica. Como a capacidade de uma inteligência sobre -humana de projetar e fabricar aparelhos tecnológicos superaria rapidamente os melhores esforços dos engenheiros humanos, uma inteligência sobre -humana poderia muito bem ser a última invenção que a humanidade precisa fazer. Devido ao seu gênio sobre -humano e às tecnologias que eles poderiam se desenvolver rapidamente, as ações das inteligências emergentes de uma singularidade tecnológica podem resultar na extinção ou na libertação de toda a nossa espécie, dependendo das atitudes das mais poderosas inteligências sobre -humanas em relação aos seres humanos.
filósofo de Oxford, Nick Bostrom, diretor do Instituto de Futuro da Humanidade Oxford e o TRA mundialA organização nshumanista argumenta que a maneira como as inteligências sobre -humanas tratam os seres humanos dependerão de suas motivações iniciais no momento de sua criação. Uma inteligência sobre-humana gentil, ao querer preservar sua bondade, geraria versões gentis (ou mais gentis) de si mesma à medida que a espiral de auto-aperfeiçoamento continuava. O resultado pode ser um paraíso em que as inteligências sobre -humanas resolvem os problemas do mundo e oferecem melhoria de inteligência consensual aos seres humanos. Por outro lado, uma inteligência sobre -humana maliciosa ou indiferente provavelmente produziria mais da mesma, resultando em nossa destruição acidental ou deliberada. Por esses motivos, a singularidade tecnológica pode ser o marco mais importante que nossa espécie jamais enfrentará.
Vários caminhos para a inteligência sobre -humana foram propostos por analistas e advogados de singularidade. O primeiro é Ia, ou amplificação de inteligência , levando um humano existente e transformando -a emUm ser não humano através da neurocirurgia, interface do computador cerebral ou talvez até interface do cérebro do cérebro. O outro é a IA, ou inteligência artificial , a criação de um sistema cognitivo dinâmico que supera os seres humanos em sua capacidade de formar teorias e manipular a realidade. Quando qualquer uma dessas tecnologias atingir o nível limiar de sofisticação necessário para produzir inteligência sobre-humana é incerta, mas uma variedade de especialistas, incluindo o Bostrom, cita as datas da faixa de 2010-2030 como provável.
Porque a singularidade pode estar mais próxima do que muitos assumiriam, e porque as motivações iniciais da primeira inteligência sobre-humana podem determinar o destino de nossa espécie humana, alguns filósofos-ativistas ("singularitários") veem o singularidade não apenas como um tópico para presente. Assim, em 2000, o Singularity Institute for Artificial IntelA Ligence foi fundada por Eliezer Yudkowsky para trabalhar exclusivamente para esse objetivo.