Qual é a singularidade tecnológica?

A singularidade tecnológica , ou simplesmente "singularidade", é um conceito multifacetado em futurismo com várias definições sobrepostas e às vezes conflitantes. A definição mais adequada e proeminente da singularidade foi dada por Vernor Vinge em seu ensaio, A singularidade tecnológica que se aproxima . Refere -se ao ponto em que a inteligência sobre -humana é criada tecnologicamente. Essas inteligências sobre -humanas poderiam então aplicar sua força cerebral e experiência à tarefa de criar inteligências sobre -humanas adicionais ou mais poderosas, resultando em um efeito de bola de neve com consequências além da nossa capacidade atual de imaginar. zero. Frequentemente mencionado em conjunto com a idéia de inteligência sobre -humanaNos diálogos de singularidade, é a noção de acelerar a mudança tecnológica. Alguns argumentaram que, à medida que a inclinação do progresso tecnológica aumenta, ele culminará em uma assíntota, semelhante visualmente a uma singularidade matemática. referindo -se ao surgimento da inteligência sobre -humana, juntamente com as velocidades de pensamento sobre -humanas. (Incluindo inteligência, capacidade de entender e criar conceitos, transformar dados em teorias, fazer analogias, ser criativo e assim por diante.) Embora as inteligências sobre -humanas que criem inteligências sobre -humanas adicionais resultariam na aceleração do progresso tecnológico, o progresso não se tornaria infinito, no sentido de que uma singularidade matemática sugeriria.

Porque as inteligências sobre -humanas seriam, por definição, mais inteligentes do que qualquer humano, nossa capacidade de prever o que seria CÉ improvável que, com um determinado período de tempo, matéria ou energia seja precisa. Uma inteligência sobre-humana pode ser capaz de criar um supercomputador em funcionamento de componentes baratos e prontamente disponíveis ou desenvolver nanotecnologia completa com nada além de um microscópio de força atômica. Como a capacidade de uma inteligência sobre -humana de projetar e fabricar aparelhos tecnológicos superaria rapidamente os melhores esforços dos engenheiros humanos, uma inteligência sobre -humana poderia muito bem ser a última invenção que a humanidade precisa fazer. Devido ao seu gênio sobre -humano e às tecnologias que eles poderiam se desenvolver rapidamente, as ações das inteligências emergentes de uma singularidade tecnológica podem resultar na extinção ou na libertação de toda a nossa espécie, dependendo das atitudes das mais poderosas inteligências sobre -humanas em relação aos seres humanos.

filósofo de Oxford, Nick Bostrom, diretor do Instituto de Futuro da Humanidade Oxford e o TRA mundialA organização nshumanista argumenta que a maneira como as inteligências sobre -humanas tratam os seres humanos dependerão de suas motivações iniciais no momento de sua criação. Uma inteligência sobre-humana gentil, ao querer preservar sua bondade, geraria versões gentis (ou mais gentis) de si mesma à medida que a espiral de auto-aperfeiçoamento continuava. O resultado pode ser um paraíso em que as inteligências sobre -humanas resolvem os problemas do mundo e oferecem melhoria de inteligência consensual aos seres humanos. Por outro lado, uma inteligência sobre -humana maliciosa ou indiferente provavelmente produziria mais da mesma, resultando em nossa destruição acidental ou deliberada. Por esses motivos, a singularidade tecnológica pode ser o marco mais importante que nossa espécie jamais enfrentará.

Vários caminhos para a inteligência sobre -humana foram propostos por analistas e advogados de singularidade. O primeiro é Ia, ou amplificação de inteligência , levando um humano existente e transformando -a emUm ser não humano através da neurocirurgia, interface do computador cerebral ou talvez até interface do cérebro do cérebro. O outro é a IA, ou inteligência artificial , a criação de um sistema cognitivo dinâmico que supera os seres humanos em sua capacidade de formar teorias e manipular a realidade. Quando qualquer uma dessas tecnologias atingir o nível limiar de sofisticação necessário para produzir inteligência sobre-humana é incerta, mas uma variedade de especialistas, incluindo o Bostrom, cita as datas da faixa de 2010-2030 como provável.

Porque a singularidade pode estar mais próxima do que muitos assumiriam, e porque as motivações iniciais da primeira inteligência sobre-humana podem determinar o destino de nossa espécie humana, alguns filósofos-ativistas ("singularitários") veem o singularidade não apenas como um tópico para presente. Assim, em 2000, o Singularity Institute for Artificial IntelA Ligence foi fundada por Eliezer Yudkowsky para trabalhar exclusivamente para esse objetivo.

OUTRAS LÍNGUAS

Este artigo foi útil? Obrigado pelo feedback Obrigado pelo feedback

Como podemos ajudar? Como podemos ajudar?