Was ist die technologische Singularität?
Die technologische Singularität oder einfach "Singularität" ist ein facettenreiches Konzept im Futurismus mit mehreren überlappenden und manchmal widersprüchlichen Definitionen. Die richtigste und herausragendste Definition der Singularität wurde von Vernor Vinge in seinem Aufsatz, der kommenden technologischen Singularität , gegeben. Es bezieht sich auf den Punkt, an dem technologisch übermenschliche Intelligenz erstellt wird. Diese übermenschlichen Intelligenzen könnten dann ihre Gehirnkraft und ihre Fachkenntnisse auf die Aufgabe anwenden, zusätzliche oder mächtigere übermenschliche Intelligenzen zu schaffen, was zu einem Schneeball -Effekt mit Konsequenzen führt, die über unsere gegenwärtige Fähigkeit hinausgehen. null. Oft in Verbindung mit der Idee der übermenschlichen Intelligenz erwähntIn Singularity Dialoge ist der Begriff der Beschleunigung des technologischen Wandels. Einige haben argumentiert, dass die Steigung des technologischen Fortschritts in einer Asymptote gipfeln wird, ähnlich wie eine mathematische Singularität. bezieht sich auf die Entstehung der übermenschlichen Intelligenz zusammen mit übermenschlichen Denkgeschwindigkeiten. (Einschließlich intelligenter, Fähigkeit, Konzepte zu verstehen und zu erstellen, Daten in Theorien umzuwandeln, Analogien zu machen, kreativ zu sein und so weiter.) Obwohl übermenschliche Intelligenzen, die zusätzliche übermenschliche Intelligenzen schaffen, in der Tat zur Beschleunigung des technologischen Fortschritts führen würden, würde der Fortschritt nicht unendlich werden, in dem Sinne, dass eine mathematische Singularität vermuten lässt.
Weil übermenschliche Intelligenzen per Definition schlauer sein würden als jeder Mensch, unsere Fähigkeit, vorherzusagen, was sie sein würden C.Es ist unwahrscheinlich, dass es unwahrscheinlich ist, dass Zeit, Materie oder Energie korrekt ist. Eine übermenschliche Intelligenz kann in der Lage sein, einen funktionierenden Supercomputer aus billigen und leicht verfügbaren Komponenten herauszuarbeiten oder vollwertige Nanotechnologie mit nichts als einem Atomarmikroskop zu entwickeln. Da die Fähigkeit einer übermenschlichen Intelligenz, technologische Geräte zu entwerfen und herzustellen, die besten Anstrengungen menschlicher Ingenieure schnell übertreffen würde, könnte eine übermenschliche Intelligenz die letzte Erfindung sein, die die Menschheit jemals machen muss. Aufgrund ihres übermenschlichen Genies und der Technologien, die sie schnell entwickeln konnten, können die Handlungen von Intelligenzen, die aus einer technologischen Singularität hervorgehen
Oxford -Philosopher Nick Bostrom, Direktor der Oxford Future of Humanity Institute und der World TRADie nshumanistische Organisation argumentiert, dass die Art und Weise, wie übermenschliche Intelligenzen Menschen behandeln, von ihren anfänglichen Motivationen im Moment ihrer Schöpfung abhängen wird. Eine freundliche übermenschliche Intelligenz würde, wenn sie ihre Freundlichkeit bewahren möchte, die Art (oder freundlicheren) Versionen von sich selbst zeugen, wenn die selbstverbesserte Spirale fortgesetzt wurde. Das Ergebnis könnte ein Paradies sein, in dem übermenschliche Intelligenzen die Probleme der Welt lösen und den Menschen einvernehmliche Intelligenz verbessern. Andererseits würde eine böswillige oder gleichgültige übermenschliche Intelligenz wahrscheinlich mehr davon produzieren, was zu unserer zufälligen oder absichtlichen Zerstörung führt. Aus diesen Gründen könnte die technologische Singularität der wichtigste Meilenstein sein, den unsere Spezies jemals konfrontieren wird.
Mehrere Wege zur übermenschlichen Intelligenz wurden von Singularity Analysten und Befürwortern vorgeschlagen. Die erste ist IA oder Intelligenzverstärkung , die einen vorhandenen Menschen einnehmen und sie in verwandelnEin nichtmenschlicher Wesen durch Neurochirurgie, eine Schnittstelle zwischen Gehirn und Komputer oder vielleicht sogar die Schnittstelle für Gehirnhirn. Das andere ist AI oder künstliche Intelligenz , die Schaffung eines dynamischen kognitiven Systems, das den Menschen in seiner Fähigkeit übertrifft, Theorien zu formen und die Realität zu manipulieren. Wenn eine dieser Technologien das Schwellenwert erreichen wird, um übermenschliche Intelligenz zu produzieren, ist ungewiss, aber eine Vielzahl von Experten, einschließlich Bostrom, geben Daten innerhalb des Bereichs 2010-2030 so wahrscheinlich an.
Da die Singularität näher sein mag, als viele annehmen würden, und weil die anfänglichen Motivationen der ersten übermenschlichen Intelligenz das Schicksal unserer menschlichen Spezies bestimmen können, sehen einige Philosoph-Aktivisten ("Singularitarier") die Singularität nicht nur als Thema für Spekulationen und Diskussion, sondern als praktischer technischer Ziel, dass der bedeutende Fortschritt zu dem heutigen Tag geführt werden kann. So im Jahr 2000 das Singularity Institute für künstliche IntelLigence wurde von Eliezer Yudkowsky gegründet, um ausschließlich an diesem Ziel zu arbeiten.