Was ist die technologische Singularität?
Die technologische Singularität oder einfach "Singularität" ist ein facettenreiches Konzept im Futurismus mit mehreren überlappenden und manchmal widersprüchlichen Definitionen. Die zutreffendste und bekannteste Definition der Singularität gab Vernor Vinge in seinem Aufsatz The Coming Technological Singularity . Es bezieht sich auf den Punkt, an dem übermenschliche Intelligenz technologisch erzeugt wird. Diese übermenschlichen Intelligenzen könnten dann ihre Intelligenz und ihr Know-how einsetzen, um zusätzliche oder leistungsstärkere übermenschliche Intelligenzen zu erschaffen, die zu einem Schneeballeffekt führen, dessen Konsequenzen über unsere derzeitigen Vorstellungskraft hinausgehen.
Der Begriff "technologische Singularität" wurde in Analogie zur Singularität im Zentrum eines Schwarzen Lochs geprägt, wo die Naturkräfte so intensiv und unvorhersehbar werden, dass unsere Fähigkeit, das Verhalten der Materie unter diesen Umständen zu berechnen, auf Null sinkt. Im Zusammenhang mit der Idee der übermenschlichen Intelligenz in Singularitätsdialogen wird häufig der Begriff der Beschleunigung des technologischen Wandels erwähnt. Einige haben argumentiert, dass der Anstieg des technologischen Fortschritts zu einer Asymptote führen wird, die optisch einer mathematischen Singularität ähnelt.
Dieser Begriff der Singularität ist jedoch nicht derselbe wie der von Vinge beabsichtigte; Bezug nehmend auf die Entstehung übermenschlicher Intelligenz, zusammen mit übermenschlichen Denkgeschwindigkeiten. (Einschließlich Schlauheit, Fähigkeit, Konzepte zu verstehen und zu erstellen, Daten in Theorien umzuwandeln, Analogien zu erstellen, kreativ zu sein usw.) Obwohl übermenschliche Intelligenzen, die zusätzliche übermenschliche Intelligenzen schaffen, in der Tat zu einer Beschleunigung des technologischen Fortschritts führen würden, würden Fortschritte nicht unendlich werden. in dem Sinne, dass eine mathematische Singularität nahe legen würde.
Da übermenschliche Intelligenzen per Definition intelligenter sind als jeder Mensch, ist es unwahrscheinlich, dass unsere Fähigkeit, vorherzusagen, wozu sie in einer bestimmten Zeit, Materie oder Energie fähig sind, genau ist. Eine übermenschliche Intelligenz könnte in der Lage sein, aus billigen und leicht verfügbaren Komponenten einen funktionierenden Supercomputer zu formen oder eine vollwertige Nanotechnologie nur mit einem Rasterkraftmikroskop zu entwickeln. Da die Fähigkeit einer übermenschlichen Intelligenz, technische Geräte zu entwerfen und herzustellen, die besten Anstrengungen menschlicher Ingenieure schnell übertreffen würde, könnte eine übermenschliche Intelligenz die letzte Erfindung sein, die die Menschheit jemals machen muss. Aufgrund ihres übermenschlichen Genies und der Technologien, die sie schnell entwickeln könnten, könnten die Aktionen von Intelligenzen, die aus einer technologischen Singularität hervorgehen, abhängig von den Einstellungen der mächtigsten übermenschlichen Intelligenzen gegenüber Menschen entweder zum Aussterben oder zur Befreiung unserer gesamten Spezies führen.
Der Oxford-Philosoph Nick Bostrom, Direktor des Oxford Future of Humanity Institute und der World Transhumanist Organization , argumentiert, dass die Art und Weise, wie übermenschliche Intelligenzen mit Menschen umgehen, von ihren anfänglichen Motivationen zum Zeitpunkt ihrer Entstehung abhängen wird. Eine Art übermenschlicher Intelligenz würde, um ihre Güte zu bewahren, freundliche (oder freundlichere) Versionen von sich selbst erzeugen, wenn die Spirale der Selbstverbesserung fortgesetzt würde. Das Ergebnis könnte ein Paradies sein, in dem übermenschliche Intelligenzen die Probleme der Welt lösen und den Menschen eine einvernehmliche Verbesserung der Intelligenz bieten. Andererseits würde eine böswillige oder gleichgültige übermenschliche Intelligenz wahrscheinlich mehr davon hervorbringen, was zu unserer zufälligen oder absichtlichen Zerstörung führen würde. Aus diesen Gründen könnte die technologische Singularität der wichtigste Meilenstein sein, mit dem unsere Spezies jemals konfrontiert sein wird.
Mehrere Wege zur übermenschlichen Intelligenz wurden von Singularity-Analytikern und -Anhängern vorgeschlagen. Das erste ist IA oder Intelligence Amplification , bei dem ein vorhandener Mensch durch Neurochirurgie, Gehirn-Computer-Schnittstelle oder vielleicht sogar Gehirn-Gehirn-Schnittstelle in ein nicht-menschliches Wesen verwandelt wird. Die andere ist KI oder künstliche Intelligenz , die Schaffung eines dynamischen kognitiven Systems, das die Fähigkeit des Menschen übertrifft, Theorien zu bilden und die Realität zu manipulieren. Wann eine dieser Technologien den für die Erzeugung übermenschlicher Intelligenz erforderlichen Schwellenwert erreicht, ist ungewiss. Eine Vielzahl von Experten, darunter auch Bostrom, nennt jedoch Daten im Bereich 2010-2030 als wahrscheinlich.
Weil die Singularität näher sein mag, als viele annehmen würden, und weil die anfänglichen Motivationen der ersten übermenschlichen Intelligenz das Schicksal unserer menschlichen Spezies bestimmen könnten, betrachten einige Philosophen-Aktivisten ("Singularitaristen") die Singularität nicht nur als ein Thema für Spekulationen und Diskussion, aber als ein praktisches technisches Ziel, dass bedeutende Fortschritte in der heutigen Zeit gemacht werden können. Daher wurde im Jahr 2000 das Singularity Institute for Artificial Intelligence von Eliezer Yudkowsky gegründet, um ausschließlich auf dieses Ziel hinzuarbeiten.