Quelle est la singularité technologique?
La singularité technologique , ou simplement «singularité», est un concept à multiples facettes du futurisme avec plusieurs définitions qui se chevauchent et parfois sont contradictoires. La définition la plus appropriée et la plus en vue de la singularité a été donnée par Vernor Vinge dans son essai, The Coming Technological Singularity . Il fait référence au moment où l'intelligence surhumaine est créée technologiquement. Ces intelligences surhumaines pourraient alors utiliser leurs capacités intellectuelles et leur expertise pour créer des intelligences surhumaines supplémentaires ou plus puissantes, ce qui produirait un effet boule de neige ayant des conséquences au-delà de notre capacité actuelle à imaginer.
Le terme "singularité technologique" a été inventé par analogie avec la singularité au centre d'un trou noir, où les forces de la nature deviennent si intenses et imprévisibles que notre capacité à calculer le comportement de la matière dans ces circonstances tombe à zéro. La notion d'accélération du changement technologique est souvent mentionnée conjointement avec l'idée d'intelligence surhumaine dans les dialogues sur la singularité. Certains ont fait valoir que, à mesure que la pente du progrès technique s'accentuerait, elle aboutirait à une asymptote, semblable visuellement à une singularité mathématique.
Cependant, cette notion de singularité n’est pas la même que celle que Vinge envisageait; se référant à l'émergence d'une intelligence surhumaine, avec des vitesses de pensée surhumaines. (Y compris l'intelligence, la capacité à comprendre et à créer des concepts, à transformer des données en théories, à faire des analogies, à être créatifs, etc.) Bien que des intelligences surhumaines créant des intelligences supplémentaires surhumaines entraîneraient effectivement une accélération du progrès technologique, le progrès ne deviendrait pas infini, en ce sens qu'une singularité mathématique suggérerait.
Parce que les intelligences surhumaines seraient, par définition, plus intelligentes que tout être humain, notre capacité à prédire ce qu’elles seraient capables de faire avec un laps de temps, une matière ou une énergie donnés a peu de chances d’être précises. Une intelligence surhumaine pourrait peut-être concevoir un super-ordinateur fonctionnel à partir de composants peu coûteux et facilement disponibles, ou développer une nanotechnologie à part entière avec uniquement un microscope à force atomique. Parce que la capacité d'une intelligence surhumaine à concevoir et à fabriquer des gadgets technologiques dépasserait rapidement les meilleurs efforts d'ingénieurs humains, une intelligence surhumaine pourrait très bien être la dernière invention que l'humanité ait jamais besoin de créer. En raison de leur génie surhumain et des technologies qu’ils pourraient développer rapidement, les actions des intelligences émergeant d’une singularité technologique pourraient entraîner l’extinction ou la libération de notre espèce entière, en fonction des attitudes des plus puissantes intelligences surhumaines envers les êtres humains.
Le philosophe d'Oxford Nick Bostrom, directeur de l' Oxford Future of Humanity Institute et de la World Transhumanist Organization , affirme que la façon dont les intelligences surhumaines traitent les humains dépendra de leurs motivations initiales au moment de leur création. Une sorte d'intelligence surhumaine voudrait, en voulant préserver sa gentillesse, engendrer une version gentille (ou plus gentille) d'elle-même à mesure que la spirale d'amélioration de soi se poursuivait. Le résultat pourrait être un paradis dans lequel des intelligences surhumaines résolvent les problèmes du monde et offrent une amélioration consensuelle de l'intelligence à l'homme. D'autre part, une intelligence surhumaine, malveillante ou indifférente, produirait probablement la même chose, entraînant notre destruction accidentelle ou délibérée. Pour ces raisons, la singularité technologique pourrait bien être le jalon le plus important auquel notre espèce sera jamais confrontée.
Plusieurs analystes et avocats de Singularity ont proposé plusieurs voies menant à une intelligence surhumaine. Le premier est IA, ou Intelligence Amplification , prenant un être humain existant et le transformant en un être non humain par neurochirurgie, interface cerveau-ordinateur, voire même interface cerveau-cerveau. L'autre est l'intelligence artificielle ou intelligence artificielle , la création d'un système cognitif dynamique surpassant les humains dans sa capacité à former des théories et à manipuler la réalité. Quand l'une ou l'autre de ces technologies atteindra le seuil de sophistication nécessaire pour produire une intelligence surhumaine, il est incertain, mais divers experts, y compris Bostrom, citent vraisemblablement des dates comprises dans la plage 2010-2030.
Parce que la singularité est peut-être plus proche de ce que beaucoup pourraient penser et que les motivations initiales de la première intelligence surhumaine peuvent déterminer le destin de notre espèce humaine, certains philosophe-activistes ("Singularitarians") considèrent la Singularity comme un sujet de spéculation et de discussion, mais en tant qu’objectif technique pratique, des progrès significatifs peuvent être accomplis aujourd’hui. Ainsi, en 2000, l’ Institut de la singularité pour l’intelligence artificielle fut fondé par Eliezer Yudkowsky pour travailler exclusivement à cet objectif.