Quelle est la singularité technologique?

La singularité technologique , ou simplement la «singularité», est un concept à multiples facettes du futurisme avec plusieurs définitions qui se chevauchent et parfois contradictoires. La définition la plus appropriée et la plus importante de la singularité a été donnée par Vernor Vinge dans son essai, la singularité technologique à venir . Il se réfère au point où l'intelligence surhumaine est créée technologiquement. These superhuman intelligences could then apply their brainpower and expertise to the task of creating additional or more powerful superhuman intelligences, resulting in a snowball effect with consequences beyond our present ability to imagine.

The term "Technological Singularity" was coined by analogy to the singularity in the center of a black hole, where the forces of nature become so intense and unpredictable that our ability to calculate the behavior of matter in these circumstances drops to zéro. Souvent mentionné en conjonction avec l'idée de l'intelligence surhumaineDans la singularité, les dialogues sont la notion d'accélération du changement technologique. Certains ont fait valoir que lorsque la pente des progrès technologiques augmente, il se terminera dans une asymptote, similaire visuellement à une singularité mathématique.

Cependant, cette notion de la singularité n'est pas la même que Vinge. Se référant à l'émergence de l'intelligence surhumaine, ainsi que des vitesses de pensée surhumaines. (Y compris l'intelligence, la capacité à comprendre et à créer des concepts, à transformer les données en théories, à faire des analogies, à être créatives, etc.) bien que des intelligences surhumaines créant des intelligences surhumaines supplémentaires entraîneraient en effet l'accélération des progrès technologiques, les progrès ne deviendraient pas infinie, en ce sens qu'une singularité mathématique suggérerait.

Parce que les intelligences surhumaines seraient, par définition, plus intelligentes que n'importe quel humain, notre capacité à prédire ce qu'elles seraient CIl est peu probable qu'avec une quantité donnée de temps, de matière ou d'énergie, soit exacte. Une intelligence surhumaine pourrait être en mesure de façonner un supercalculateur fonctionnel à partir de composants bon marché et facilement disponibles, ou de développer une nanotechnologie à part entière avec rien d'autre qu'un microscope à force atomique. Parce que la capacité d'une intelligence surhumaine à concevoir et à fabriquer des gadgets technologiques dépasserait rapidement les meilleurs efforts des ingénieurs humains, une intelligence surhumaine pourrait très bien être la dernière invention que l'humanité doit jamais faire. En raison de leur génie surhumain et des technologies qu'ils pourraient rapidement développer, les actions des intelligences émergeant d'une singularité technologique pourraient entraîner l'extinction ou la libération de notre espèce entière, selon les attitudes des intelligences surhumaines les plus puissantes envers les êtres humains.

Le philosophe d'Oxford Nick Bostrom, directeur du Oxford Future of Humanity Institute et du World TraL'Organisation de Nshumanist , soutient que la façon dont les intelligences surhumaines traitent les humains dépendront de leurs motivations initiales au moment de leur création. Une gentille intelligence surhumaine serait, en voulant préserver sa gentillesse, engendrer des versions aimables (ou plus gentilles) de lui-même alors que la spirale d'auto-amélioration s'est poursuivie. Le résultat pourrait être un paradis dans lequel les intelligences surhumaines résolvent les problèmes du monde et offrent une amélioration consensuelle de l'intelligence aux êtres humains. D'un autre côté, une intelligence surhumaine malveillante ou indifférente serait susceptible de produire davantage de la même, entraînant notre destruction accidentelle ou délibérée. Pour ces raisons, la singularité technologique pourrait être la jalon la plus importante à laquelle nos espèces seront jamais confrontées.

Plusieurs voies vers l'intelligence surhumaine ont été proposées par les analystes et les défenseurs de la singularité. Le premier est ia, ou amplification de l'intelligence , en prenant un humain existant et en la transformant enUn être non humain par la neurochirurgie, l'interfaçage du cerveau-ordinateur, ou peut-être même l'interfaçage cerveau cerveau. L'autre est AI, ou intelligence artificielle , la création d'un système cognitif dynamique dépassant les humains dans sa capacité à former des théories et à manipuler la réalité. Lorsque l'une ou l'autre de ces technologies atteindra le niveau de sophistication nécessaire pour produire de l'intelligence surhumaine est incertain, mais une variété d'experts, y compris le bostrom, cite des dates dans la gamme 2010-2030 aussi probable.

Parce que la singularité peut être plus proche que beaucoup ne le supposeraient, et parce que les motivations initiales de la première intelligence surhumaine peuvent déterminer le sort de notre espèce humaine, certains philosophes-activistes ("Singularitarisans") considèrent la singularité non seulement comme un sujet de spéculation et de discussion, mais comme un objectif de génie pratique qui peut être réalisé dans le jour. Ainsi, en 2000, le Singularity Institute for Artificiel IntelLigence a été fondée par Eliezer Yudkowsky pour travailler exclusivement vers cet objectif.

DANS D'AUTRES LANGUES

Cet article vous a‑t‑il été utile ? Merci pour les commentaires Merci pour les commentaires

Comment pouvons nous aider? Comment pouvons nous aider?