Que sont les systèmes d'exploitation parallèles?

Les systèmes d'exploitation parallèles permettent d'interfacer plusieurs ordinateurs en réseau pour effectuer des tâches en parallèle. L'architecture du logiciel est souvent une plate-forme UNIX, ce qui lui permet de coordonner les charges distribuées entre plusieurs ordinateurs d'un réseau. Les systèmes d'exploitation parallèles peuvent utiliser un logiciel pour gérer toutes les différentes ressources des ordinateurs fonctionnant en parallèle, telles que la mémoire, les caches, l'espace de stockage et la puissance de traitement. Les systèmes d'exploitation parallèles permettent également à un utilisateur de se connecter directement à tous les ordinateurs du réseau.

Un système d'exploitation parallèle divise des ensembles de calculs en parties plus petites et les répartit entre les machines d'un réseau. Pour faciliter la communication entre les cœurs de processeur et les matrices de mémoire, le logiciel de routage doit soit partager sa mémoire en attribuant le même espace d'adressage à tous les ordinateurs du réseau, soit distribuer sa mémoire en affectant un espace d'adressage différent à chaque cœur de traitement. Le partage de mémoire permet au système d'exploitation de fonctionner très rapidement, mais il est généralement moins puissant. Lors de l'utilisation de la mémoire partagée distribuée, les processeurs ont accès à la fois à leur propre mémoire locale et à la mémoire d'autres processeurs. cette distribution peut ralentir le système d'exploitation, mais elle est souvent plus flexible et plus efficace.

La plupart des domaines scientifiques, notamment la biotechnologie, la cosmologie, la physique théorique, l'astrophysique et l'informatique, utilisent des systèmes d'exploitation parallèles pour tirer parti de la puissance du calcul parallèle. Ces types de configuration de systèmes contribuent également à créer une efficacité dans des secteurs tels que le conseil, les finances, la défense, les télécommunications et les prévisions météorologiques. En fait, l’informatique parallèle est devenue si robuste que les cosmologistes l’ont utilisé pour répondre à des questions concernant l’origine de l’univers. Ces scientifiques ont pu effectuer simultanément des simulations de grandes sections de l'espace. Il leur a fallu un mois pour compiler une simulation de la formation de la Voie lactée, un exploit que l'on pensait impossible auparavant.

Les scientifiques, les chercheurs et les industries choisissent souvent d’utiliser des systèmes d’exploitation parallèles en raison de leur rentabilité. Assembler un réseau informatique parallèle coûte beaucoup moins cher que développer et construire un superordinateur pour la recherche. Les systèmes parallèles sont également complètement modulaires, ce qui permet d'effectuer des réparations et des mises à niveau peu coûteuses.

En 1967, alors qu'il travaillait chez IBM, Gene Amdahl a conceptualisé l'idée d'utiliser un logiciel pour coordonner le calcul parallèle. Il a publié ses conclusions dans un article intitulé Loi d'Amdahl , qui décrit l'augmentation théorique de la puissance de traitement à laquelle on peut s'attendre lorsqu'on gère un réseau avec un système d'exploitation parallèle. Ses recherches ont abouti au développement de la commutation de paquets et, partant, au système d’exploitation parallèle moderne. Ce développement souvent négligé de la commutation de paquets a également été la percée qui a ensuite lancé le "Projet Arpanet", qui est à la base du plus grand réseau informatique parallèle au monde: Internet.

DANS D'AUTRES LANGUES

Cet article vous a‑t‑il été utile ? Merci pour les commentaires Merci pour les commentaires

Comment pouvons nous aider? Comment pouvons nous aider?