Qu'est-ce que la virtualisation d'infrastructure?
La virtualisation d'infrastructure est axée sur l'utilisation de logiciels et de matériel préexistant pour émuler d'autres logiciels ou matériels. La virtualisation a vu le jour avec les ordinateurs modernes, mais a vraiment pris son envol au début du XXIe siècle avec toutes les options de virtualisation de serveur. Il est possible de virtualiser presque n'importe quel matériel ou logiciel, ce qui élargit le champ d'application de cette technologie. Parmi les applications les plus courantes de la virtualisation d'infrastructure, citons l'émulation de système d'exploitation, les bureaux virtuels et les serveurs virtuels.
La technologie qui devint par la suite la virtualisation d'infrastructure a commencé au milieu des années 1960. A ses débuts, la virtualisation avait deux objectifs principaux: la création d'un système de "mémoire virtuelle" et un "émulateur de machine" capable d'exécuter des logiciels conçus pour d'autres plates-formes informatiques. Bien que plusieurs entreprises aient atteint ces objectifs, les résultats ont été mitigés et les recherches sur la virtualisation se sont poursuivies.
Les années intermédiaires de la recherche ont connu des hauts et des bas. Les véritables machines virtuelles ont été mises au point au milieu des années 1970. C'étaient des programmes qui imitaient si étroitement des ordinateurs entiers qu'il était possible d'exécuter des logiciels à travers eux. Ces premières machines virtuelles avaient rarement assez de puissance pour exécuter des applications de toute taille ou complexité réelle, mais la technologie avait un potentiel suffisant pour que plusieurs sociétés mènent des recherches. Les recherches sur la virtualisation des infrastructures menées dans les années 80 et 90 ont apporté plusieurs améliorations, mais peu de percées.
En 2003, le premier hyperviseur open source a été publié. Ce programme permettait de surveiller plusieurs systèmes d'exploitation s'exécutant simultanément sur un seul ordinateur. Alors que les moniteurs de machines virtuelles existaient depuis le milieu des années 1980, ce programme était gratuit, complet et puissant. Grâce à ce logiciel et aux processeurs multicœurs, il était possible d'exécuter plusieurs serveurs virtuels sur presque n'importe quel serveur réel avec une faible réduction de la puissance totale. En exploitant des serveurs virtuels, une entreprise pourrait réduire ses coûts d’énergie et augmenter la puissance globale de son réseau.
Dans le monde de l'entreprise, la virtualisation est souvent la norme. Les salles de serveurs peuvent avoir des machines exécutant une demi-douzaine de serveurs virtuels ou plus, avec une réduction de la vitesse ou de la puissance faible, voire nulle. Les bureaux virtuels ont remplacé le besoin d'un ordinateur pour chaque travailleur. Au lieu d'avoir sa propre machine, une seule version d'une machine de base se copie sur le réseau et donne à l'utilisateur accès à un ordinateur virtuel. Toutes ses informations sont enregistrées sur un serveur central.
Les utilisateurs d'ordinateurs à domicile se heurtent constamment à la virtualisation d'infrastructure, bien que beaucoup ne s'en rendent pas compte. Les programmes exécutés sur des portails Web sans aucune installation sont généralement virtualisés, souvent pour réduire le délai de transmission et améliorer les performances. Les applications conçues à l'origine pour fonctionner sur un seul système d'exploitation peuvent désormais s'exécuter sur plusieurs systèmes grâce aux wrappers de système d'exploitation virtuels. Ces programmes s'exécutent dans un programme hôte et convertissent les entrées et les sorties en celles du système d'exploitation approprié. Ceci est particulièrement courant lorsque vous déplacez des jeux sur PC vers d'autres systèmes.