Qu'est-ce que l'optimisation de la capacité?
L’optimisation des capacités se compose de méthodes différentes mais souvent complémentaires qui permettent à la fois de stocker des données et de réduire les besoins en stockage lors des sauvegardes. Souvent, les entreprises et les entreprises effectuent plusieurs sauvegardes du travail. La nécessité de stocker, d’indexer et de récupérer les données nécessite une optimisation afin de réduire la quantité de matériel et les frais généraux qui en résultent. Lorsque des sauvegardes sont effectuées, il y a souvent des redondances et de petites modifications entre les sauvegardes. À la lumière des redondances, les stratégies d'optimisation de la capacité conçoivent des solutions permettant de réduire les coûts de stockage et la taille des sauvegardes, en réduisant les coûts par rapport aux originaux jusqu'à 95%. L’optimisation de la capacité est parfois appelée optimisation de la bande passante lorsqu’elle est utilisée dans une application de réseau étendu (WAN) afin d’accroître le débit lors de la transmission et de la réception de données sur un réseau.
La compression des données utilise généralement des techniques de codage pour réduire la taille des données stockées ou transmises. Selon que certaines données sont supprimées au cours du processus, elles peuvent être qualifiées de pertes - pertes de données - ou sans perte. Analyser les données pour rechercher des redondances ou des répétitions et les remplacer par des jetons à références croisées et indexées permet de réduire considérablement la quantité d'espace de stockage nécessaire. Les dictionnaires de suppression de données guident les accélérateurs en communication pour synchroniser et utiliser de la mémoire ou un disque dur pour écrire les historiques de compression dans un référentiel de stockage, ce qui permet à un proxy TCP (protocole de contrôle de transmission) d’être utilisé en tant que tampon de paquets ou de sessions, de manière à éviter les vitesses de transmission. réduit. Une autre méthode de compression de données réduit la taille des données en temps réel lors de la première sauvegarde, et donc par une optimisation accrue, ce qui permet de réaliser de plus grandes économies d'espace et de temps.
L'utilisation des moyens de compression traditionnels peut réduire la taille des données stockées dans un rapport de 2: 1; L’optimisation de la capacité peut augmenter cette réduction jusqu’à 20: 1. La recherche de redondances dans les séquences d'octets à travers les fenêtres de comparaison et l'utilisation de fonctions de hachage cryptographiques pour des séquences uniques dans les algorithmes de déduplication permettent de segmenter les flux de données. Des identifiants uniques sont ensuite attribués à ces segments de flux et indexés pour la récupération. De cette manière, seuls les nouveaux ensembles de données sont stockés avant d’être compressés à nouveau à l’aide d’algorithmes de compression standard. Certaines méthodes de déduplication sont basées sur le matériel, et leur combinaison avec des algorithmes de compression logicielle traditionnels permet aux fonctions des deux méthodes de réaliser un gain de temps et d’espace substantiel.
De nombreuses approches se concentrent sur la réduction des coûts et de l’espace de la capacité de stockage afin de réduire les coûts associés à l’infrastructure de stockage, et des considérations similaires se posent dans les scénarios de réseau étendu. Une couche appelée couche de transport doit exister entre les applications et les structures de réseau sous-jacentes pendant les transmissions, ce qui permet d’envoyer et de recevoir des données de manière efficace et rapide. La couche de transport reste celle créée en 1981, lorsque TCP a été créé et exécuté à 300 bauds. taux. Par conséquent, les accélérateurs utilisent des proxys TCP, ce qui réduit les pertes lors de la transmission et émet des accusés de réception pour augmenter la taille des paquets en utilisant des méthodes de compression de données avancées pour fournir davantage de données par segment temporel. Pour surmonter les obstacles lors de la transmission, ces techniques coopèrent de manière cohérente pour améliorer les performances des applications et réduire la consommation de bande passante.