Hvad er kapacitetsoptimering?
Kapacitetsoptimering består af forskellige og alligevel ofte komplementære metoder til både lagring af data og reduktion af lagringsbehov, når man foretager sikkerhedskopier. Ofte foretager virksomheder og individuelle virksomheder flere sikkerhedskopier af arbejde, og behovet for at gemme, indeksere og hente data kræver optimering for at reducere mængden af hardware og resulterende omkostninger, der er nødvendige for at håndtere alle disse data. Når der foretages sikkerhedskopier, er der ofte afskedigelser og kun små ændringer mellem sikkerhedskopier. I lyset af afskedigelser udtænker kapacitetsoptimeringsstrategier løsninger, der reducerer opbevaringsomkostninger og størrelse i sikkerhedskopier, reduceret fra originalerne så meget som 95 procent. Kapacitetsoptimering er undertiden kendt som båndbreddeoptimering, når det bruges i bredt netværksanvendelsesanvendelse (WAN) applikation for at muliggøre større gennemstrømning, når man transmitterer og modtager data på et netværk.
Datakomprimering bruger generelt kodning af TECHniques for at reducere størrelsen på data, der gemmes eller transmitteres. Afhængig af om nogle data kasseres i processen, kan de være karakteriseret som tabende - mister data - eller tabsfri. Scanning af dataene for afskedigelser eller gentagelse og udskiftning af disse med krydshenviste og indekserede tokens giver mulighed for store reduktioner i den nødvendige opbevaringsplads. Dataundertrykkelseskodebøger Vejledning Acceleratorer i kommunikation til at synkronisere og bruge enten hukommelse eller en harddisk til at skrive komprimeringshistorier i et lagringsartikel, der muliggør en transmissionskontrolprotokol (TCP) proxy, der kan bruges som en puffer af pakker eller sessioner, så transmissionshastighederne ikke reduceres. En anden metode til datakomprimering reducerer størrelsen på data i realtid, da de går til sin første sikkerhedskopi, og dermed gennem yderligere optimering, hvilket resulterer i større besparelser i både rum og tid.
Brug af de traditionelle komprimeringsmidler kan reducere størrelsen på lagrede data i et forhold på 2: 1; Brug af CAPacity -optimering kan øge denne reduktion til så meget som 20: 1. På udkig efter afskedigelser i byte -sekvenser på tværs af sammenligningsvinduer og ved hjælp af kryptografiske hash -funktioner til unikke sekvenser i algoritmer til deduplikation giver mulighed for segmentering af datastrømme. Disse strømsegmenter tildeles derefter unikke identifikatorer og indekseres til hentning. På denne måde gemmes kun nye datasæt, før de komprimeres yderligere ved hjælp af algoritmer til komprimeringsstandarder. Nogle deduplicationsmetoder er hardwarebaseret, og kombinerer dem med traditionelle softwarekomprimeringsalgoritmer giver både funktionerne til at producere betydelige rum- og tidsbesparelser.
Mange tilgange fokuserer på reduktioner i omkostninger og opbevaringskapacitet til at reducere omkostningerne forbundet med opbevaringsinfrastruktur og lignende overvejelser opstår i WAN -scenarier. Et lag kendt som et transportlag skal eksistere mellem applikationer og underliggende netværksstrukturer under transmissioner, hvilket gør det muligt at sent og modtog effektivt og hurtigt, men alligevel er transportlaget stadig oprettet i 1981, da TCP først blev oprettet og løb med 300 baudhastighed. Derfor bruger Accelerators TCP -proxier, reducerer tab under transmission og gør anerkendelser for at øge størrelsen på pakker ved hjælp af avancerede datakomprimeringsmetoder til at levere flere data pr. Tidssegment. For at overvinde hindringer under transmission samarbejder disse teknikker sammenhængende for at forbedre applikationens ydelse og reducere mængden af forbrug af båndbredde.