Hva er kapasitetsoptimalisering?
Kapasitetsoptimalisering består av forskjellige og likevel komplementære metoder for både å lagre data og redusere lagringsbehov når du tar sikkerhetskopi. Ofte foretar bedrifter og enkeltbedrifter flere sikkerhetskopier av arbeidet, og behovet for å lagre, indeksere og hente data krever optimalisering for å redusere mengden maskinvare og resulterende overhead som trengs for å håndtere alle disse dataene. Når det gjøres sikkerhetskopier, er det ofte oppsigelser og bare små endringer mellom sikkerhetskopiene. I lys av oppsigelser, utvikler strategier for kapasitetsoptimalisering løsninger som reduserer lagringskostnader og størrelse i sikkerhetskopier som er redusert fra originalene så mye som 95 prosent. Kapasitetsoptimalisering er noen ganger kjent som båndbreddeoptimalisering når den brukes i WAN-applikasjoner (wide area networking) for å muliggjøre større gjennomstrømning når du sender og mottar data i et nettverk.
Datakomprimering benytter vanligvis kodingsteknikker for å redusere størrelsen på data som blir lagret eller overført. Avhengig av om noen data blir kastet i prosessen, kan de karakteriseres som tapt - å miste data - eller tapt. Å skanne dataene etter oppsigelser eller repetisjon og erstatte disse med krysshenvisede og indekserte symboler gjør det mulig å redusere mengden lagringsplass som trengs. Databehandlingskodebøker guider akseleratorer i kommunikasjon for å synkronisere og bruke enten minne eller en harddisk til å skrive komprimeringshistorier til et lagringslager som gjør det mulig å bruke en TCP-proxy for overføringskontroll som en buffer av pakker eller økter slik at overføringshastighetene ikke blir redusert. En annen metode for datakomprimering reduserer størrelsen på data i sanntid når de går til den første sikkerhetskopien, og dermed gjennom ytterligere optimalisering, noe som resulterer i større besparelser i både rom og tid.
Bruk av tradisjonelle komprimeringsmidler kan redusere størrelsen på lagrede data i forholdet 2: 1; ved å bruke kapasitetsoptimalisering kan du øke denne reduksjonen til så mye som 20: 1. På jakt etter oppsigelser i bytesekvenser på tvers av sammenligningsvinduer og bruk av kryptografiske hasjfunksjoner for unike sekvenser i algoritmer for deduplisering muliggjør segmentering av datastrømmer. Disse stream-segmentene tildeles deretter unike identifikatorer og indekseres for henting. På denne måten blir bare nye datasett lagret før de komprimeres videre ved bruk av komprimeringsstandardalgoritmer. Noen deduplikasjonsmetoder er maskinvarebaserte, og ved å kombinere dem med tradisjonelle komprimeringsalgoritmer for programvare kan funksjonene til både gi betydelige rom- og tidsbesparelser.
Mange tilnærminger fokuserer på reduksjoner i kostnader og plass til lagringskapasitet for å redusere kostnadene forbundet med lagringsinfrastruktur, og lignende hensyn oppstår i WAN-scenarier. Et lag kjent som et transportlag må eksistere mellom applikasjoner og underliggende nettverksstrukturer under overføringer, slik at data kan sendes og mottas effektivt og raskt, men transportlaget er fremdeles det som ble opprettet i 1981 da TCP ble opprettet og kjørte på 300 baud sats. Derfor bruker akseleratorer TCP-proxy, noe som reduserer tap under overføring og gjør kvitteringer for å øke størrelsen på pakker ved bruk av avanserte datakomprimeringsmetoder for å levere mer data per tidssegment. For å overvinne hindringer under overføring, samarbeider disse teknikkene sammen for å forbedre ytelsen til applikasjoner og redusere mengden av båndbredde.