Vad är dataduplicering?
Dataduplicering är en teknik för att komprimera data där duplikatdata raderas, underhålla en kopia av varje informationsenhet på ett system snarare än att låta multiplar trivas. De kopior som finns kvar har referenser som gör att systemet kan hämta dem. Denna teknik minskar behovet av lagringsutrymme och kan hålla systemen igång snabbare förutom att begränsa utgifterna för datalagring. Det kan fungera på flera sätt och används på många typer av datorsystem.
Vid dataduplicering på filnivå letar systemet efter alla duplicerade filer och raderar tillbehören. Avduplikering på blocknivå tittar på block av data i filer för att identifiera främmande data. Människor kan sluta med fördubblade data av en mängd olika skäl, och med dataduplicering kan det strömlinjeforma ett system, vilket gör det lättare att använda. Systemet kan med jämna mellanrum titta igenom informationen för att kontrollera duplikat, eliminera extrafunktioner och generera referenser för de filer som finns kvar.
Sådana system kallas ibland intelligenta komprimeringssystem, eller lagringssystem med en instans. Båda termerna hänvisar till idén att systemet fungerar intelligent för att lagra och arkivera data för att minska belastningen på systemet. Dataduplicering kan vara särskilt värdefullt med stora system där data från ett antal källor lagras och lagringskostnader ständigt ökar, eftersom systemet måste utökas över tid.
Dessa system är utformade för att ingå i ett större system för komprimering och hantering av data. Dataduplicering kan inte skydda system från virus och fel, och det är viktigt att använda adekvat antivirusskydd för att hålla ett system säkert och begränsa viral kontaminering av filer samtidigt som du säkerhetskopierar på en separat plats för att hantera problem med dataförlust på grund av strömavbrott, skador på utrustning osv. Om du har komprimerat data innan du säkerhetskopierar kommer det att spara tid och pengar.
System som använder dataduplicering i sin lagring kan köras snabbare och mer effektivt. De kommer fortfarande att kräva periodisk utvidgning för att tillgodose nya data och ta itu med oro för säkerhet, men de bör vara mindre benägna att snabbt fylla med dubblerade data. Detta är ett särskilt vanligt problem på e-postservrar, där servern kan lagra stora mängder data för användare och betydande bitar av den kan bestå av duplikat som samma bilagor som upprepas om och om igen; till exempel har många som skickar e-post från jobbet bifogat sidfot med e-ansvarsfriskrivningar och företagslogotyper, och dessa kan äta upp serverutrymme snabbt.