Vad är Data Deduplication?

Data Deduplication är en teknik för att komprimera data där duplicerade data raderas, vilket upprätthåller en kopia av varje informationsenhet på ett system snarare än att låta multiplar trivas. Kopiorna som bevaras har referenser som gör det möjligt för systemet att hämta dem. Denna teknik minskar behovet av lagringsutrymme och kan hålla systemen igång snabbare utöver begränsande kostnader i samband med datalagring. Det kan fungera på ett antal sätt och används på många typer av datorsystem.

I filnivå dataduplicering letar systemet efter eventuella duplicerade filer och tar bort extra. Deduplicering på blocknivå tittar på block av data i filer för att identifiera främmande data. Människor kan hamna med fördubblade data av många olika skäl, och att använda dataduplicering kan effektivisera ett system, vilket gör det lättare att använda. Systemet kan regelbundet porera genom data för att kontrollera om duplikat, eliminera extra och generera referenser för de kvar som finns kvar.

Sådan systeMS kallas ibland intelligenta kompressionssystem eller lagringssystem med en enda instans. Båda termerna hänvisar till idén att systemet arbetar intelligent för att lagra och arkivera data för att minska belastningen på systemet. Dataduplicering kan vara särskilt värdefulla med stora system där data från ett antal källor lagras och lagringskostnaderna ständigt ökar, eftersom systemet måste utökas över tid.

Dessa system är utformade för att vara en del av ett större system för att komprimera och hantera data. Dataduplicering kan inte skydda system från virus och fel, och det är viktigt att använda adekvat antivirusskydd för att hålla ett system säkert och begränsa viral föroreningar av filer samtidigt som de säkerhetskopierar på en separat plats för att ta itu med oro över dataförlust på grund av avbrott, skador på utrustning och så vidare. Att ha data komprimerade innan du säkerhetskopierar kommer att spara tidoch pengar.

System som använder deduplicering av datadata i deras lagring kan köras snabbare och effektivt. De kommer fortfarande att kräva periodisk expansion för att tillgodose ny data och för att ta itu med oro över säkerhet, men de bör vara mindre benägna att fyllas snabbt med duplicerade data. Detta är ett särskilt vanligt problem för e -postservrar, där servern kan lagra stora mängder data för användare och betydande bitar av det kan bestå av duplikat som samma bilagor som upprepas om och om igen; Till exempel har många människor som e -postar från jobbet bifogat sidfot med e -postfriskrivningar och företagslogotyper, och dessa kan äta upp serverutrymme snabbt.

ANDRA SPRÅK

Hjälpte den här artikeln dig? Tack för feedbacken Tack för feedbacken

Hur kan vi hjälpa? Hur kan vi hjälpa?