Hva er dataduplisering?

Dateduplisering er en teknikk for å komprimere data der duplikatdata blir slettet, og opprettholder en kopi av hver informasjonsenhet om et system i stedet for å la multipler trives. Kopiene som er beholdt har referanser som lar systemet hente dem. Denne teknikken reduserer behovet for lagringsplass og kan holde systemer i gang raskere i tillegg til å begrense utgiftene forbundet med datalagring. Det kan fungere på en rekke måter og brukes på mange typer datasystemer.

I filnivådata-deduplisering ser systemet etter dupliserte filer og sletter ekstrautstyret. Deduplisering på blokknivå ser på blokker med data i filer for å identifisere fremmede data. Folk kan ende opp med doblet data av en rekke årsaker, og å bruke dataduplisering kan effektivisere et system, noe som gjør det enklere å bruke. Systemet kan med jevne mellomrom pore gjennom dataene for å se etter duplikater, eliminere ekstrautstyr og generere referanser for filene som er igjen.

slikt systeMS blir noen ganger referert til som intelligente komprimeringssystemer, eller lagringssystemer med en instans. Begge begrepene refererer til ideen om at systemet fungerer intelligent for å lagre og arkivere data for å redusere belastningen på systemet. Dateduplisering kan være spesielt verdifull med store systemer der data fra en rekke kilder lagres og lagringskostnader stadig øker, ettersom systemet må utvides over tid.

Disse systemene er designet for å være en del av et større system for å komprimere og administrere data. Data -deduplisering kan ikke beskytte systemer mot virus og feil, og det er viktig å bruke tilstrekkelig antivirusbeskyttelse for å holde et system trygt og begrense viral forurensning av filer, samtidig som du tar sikkerhetskopi på et eget sted for å adressere bekymringer for tap av data på grunn av strømbrudd, skade på utstyret og så videre. Å ha dataene komprimert før du tar sikkerhetskopi vil spare tidog penger.

Systemer som bruker data deduplisering i lagringen kan kjøres raskere og effektivt. De vil fortsatt kreve periodisk ekspansjon for å imøtekomme nye data og for å adressere bekymring for sikkerhet, men de bør være mindre utsatt for å fylle opp raskt med dupliserte data. Dette er en spesielt vanlig bekymring for e -postservere, der serveren kan lagre store datamengder for brukere og betydelige biter av den kan bestå av duplikater som de samme vedleggene som er gjentatt om og om igjen; For eksempel har mange mennesker som e -post fra jobben knyttet til bunntekst med e -postadvoldsfraskrivelser og firmalogoer, og disse kan spise opp serverplass raskt.

ANDRE SPRÅK