Hva er dataduplisering?
Dataduplikasjon er en teknikk for å komprimere data der dupliserte data blir slettet, ved å opprettholde en kopi av hver informasjonsenhet på et system i stedet for å la multipler trives. Kopiene som er lagret har referanser som lar systemet hente dem. Denne teknikken reduserer behovet for lagringsplass og kan holde systemer i gang raskere i tillegg til å begrense utgiftene forbundet med datalagring. Det kan fungere på flere måter og brukes på mange typer datasystemer.
I deduplisering av filnivå ser systemet etter eventuelle dupliserte filer og sletter ekstrautstyrene. Blokkering av deduplisering ser på blokker av data i filer for å identifisere fremmede data. Folk kan ende opp med doblet data av en rekke årsaker, og ved å bruke dataduplisering kan strømlinjeforme et system, noe som gjør det enklere å bruke. Systemet kan periodisk pore gjennom dataene for å se etter duplikater, eliminere statister og generere referanser for filene som er igjen.
Slike systemer blir noen ganger referert til som intelligente komprimeringssystemer, eller enkeltinstanslagringssystemer. Begge begrepene refererer til ideen om at systemet fungerer intelligent for å lagre og arkivere data for å redusere belastningen på systemet. Dataduplisering kan være spesielt verdifullt med store systemer der data fra en rekke kilder lagres og lagringskostnader stadig øker, da systemet må utvides over tid.
Disse systemene er designet for å være del av et større system for komprimering og styring av data. Dataduplisering kan ikke beskytte systemer mot virus og feil, og det er viktig å bruke tilstrekkelig antivirusbeskyttelse for å holde et system trygt og begrense viral forurensning av filer, samtidig som det sikkerhetskopieres på et eget sted for å adressere bekymringer om tap av data på grunn av strømbrudd, skade på utstyr, og så videre. Å ha dataene komprimert før sikkerhetskopiering vil spare tid og penger.
Systemer som bruker deduplikasjon av data i lagring, kan kjøre raskere og mer effektivt. De vil fortsatt kreve periodisk utvidelse for å imøtekomme nye data og for å møte bekymringer om sikkerhet, men de bør være mindre utsatt for å raskt fylle ut med dupliserte data. Dette er en spesielt vanlig bekymring på e-postservere, der serveren kan lagre store datamengder for brukere og betydelige biter av den kan bestå av duplikater som de samme vedleggene gjentatt om og om igjen; mange mennesker som e-post fra jobb, har for eksempel knyttet bunntekst med e-post ansvarsfraskrivelser og firmalogoer, og disse kan spise opp serverplass raskt.