Echter, is het indexeren van alle gegevens nog steeds bewaard moeten die gegevens ooit nodig zijn. Bijvoorbeeld, een typische e-mailsysteem 100 exemplaren van hetzelfde 1 MB file attachment bevatten. Als het e-platform wordt ondersteund of gearchiveerd, worden alle 100 gevallen opgeslagen, waarbij 100 MB opslagruimte. Met data deduplicatie wordt slechts één exemplaar van het beslag daadwerkelijk opgeslagen; elke volgende instantie wordt alleen naar het ene opgeslagen kopie verminderen van opslag en bandbreedte vraag om slechts 1 MB verwezen.
De praktische voordelen van deze technologie zijn afhankelijk van verschillende factoren, zoals: - Point of Application: Source Vs doel- moment van de aanvraag: Inline vs Post-Proces- Granularity: File vs Sub-File niveau- Algoritme: Vaste grootte blokken Vs variabele lengte datasegmenten Dit artikel is de eerste in een serie die probeert uit te leggen hoe elk van deze factoren bepaalt het succes van een PC backup. Target Vs Source gebaseerde deduplicatie Target-gebaseerde deduplicatie werkt op de beoogde data opslag media.
In dit geval is de opdrachtgever ongewijzigde en niet bewust van enige deduplicatie. De motor kan deduplicatie ingebed in de hardware matrix, die kan worden gebruikt als NAS /SAN-apparaat met deduplicatie mogelijkheden. Als alternatief kan ook worden aangeboden als een onafhankelijke software of hardware apparaat die als tussenpersoon tussen de back-up server en storage arrays handelt. In beide gevallen verbetert alleen het opslaggebruik. Integendeel-Source gebaseerde deduplicatie werkt op de gegevens bij de bron voor zijn verhuisd.
Een deduplicatie bewust back-agent is geïnstalleerd op de client die een back-up alleen unieke gegevens. Het resultaat is een verbeterde bandbreedte en opslagruimte gebruik. Maar dit legt extra computationele belasting van de backup client. Onder de betere producten PC backup software die-source gebaseerde data deduplicatie te gebruiken is Druva Insyn