La déduplication de données est à la mode.

Tout le monde si met, EMC, IBM, Netapp, Quantum, HP, etc… se lancent tous dans la technologie de déduplication.

L’inclusion de cette technologie permet un gain d’espace pouvant atteindre un facteur de 50 par rapport aux technologies de sauvegarde traditionnelles.

Comment ça marche ?

La déduplication des données représente une nouvelle technologie décisive pour contrôler la prolifération des données. En moyenne, un volume de disque basé sur UNIX® ou Windows® contient des milliers, voire des millions, de données dupliquées.

La création, la distribution, la sauvegarde, l’archivage et la copie des données font qu’elles peuvent être présentes à tous les niveaux de stockage, ce qui engendre une utilisation inefficace des ressources de votre système.

L’élimination des données redondantes pour ne garder que les fichiers originaux offre un avantage immédiat, à savoir des économies d’espace de stockage. Les avantages de cette opération sont doubles :

  • Avantage au niveau des coûts : réduction des frais d’acquisition, ou mises à niveau plus espacées des capacités de stockage.
  • Avantage au niveau de la gestion : stockage d’un plus grand nombre de données par unité, ou rétention des données en ligne sur de plus longues durées.

En fait, la déduplication recherche des séquences identiques de données pour en garder qu’une seule copie, reduisant ainsi les besoins de stockage.

Elle est aussi utilisée en cas de “disastrer recovery”, en copiant les données dédupliquées sur un site distant.

Visionner cette présentation d’Emc²

[ad]