すべてのデータ重複排除技術が同じというわけではなく、その違いは極めて大きいものです。最大で1.8:1や2:1程度しか達成できない標準的なデータ圧縮とは異なり、データ重複排除の倍率は、採用される重複排除手法によって大きく異なります。ベンダーは、投入可能なリソース(プロセッサとメモリ)の量に応じて、大きく異なるアプローチを採用しています。
メディアサーバー上でデータ重複排除を行うバックアップアプリケーションは、プロセッサとメモリの使用量を最小限に抑えるため、それほど強力ではないアルゴリズムを使用します。その結果、達成できる重複排除率ははるかに低くなります。一方、専用のプロセッサとメモリを内蔵したターゲット側のアプライアンスは、より強力なアルゴリズムを使用するため、より高い重複排除率を達成します。重複排除率が低いほど、時間の経過とともに使用されるディスク容量は増え(特に長期保存の場合)、レプリケーションに必要な帯域幅も増加します。バックアップアプリケーションで重複排除を使用すると、初期費用は抑えられるかもしれませんが、長期的には追加のディスク容量と帯域幅にかかるコストが3~4倍になります。
一般的なバックアップアプリケーションの重複排除:
● 1MBブロック = 2:1
●128KBブロック = 6:1
●64KBブロック = 8:1
一般的なターゲット側アプライアンスの重複排除:
●8KBブロック = 12:1
●可変長コンテンツ分割を伴う8KBブロック = 20:1
●バイトレベル = 20:1
●バイトレベル比較を伴うゾーンスタンプ = 20:1
ディスクと帯域幅に関連するコストは大きく異なる可能性があるため、バックアップアプリケーションまたはターゲット側アプライアンスでどのアプローチが採用されているかを把握することが重要です。




