重複排除率に最も大きな影響を与える変数は3つあります:
1. 保存期間 – 保存期間が長いほど、重複データを見つけるためのバックアップコピーが増えるため、重複排除率は高くなります。
2. アルゴリズム – より強力なアルゴリズムを使用すれば、重複排除率は高くなります。
3. データの種類と構成 – データの種類によって、重複排除率は異なります。例えば、非構造化ファイルでは6:1や7:1の比率になりますが、データベースでは(もちろん強力なアルゴリズムを使用した場合)、100:1以上の比率を達成できます。圧縮データや暗号化データは重複排除の対象外となり、1:1の比率になります。多くのベンダーは、データタイプの構成に応じて、10:1から最大50:1の比率を達成しており、平均では20:1(平均保存期間18週間)となっています。

