はい。データ重複排除はディスクストレージや帯域幅の要件、およびそれらに関連するコストを削減しますが、その一方で3つの追加的な処理負荷の問題を引き起こします。データ重複排除は、その性質上、非常に高い処理負荷を必要とするものです。データを比較するために小さなセグメントに分割するには多大なプロセッサとメモリが必要であり、必要に応じて重複排除されたデータを再構築する(「リハイドレーション」と呼ばれるプロセス)には、さらに多くの処理能力を要します。さらに、データ量が増加するにつれて、重複排除の対象となるデータ量も増加し、それに伴う処理時間も長くなるため、バックアップウィンドウがますます拡大することになります。
要約すると、計算負荷の高い重複排除によって生じる3つの新たな問題は以下の通りです:
1. 取り込み速度の低下によるバックアップの遅延とバックアップウィンドウの長期化
2. データ再構成の計算負荷の高さによる、復元、VMの起動、およびオフサイトへのテープコピーの遅延
3. 増加するデータに対応するために拡大し続けるバックアップウィンドウ。最終的には、割り当てられたバックアップウィンドウの時間を超えてしまう事態を招く。

