投稿者「climb」のアーカイブ

CORE5:サイバーレジリエントなストレージの新たな標準

現在および将来のあらゆるランサムウェアの脅威からシステムを守るには、不変性を持つバックアップだけではもはや不十分であることは明らかです。

だからこそ、私たちはストレージ業界に対し、単なる不変性というパラダイムを超え、エンドツーエンドのサイバーレジリエンスという、より包括的な新たな基準を採用するよう求めています。

このアプローチは、真の不変性という最強の形態だけでなく、データの流出や、AIを活用したマルウェアのような新たな脅威ベクトルに対する堅牢な多層防御も包含しています。つまり、APIからアーキテクチャに至るまで、システムのあらゆるレベルに保護策を組み込み、可能な限り多くの脅威ベクトルを遮断することを意味します。

Scalityでは、この野心的なサイバーレジリエンス基準を達成するために必要な5つの重要な保護レベルを特定しました。これらを「CORE5」と呼んでいます

1.APIレベルの耐障害性

2018年にAmazonがリリースした不変性API(AWS S3 Object Lock)は、ストレージ業界に革命をもたらしました。これは、WORM(Write Once Read Many)モデルを導入することで、暗号化型ランサムウェア攻撃に対する最高レベルの防御を提供しただけでなく、Veeam Data Platformのような一般的なデータ保護アプリケーション向けの事実上の標準インターフェースも確立しました。さらに、S3 APIが提供するデータ不変性に対するきめ細かな制御により、組織は最も厳格な業界のデータ保持規制にも準拠できるようになります。

これらの優れた機能は、現代のストレージシステムにおいて不可欠な要素です。そのため、APIレベルの不変性はCORE5サイバーレジリエンスフレームワークの最上位に位置づけられており、Scalityのすべての製品がS3 Object Lockとの完全な互換性を誇っているのです。

2.データレベルの耐障害性

CORE5フレームワークのレベル2は、データの流出防止という単一の目標に徹底的に焦点を当てています。これは、機密データが存在するあらゆる場所で、厳格なデータセキュリティプロトコルを実装することを意味します。適切に強化されたストレージソリューションは、包括的なIDおよびアクセス管理(IAM)や暗号化機能など、多層的なデータレベルのセキュリティを備えて設計されるべきであり、これにより、バックアップデータが不正な第三者によって傍受されたりアクセスされたりすることを確実に防ぐことができます。

Scalityでは、これを実現するために、ゼロトラストアーキテクチャ、AWS互換の認証およびAWSスタイルのIAM機能、セキュアなS3エンドポイントターミネーション、ファイアウォールルールの自動設定、そしてAES 256ビットによる保存時データ暗号化を採用しています。

3. ストレージレベルの耐障害性

高度な攻撃者がストレージサーバーへのルート権限を取得できてしまうと、APIレベルで実装された上位レベルの保護策を迂回され、サーバー上のすべてのデータに無制限にアクセスされる恐れがあります。キーストロークの音だけでパスワードを判別するなど、認証制御を無効化する高度なAI技術を用いた手法により、こうした攻撃を阻止することがますます困難になりつつあります。

こうした急速に進化する脅威に対して耐性を確保するためには、攻撃者がストレージシステムの最深部に侵入できたとしても、データが安全であることをストレージシステムが保証しなければなりません。

Scalityのソリューションは、分散型イレイジャーコーディング技術を用いてこの問題を解決します。この高度な技術は、ストレージレベルのデータを攻撃者にとって解読不能なものにする(したがって、盗み出されても無価値にする)だけでなく、複数のドライブやサーバー全体が物理的に破壊された場合でも、攻撃によって破損または消失したデータを完全に復元する機能を提供します。

4.地理的なレベルでの耐障害性

単一の場所に保存されたデータは、サイバー脅威に対して特に脆弱です。サイバー犯罪者は、データセンターのような高価値な標的を攻撃することで、複数の組織から同時に身代金を要求し、身代金の支払いを成功させる確率を高めようとします。

単一拠点の脆弱性から保護するため、現在のストレージのベストプラクティスでは、地理的に分散した複数のオフサイトバックアップが求められています。現代のサイバーレジリエントなストレージソリューションは、これを単に可能にするだけでなく、実用的なものにしなければなりません。そのため、Scalityのすべての製品は、複数の拠点にわたる地理的冗長性を、管理が簡単で、導入コストも抑えられるように、一から設計されています。

5. アーキテクチャレベルの耐障害性

建物の強度は基礎次第であるように、ストレージシステムの安全性も、それが構築されているアーキテクチャ次第です。そのため、CORE5フレームワークの5つ目にして最後のレベルでは、コアシステムアーキテクチャに見られる脆弱性の排除に焦点を当てています。

ストレージシステムが、従来のファイルシステムのような本質的に可変なアーキテクチャ上に構築されている場合、データは完全に無防備な状態にさらされることになります。AIを活用したハッキングツールやマルウェアが急速に普及している現状において、このような脆弱なアーキテクチャ上に構築されたストレージシステムは、アーキテクチャレベルのランサムウェア攻撃に対するリスクがますます高まっています。

対照的に、Scalityのソリューションはネイティブ・オブジェクト・ストレージ・アーキテクチャに基づいて構築されています。これは、システムがドライブへのデータ書き込みを処理する仕組みにより、たとえスーパーアドミン権限を持つ攻撃者であっても、データが本質的に不変なままであることを意味します。その効果は単純明快です。削除や上書きは、決して行われません。さらに、すべてのScality製品はデフォルトでrootアクセスを禁止しており、一般的な脆弱性および露出(CVE)や幅広い脅威への曝露を低減します。

    ランサムウェア攻撃が発生した場合、攻撃者の最優先事項の一つは権限の昇格です。もし管理者権限の認証情報を取得できれば、攻撃者はその情報を利用して、APIレベルの不変性保護機能を無効化したり、その他の方法で回避したりすることが可能になります。

    すべてのデータ重複排除技術は同じなのでしょうか?

    すべてのデータ重複排除技術が同じというわけではなく、その違いは極めて大きいものです。最大で1.8:1や2:1程度しか達成できない標準的なデータ圧縮とは異なり、データ重複排除の倍率は、採用される重複排除手法によって大きく異なります。ベンダーは、投入可能なリソース(プロセッサとメモリ)の量に応じて、大きく異なるアプローチを採用しています。

    メディアサーバー上でデータ重複排除を行うバックアップアプリケーションは、プロセッサとメモリの使用量を最小限に抑えるため、それほど強力ではないアルゴリズムを使用します。その結果、達成できる重複排除率ははるかに低くなります。一方、専用のプロセッサとメモリを内蔵したターゲット側のアプライアンスは、より強力なアルゴリズムを使用するため、より高い重複排除率を達成します。重複排除率が低いほど、時間の経過とともに使用されるディスク容量は増え(特に長期保存の場合)、レプリケーションに必要な帯域幅も増加します。バックアップアプリケーションで重複排除を使用すると、初期費用は抑えられるかもしれませんが、長期的には追加のディスク容量と帯域幅にかかるコストが3~4倍になります。

    一般的なバックアップアプリケーションの重複排除:

    ● 1MBブロック = 2:1

    ●128KBブロック = 6:1

    ●64KBブロック = 8:1

    一般的なターゲット側アプライアンスの重複排除:

    ●8KBブロック = 12:1

    ●可変長コンテンツ分割を伴う8KBブロック = 20:1

    ●バイトレベル = 20:1

    ●バイトレベル比較を伴うゾーンスタンプ = 20:1

    ディスクと帯域幅に関連するコストは大きく異なる可能性があるため、バックアップアプリケーションまたはターゲット側アプライアンスでどのアプローチが採用されているかを把握することが重要です。

    「データ重複排除」とは何ですか?

    データ重複排除とは、入力されるデータを解析し、それをより小さなブロックやゾーン単位に分割した後、さまざまな手法を用いてそれらのブロックやバイトを比較する技術です。重複するデータが貴重なディスク容量を占有しないよう、一意のブロックやバイトのみが保存されます。プライマリストレージやアーカイブストレージの場合、重複排除率は1.2:1から最大1.8:1の範囲です。これは実際には標準的なデータ圧縮と同等か、それ以下であるため、各ファイルのコピーが1つしかないプライマリストレージやアーカイブストレージでは、データ重複排除はあまり価値をもたらしません。しかし、バックアップの場合は、長期保存を行うため、類似したファイルの複数のコピーが保持されるという点で異なります。

    バックアップでは、12週間分のバックアップを保持し、その後3年間は月次バックアップを保持するのが一般的です。この場合、40コピー以上が必要となり、データ保持期間こそがデータ重複排除が最大の価値を発揮する場面です。100TBのフルバックアップがあり、40コピーを保持する場合、4PBのディスク容量が必要になります。標準的な圧縮で2:1の圧縮率を達成したとしても、依然として2PBのディスク容量が必要となります。データ重複排除を使用すれば、最初の100TBのコピーは約50TBのディスク容量で保存でき、その後の各コピーには約2TBの容量が必要となります。これは、毎週データの約2%が変更されるためです(つまり、100TBのフルバックアップに対して2TB)。この例では、50TBに78TB(週あたり2TB × 39コピー)を加えた128TBのディスク容量が必要となります。

    重複排除率は、重複排除を行わない場合の必要ディスク容量を、重複排除を行った場合の必要ディスク容量で割ることで算出されます。この例では、4PBを128TBで割ると、重複排除率は31:1となります。保存期間が長くなるほど、重複排除率は高くなります。保存用に1コピーのみを保持する場合、1.8:1程度となり、4コピーを保持すれば3:1程度になる可能性があります。しかし、18コピーの場合、業界平均は約20:1となります。この業界平均の重複排除率20:1は、約18週間の保存期間を想定して算出されています。

    重複排除率に最も影響を与える要因は何ですか?

    重複排除率に最も大きな影響を与える変数は3つあります:

    1. 保存期間 – 保存期間が長いほど、重複データを見つけるためのバックアップコピーが増えるため、重複排除率は高くなります。

    2. アルゴリズム – より強力なアルゴリズムを使用すれば、重複排除率は高くなります。

    3. データの種類と構成 – データの種類によって、重複排除率は異なります。例えば、非構造化ファイルでは6:1や7:1の比率になりますが、データベースでは(もちろん強力なアルゴリズムを使用した場合)、100:1以上の比率を達成できます。圧縮データや暗号化データは重複排除の対象外となり、1:1の比率になります。多くのベンダーは、データタイプの構成に応じて、10:1から最大50:1の比率を達成しており、平均では20:1(平均保存期間18週間)となっています。

    データ重複排除は、バックアップウィンドウ、復元、VMの起動、およびオフサイトのテープコピーに影響を与えますか?

    はい。データ重複排除はディスクストレージや帯域幅の要件、およびそれらに関連するコストを削減しますが、その一方で3つの追加的な処理負荷の問題を引き起こします。データ重複排除は、その性質上、非常に高い処理負荷を必要とするものです。データを比較するために小さなセグメントに分割するには多大なプロセッサとメモリが必要であり、必要に応じて重複排除されたデータを再構築する(「リハイドレーション」と呼ばれるプロセス)には、さらに多くの処理能力を要します。さらに、データ量が増加するにつれて、重複排除の対象となるデータ量も増加し、それに伴う処理時間も長くなるため、バックアップウィンドウがますます拡大することになります。

    要約すると、計算負荷の高い重複排除によって生じる3つの新たな問題は以下の通りです:

    1. 取り込み速度の低下によるバックアップの遅延とバックアップウィンドウの長期化

    2. データ再構成の計算負荷の高さによる、復元、VMの起動、およびオフサイトへのテープコピーの遅延

    3. 増加するデータに対応するために拡大し続けるバックアップウィンドウ。最終的には、割り当てられたバックアップウィンドウの時間を超えてしまう事態を招く。

    「インライン」重複排除を導入すべきか?

    インライン重複排除とは、データがディスクに書き込まれる過程で重複排除が行われることを意味します。

    インライン重複排除には、主に3つのアプローチがあります:

    1. バックアップアプリケーションのメディアサーバーソフトウェアにインライン重複排除機能を追加する。この場合、メディアサーバープラットフォームは、コアとなるメディアサーバーのタスクと、計算負荷の高い重複排除処理を兼用することになり、バックアップの速度が大幅に低下します。バックアップ速度の低下を補うため、バックアップアプリケーションは計算リソースの消費を抑えるべく、より控えめなアルゴリズムを使用します。しかしその結果、時間の経過とともに(保存期間が長くなるにつれて)より多くのディスク容量を消費し、レプリケーションに要する帯域幅も増加します。ほとんどのバックアップアプリケーションは、使用する固定長ブロックのサイズに応じて、2:1、4:1、6:1、または8:1の重複排除率を達成します。さらに、フラッシュストレージ、多数のデュアルコアプロセッサ、そして大容量のメモリを備えた高価なメディアサーバーが必要となります。

    一部のバックアップアプリケーションベンダーは、購入すべきサーバーを推奨しつつ、ディスクについてはユーザーが好みのベンダーを選択できるようにしています。また、メディアサーバーソフトウェア、物理サーバー、ディスクを単一のソリューションとしてパッケージ化しているベンダーもあります。いずれの場合も、専用ハードウェアを導入するターゲット側のアプライアンスに比べ、バックアップ速度は遅くなり、必要なディスク容量と帯域幅は3~4倍になります。さらに、すべてのデータは重複排除された形式で保存されるため、復元、VMの起動、またはオフサイトへのテープコピー要求が行われるたびに、データを再構築する必要があります。その結果、VMの起動には数時間、オフサイトへのテープコピーには数日かかる場合があります。

    2. スケールアップ型ストレージアーキテクチャ(フロントエンドコントローラとディスクシェルフ)を備えた専用アプライアンスへのインライン重複排除の追加。このアプローチは、すべてのシステムリソースがデータ重複排除に専念されるため、バックアップメディアサーバー上で重複排除を行うよりも高速です。これらのアプライアンスは、よりきめ細かくて強力なアルゴリズムを採用しており、はるかに高い重複排除率を達成し、ストレージと帯域幅をさらに節約します。しかし、より強力なアプローチはより多くの演算リソースを消費するため、取り込み速度は依然として遅くなります。このアプローチは、バックアップソフトウェア内のインライン重複排除よりも高速ですが、割り当てられたバックアップウィンドウ内に収まるほど高速ではありません。レプリケーションを有効にすると、レプリケーションが重複排除とプロセッサおよびメモリを競合するため、バックアップ速度はさらに低下します。また、暗号化を有効にすると、パフォーマンスはさらに低下します。さらに、すべてのデータは重複排除された形式で保存されるため、復元、VMの起動、またはオフサイトテープへのコピー要求が行われるたびに、データを復元する必要があります。このプロセスは、VMの起動では数時間、オフサイトテープへのコピーでは数日かかる場合があります。

    3. 専用アプライアンスにインライン重複排除機能を追加し、メディアサーバーおよびアプリケーションサーバーにインストールされるソフトウェアオプションを備えたスケールアップ型ストレージアーキテクチャ(フロントエンドコントローラーとディスクシェルフ)を採用する。SQLダンプやOracle RMANなどのユーティリティを使用する場合、メディアサーバーやデータベースサーバーにインストール可能なソフトウェアが存在する。このアプローチでは、ネットワーク上のサーバーで重複排除処理の一部を実行することで、他の場所から演算リソースを借用し、取り込み速度を向上させます。欠点は、メディアサーバーやデータベースサーバーから演算リソースを奪うため、ボトルネックがチェーンの上流へと押し上げられることです。

    このアプローチは、専用のインライン重複排除アプライアンスの取り込み速度を向上させますが、2つの欠点があります。第一の欠点は、メディアサーバーや本番データベースサーバーにソフトウェアをインストールして実行する必要があるため、それらのサーバーの処理速度が低下することです。これらのアプライアンスは、よりきめ細かくて強力なアルゴリズムを採用しており、はるかに高い重複排除率を達成することで、ストレージと帯域幅をさらに節約します。レプリケーションを有効にすると、レプリケーションが重複排除とプロセッサおよびメモリを競合するため、バックアップはさらに遅くなります。さらに、暗号化も有効になっている場合、パフォーマンスはさらに低下します。2つ目の欠点は、ソフトウェアアドオンによってデータ取り込み速度は向上するものの、すべてのデータは依然として重複排除された形式で保存されるため、復元、VMの起動、またはオフサイトへのテープコピー要求のたびに、データを再構成する必要がある点です。このプロセスは、VMの起動では数時間、オフサイトへのテープコピーでは数日かかる場合があります。つまり、取り込み速度を向上させるためにメディアサーバーやデータベースサーバー上でソフトウェアを実行しても、すべてのデータが重複排除されているという事実は変わらず、復元要求の際には依然として同じ時間のかかる復元処理を経る必要があるのです。

    「ポストプロセス」重複排除を導入すべきでしょうか?

    ポストプロセス重複排除により、バックアップデータをディスクに直接書き込むことが可能となり、計算負荷の高い重複排除処理を回避することで、高速なデータ取り込みを実現します。さらに、最新のバックアップデータは重複排除前の完全な状態で保存されるため、迅速な復元、VMの起動、テープへのコピーが可能です。復元、VMの起動、テープへのコピーの95%以上が最新のバックアップデータから行われるため、時間のかかるデータの復元処理(リハイドレーション)は不要です。

    このアプローチの欠点は、重複排除とレプリケーションを開始する前にバックアップが完了する必要があるため、災害復旧サイトでのRPO(復旧時点)が不十分になることです。

    ランディングゾーンで「アダプティブ」重複排除を導入すべきでしょうか?

    アダプティブ重複排除は、あらゆる面で最適なソリューションです。バックアップデータはディスクのランディングゾーンに直接送信されるため、バックアップ実行中の重複排除に伴う処理負荷を回避でき、ポストプロセス並みの高速性を実現し、インライン重複排除よりも3倍高速です。最新のバックアップは、高速な復元、VMの起動、およびテープへのコピーのために、重複排除されていない完全な形式でディスクキャッシュのランディングゾーンに保存されます。復元、VMの起動、テープへのコピーの95%以上が最新のバックアップから行われるため、時間のかかるデータの再構築は必要ありません。

    しかし、バックアップを遅延させ、重複排除済みのデータのみを保存するインライン重複排除や、すべてのバックアップが完了するまで重複排除が行われないポストプロセス重複排除とは対照的に、ディスクキャッシュ・ランディングゾーンを備えたアダプティブ重複排除は、データがディスクにコミットされる際に、バックアップの受信と並行して重複排除とレプリケーションを開始します。これにより、バックアップにシステムリソースを最大限に割り当て、バックアップウィンドウを最小限に短縮します。

    アダプティブ重複排除の特長:

    1. 高速なダイレクト・トゥ・ディスクによるバックアップ性能により、最速のデータ取り込みと最短のバックアップウィンドウを実現

    2. ディスクキャッシュ・ランディングゾーンに保存された最新のバックアップからの高速な復元、VMの起動、およびテープへのコピー

    3. バックアップと並行して行われる重複排除とレプリケーションにより、災害復旧サイトでの強力なRPO(復旧時点)を実現

    4. ランディングゾーン内の重複排除されていないデータの背後に配置された、すべての重複排除済みデータのリポジトリにより、長期保存のためのコスト効率の高いストレージを実現。

    スケールアップ型とスケールアウト型のストレージアーキテクチャ、どちらを選ぶべきか?

    スケールアップ型アーキテクチャ(ディスクシェルフを備えたフロントエンドコントローラ)では、データ重複排除を伴うディスクバックアップにおいて、多くの課題が生じます。第一に、バックアップウィンドウが継続的に拡大してしまうことです。データ重複排除は計算負荷が高い処理ですが、スケールアップ型システムではデータが増加してもストレージ容量のみが追加されるため、データ量に比例してバックアップウィンドウも長くなってしまいます。バックアップウィンドウが長くなりすぎると、より多くの演算処理能力を確保するために、より大型で高速なコントローラーが必要となります。これは「フォークリフト・アップグレード」と呼ばれ、コストがかかり、業務に支障をきたします。

    第二に、フロントエンドコントローラーが故障すると、バックアップが一切行えなくなります。対照的に、スケールアウト型のアプローチでは、スケーラブルなシステムにアプライアンスを丸ごと追加するため、ストレージ容量とともにプロセッサ、メモリ、ネットワークポートも増強されます。データが2倍、3倍、4倍と増加するにつれて、必要なリソースも同様に2倍、3倍、4倍となります。これは「容量に応じた演算能力の追加」と呼ばれます。このスケールアウトモデルでは、固定長のバックアップウィンドウを維持しつつ、データの増加に合わせて様々なサイズのアプライアンスを追加できます。異なるサイズのアプライアンスを追加することで、成長に合わせてコストを調整でき、データが増加してもバックアップウィンドウの長さを固定でき、フォークリフト・アップグレードを排除できます。さらに、古いアプライアンスと新しいアプライアンスを単一のスケールアウトシステム内で混在させることができ、製品の陳腐化やそれに伴うサポート終了のリスクを排除します。最後に、スケールアウトシステムにおいて単一のアプライアンスが故障した場合でも、他のすべてのアプライアンスは稼働状態を維持し、バックアップを受け続けることができます。バックアップの大部分は継続して実行されますが、これはスケールアップシステムでフロントエンドコントローラーが故障した場合とは異なります。

    災害復旧(DR)データにクラウドを利用することは可能ですか?

    数テラバイト規模のデータを保有し、オフサイトのアプライアンスを設置する第2の拠点を持たない中小企業は、DRデータをクラウドプロバイダーに保存するソリューションを採用しています。クラウドベースのDRにおける真の課題は、バックアップデータが日々変化するため、データをクラウドに転送する時間が18時間未満しかなく、多大な帯域幅を必要とする点にあります。セキュリティの観点から見ると、自社のデータは他社のデータも保存されているストレージ上で混在することになります。

    さらに、データ復旧が必要な場合、妥当な時間内に復旧することは事実上不可能です。数十テラバイトからペタバイト規模のデータを保有する企業は、セカンドサイト用のバックアップストレージシステムを収容するために、第2のデータセンターを保有しています。3年間の総コストで比較すると、自社でオフサイトのDRアプライアンスを運用する方が、DRデータをクラウドにレプリケートするよりもコストが低く、復旧時間もはるかに短縮されます。また、データは組織の物理的およびネットワーク上のセキュリティの背後で管理され、他組織のデータと混在しないため、セキュリティ面でもはるかに優れています。

    重複排除されたデータは、ランサムウェアからの復旧に役立つのでしょうか?

    ExaGridの「Tiered Backup Storage」のように、2層構造のアプローチを採用したソリューションであれば、重複排除された長期保存データはハッカーから守ることができます。ExaGridのディスクキャッシュ「Landing Zone」は、高速なバックアップと復元を行うための、ネットワークに接続されたストレージ層です。一方、「リポジトリ」は、長期保存用のデータ格納を行う、ネットワークに接続されていないストレージ層です。ハッカーはネットワークに接続された階層にはアクセスできますが、ネットワークに接続されていない階層にはアクセスできません(これによりエアギャップが形成されます)。

    リポジトリ(長期保存階層)には、不変の重複排除オブジェクトが必要です。つまり、これらは決して変更、削除、上書きされないことを意味します。バックアップアプリケーションによってパフォーマンス階層内でデータが暗号化されたり、パフォーマンス階層に書き込まれたりした場合、新しい重複排除オブジェクトが追加されますが、以前の重複排除オブジェクトを上書きすることは決してありません。このアプローチにより、長期保存データが侵害されることはありません。

    パフォーマンス用のプライマリ層と、削除を遅延させる機能を備えた長期保存用のネットワーク非接続層を組み合わせることで、バックアップデータが削除されず、いつでも復元可能な状態が保たれます。さらに、2つ目のネットワーク非接続層と不変の重複排除オブジェクトを組み合わせることで、長期保存データが侵害されるのを確実に防ぎます。プライマリサイトのデータを復元しても、長期保存データはすべて保持されたままです。

    最大30日間の削除遅延を維持する場合、ストレージ容量はわずか10%の追加で済みます。これに対し、完全に独立した保存ロックストアを使用すると、バックアップストレージが2倍になり、2つのデータストアを維持する必要が生じます。

    MSP360 Backup PROでは、AWS European Sovereign Cloudをバックアップストレージ先として利用可能に

    AWS欧州主権クラウドとは(そして顧客が求める理由)

    AWSは、既存のAWSリージョンからの追加的な分離、ID/アカウントおよび請求管理のための独立したシステム、EU要件向けに設計された運用措置など、EUの主権目標に沿って設計された環境を必要とする顧客向けにESCを提供しています。

    お客様の組織が公共部門や規制産業(金融、医療、重要インフラ)に属する場合、議論は「EUリージョン」から「主権的立場」へと移行することが多い。ESCは、その次のレベルの要件に対応するために存在する。

    提供開始:ストレージ先として「Amazon S3 EU」

    MSP360 Backup PROでは、クラウドストレージアカウントを追加する際にAmazon S3 EUが表示されるようになりました。

    これにより、AWSのクラウドモデルに沿った保存先を選択しながら、慣れ親しんだバックアップワークフロー(プラン、保持期間、暗号化、復元)を維持できます。

    対象となるユーザー

    ●「バックアップデータをAWS欧州主権クラウドに保存できますか?」という問いに対し、明確な「はい」が必要なチーム

    ●EU顧客向けに主権クラウドオプションを明示的に要求されるユーザ

    ●より厳格なEUガバナンス要件に対応した環境でのバックアップ保存を求める規制対象組織

    データ中心型企業になる方法

    物理世界では、メールから猫動画、このブログ記事に至るまで、情報は絶えず生成され、管理され、消費されている。エラーメッセージやシステムログ、誰も読まないアラートメールは言うまでもない。そしてこのデジタルデータは決して消滅せず、ROT(冗長・陳腐・無意味な情報)の氾濫を招く。

    データ中心の姿勢を強化すれば、ROTの過剰を削減し、適切なデータのみを収集して情報に基づいた意思決定が可能になる。複雑である必要はない。このサーバーは何度再起動されたか?再起動にはどれくらい時間がかかるか?データ収集は、こうした単純な質問に過剰なデータ加工なしで答えられるようにすべきです。データは何に使うのか?プレゼン資料や監視環境のダッシュボード用かもしれません。あるいは開発マネージャーに「チームが2週間データベースサーバーにログインしていない」と示すためのメトリクス収集かもしれません。最終目標を明確に把握することで、最も合理的な方法でデータを収集できます。質問はしばしば仮定に基づきますが、データから得られる情報は偏見を裏付けるのではなく、事実を明らかにする助けとなるべきです。例えば、サーバー再起動がパッチの頻繁な適用によって引き起こされているかどうかを判断したい場合、「パッチはどのくらいの頻度で適用されていますか?」と尋ねる代わりに、「再起動を必要とするパッチはいくつありますか?」と尋ねることができます。この数値をサーバー再起動の総数と比較することで、パッチ適用が再起動に与える影響頻度を結論付けられます。

    1. 適切な質問から始める
    2. 最終目標を設定する
    3. 良い質問を投げかける

    データが容易に入手できる現代では、価値あるデータのみを収集することに集中するのが難しい場合があります。データ中心の考え方を強化し、データ駆動型のアプローチを採用することで、環境内のROT(Redundant, Obsolete, Trivial)を減らし、データの過剰蓄積を防ぐことができます。

    Database Performance AnalyzerはSQLパフォーマンスに何ができるのか

    Database Performance Analyzer(DPA)は、継続的な監視を提供し、応答時間分析と履歴動作ログを組み合わせることでパフォーマンスのベースライン確立を支援し、SQLパフォーマンスチューニングプロセスにおける推測作業を大幅に削減するように設計されています。DPAを使用すると、特にDPAのインテリジェントな機械学習機能と組み合わせることで、異常な動作を迅速に検出することも可能です。

    DPAに統合されたテーブルチューニングアドバイザー機能は、クエリと実行計画を分析し、非効率なSQLクエリが実行されているテーブルを特定することで、Microsoft SQL Serverの最適化機会に対処し、情報に基づいたチューニング判断を下せるよう支援します。DPAの組み込みSQLパフォーマンス分析ツールでは、相対的なワークロード順にランク付けされた、テーブルにアクセスする非効率なSQLの詳細な分析も確認可能です。

    DPAにはクエリパフォーマンスアナライザー機能も含まれており、クエリに関する最重要データを収集し、直感的で分かりやすいダッシュボードビューで表示します。クエリ詳細ページでは待機タイプやクエリ・チューニングアドバイザーを色分け表示し、チャートを組み立てることで、ユーザーは特定されたパフォーマンス問題を容易に検証・対処できます。カスタマイズ可能なレポートとアラートにより、ブロック階層やブロッキングがデータベース全体のパフォーマンスに与える影響に関する洞察も提供します。

    SQLパフォーマンス・チューニング・ツールどう役立つのか

    多くの企業や組織(オンライン小売業者から政府機関まで)の主要な機能は、データベースにおける情報の保存とアクセスを中心に展開しています。内部ユーザーも外部ユーザーも、アプリケーションやウェブサイトが効率的かつ迅速に動作することを期待しています。このため、サーバーとデータベースが可能な限り効率的に機能することが重要です。

    1回のクエリで数ミリ秒の遅延はさほど大きく感じられないかもしれませんが、データベース内の各クエリで遅延が発生すると、それはすぐに累積していきます。これに、生成され続ける膨大なデータ量が加わることで、データベースへの書き込みや情報取得のプロセスはますます煩雑で時間のかかるものとなります。ビジネスに不可欠なプロセスに遅延や速度低下が生じると、組織全体の機能が損なわれる可能性があります。

    効果的なMS SQLチューニングには、データベース管理者とIT専門家がSQL Serverのパフォーマンスを常に把握し、データベース関連の操作が可能な限り効率的に実行されるようにすることが求められます。

    なぜSQLパフォーマンス・チューニングは重要なのか

    多くの企業や組織(オンライン小売業者から政府機関まで)の主要な機能は、データベースにおける情報の保存とアクセスを中心に展開しています。内部ユーザーも外部ユーザーも、アプリケーションやウェブサイトが効率的かつ迅速に動作することを期待しています。このため、サーバーとデータベースが可能な限り効率的に機能することが重要です。

    1回のクエリで数ミリ秒の遅延はさほど大きく感じられないかもしれませんが、データベース内の各クエリで遅延が発生すると、それはすぐに累積していきます。これに、生成され続ける膨大なデータ量が加わることで、データベースへの書き込みや情報取得のプロセスはますます煩雑で時間のかかるものとなります。ビジネスに不可欠なプロセスに遅延や速度低下が生じると、組織全体の機能が損なわれる可能性があります。

    効果的なMS SQLチューニングには、データベース管理者とIT専門家がSQL Serverのパフォーマンスを常に把握し、データベース関連の操作が可能な限り効率的に実行されるようにすることが求められます。

    SQLパフォーマンス・チューニングはどのように始動するのか

    SQL Serverデータベースのパフォーマンスチューニングの第一歩は、必要または望まれるほど効率的に実行されていない遅いSQLクエリを特定することです。

    SQLチューニングには、将来予測可能な問題を未然に防ぐ「予防的」アプローチと、特定のユーザー問題が発生した際の「事後対応的」アプローチがあります。データベースクエリのチューニングにおいて、DBAが考慮すべき基本的なベストプラクティスを以下に示します:

    • インデックスは慎重に作成する。 インデックスはデータ取得用のデータ構造であり、行の選択を高速化しますが、ボトルネックを避けるため慎重に作成する必要があります。
    • ループ処理を避ける。 クエリ実行時の繰り返し処理や過剰負荷を回避すべきです。
    • SQLサブクエリの相関を避ける。 サブクエリは親クエリを参照し、行単位で処理されるため、処理速度が低下します。

    待機時間と統計情報は、SQL Serverのパフォーマンスチューニングの重点領域を特定する有効な手段です。SQL Serverは「スレッド」を介してユーザー要求を管理し、各種スレッドのパフォーマンスを監視することで、管理者はどのクエリが低パフォーマンスであるかをより正確に判断できます。チューニングプロセスの目的は以下の通りです:

    応答時間の短縮: ステートメント実行から応答までの時間

    スループットの最適化: ステートメント処理に必要なリソース量

    ただし、SQL Server パフォーマンス問題の根本原因を特定するには、データベース管理者はデータベースとサーバーの全レイヤーに関する洞察が必要となる場合があります。SQL Server チューニングツールは、上位 SQL ステートメント、待機タイプ、ブロックされたクエリ、およびインデックス不足がサーバーやデータベースのパフォーマンスに与える影響に関する理解を深めるプロセスを迅速化・効率化するのに役立ちます。

    SQLパフォーマンス・チューニングとは

    SQLパフォーマンスチューニングは、リレーショナルデータベースのクエリを可能な限り迅速かつ効率的に実行するために設計された一連の手順とプロセスです。SQLチューニングにはいくつかのステップが含まれます。まず、遅延が発生しているクエリを特定し、次にそれらのクエリを最適化して効率を最大化し、応答時間を短縮します。SQL Server、MySQLなど、多くのリレーショナルデータベースでSQLチューニングが必要となる場合があります。

    管理者はシステムレベルでサーバーのパフォーマンス問題に対処しようと試みることができます(追加メモリやプロセッサの導入など)。しかし、これらの対策は実装コストが比較的高く、SQL Serverへの遅延クエリの根本原因に対処できない場合があります。SQLパフォーマンスチューニングは、不適切に記述されたSQLクエリや非効率的なインデックスを特定することでパフォーマンス向上を支援します。これはハードウェアや技術仕様の改善よりも、より的を絞った解決策となり得ます。

    ただし、SQLのパフォーマンスチューニングは、特に手動で行う場合や大量のデータを管理する組織にとっては困難な作業となり得ます。こうした調整(たとえ小さな変更であっても)は、SQLサーバーやデータベースのパフォーマンスに広範な影響を及ぼす可能性があります。

    Azure バックアップの暗号化へのヒント

    地理的に冗長化された暗号化対応の実装: 地理的に冗長化されたストレージ(GRS)を利用する場合でも、暗号化されたバックアップデータは暗号化された状態で複製されることを理解してください。CMKを使用する場合は、プライマリ地域とセカンダリ地域の両方でキーが利用可能であることを確認してください。地域災害時の復元失敗を回避するため、キーの複製または協調的な復旧戦略を計画してください。

    メンテナンス期間中にキーバージョンの変更を事前準備:キーローテーションは透過的に見えるかもしれませんが、依存サービスが新バージョンを認識していない場合、バックアップや復元が遅延する可能性があります。計画されたメンテナンス期間中にキー更新を段階的に実施し、ダミーバックアップでテストして、特に高スループット環境において下流への影響がないことを確認してください。

    ポリシースキャンによる保管庫暗号化ドリフトの監視: カスタム Azure Policy 定義を使用し、想定される暗号化構成から逸脱したリカバリ サービスまたはバックアップ保管庫(例: CMK ではなくプラットフォーム管理キーの使用)をフラグ付けします。CI/CD パイプラインまたは Azure ガバナンス ダッシュボードに統合し、構成ドリフトを防止します。

    暗号化構成を規制ゾーンにマッピング:コンプライアンスゾーン(「PCI」「HIPAA」「内部」など)でベールをタグ付けし、ベール暗号化(CMK、インフラストラクチャ暗号化)が各ゾーンの規制要件に準拠していることを確認します。このアプローチは監査の自動化に役立ち、混合コンプライアンスレベルの共有環境で有効です。

    キーボルト管理者には条件付きアクセスとジャストインタイム(JIT)アクセスを適用:Azure AD条件付きアクセスポリシーと特権ID管理(PIM)経由のJITアクセスでこれらの役割を保護します。これにより、必要な場合にのみアクセスが許可され、厳密に制御されます。

    Azure における N2WSを使用した暗号化されたクラウド バックアップ

    N2WSは、AWSおよびAzureのお客様向けにポリシーベースのバックアップと災害復旧の自動化を提供します。N2WSはスナップショットベースのバックアップ層として機能し、Azureのネイティブ暗号化インフラストラクチャの上に位置し、お客様が既に設定済みのディスク暗号化と連動して動作します。

    N2WSによるAzureバックアップの保護方法

    暗号化

    AzureはAES-256を用いて、データ暗号化キー(DEK)を介してバックアップデータを保護します。DEKはさらに、Azure Key Vaultに保存されたキー暗号化キー(KEK)によって保護されます。N2WSは、設定不要でデフォルトで有効なプラットフォーム管理キー(PMK)と、Azure Key Vaultに保存されたRSAキーでエンドツーエンドの暗号化を制御する顧客管理キー(CMK)の両方をサポートします。

    N2WSがCMKで暗号化されたディスクのスナップショットを作成すると、追加手順なしで自動的にディスクの暗号化が継承されます。バックアップデータは、Azure Key Vaultのキーによって常に保護された状態を維持します。必要に応じて、N2WSは復元時に別のディスク暗号化セット(DES)を適用することも可能であり、復元されたデータを保護するキーを変更する柔軟性を提供します。

    不変性

    暗号化に加えて、N2WSは不変バックアップという形で追加の保護層を追加し、最高水準の保護を使用してバックアップの改ざんや削除から守ります。不変バックアップのポリシーが有効化されると、特定の保持期間に対して「削除」ロックタイプが割り当てられ、その期間中のいかなる変更や削除も防止されます。ストレージアカウントリポジトリの場合、N2WSは保存されたオブジェクトごとにリースを設定します。リースされたオブジェクトは、リースが明示的にキャンセルされるまで削除または変更できず、偶発的または悪意のある削除に対するさらなる安全策となります。

    アクセス制御

    データ自体の保護に加え、N2WSはAzureのロールベースアクセス制御システムと連携し、コンプライアンス基準に沿った安全なアクセスポリシーを適用します。プラットフォーム設定の一環として、組織はAzure内でカスタムIAMロールを構成します。これにより管理者はバックアップリソースとのやり取りを許可する対象を厳密に制御でき、最小権限の原則に沿ったアクセス権限を保証します。

    毎週金曜日に実施できる30分の復元(リストア)テスト

    ほとんどの「バックアップテスト」は大きすぎるために失敗します。
    こちらが軽量な週ごとのルーティンです:

    ステップ 1️– ターゲットを1つ選ぶ
    • 1つのエンドポイントまたは1つのクリティカルフォルダー
    • クライアント/エンドポイントを週ごとにローテーションする

    ステップ 2️ – 2回の復元を実行する
    • ファイルレベル:1つのファイルを別の場所に復元する
    ・システムレベル:小さな画像スナップショットや重要なアプリ設定(該当する場合)を復元する

    ステップ 3️– 検証
    • 可能であればチェックサム/ハッシュ
    ・許可/所有権確認
    • App Openテスト(設定/データベースダンプ用)

    ステップ 4️ – 3桁だけ記録する
    ・時間を回復する
    • 位置(どこ)を復元する
    ・壊れたもの(もしあれば)

    4〜6週間後にはパターンが見えます:
    ✔️ 帯域幅のボトルネック
    ✔️ 保持ギャップ
    ✔️ 許可の驚き
    ✔️ きれいに復旧しない「グリーンジョブ」

    これが本当のバックアップ成熟度、つまり回復の再現可能な証明です。

    Acronis サイバー脅威アップデート – 2026年2月

    🔹 Acronisは2026年1月にエンドポイントで170万+件の悪意ファイルをブロックしましたが、これは12月の230万件から減少しましたが、URL攻撃は35.6%増加しました。
    🔹 1月には約723件の公表データ漏洩が記録されました
    🔹 最も活動的なランサムウェアグループ:Qilin(被害者102人)、Cl0p(被害者79人)、0apt(被害者71人)
    🔹 主なマルウェア脅威:Mirai、XWorm、AsyncRAT

    Windowsユーザのためのdockerで知っておくべき点は?

    WindowsでDockerを利用する場合、以前は様々な苦労がありましたが、現在はWSL 2(Windows Subsystem for Linux 2)の登場により、MacやLinuxとほぼ変わらない快適な環境が構築できるようになりました。

    WindowsユーザがDockerを扱う上で、特に知っておくべき重要なポイントを5つにまとめました。


    1. 「WSL 2」バックエンドが必須かつ最強

    現在の「Docker Desktop for Windows」は、WSL 2ベースのエンジンを使用するのが標準です。

    • メリット: 従来のHyper-Vを使った方式に比べて、起動が圧倒的に速く、メモリの消費も効率的です。また、Windows HomeエディションでもDockerが動くようになりました。
    • 注意点: インストール時に必ず「Use WSL 2 based engine」にチェックを入れるようにしてください。

    2. ファイルの置き場所でパフォーマンスが激変する

    Windows側(C:\ など)にソースコードを置き、それをコンテナ(Linux)にマウント(Bind Mount)すると、OS間のファイル変換処理が発生して動作が非常に遅くなります(特にNode.jsの node_modules などファイル数が多い場合)。

    • 解決策: ソースコードは**WSL 2のファイルシステム内(\\wsl$\Ubuntu\home\user\... など)**に配置してください。これにより、ネイティブのLinux環境と同等のI/O速度が出ます。
    • 開発手法: VS Codeの拡張機能「WSL」や「Dev Containers」を使うと、WSL内のファイルをWindows側のVS Codeでシームレスに編集できて非常に快適です。

    3. 改行コード問題(CRLF vs LF)

    Windowsユーザが最もハマりやすい罠です。Windowsの標準の改行コードは CRLF ですが、Linux(Dockerコンテナ内)は LF です。

    • 起きる問題: Windows上で作成したシェルスクリプト(.sh)などをコンテナ内で実行しようとすると、「コマンドが見つからない」といった謎のエラーが起きます。
    • 解決策: エディタの設定で改行コードを LF にして保存する癖をつけるか、Gitの設定で core.autocrlf を適切に設定(またはプロジェクトに .gitattributes を配置)して、勝手に CRLF に変換されないように防ぐ必要があります。

    4. WSL 2のメモリ・CPU制限(.wslconfig

    WSL 2は初期設定のままだと、Windowsのシステムメモリを最大で50%(またはそれ以上)も確保しようとするため、PC全体の動作が重くなることがあります。

    • 解決策: Windowsのユーザーフォルダ(C:\Users\<ユーザー名>\)直下に .wslconfig という設定ファイルを作成し、WSL 2(つまりDocker)が使えるメモリ上限を設定しておくことを強くおすすめします。

    .wslconfig の記述例:

    Ini, TOML

    [wsl2]
    memory=8GB
    processors=4
    

    5. 「Linuxコンテナ」と「Windowsコンテナ」の違い

    Docker for Windowsには、通常のLinux環境を動かす「Linuxコンテナ」モードと、Windows Server環境などを動かす「Windowsコンテナ」モードの2つが存在し、タスクトレイのアイコンから切り替えることができます。

    • 基本はLinux: Web開発などで使うイメージ(Ubuntu、Alpine、Python、Node、Nginxなど)はすべてLinuxコンテナ向けです。基本的には「Linuxコンテナ」モードのままでOKです(標準設定です)。

    WindowsでのDocker開発は、**「WSL 2内にコードを置き、VS CodeのDev Containersで繋ぐ」**というスタイルが現在のベストプラクティスです。

    N2WSによるクラウドバックアップコスト最適化戦略

    クラウドデータセンターの長期的な展望

    長期的に状況が一変しています。AIモデルはメモリ効率と演算効率が向上し、高性能SSDやDRAMへの過度の負荷が軽減されると予想される。同時に、新たなファブやデータセンターが稼働を開始し、供給制約は徐々に緩和されるでしょう。

    歴史的に、ハイパースケーラーはインフラ構築時に容量を過剰に確保する傾向があり、一時的な供給過剰を生み出してきました。そうなると競争が復活する:プロバイダーはワークロード獲得で競い合い、価格圧力は緩和され、企業は低コストなストレージオプション、より柔軟な階層化、改善されたクラウド経済性の恩恵を受けます。

    時間の経過とともに、この短期的な不足のサイクルは、ハイパースケーラー間のクラウド市場におけるより競争的な状況へと変化します。効率性、拡張、過剰供給、そして競争の復活が常態化し、クラウド戦略と企業のコスト最適化の両方を形作るでしょう。

    イノベーションの成長痛

    企業にとってより重要なのはパニックではなく計画です:AI駆動型インフラ経済が今日のクラウドコストにどう波及するかを理解し、このサイクルを乗り切るためのアーキテクチャを構築することです。AIは企業が構築するものを変えるだけではありません。静かにクラウド請求書の様相も変えつつあるのです。

    要約:

    ストレージコストを簡単に削減したい場合、N2WSはAWSおよびAzureワークロードの保護をより費用対効果が高く(かつシンプルに)実現します。

    ・クラウドバックアップコストの最適化とは、長期ストレージの階層化を効率的に活用することです。具体的には、低コストリポジトリへの移行や初回フルバックアップのホットストレージ料金の削減を実現しつつ、データの可用性と即時復元可能性を確保します。

    ・長期ストレージにおける最大のコスト要因は、隠れたライセンス費用と、安価なアーカイブストレージをサポートしないバックアップツールによる限定的なストレージ選択肢です。

    ・N2WSを利用するお客様は、予算を圧迫することなく、データライフサイクル管理を簡素化し、長期保存データを効率的に保管し、長期保持期間を要求する様々な規制に準拠しています。

    ・今すぐAWSまたはAzureバックアップストレージの年間節約額を予測しましょう。

    AI駆動型クラウド災害復旧の導入方法

    これまで、データバックアップおよび災害復旧ベンダーのほとんどは、自社製品にAI機能を直接統合していません。技術購入者は、ツールに「AI」というラベルを安易に貼っているベンダーには警戒すべきです。なぜなら、ベンダーが「あらゆる自動化はAIの一形態である」と主張し、この用語を大雑把に用いているケースがあるからです。実際にはそうではありません。

    競合他社を過度に批判していると非難されないよう、IDCの災害復旧におけるAIに関するレポートを引用しておこう。「災害復旧および事業継続ソリューションにおける包括的なAIの活用はまだ初期段階にある。ただし、厳密な定義には当てはまらない場合でも、ほとんどのベンダーが何らかの技術をAIとして位置付けている」と述べている。IDCはさらに、AI搭載機能が災害復旧ツールの主要要素となるのは少なくとも2025年以降と予測している。

    つまり、クラウド災害復旧戦略にAIを統合するには、単に「AI対応」を謳うツールを購入して終わりでは不十分です。しかし企業ができるのは、汎用的なAI技術を災害復旧シナリオに応用することです。

    そのための基本手順は以下の通りです。

    #1. AI活用事例を特定する

    まず、災害復旧の文脈でAIに何を期待するかを明確にする。過去の課題から復旧作業の精度と信頼性を高めることが目的か?予算制約からコスト削減を目指すか?それとも別の目的か?

    AIソリューションに何を期待するかを把握することは、実現方法を決める上で重要。

    #2. AIツールまたはプラットフォームの選択

    次に、想定するユースケースをサポート可能なAIツールまたはプラットフォームを選択します。一般的に、OpenAIのGPTモデルやGoogle Geminiなどのいわゆる生成AI基盤モデルは、復旧計画の分析やプレイブック生成など、AI駆動型災害復旧に関連するタスクを実行できます。これらのソリューションの利点は、事前学習済みで使いやすいことです。

    とはいえ、ソフトウェア開発リソースと専門知識があれば、独自のAIモデルを構築したり、既存のオープンソースモデルをカスタマイズしたりすることも可能です(容易ではありませんが)。

    #3. モデルに関連データを学習させる

    使用するAIツールやプラットフォームを選んだら、ユースケースを理解するために必要なデータをモデルに学習させます。例えば、プレイブック生成が目的なら、ファイル・ディレクトリ・データベースのマッピングをモデルに提示し、復旧手順の提案を依頼できます。あるいは、バックアップデータ構造と本番システムのマッピングを投入し、復旧成功率を高めるバックアップ改善策を求められます。

    機密性の高いビジネスデータをサードパーティのAIツールやプラットフォームに公開することは、プライバシーリスクを伴う可能性があることに留意してください。これを軽減するには、ユーザーデータの管理方法について厳格な保証と制御を提供するモデルを選択します。あるいは、可能であれば、ディレクトリ自体ではなくファイルディレクトリ構造などの情報を共有することで、機密情報の公開を完全に回避します。

    #4. AI駆動ワークフローの訓練と更新

    バックアップと復旧の要件は頻繁に変化する可能性が高いため、運用を支えるAI駆動ワークフローの更新も必要です。例えば、新しいアプリケーションやデータベースを導入した場合、変更を確実に反映させるために、更新されたプレイブックを生成したり、復旧戦略を再評価したりすることが望ましいでしょう。