クラウド移行のための現在のワークロードを評価する手法

大小さまざまな企業が、クラウドコンピューティングを活用しています。ここ数年、クラウド・アプリケーションが爆発的な成長を遂げているのを、目の当たりにしてきました。これは、Office 365を活用したり、すべてのビジネスアプリケーションをデータセンターからクラウドに移行したりするような単純なものです。

企業がビジネスアプリケーションのクラウドへの移行を検討し始めると、セキュリティ、コンプライアンス、コスト、ディザスタリカバリなど、あらゆる面での多くの考慮事項が発生します。最終的には、どのシステムやアプリケーションを最初に移行すべきかという議論に発展していきます。

システムが特定され始めると、各システムがどのようなワークロードを持ち、それがクラウド上でどのように見えるかが議論されるようになります。ここでは、クラウドワークロードとは何か、そして知っておくべきさまざまなタイプのワークロードについて紹介します。また、現在のワークロードがクラウドに移行するのに適した候補であるかどうかを評価する際に、重要な考慮事項と成功するために必要なことについても紹介します。

クラウドコンピューティングにおけるワークロードとは何か?

クラウドワークロードとは一体何か?クラウドワークロードとは、基本的にクラウド上でコンピューティングパワーを消費するリソースやサービスのことを指します。ウェブサービス、アプリケーションサーバー、データベースサーバー、あるいはその他のビジネスプロセスなどがこれに該当します。

ユーザがクラウド移行に取り組む際、計画を深く練る前に、ユーザのワークロードの種類を評価すべきと常に考えられます。データベースのワークロードであっても、いくつかの異なるカテゴリーに分類することができます。

クラウドのワークロードの種類を説明

ワークロードの中には、一般的なコンピュート層に分類されるものもあります。データベースのワークロードの観点からすると、これを部門レベルのワークロードとして一般化できます。例えば、会計や人事など、より大きな組織内の特定部門を担当するアプリケーションなどがその例です。

データベースのワークロードの中には、より多くのCPUパワーを使用し、より多くのvCoreを必要とするものがあります。より多くのCPUを必要とするワークロードと同じように、より多くのメモリを必要とするワークロードがあります。SQL Server のようなリレーショナルデータベースシステムがデータをキャッシュするため、メモリ集約型のワークロードはデータベースのワークロードで非常によく見られます。従来は、メモリを増やすためには、CPUもスケールアップする必要がありました。Microsoft Azureでは、実際のコア数を提供することなく、より大きなサイズのVMのすべての利点を提供する「制約コア」VMを選択することができるようになりました。例えば、VMには8つのvCoreが必要ですが、16vCoreモデルでは利用可能な128GBのメモリが必要です。16vCoreのVMを8vCoreに減らした制約コアバージョンを選択することができます。メモリ、ストレージスループット、ネットワークスループットなど、16 vCoreモデルの他のすべてのリソースが利用可能です。

ほとんどのクラウドプロバイダーは、ストレージに最適化したバージョンのクラウドも提供しています。これは、大規模なデータウェアハウス、NoSQLデータベース、およびストレージに対して多くの要求を出すワークロードに典型的なものです。

ほとんどのクラウドプロバイダーが、GPUに最適化されたワークロードを提供していることも注目に値します。機械学習、人工知能、高度な分析との密接な統合により、これらのGPU最適化リソースが活躍する可能性があります。

Azureのような一部のクラウドプロバイダーは、定期的なワークロードのためのオプションを持っています。Azure SQL Databaseのようなある種のデータベースプラットフォームについては、サーバーレスティアを用意しています。サーバーレスでは、ワークロードの要求に応じてリソースを自動スケーリングすることができます。また、コンピュートリソースを一時停止するオートポーズ機能もあり、コンピュートコストを節約することができます。リソースの自動スケーリングは、ウェブサービスなどでは一般的ですが、データベースのワークロードにこの機能を持たせるのはユニークです。

予測不可能なワークロードに対して、クラウドプロバイダーは、さまざまなシステムが利用できるリソースのプールを提供することがあります。Azure SQL Databaseの場合、この機能はElastic Poolsと呼ばれています。これにより、組織は、シングルトン(注1)データベースが利用できるvCoresまたはeDTUのプール上限を設定することができます。ワークロードが適切にバランスされていれば、短時間のリソース需要に対応するためにリソースを過剰に割り当てる必要がないため、企業のコストを大幅に削減することができます。

もう一つの一般的なシナリオは、ハイブリッド・ワークロードです。これは、クラウド機能を活用したい企業にとって非常に一般的になってきています。AzureのExpress Route、OracleのFast Connect、AWSのDirect ConnectといったVPNや高速専用接続を使えば、オンプレミスの拠点とプライベートクラウドやパブリッククラウドを接続したり拡張したり、場合によってはマルチクラウド環境を構築したりして、ハイブリッドクラウド環境を簡単に構築できるようになってきています。

データベースワークロードでの一般的なハイブリッドシナリオは、Power BIを活用してローカルデータセットに接続してレポートを作成したり、Azure Data Factoryを活用してローカルデータセットに接続してETLプロセスを実行したりすることです。また、バックアップファイルをクラウドに保存したり、可用性グループやログシッピングをVMに拡張したりすることで、ディザスタリカバリのためにクラウドを活用することも、よくあるシナリオのひとつです。

ワークロードを移行する際の留意点

ワークロードのクラウドへの移行を検討する場合、どのようなリソース仕様が必要かを判断する必要があります。オンプレミス環境では、将来の成長に対応するためにサイズが大きくなってしまうことがよくあります。クラウドの大きなメリットは、ビジネスやワークロードの成長に合わせてリソースを簡単にスケールアップできることです。このため、組織は、現在プロビジョニングされているものだけでなく、既存のワークロードが何を必要としているかに焦点を当てる必要があります。

CPU、メモリ、ストレージの容量については、簡単です。8つの論理コアを持つデータベースサーバがあり、通常の営業時間中に平均60~70%のCPU負荷がかかっているとしたら、クロックスピードが同じようなプロセッサーのVMを使用するようにし、少なくとも8つの論理コアを維持したいと考えるでしょう。メモリも同様に扱います。現在のメモリ・カウンターを確認し、データがバッファ・プールにどれくらいの時間留まっているかを確認し、新システムに十分なメモリがあることを確認するのです。以前にオンプレミスのサーバのプロビジョニングが著しく不足していたため、クラウドサーバーにメモリを追加して構築したプロジェクトや、プロビジョニングが大幅に過剰だったため、適正な量のサーバを選択したプロジェクトがありました。ストレージ容量は、現在使われているものと近い将来予測されるものをプロビジョニングする方法がわかりやすいです。

自動化でストレージのスループットを把握するメリット

常に見落とされがちなのが、ストレージのスループットです。これは、ディスクへのデータの読み書きの量である。多くの企業はディスクのレイテンシーを監視しており、これは重要なことですが、オンプレミスのローカルまたはネットワークストレージによってスロットルされていないため、全体的なスループットには注目していないかもしれません。

従来は、既存のストレージに対してベンチマークを実行し、その能力を確認することで、ストレージのスループットを測定していました。これはストレステストのベンチマークとしては最適な方法ですが、新しいクラウド環境で必要なものをサイジングする方法としては適しているとは言えません。重要なのは、ストレージのスループットについて既存のワークロードを把握することで、クラウド環境のサイズを適切に設定することができます。多くの場合、この作業は行われず、移行後にパフォーマンスの問題が発生し、最終的に評判を落とし、インフラストラクチャのサイズを変更しなければならないため、予期していなかった予算問題が発生する可能性があります。

SQL Serverデータベースのストレージスループットを把握するために、最も簡単な方法の1つは、パフォーマンスモニター「perfmon」を使用して「ディスク読み取りバイト/秒」と「ディスク書き込みバイト/秒」を把握することです。より頻繁に使用する別のオプションは、sys.dm_io_virtual_file_statsを利用することです。このDMVは、最後のSQL Serverサービス再起動以降のファイル統計情報を取得します。

自動化によってこのデータを長期的に取得するもう一つの利点は、使用量が多い時間帯を確認できることです。バックアップ、メンテナンス作業、または時間外のETL処理中に使用量がピークに達していないでしょうか?もしそうなら、ほとんどのユースケースでは、これらの値を除外して、実際のエンドユーザのアクティビティに必要なものを確認することができます。

これが非常に重要な理由は、クラウドリソースはリソースのサイズに基づいてI/Oとスループットを制限しているからです。Azureでは、Azure SQL Database、Azure SQL Managed Instance、Azure SQL VMがこれに当てはまります。ティアのサイズやvCoreの数が増えると、ストレージのIOPSやスループットなど、他の制限も増えていきます。

クラウドワークロードの監視とオンプレミスワークロードの監視

クラウドのワークロードを監視する方法は、いくつかの例外を除いて、オンプレミスの監視方法と非常に似ています。前述のように、ストレージのスループットは、ワークロードを処理できる環境を持つための重要な要素です。ストレージのスループットは、ワークロードを処理できる環境を構築する上で重要な要素です。環境によっては限界があり、容量に近づいている、または容量に達しているタイミングを知ることは非常に重要です。パフォーマンスモニターやsys.dm_os_virtual_file_stats DMVを使用して、上記で説明した同様のプロセスを実行すれば、消費量を知ることができます。しかし、Azure仮想マシンでは、ディスクまたはVMレベルの上限を監視するために、いくつかのメトリクスを利用することができます:

●ディスクレベルでは :データディスクIOPS消費率、データディスク帯域幅消費率

●VMレベルでは :VMキャッシュIOPS消費率、VMキャッシュ帯域幅消費率、VMアンキャッシュIOPS消費率、VMアンキャッシュ帯域幅消費率

適切な移行プランニングが成功の鍵

クラウドは、あらゆるワークロードに対応できるように準備されていますが、移行を成功させるためには、適切な計画が不可欠です。クラウドのリソースの制限、特にストレージのスループットを意識することで、適切なコンピュートリソースを利用できるようになり、移行を成功させることができるようになります。クラウドに移行した後は、リソース消費の監視にストレージのスループットも含める必要があります。

移行前、移行中、移行後のデータ環境の最適化とパフォーマンスの向上に役立つ深いレベルの洞察を提供するために、データベースソリューションがどのように構築されているかを確認する手法は、詳しくはこちらをご覧ください。

(注1)シングルトンとは、オブジェクト指向プログラミングにおけるクラスのデザインパターンの一つで、実行時にそのクラスのインスタンスが必ず単一になるよう設計すること。

タグ: ,

仮想マシン・ストレージ:ファイル vs ブロック

仮想マシン・ストレージは、仮想化インフラの重要なコンポーネントの1つで、ブロック・ストレージとファイル・ストレージが最も使用されるストレージ・タイプです。どちらを選ぶかは、実行するVM、アプリ、サービスのパフォーマンスに影響します。そのため、VMのストレージをそれらの要件にうまくマッチさせることが特に重要なのです。そこで今回は、ブロックストレージとファイルストレージの違いを明らかにし、最も注目すべきプロトコルを説明します。

ファイル・ストレージ
ファイル・ストレージでは、データはディレクトリとサブディレクトリに編成された階層構造のファイルに保存されます。ストレージシステムからファイルを取り出すには、アクセス権限とファイルパスが必要です。ファイルプロトコルは、複数のクライアントがサーバーに接続するNASシナリオを可能にし、ファイルの共有やコラボレーションを簡単に行うことができるようにします。

最も一般的なファイル(NAS)プロトコルは、NFS(Network File System)およびSMB(Server Message Block)です。仮想化の観点からは、NFSベースのストレージはVMware、KVM、Xenでよく使用され、SMBはHyper-V環境で好まれるオプションです。

全体的に、ファイルストレージは、テキスト文書、画像、メディア、その他の一般的なコンテンツタイプなど、小~中規模の非構造化データセットに最適です。しかし、最新のファイルストレージプロトコルの実装は、仮想マシンのストレージとしても有効で、ブロックストレージ(SAN)を追加したくない管理者にとっては非常に便利なものです。

ブロックストレージ
一方、ブロックストレージは、仮想マシンファイルやデータベースのような大規模な構造化データセットの保存に一般的に使用されます。ブロックストレージでは、ファイルは複数のブロックに分割され、各ブロックには固有のIDが付与されます。ブロックは、異なるディスクドライブや、ネットワークで接続された異なるシステムにも保存することができます。そのデータが要求されたとき、ブロックはそのIDによって検索され、再組み立てされます。

ブロックストレージはSAN(Storage Area Network)でよく使われ、最も一般的なプロトコルはファイバーチャネル、iSCSI、そして最近ではNVMe-oF(NVMe over Fabrics)である。

SMB、NFS、iSCSI、NVMe-oFの比較
次に、ほとんどの仮想化環境で利用可能な4つの一般的なファイルおよびブロックレベルのプロトコルの違いと類似点を考えてみます:

ファイルプロトコル
SMB
SMB(Server Message Block)は、ファイルレベルのストレージプロトコルです。クライアントがネットワーク上のファイルサーバーからデータを読み書きできるようにします。SMBは、そのシンプルさと使いやすさで知られています。また、互換性が高く、さまざまなオペレーティングシステムでうまく機能します。Microsoft Hyper-Vや、Microsoft SQL ServerなどのWindows Serverサービスは、SMBを使用してデータを保存することができます。Windows Server 2012から利用できるSMB 3.0バージョンでは、SMB MultichannelやSMB Directなどの新機能が追加され、プロトコルのパフォーマンスが大幅に向上し、ユースケースが拡大されました。

性能面では、SMBは大規模なシーケンシャルリード/ライト用に調整されており、これは「カジュアル」なユーザーがほとんどの場合行うことです。また、SMB 3.0のネイティブ機能とその高度な機能により、非構造化データやWindowsベースの環境での仮想マシンの保存にも最適です。そのため、中小企業では仮想化やファイル共有のために好まれています。しかし、SMBは帯域幅の制限があるため、大企業や高性能な環境にはあまり適していません。また、キロバイトサイズの小さなファイルをたくさん転送する場合には好ましくありません。ここでは、iSCSIのようなブロックレベルのストレージを使用するのがよいでしょう。

NFS
ネットワークファイルシステム(NFS)は、ネットワーク上でのファイル共有とファイルへのリモートアクセスを可能にする分散ファイルシステムのプロトコルです。また、クライアントサーバーモデルで動作するため、ユーザーはリモートサーバーに保存されたファイルをローカルフォルダーに保存されているかのようにアクセスすることができます。

SMBと同様に、NFSはユーザーに透過的なアクセスとファイルロック機構を提供し、企業内の共同作業が必要な場合に便利です。SMBと同様に、NFSは大規模なシーケンシャルリード/ライトではより高速で効率的であり、小規模なI/Oではあまり効果的ではありません。NFS 4の性能は、RDMAやマルチパスなどの高度な機能によってさらに向上させることができます。しかし、セッショントランキングまたはpNFS拡張を介して達成された、NFSのマルチパスの実装は、SMBのように信頼性と使いやすさに欠けます。

ブロックプロトコル
iSCSI
Internet Small Computer System Interface、通称iSCSIは、TCP上で動作するブロックプロトコルです。ISCSIは、複数のクライアントやサービスが中央のストレージにアクセスすることを可能にする共有ストレージネットワークを設定することができます。

iSCSIはブロックプロトコルなので、イニシエータはブロックレベルのデータをサーバからストレージデバイスのターゲットに転送します。iSCSIは、SCSIコマンドをカプセル化して、TCP/IPレイヤーのパケットの形でデータを組み立てます。パケットが目的地に到着すると、物理的なストレージデバイスがコンピュータにローカルに接続されているかのように、OSがデータを読み取るための様々なiSCSIコマンドに分離されます。この場合の主な問題は、iSCSIでは複数のサーバーが同じボリュームに同時にアクセスすることができないことです。ただし、クラスタ化されたファイルシステム(CSV、VMFSなど)のように、複数の同時アクセスを許可するファイルシステムを使用すれば、これを実現することができます。

iSCSIプロトコルは、ほとんどのハイパーバイザーやOSでサポートされており、既存のイーサネット機器を使用してiSCSI SANインフラを導入することができます。複雑なファイバーチャネルSANトポロジーを学ぶ必要がないため、専用のハードウェアや、iSCSIストレージネットワークを展開・維持するためのスタッフは必要ありません。iSCSIはTCP/IPプロトコルを使用しているため、技術的には最大400Gbpsのイーサネットをサポートしています。このため、エンタープライズ環境での集中的なワークロードには、SMBよりも望ましい選択となります。

欠点としては、iSCSIはその性質上、膨大な量のネットワークトラフィックを発生させます。これは、iSCSIを別のLANセグメントに分離し、RDMAや様々なオフロードによって速度をさらに向上させることで回避することができます。しかし、はっきりとした微調整を行わないと、問題が発生する可能性があります。

NVMe-oF
NVMe-oF として知られる Non-Volatile Memory Express Over Fabrics は、Ethernet、Fibre Channel、InfiniBand 上のイニシエータと固体ストレージデバイス間の高速かつ効率的なデータ転送を確保するために使用される最新の高速ストレージプロトコルです。NVMeと同様に、NVMe-oFは、従来のプロトコルやインターフェイスによって妨げられていたフラッシュ・ストレージの潜在的な性能を完全に引き出すことができます。

NVMe-oFはまだ登場したばかりですが、すでに広く採用されているネットワーク・アーキテクチャです。NVMe-oFは登場したばかりですが、すでに広く採用されているネットワーク・アーキテクチャであり、最小のネットワーク遅延と最高のスループットを必要とするさまざまなワークロードを企業が処理するのに役立っています。しかし、ハードウェアコストの増加、ハイパーバイザーサポートの制限、特にクラスタ環境での構成の複雑化など、いくつかの欠点があります。

正しい選択をする
結論として、ファイルストレージとブロックストレージの選択、特にそれぞれのプロトコルの選択は、ユーザ固有のニーズと要件に依存します。

●SMBは、ユーザーフレンドリーなファイルレベルのプロトコルであり、ファイル共有とコラボレーションを主な要件とするWindowsを実行する中小企業に最適です。仮想マシンの保存にも有効ですが、高負荷のクラスタ環境では、通常ブロックレベルのプロトコルがより一般的な選択肢になります。

●NFSは、Linux環境での共同ファイル共有と仮想化のために広く使用されています。SMBと同様に、そのほとんどは大規模なシーケンシャルリード/ライト用に調整されており、高性能なVMストレージや高可用性クラスタリングなど、より要求の厳しいシナリオにはあまり適していません。

●逆に、iSCSIはブロックレベルのストレージを提供し、既存のイーサネット機器と統合できる柔軟性があるため、大規模な仮想化環境におけるデータ集約型のアプリケーションに適した選択肢です。iSCSIは、実装コストや複雑さと結果として得られるパフォーマンスのバランスがよく、ほとんどの仮想マシンストレージ使用ケースに最適な選択肢です。

●NVMe-oFは、オールフラッシュストレージ環境における高速データ転送のための最新技術を活用したもので、最高のアクセス速度を要求するレイテンシー重視のアプリケーションに最適です。高頻度取引、リアルタイム分析、ハイパフォーマンス・コンピューティングなどは、NVMe-oFが活躍する分野の一つです。


全体として、各プロトコルの「特徴」を理解することは、仮想マシンのストレージとして適切なものを選択するために重要です。しかし、その選択自体は、ユーザ独自の要件、利用可能なリソース、インフラストラクチャがサポートする必要のある特定のワークロードに依存します。

タグ:

先手打つプロアクティブなサイバーセキュリティの重要性: 脅威の先回りをするために

どのようなセキュリティであっても、自己満足に陥りがちですが、サイバーセキュリティほどその傾向が顕著なものはありません。サイバー攻撃は、ほぼいつでも、どこでも、量に関係なく発生する可能性があります。攻撃者は比較的安全な場所にいることが多く、失敗したサイバー攻撃を次の試みのための学習経験として自由に利用することができます。
異なるセキュリティ・ニーズを持つ複数の顧客を管理するためには、現在の脅威が進化し、新たな脅威が出現したときに、常に適応する必要があります。プロアクティブなサイバーセキュリティ・モデルを採用することは、この適応を達成するための最も簡単でリスクの少ない方法です。

時代の最先端を行く

サイバーセキュリティのベストプラクティスの最先端を行くことは、複雑化する今日の脅威の状況で成功するために必要なことです。メールフィルター、ファイアウォール、アンチウイルスソフトウェアといった従来のセキュリティ対策は、ハッカーが仕掛けてくるような攻撃を防ぐには、もはや有効なアプローチではありません。これらのセキュリティ対策は必要ですが、プロアクティブなものではありません。2023年には、サイバーセキュリティ対策に積極的に取り組むことが、より良い戦略であると言えるでしょう。

セキュリティ管理の改善

ますます一般的になっているゼロトラスト・モデルを含むプロアクティブなサイバーセキュリティ戦略を導入し、適切な高度なサイバーセキュリティ・ソリューションを導入することで、ユーザはあらゆるトラブルを回避することができます。今日の市場におけるサイバーセキュリティ・ソリューションに求められる機能には、ゼロデイ攻撃に対する予防と検出、多要素認証(MFA)、自動パッチ管理、不変性(イミュータブル)、監視とアラートなどがあります。

改善の余地を見つけるもう一つの有効な方法は、「道徳基準にかなったハッカー」を雇い、顧客のシステムやネットワークの弱点を見つけ、脆弱性を発見することです。この経験豊富なプロフェッショナルが侵入経路を見つけたり、それに近づいたりすれば、どこを改善すればいいのかがわかります。優秀なハッカーであればあるほど、この方法はより効果的です。

ネットワークのテストとモニタリングも非常に有益です。ネットワーク監視は一般に、デバイスをまたいでネットワーク内のトラフィックを追跡し、疑わしいトラフィックや脆弱性に遭遇したら通知する自動サービスです。ネットワーク監視サービスの中には、ネットワーク内のファイルの整合性を監視するものもあり、脆弱性を見つけるのに役立つことがあります。

ヒューマンエラーへの対応

ヒューマンエラーは、組織にとって依然として最大の脅威です。サイバーセキュリティの意識向上トレーニングを何らかの形で改善することは、ここに挙げた他のどの方法よりも顧客に利益をもたらす可能性があります。このような改善には、トレーニングの頻度を増やす、トレーニングセッションで使用する教授法を改善する、トレーニングセッション後に従業員の理解度を評価するなどがあります。

企業におけるサイバーセキュリティ研修の効果を検証する方法のひとつに、社内でフィッシング・シミュレーションを実施する方法があります。このシミュレーションでは、従業員に偽のフィッシングメールを送り、誰が詐欺に引っかかって悪意のあるリンクをクリックしたり、機密情報を提供したりするかを確認します。

実際にサイバー攻撃を受けることなく、何を改善すべきかを理解するのに役立つものはすべて、プロアクティブ・サイバーセキュリティです。サイバーセキュリティのフレームワークには常に改善の余地があるだけでなく、それをテストするための方法にも常に改善の余地があるのです。

タグ:

クラウド・ディザスターリカバリー:プランニングとアプローチ

今日、多くの企業にとって、クラウドはディザスタリカバリプランに欠かせない要素です。しかし、クラウドベースのリソースをディザスタリカバリ戦略に組み込むことは、非常に多くのアプローチがあるため、難しい場合があります。クラウドバックアップとディザスターリカバリーの恩恵を受ける方法は複数あり、クラウドをそのような計画に組み込むための戦略も複数あります。

ディザスタリカバリ戦略の一環としてクラウドを最大限に活用するためのヒントをお読みください。この記事では、クラウドベースの環境がディザスタリカバリのワークフローをどのようにサポートするか、また、ニーズに合わせてクラウドでのディザスタリカバリ計画を構築する方法について説明します。

クラウドディザスタリカバリー

クラウドディザスタリカバリーとは、クラウド上のリソースを利用してデータやインフラを稼働状態に戻す作業のことです。ディザスタリカバリの一環としてクラウドを利用する場合、基本的に3つの方法があります。

アプローチ1. クラウドからのディザスタリカバリー

Cloud Disaster Recoveryクラウド型ディザスターリカバリー1つ目は、バックアップデータの保存先をクラウドにし、災害時にはクラウドからデータを復旧させる方法です。

クラウドベースのディザスターリカバリーでは、クラウドベンダーが提供する低価格のデータストレージオプションを利用することができます。また、すべてのシステムのバックアップデータをクラウド内の1つの場所に保存することができるため、バックアップルーチンを簡素化することができます。

しかし、クラウドからのディザスタリカバリの欠点は、ディザスタリカバリを実行する必要があるときに、オンプレミスのITシステムが利用できない場合、うまく機能しないことです。例えば、火災や洪水がローカルデータセンターに影響を与えた場合など、データ損失の原因となった出来事によってローカルサーバーやストレージメディアが破壊された場合、データを復旧するためのインフラを利用することができなくなります。


アプローチ2. クラウドへのディザスターリカバリー

Cloud Disaster Recoveryクラウド・ディザスターリカバリークラウド・ディザスターリカバリーの第二のアプローチは、オンプレミスでデータをバックアップし、クラウドプラットフォーム上で動作する仮想マシンやデータベースにリカバリーする方法です。

このアプローチでは、災害後に物理的なオンサイトインフラを利用し続ける必要がありません。その代わりに、クラウド上で稼働する仮想環境にデータを迅速に復旧させることができます。

ただし、データのバックアップをオンプレミスに保存している場合、災害がローカル環境に影響を及ぼすと、バックアップが破壊される可能性があることが大きなリスクです。

アプローチ3. クラウドからクラウドへのディザスターリカバリー
Cloud Disaster Recovery

クラウド・ディザスターリカバリークラウドにバックアップデータを保存し、同時にクラウドにリカバリーすることで、両方のメリットを享受することができます。

このアプローチでは、クラウド上で仮想マシンやデータベースを起動し、オンプレミスのリソースに影響を与える災害が発生した場合に、クラウド上のバックアップからデータを投入します。

バックアップ・データとバックアップ・インフラをローカル・データ・センターから切り離すだけでなく、クラウド・ストレージからクラウドVMやデータベースへのバックアップ・データの転送は、クラウドとオンプレミス環境間、あるいはその逆のデータ転送よりも通常時間がかからないため、この戦略によりディザスタリカバリを迅速化できる可能性があります。これは、同じクラウド内のネットワークが、クラウドと外部環境をつなぐ公衆インターネットよりもはるかに広い帯域幅を提供しているためです。

クラウドでのディザスタリカバリーのデメリットは、バックアップストレージとバックアップインフラの両方をクラウドで維持する必要があるため、最もコストがかかる可能性が高いことです。

クラウドベースのディザスターリカバリーを設定

とわいえニーズと予算に最適なディザスタリカバリ構成を選択することで、クラウドベースのディザスタリカバリにかかるコストを最適化することができます。RTOとRPOの要件が異なる4つの基本オプションから選択することができます。

シンプルなバックアップとリカバリー

最も簡単なクラウド災害復旧の構成は、オンプレミスからクラウドにデータをバックアップし、必要なときにクラウドからデータを復旧することです。この方法は、最もコストがかからず、管理も最も簡単です。しかし、RTOとRPOのニーズを満たすために、クラウドからオンプレミス環境へ十分に素早くデータを移動して復旧できるかどうかが、考慮すべき大きな制限となります。

パイロットライト

「パイロットライト」ディザスタリカバリ構成では、クラウド内にバックアップインフラ(言い換えれば、VM、データベース、その他必要なリソース)をセットアップし、必要なときまで電源を切ったままにしておきます。ほとんどのクラウドプロバイダーは、実際に稼働していないリソースに対して課金しないため、このアプローチではコストを抑えながら、必要なときにすぐに使えるクラウドベースのインフラをディザスタリカバリに利用できる安心感を得ることができます。

ウォームスタンバイ


予算に余裕があれば、ウォームスタンバイの構成にすることも可能です。ウォームスタンバイでは、クラウド上にバックアップ環境を構築し、実際にそれを常時稼働させておくのです。そのため、起動に無駄な時間をかける必要がありません。ウォームスタンバイは、RPOやRTOの厳しいニーズに対応するのに役立ちます。

マルチサイト


RTOとRPOの要件が本当に厳しい場合は、マルチサイトのクラウド災害復旧構成を選択することができます。このアプローチでは、複数のクラウドアベイラビリティゾーンにバックアップインフラのライブコピーを常時保存します。インフラの冗長コピーを稼働させておくことで、災害発生時に1つのアベイラビリティゾーンがダウンしても、ディザスタリカバリを実行する能力を確保することができます。もちろん、この構成は最もコストがかかります。


クラウド・ディザスターリカバリー・プランニング


そこで、ニーズに合ったクラウドでのディザスタリカバリの最適なプランを検討する場合、いくつかの要素を考慮する必要があります。

●RPOとRTOの必要:RPOとRTOのニーズ:正常に機能するシステムがない状態で、どれくらいの期間ビジネスを展開できるのか。データの復旧が早ければ早いほど、クラウドベースのディザスタリカバリに投資して、ワークロードを素早く復旧させる必要があります。
●コスト:クラウドバックアップとディザスタリカバリに投資する資金が多ければ多いほど、クラウドディザスタリカバリプランをより高度なものにすることができます。より多くの資金を投入することで、上述のウォームスタンバイやマルチサイトのディザスタリカバリ構成を利用することができ、より迅速で信頼性の高いリカバリを実現できます。
●管理:ディザスタリカバリ計画の一環として稼働させるクラウド環境とリソースが増えれば増えるほど、それらの管理に費やす時間も増えることになります(もちろん、それらの安全性を保つことも必要です)。クラウドのディザスタリカバリプランを作成する際には、管理業務にどれだけの時間を割くことができるかを考えてみてください。

クラウド型ディザスターリカバリーソリューションの構築


上記のようなピースをすべて組み合わせることで、お客様のニーズを反映したクラウド災害復旧ソリューションを構築することができます。ここでは、3つの基本的なステップを踏むことになります。

ステップ1. アプローチの選択
Cloud Disaster Recovery

クラウド・ディザスターリカバリーまず、クラウドベースのディザスターリカバリーをどのようなアプローチで行うかを決定します。クラウドからクラウドへのディザスターリカバリーに余裕がある場合は、それが最良の選択肢かもしれません。しかし、RPOのニーズ、オンプレミスインフラの信頼性、予算の優先順位に応じて、クラウドから、またはクラウドへのディザスタリカバリのみを選択することも可能です。

 

ステップ2. クラウドベンダーの選択

Cloud Disaster Recoveryクラウド・ディザスターリカバリーディザスターリカバリーリソースのどの部分をクラウドでホストするにしても、それらを実行するのに最適なクラウドプラットフォームを選択する必要があります。このトピックの詳細については、この記事の範囲外ですが、ベンダーの選択に関する記事で役立つ指針を見つけることができます。

 

 

ステップ3. クラウドバックアップとディザスタリカバリソリューションの選択

Cloud Disaster Recoveryクラウド・ディザスターリカバリー最後に、データをクラウドにバックアップしたり、いざという時にクラウドからデータを復旧させるバックアップとディザスターリカバリーソフトを選択します。

 

 

 

クライム・クラウド・バックアップ・サービス(CCB)は、このようなニーズに対して、比類ない信頼性と柔軟性を提供します。CCBは主要なクラウドプラットフォームをすべてサポートしているため、どのクラウドベンダーを選んでも機能します。さらに、CCBは、ファイルやフォルダのバックアップだけでなく、システム全体を簡単にバックアップし、ディザスタリカバリ用にクラウドベースのVMインスタンスに素早く復元できるイメージベースバックアップなど、さまざまなクラウドバックアップおよびディザスタリカバリオプションを提供します。

 

 

タグ: ,

ランサムウェアとの戦いでイミュータブル(Immutable:不変)のバックアップだけで十分なのか?

ランサムウェア自体が災害であることは周知の事実です。必要なのは、現実を直視することです。

  • 今日も支払われた身代金はとんでもないものです。
  • 攻撃にかかる総費用も驚く金額です。
  • 平均で35%のデータが失われ、永久に失われています。

今の時代、データは新しい金座なのです。衝撃を受けるかもしれませんが、サイバー犯罪者にとって、あなたの顧客情報や専有情報は本当にそれほどの価値があるのです。しかし、フルバックアップを実施していても、ランサムウェアに感染した場合のデータ喪失を防ぐことはできません。

ランサムウェアの攻撃は、対策を施していても、そのリスクを回避することはできません。しかし、理論上のランサムウェアのトンネルの終わりには、いくつかの光があります。今日、攻撃が発生する前に強固な防御戦略を構築し、遭遇、違反、または攻撃された場合に迅速かつ効果的に対応するために、導入できるツールや戦略は数多く存在します。

ここでは、サイバー攻撃からデータを保護したい場合に、組織が最優先で取り組むべき重要なポイントについて紹介します。

イミュータビリティの台頭

ランサムウェアの脅威が一般化する以前、企業はデータの保存とバックアップのためのシステムを構築していました。しかし、デジタル化・インテリジェント化が進む現在、こうした時代遅れのシステムは、もはや期待するほど安全ではありません。多くの企業が気づいているのは、現代社会の変化を反映し、データバックアップシステムの構造を再設計する必要があるということです。

そのような悩みを解決する方法のひとつが、「イミュータビリティ(不変性)」の採用です。

攻撃者がバックアップやレプリケーションツールにアクセスし、データを削除してから暗号化ロックや顧客への攻撃を行うようになったため、イミュータビリティが一般化したのです。つまり、ハッカーはより大きな防御策を講じることなく、データの改ざん、変更、削除を行うことができたのです。

この問題に対処するため、多くの組織が不変性アプローチ、つまり攻撃に対して効果的にレンガの壁を投げ出すようなアプローチを取るように調整しました。データが不変性を持って保管されていれば、改ざんや削除から保護されます。

さらに、より重要なこととして、データムーバーは、たとえ不変のバックアップをとっても、攻撃の影響を受けやすいということがあります。

データムーバーを保護する

先に述べたように、バックアップだけでは安全なディザスターリカバリープランとは言えません。攻撃者は現在、データムーバーを狙い、バックアップの読み取り/書き込み/変更を開始します。ほとんどの場合、犯罪者は無効化を開始し、不変性タイマーが切れるのを待って、データを削除します。そのデータムーバー自体を保護しない限り、ランサムウェアから身を守ることはできないのです。以下の変更で、データムーバーを保護することができます。

認証の分離

●バックアップインフラ用のセグメント化されたネットワーク
●ハード化されたレポとオフライン・モード
●自動化されたファイアウォールルール(スケジュールによるオンとオフ)
●バックアップの暗号化
●バックアッププラットフォームの多様性 vs 本番環境
●オフサイトバックアップ
・認証方法の制限
・認証の分離
・多様な暗号化キー


ここで重要なのは、単に適切なハードウェアにお金を払うだけでは、データムーバーを保護することはできないということです。これらの保護設定はデフォルトではなく、構築するのが非常に面倒な場合があります。これらは、正しい保護設定を行わないと効果がありません。データムーバーを保護するだけでなく、企業はランサムウェアの別の側面、すなわちディザスタリカバリプラン(DR:災害対策)にも注意を払う必要があります。

ディザスターリカバリーにスポットライトを

特に最近のランサムウェアの事例でバックアップの脆弱性が証明された後、多くの企業が「バックアップとディザスタリカバリはどう違うのか?バックアップとディザスタリカバリの違いは何なのか、自分のディザスタリカバリプランはランサムウェア攻撃から守ってくれるのか?」と戸惑っています。ではバックアップとディザスタリカバリの違いは何でしょうか。

バックアップ:

目的:長期的かつ歴史的なポイントインタイム・チェックポイントを提供し、そこから復元を

●重要なデータの実際のコピーにより、組織は復元する能力を得ることができます。
●戦略ベースではなく、ソリューションベース
●「インスタント・ブート」機能は存在するが、「ブート&ブラウズ」ユースケースに限定される
●攻撃が始まると、フォレンジックができない。

ディザスターリカバリー:

目標:業務を再開するための即座の能力を提供する

●自然災害、人為的ミス、サイバー攻撃などの災害による衰弱したダウンタイムから組織を保護するための戦略
●災害発生時に何が起こるか(アプリケーションの立ち上げは誰が行うか、RTOとRPOの要件は何か、テストは誰が行うか、など)、実際のプロセスや考察が含まれる。

より高度なセキュリティは、かつてないほど重要なものとなっています。幸いなことに、ディザスタ・リカバリは、不変のバックアップでは不十分なランサムウェアからの徹底的な保護を提供します。

ランサムウェアの脅威からさらに保護するために、次のような要件が必要になります。

●ディザスタ・リカバリおよびレジリエンス(回復力)の要件
●フェイルバック、テスト、ネットワークなど、DR戦略を成功させるための重要なコンポーネント
●ランサムウェアの検出によるバックアップとディザスタリカバリ戦略のレベルアップ方法

 

タグ: , , ,

ハイブリッドクラウドインフラにおけるビジネスメリット

「ハイブリッド・クラウド」という言葉にはいくつかの定義がありますが、一般的にはオンプレミスとパブリック・クラウドのリソースを混ぜたものを指します。実際には、ハイブリッド・クラウドは通常、ユーザのデータセンターとパブリック・クラウド・プロバイダーとの間に専用のプライベート・ネットワーク接続で構築されます。図1を参照してください。

The Hybrid Cloud Model Figure 1

図1:ハイブリッドクラウドモデル

パブリッククラウドの長所と短所の理解

パブリッククラウドの登場により、ワークロードをオンデマンドで稼働させることが容易になり、インフラストラクチャをコードとして展開する自動オーケストレーションや、ロードバランサーなどのクラウドサービスが提供されるようになりました。特に新しいアプリケーションや、Kubernetesのような新しいサービスの経験を積むには、パブリッククラウドは、一部のシステムに対する参入コストの低減とともに、良いスタートを切ることができます。

しかし、クラウドサービス、特にリソースの使用率が低い場合は非常にコスト効率が良いのですが、パフォーマンスが高くなると、オンプレミスのインフラをホスティングするよりもはるかに高価になることがあります。

クライアントと仕事をする際、クラウドで最もよく見られるパフォーマンスの問題の1つは、ストレージのレイテンシーの増加で、これはオンプレミスで提供されるクラス最高のストレージアレイよりもはるかに大きなものです。パブリック・クラウド・インフラでは、VMストレージであれオブジェクト・ベースのストレージであれ、ほとんどのストレージはネットワークに接続されており、一般にレイテンシが大きくなります。アーキテクトはパフォーマンスを向上させるために最適化を行うことができますが、その結果、たとえばオンプレミスのVMwareアレイとオールフラッシュ・ストレージ・アレイを組み合わせた場合のパフォーマンスにほとんど及ばず、コストが高くなることがよくあります。

ハイブリッド・クラウドの一般的な使用例

例えば、VMwareを使用して仮想マシンをホストするなど、オンプレミスのリソースを自社で管理することを選択する企業もあります。近年、AWS OutpostsやAzure Stackなどのパブリッククラウドプロバイダーは、オンプレミス版のクラウドインフラを構築し、ユーザが自社のコンピューティングリソースを維持しながらパブリッククラウドの柔軟性とオーケストレーションを利用できるようにしました。

また、企業は、ほとんどのリソースを自社のデータセンターまたはプライベートクラウドで運用し、ピーク時のビジネスサイクルでより多くのコンピューティングリソースが必要となる「爆発」時にのみ、パブリッククラウドのリソースを使用することもできます。このような例としては、年末年始にウェブサーバーを追加する必要がある小売業が挙げられます。また、ディザスター・リカバリーのためにパブリック・クラウドを利用したり、アーカイブ・バックアップのためにクラウド・ストレージを利用したりすることもできます。

ハイブリッド・クラウドの利点と限界

ハイブリッド・クラウドを利用すると、オンプレミスのデータセンターで稼働しているアプリケーションでも、クラウドのリソースとオーケストレーションを活用することができます。

ハイブリッド・クラウド・モデルを使用するもう一つの重要な利点は、クラウド・プロバイダーの価格設定に完全に翻弄されることがないため、コストをより予測しやすくなることです。

ハイブリッドクラウド導入の制限については、最大の問題の1つは、クラウド導入が非常に複雑であることです。複雑なのはネットワークからで、通常、クラウド・プロバイダーと回線を供給する通信ベンダーの両方とやり取りする必要があります。

クラウドプロバイダーやクラウドリソースに関する適切なトレーニングを受けたスタッフを確保することも、ハイブリッドクラウドコンピューティングにおける大きな課題です。多くのコンサルタントがハイブリッドやマルチクラウドの導入を躊躇する最大の理由は、訓練を受けた優秀なエンジニアを確保することにあります。

ハイブリッド・クラウドのセキュリティの重要性

ITインフラを確実に保護するためには、クラウドセキュリティを理解することも重要です。データ・セキュリティは常に最大の関心事ですが、クラウド・プラットフォームを追加すると、攻撃の対象となる表面積が増え、エンドポイントの数も増える可能性があります。

このようなセキュリティ上の問題から身を守るには、いくつかの方法があります。専用のネットワーク接続は良いスタートとなります。しかし、機密データが保存されたクラウド・ストレージへのパブリック・アクセスを許可しないなど、設定の誤りを防ぐには、セキュリティ・テストとツールが必要です。また、自動化とオーケストレーション、特にDevOpsワークフローは、クラウドリソースの展開とハイブリッドクラウド戦略のサポートにおけるヒューマンエラーの要因を最小限に抑えるのに役立つと思われます。

ハイブリッド・クラウドのアプローチ=>デジタルトランスフォーメーションへの道

プライベートクラウド、ハイブリッドクラウド、さらにはオンプレミスのワークロードを監視する際には、さまざまな課題があります。クラウドにはネイティブな監視ソリューションがありますが、ネットワーク、地域、複雑なソフトウェアスタックにまたがる最新のハイブリッドクラウド環境のニーズを満たすようには構築されていないことがよくあります。

ご意見・ご要望はご連絡ください

タグ: , ,

ブロック・ストレージとは?

ブロック・ストレージは、各ボリュームを独立したハードディスクとして取り扱うストレージの形式です。その構成は、ストレージ管理者の責任で行われます。そのために「ブロック」と呼ばれています。データを固定サイズのブロックとして整理し、構造化します。各ブロックには、固有のアドレスとなるメタデータが割り当てられています。ブロックストレージのユニークなところは、1つの環境に限定されないことです。ある環境にいくつかのブロックを保存し、残りを別の環境に保存することができます。

ブロック・ストレージは、メディア(ハードウェア)とは別に独自のソフトウェアで運用・管理されています。このプログラムは、ディスクスペースにブロックをどのように割り当て、整理するかを制御します。このソフトウェアは、一意の識別子を使って必要なブロックを探し出し、ユーザが必要とするファイルに分類するため、検索オプションもその機能の一部となっています。このような管理プログラムを操作・制御する最も伝統的な方法は、サーバ・オペレーティングシステムを使用して、ファイルシステムでブロックデバイスをフォーマットすることです。ユーザは、NVMe-oF、NVMe over TCP、Fiber Channel over Ethernet(FCoE)、またはiSCSIなどのプロトコルを通じてブロックストレージ・ボリュームにアクセスすることができます。さらに、直接接続されたストレージ、ドライブ、サーバRAIDもブロックストレージ・デバイスの1つです。

ブロック・ストレージの長所と短所

今日、ブロックストレージは多くの環境において非常に人気のあるソリューションです。これは、その利点のいくつかを考慮すれば、驚くことではありませんが、欠点もあります。

長所:

高いパフォーマンス:高性能プロトコルを使用したブロックストレージへのアクセスは、高性能なミッションクリティカル・アプリケーションに最適です。実際、低レイテンシーで高いI/O性能を保証しています。最も一般的な用途は、ファイルストレージの高性能な代替で、主にSAN環境で使用されます。

信頼性: ブロックストレージは、データブロックが自己充足的な単位で保存されるため、一般的に故障率が低くなります。万が一の故障の際にも、バックアップメディアから迅速にデータを復元できます。

インクリメンタルな変更:ブロック・ストレージの実用的な価値の1つは、変更が容易であることです。ブロックストレージ環境では、ファイルストレージのように既存のデータを削除することなく、ファイルを変更することができます。したがって、ブロックを置き換えたり、削除したり、挿入したりと、あらゆる操作を行うことができます。つまり、ブロックを変更したい場合、わざわざ新しいブロックを作る必要はありません。別のバージョンを作ればいいのです。

短所:

サーバに依存: ブロックストレージは通常サーバに縛られるため、他のサーバから同時にアクセスすることは不可能です。もちろん、それを解決するソフトを上に乗せることはできます。しかしシステム全体への負荷が増え、パフォーマンスに影響するため、その不便さを取り除くことはできません。

メタデータが限定的:ファイルやオブジェクトストレージと違い、ブロックストレージのボリュームにはほとんどメタデータがありません。このことが、検索やリトリーブなどメタデータの利用が重要な業務にどれだけ悪い影響を及ぼすかは想像できるでしょう。ブロックストレージ環境では、アプリケーションは検索に成功するために多くのブロックを経由しなければなりません。しかし、ZFSやBtrfsのような特定のファイルシステムは、データの整合性を高めるためにメタデータ機能を提供することができます。

購入が難しい:ブロック・ストレージは確かに高性能で信頼性が高いですが、高価なSANが必要です。このようなストレージアレイは、専門家や定期的なメンテナンスはもちろんのこと、さらに多額の予算を必要とします。大企業であっても、ブロックストレージのサポートとメンテナンスはそう簡単に手にできるものではありません。

ブロックストレージの使用例

高速で高性能なブロック・ストレージは、多くの人に評価されています。ここでは、いくつかの使用例を紹介します。

データベース・ストレージ:データベース・ストレージ:スピード、パフォーマンス、信頼性。これらの理由により、ブロックストレージはデータベースやエンタープライズアプリケーションのサポートに最適です。また、ブロックデータは変更が容易なため、頻繁に更新されるファイルとの相性もよいです。

サーバストレージ: ブロック・ストレージシステムは、データを複数のボリュームに分散して保存します。ブロックベースのストレージボリュームは、作成とフォーマットが簡単です。仮想化システムのバックエンドストレージとして運用するのに最適です。ブロックにベアメタル・サーバを取り付けて、複数のVMを作成することができます。例えば、多くの企業では、企業全体にVMFSボリュームを展開するためにブロック・ストレージを使用することがよくあります。

Emailサーバ:組織では、電子メールを保存するための標準的なオプションとして、高い性能と信頼性を備えたブロックストレージ技術を選択することがよくあります。

タグ:

Microsoft 365 はユーザ・データをバックアップしますか?

Microsoftは、Microsoft 365のデータをバックアップしているかどうか? 答えはイエスでもありノーでもあります。Microsoftにはネイティブな保持とリカバリ機能がありますが、その多くはユーザが利用すべきものであり、Microsoftは完全で堅牢なバックアップとリカバリのサービスを提供しているわけではありません。Microsoftのドキュメントにあるように、データの整合性と保持はユーザの責任です。

企業の規模やミッションクリティカルな文書、電子メール、チームチャットの数によっては、Microsoft 365のネイティブツールで十分な保護が可能な場合もあれば、そうでない場合もあります。その判断を下すことができるのは、ユーザだけです。その判断材料として、Microsoftのデータ保持機能、その機能でできること、できないこと、そしてサードパーティによる確実なバックアップとリカバリソリューションを検討すべき理由を確認することです。

Microsoftのネイティブデータ保護:良い点、悪い点、そしてあまり良くない点

これらの機能はフルバックアップの代用にはなりませんが、適切に使用・設定すれば、データを保護するための優れた第一線の防御手段となります。

データレプリケーション

Microsoftはユーザのデータを同じ地域内の少なくとも2つの異なるデータセンターにミラーリングします。そのため、ユーザのデータとそのサービスは、局所的な自然災害やその他のサービス停止事象から一般的に保護されています。しかし、データ損失の第一の原因は人為的なミスです。最近行った調査では、誤って削除してしまうなどのヒューマンエラーによってデータを失ったと報告した組織が、他の手段によるものよりも多いことが分かっています。残念ながら、これらの削除は各データリポジトリを通じて広まっていきます。

Microsoftのデータ保持ポリシー

Microsoftは2段階のごみ箱を準備しており、ユーザは合理的な期間内に削除されたファイルを取り出すことができます。OneDriveまたはSharePointに保存されているデータは、削除されてから93日以内に復元することができます。電子メールのメールボックスはデフォルトで最大30日間、個々の電子メールはデフォルトで14日以内に取り出すことが可能です。

しかし、Microsoftでは、セキュリティ&コンプライアンスセンターを通じて、独自のデータ保持ポリシーを設定することができます。データを無期限に保存し、ある個人が削除した後でも、すべてのデータを取り出すことができるようにすることができる。しかし、ここで問題になるのは、保存することよりも、取り出すことにあります。復元したいファイルを簡単に見つける方法がないことです。主要なサードパーティ・バックアップソリューションに備わっている洗練された管理コンソールとは異なり、ドキュメントやフォルダに移動するだけではそれを復元することはできません。代わりに、Microsoftのコンテンツ検索またはeDiscoveryツールを使用して、ユーザはキーワードまたは他のメタデータに基づいて削除されたファイルを検索し、コンテンツ検索から結果でエクスポートして復元することを余儀なくされます。この方法でメールボックスやSharePointのフォルダの内容を復元することは大変な労力を要求されます。。

Microsoftのネイティブバックアップ

Microsoftは基本的なバックアップを提供しています。Office 365のデータは12時間ごとにバックアップされ、14日間保管されます。例えば、ランサムウェアの攻撃を受けた場合、Microsoftに連絡すれば、データを復元することができます。ただし、これは完全な復元になるので、他のものはすべて上書きされます。このような基礎的なバックアップは、1つのファイルやフォルダーを復元する必要がある場合には何の役に立ちません。また、攻撃が成功した場合の復旧時間目標(RTO)も受け入れがたいものになる可能性があります。

Microsoft 365データのサードパーティバックアップを検討すべき理由

Microsoftに期待できる保護レベルについて少しわかったところで、Microsoft 365のサードパーティバックアップに投資することが賢明な選択となる、特定シナリオのいくつか見てきます。

ユーザ・エラーと偶発的な削除によるデータ損失

前述したように、データ損失の最も一般的な理由は誤削除です。もし、設定した保存ポリシーが適用された後に紛失に気づいたら、あなたは運が悪いとしか言いようがありません。あなたのデータは消えてしまいます。たとえエラーを発見できたとしても、必要な構成のファイルやアカウントを復元できるでしょうか?前述したように、復元作業は簡単ではありません。

間違ったファイルやフォルダを急いで削除したり、権限やセキュリティ設定を上書きしてしまったりといったユーザ側のミスはよくあることです。システム管理者もこの種のヒューマンエラーに無縁ではありませんが、そのミスは組織にとってより大きな頭痛の種となります。管理者は、誤って重要なアカウントやAPIを公開したままにしたり、キー操作1つで重要で大量のビジネスデータを上書きしてしまったりすることがあります。

ランサムウェアと管理者アカウントの侵害

データ損失の大部分は、事故であれ悪意であれ、インフラではなく人為的に引き起こされるものです。フィッシング攻撃は増加の一途をたどっています。回避することは不可能ではないにせよ、より困難になってきています。実際、ランサムウェアの現状に関する最近の調査では、回答者の79%が過去12ヶ月間にランサムウェア攻撃を経験し、41%がその攻撃で組織に影響を及ぼしたことを認めています。

ユーザの1回の誤クリックで、システムにマルウェアが感染し、データが破壊される可能性があります。Microsoft 365の管理者アカウントが侵害された場合、ネイティブのバックアップが失われます。この悪夢のようなシナリオから回復することは、Microsoftの組み込み機能を使用しても難しく、時間がかかることがあります。OneDriveとSharePointのバージョニングは役に立ちますが、ストレージの割り当てに影響し、ストレージの追加コストが発生する可能性があります。さらに、危機的な状況に陥ったときに、断片的なリカバリ戦略での対処は不可能に近いです。

ファイルの復元をより適切にコントロールする

Microsoft 365 では、メールボックスやサイト・コレクション全体を復元することはできても、精度の細かい復元は不可能です。RTOを短縮し、貴重な時間とリソースを節約するために、特に災害からの復旧作業中は、必要な時に必要なファイルを正確に復元する機能が必要です。

Microsoftは、OneDriveファイルを以前の時点にロールバックする機能をユーザに提供していますが(そのデータがまだ削除されていない場合)、これは「全部かゼロ」のリストアです。特定のファイルやフォルダに限定してロールバックするのではなく、すべてのデータを特定の時点にロールバックすることが唯一の選択肢となります。この種の破壊的なリストアは、通常、数え切れないほどの量のデータと重要な変更が失われるため、最後の手段として使用されます。これは、より包括的なバックアップソリューションのきめ細かいリストア機能によって簡単に防ぐことができます。

Microsoft 365にはデフォルトの保存期間がありますが、これらのポリシーはサービスによって異なることを覚えておいてください。また、管理者やユーザが積極的に削除したデータは、ごみ箱の保存期間が切れたり、ユーザがごみ箱から積極的にデータを削除した場合、復元することができなくなります。保持ポリシーを柔軟かつ詳細に制御できなければ、重要なデータや機密性の高いデータが漏れてしまう可能性があります。

迅速な復旧

災害からいかに早く復旧するかは、復旧時間目標(RTO)と復旧時点目標(RPO)の2つを特定し、管理できるかどうかで決まります。RTOを短縮するには、復旧に必要なものを正確にターゲットとする柔軟性が必要ですが、RPOはバックアップの頻度に左右されます。柔軟なリカバリーオプションとバックアップのスケジューリングは、堅牢で目的に応じたバックアップソリューションの中核となる機能です。

法令遵守と保存ポリシーのギャップ

企業は、多くのビジネス、コンプライアンス、またはその他の法的目的のためにデータを保持する必要があります。しかし、Microsoftのデータ保護機能は、すべての業界やデータの種類の要件を満たしているとは限りません。Microsoftのデフォルトの保存期間は、データの種類に応じて30日または90日ですが、多くの組織では、データを何年も保存する必要があります。ヘルスケア、金融サービス、その他規制の厳しい業界では、無期限とは言わないまでも、何十年もデータを保持することが求められることがよくあります。

データを適切に管理できない場合、ポリシーギャップが発生する可能性があります。元従業員のデータのバックアップ漏れ、Microsoft 365のバックアップルールの不備、移行時のデータ損失など、業務上の混乱によりポリシーギャップが発生します。特定のデータ保持ポリシーや潜在的な訴訟ポリシーに準拠することが法的に求められている業界もあります。数年にわたるアーカイブからオンデマンドで特定のドキュメントを作成する必要があるかもしれません。そのような場合は、長期保存と呼び出しにも対応した Microsoft 365 用のサードパーティ・バックアップソリューションを検討することをお勧めします。

クラウド同期とデータのバックアップは違う

Microsoft 365ユーザの多くは、OneDriveを使用しているからファイルのバックアップは必要ないと考えています。しかし、OneDriveはバックアップとは異なり、ファイル共有とコラボレーションを最適化するために設計されたファイル同期ツールなのです。ローカルのドキュメントに起こったことは、クラウドで同期されているドキュメントにも起こります。ローカルドライブでファイルが削除されたり、マルウェアに感染したりすると、その変更は同期されたOneDriveアカウントに自動的に伝わります。ファイルのバージョンは、Microsoft 365 内では不変でもなければ、隔離されたリカバリポイントでもありません。ファイルが削除された場合、そのファイルのすべての古いバージョンも削除されます。それらが永久に削除された場合、実行可能なリカバリーポイントはもうありません。

MicrosoftのShared Responsibility Model(責任共有モデル)によるユーザのデータ責任

Microsoftのデータ保護ツールを使用することは、ビジネスのセキュリティを維持するための最初のステップとなります。例えば、多要素認証(MFA)を有効にすることで、未承認のユーザによるシステムへの侵入を防止することができます。しかし、これらのツールは、包括的なバックアップとリカバリのソリューションに代わるものではありません。さらに、MicrosoftはShared Responsibility Model(責任共有モデル)の中で、サービスを提供するために維持するインフラに対してのみ責任を負い、ユーザのデータに対しては責任を負わないことを明確にしています。

Microsoftは、サービスを常に稼働させるよう努めますが、すべてのオンライン・サービスは、時折、中断や停止を被ることがあり、その結果でユーザが被る可能性のある中断や損失について、Microsoftは一切の責任を負いません。停止が発生した場合、ユーザは、保存しているユーザのコンテンツまたはデータを取り出すことができない可能性があります。ユーザはそれらのコンテンツおよびデータを定期的にバックアップすることを推奨します。

クライムが提供するMicrosoft 365データのバックアップ・ソリューション

●Climb Cloud Backup for Microsoft 365

● Veeam Backup for Microsoft Office 365

● Druva InSync

タグ: , ,

知っておくべき5つのタイプのサイバー攻撃

企業に対するサイバー攻撃の脅威は、かつてないほど大きくなっています。企業は、クラウドサービス、在宅勤務ポリシー、IoTを急速に導入しており、データは異なる場所、異なるワークロードに置かれ、これまで以上に多くのユーザーの手元に残されています。このような脅威の状況下では、自分たちが知らない脆弱性にさらされたままになっていることを意味します。

サイバー攻撃は何年も前から存在していましたが、現在ではより速いペースで進化しており、日々新しいタイプの攻撃が登場しています。ここでは、意外と知られていない、しかし確実に知っておくべき5つのタイプのサイバー攻撃について説明します。

クレデンシャル再利用攻撃

これは新しい脅威ではありません。簡単に言えば、クレデンシャル(認証情報)の再利用や「スタッフィング」という、サイバー犯罪者が有効なクレデンシャルへのアクセスを獲得し、それを使って他のアカウントやシステムにアクセスし、侵害することを指します。これは目新しいアイデアではありませんが、組織とそのユーザ(重要な従業員も)はクレデンシャルを再利用し続けることで、自分自身と組織を危険にさらしています。

インサイダー脅威

組織に個人が存在する限り、インサイダー脅威のリスクは常に存在します。これは、現在または過去の従業員、請負業者、あるいはパートナーという形で現れるかもしれません。インサイダーの脅威にはいくつかの種類があります。

●従業員が情報を盗み、個人で利用する
●知的財産やクレデンシャルが盗まれ、外国政府や外国組織に売却される
●不満を持つ従業員によるデータ、ネットワーク、生産システムの破壊行為

2022年版グローバルレポートでは、インサイダー脅威のインシデントが過去2年間で44%増加し、インシデントあたりのコストは3分の1以上増加して1538万ドルになったことが明らかにされています。

フィッシング攻撃

フィッシング攻撃は、データ、認証情報、およびシステムへのアクセスを盗むために設計されたソーシャルエンジニアリング攻撃です。これらの攻撃は、通常、ランサムウェアのような他の攻撃と組み合わせて行われます。以前は、これらの偽装メールやメッセージ、あるいは電話を識別するのは簡単でした。サイバー犯罪者は、どのような機関に対しても合法的に見えるようなデザインや文言でメールを送信することに、より熟練してきました。

中間者攻撃(MiTM:Man-in-the-middle attack)

TechTargetでは、MiTM攻撃を「直接通信していると思い込んでいる2者間のメッセージを攻撃者が秘密裏に傍受し、中継するサイバー攻撃の一種」と定義しています。 この攻撃は、攻撃者が会話を傍受し、その後、会話全体をコントロールする盗聴の一種です。

ダブルエクストーション(二重強奪)型ランサムウェア

DDoS(サービス妨害)やSQLインジェクションなど、より高い確率で発生する攻撃は他にもありますが、私たちは二重強奪型ランサムウェア攻撃が特に恐ろしいと考えています。

二重強奪型ランサムウェアは、従来のランサムウェアと同じように機能しますが、唯一の違いは、単にデータを暗号化して身代金を要求するのではなく、攻撃者は重要なデータを漏洩または削除すると脅迫する点です。このような状況は、組織にとって、財政的にも、評判や消費者の信頼という点でも、壊滅的な打撃を与える可能性があります。

サイバーセキュリティは、イノベーションが犯罪者の側にある数少ない産業の1つです。ハッカーは、突破口、オープン・チャンス、そしてゼロデイ脆弱性さえも見つけてくるでしょう。いったん露呈すると、サイバーセキュリティの専門家やベンダーはこれらの脅威に対処するために懸命に努力しますが、斬新な攻撃は継続し、脅威は拡大します。避けられない脅威から組織を守るために、今すぐ対策を講じましょう。

クライムが提供するランサムウェア対策ソリューション類

タグ: ,

ランサムウェアの攻撃中に起こることと、そして復旧が重要な理由

ランサムウェアの攻撃は、1回で終わるものではありません。システムを混乱させ、使用不能にし、データを回復してオンラインに戻すために巨額の支払いを組織に強いるように設計された一連の攻撃です。ランサムウェアの脅威の範囲と、適切なリカバリープランが重要である理由を理解するために、ランサムウェア攻撃の7つの段階を説明します。

ステージ1-3: 嵐の前の静けさ


ランサムウェアの攻撃の最初の3つの段階は、あなたがそれを見ることなく発生する可能性があります。可能な限り介入する予防が重要ですが、これらの攻撃は、最も脆弱なシステムをターゲットにするように設計されており、多くの場合、ユーザ攻撃から始まるのです。

ステージ1 – 攻撃の開始
この最初の段階は、攻撃者がシステムに侵入するためにランサムウェアをセットアップするところです。これは、フィッシングメール攻撃の送信、悪意のあるウェブサイトの設置、RDP (Remote Desktop Protocol)接続の弱点の悪用、ソフトウェアの脆弱性への直接攻撃など、いくつかの方法で行われることがあります。ユーザの数が多い組織ほど、フィッシングや悪質なウェブサイト、あるいはこれらの組み合わせなど、ユーザを標的とした攻撃に対して脆弱性が高くなります。たった一人のユーザが間違いを犯すだけで、ランサムウェアのコードを実行し、システムに侵入してしまうのです。

ステージ2 – インスタンス化
ランサムウェアがシステムに侵入すると、ステージ2が発生します。悪意のあるコードは、攻撃者に戻る通信回線を設定します。ランサムウェアの攻撃者は、この通信回線を使用して、追加のマルウェアをダウンロードすることがあります。この時点で、ランサムウェアは、攻撃者が攻撃を開始する前に、数日、数週間、または数ヶ月間、隠れた状態で休眠状態になることがあります。ランサムウェアは、組織内の他のシステムを横断的に移動し、可能な限り多くのデータにアクセスしようとすることもあります。また、多くのランサムウェアは、バックアップシステムも標的にしており、被害者がデータを復元する機会を奪っています。 このような場合、ユーザはシステムが侵害されていることに全く気付かず、攻撃者は攻撃を開始する最適なタイミングを待つことができます。

ステージ3 : 稼働開始
ステージ3は、攻撃者がランサムウェアの攻撃をリモートでアクティベート(実行)するときです。これは、攻撃者がいつ起こしてもおかしくないものであり、お客様の組織を完全に油断させるものです。攻撃が開始されると、組織は攻撃の発生を認識し、被害軽減と復旧のための努力を開始することさえ、時間との戦いになります。

ステージ4-7: 嵐のスタート


攻撃が始まると、システムとデータは危険にさらされます。攻撃を緩和し、回復するための計画がなければ、ダウンタイムは数時間から数日、あるいは数週間に及ぶ可能性があります。その結果、経済的な損失だけでなく、ブランドの評判にも影響を及ぼす可能性があります。

ステージ4:暗号化
ランサムウェアは、場合によってはロック画面によってデータを人質に取りますが、企業の攻撃では暗号化が最も可能性が高いです。ランサムウェアの種類によって、ファイルシステムのマスターブートレコードの暗号化から、個々のファイルや仮想マシン全体の暗号化まで、さまざまな暗号化方式が使用されています。バックアップシステムを狙うランサムウェアは、バックアップを削除したり、暗号化して復旧できないようにすることがあります。データを復元化する可能性は極めて低いため、企業では、データを失うか、レプリカやバックアップから復旧するか、身代金を支払うかの3つの選択肢を取ることになります。

ステージ5 – 身代金要求
この段階では、ユーザは正式に被害者となり、ランサムウェアはデータを暗号化しています。暗号通貨取引による身代金の支払い方法に関する情報が提示されます。ランサムウェアが暗号化できたデータによっては、データにアクセスできなくなるだけでなく、アプリケーションやシステム全体が暗号化によって使用不能になることもあります。データやサービスにアクセスできなくなることで、業務に大きな影響を与える可能性があります。

ステージ6 – 復旧または身代金
この段階は、ニュースで見た多くの組織が重大なダウンタイムや混乱の影響を経験し、その結果、身代金を支払うことを選択した段階です。効果的な復旧方法がなければ、たとえデータを部分的にでも復旧できたとしても、そのコストは身代金の支払いコストを上回ってしまうかもしれません。しかし、効果的な復旧計画があれば、最小限の混乱で迅速にデータを復旧でき、身代金を支払う必要がないため、ダウンタイムや法外な身代金の支払いによるマイナスイメージを払拭できる可能性があります。

ステージ7:クリーンアップ
身代金を支払っても、バックアップやレプリカからデータを復旧させても、システム上のランサムウェアが消滅するとは限りません。悪意のあるファイルやコードがまだ存在している可能性があり、削除する必要があります。攻撃によってランサムウェアの種類が明らかになれば、ランサムウェアの場所を特定し、システムから削除することが容易になります。必要であれば、隔離されたネットワークでシステムを復旧させ、再起動のリスクなしにマルウェアをクリーンアップすることができます。マルウェアの駆除が完了したら、システムを通常のオペレーションに戻すことができます。

リカバリーはレジリエンス(回復力)


ランサムウェアの攻撃を事前に防ぐことは、すべてのサイバーセキュリティ計画の一部であるべきです。しかし、サイバー攻撃やサイバー犯罪は、その性質上、予防策を回避するように設計されており、そのために急速に進化を続けているのです。このような脅威を真剣に受け止めている組織は、攻撃されるかどうかではなく、いつ攻撃されるかの問題であることを知っています。そのような場合、効果的な復旧計画によってのみ、ダウンタイムやビジネスの中断、大きな財務的打撃を回避することができます。

ビジネス・レジリエンスや継続性には多くの要素がありますが、ITの分野では、データを復旧する能力がレジリエンスの基幹となります。バックアップとディザスタリカバリのオペレーションは、ローカルにファイルを復元する場合でも、温存したDRサイトからアプリケーションを復元する場合でも、組織を軌道に乗せるために効果的なものです。現代のランサムウェア攻撃には、オンプレミス、クラウド、階層型ストレージ、 , SaaSアプリケーションなど、複数のプラットフォームでデータを保護する最新のデータ管理およびリカバリソリューションが必要です。更にイミュータブルバックアップを含む新しいリカバリ機能を活用し、ランサムウェアとの戦いに備えることができます。

リカバリの専門家とランサムウェア対策を計画する


ランサムウェアの攻撃は、予防や準備に最善を尽くしても、システムに侵入してきます。ランサムウェアの攻撃がシステムに与える影響を理解することは、予防と復旧の両方の計画を立てるための第一歩です。まだ復旧の計画を立てていないのであれば、今がその時です。すでに計画を立てている場合は、その計画が最新のランサムウェアの亜種に対応しているかどうかを確認するために、今が見直しの時期かもしれません。

復旧のための効果的な準備は、混乱を招き、ニュースをにぎわすような攻撃に対する最も重要な防衛線となります。万が一、攻撃を受けてしまった場合、適切なリカバリープランがないために被害を受けてしまうことのないようにしましょう。

クライムが提供する各種「Immutable(書き換え不能)レポジトリーバックアップによるランサムウェア対策」 手法

タグ:

VMware vSphereのための仮想化データベース・パフォーマンス・モニタリング

データベースと仮想マシン(VM)のパフォーマンスを関連付け

仮想マシン内で動作するデータベースをより簡単に特定し、データベースと仮想マシンのパフォーマンスを相関させることが可能に

Database Performance Analyzer(DPA)を使用して、仮想マシン内で動作するデータベースインスタンスをすばやく検索し、フィルタリングします。DPAを使用して、パフォーマンスの問題を主要な仮想マシンメトリクスにマッピングすることにより、データベースの応答時間を基盤となるゲストOSおよびインフラストラクチャと相関させ、VMパフォーマンスがデータベースに与える影響を判断します。

また、CPU、メモリ、ディスク、およびネットワークの全体的なパフォーマンスとともに、待ち時間のパフォーマンス状況を示すハイレベルなダッシュボードを表示し、アラームを掘り下げて、ハイパーバイザーのパフォーマンスがいつ、どこに存在するかをピンポイントで特定することも可能です。DPAは、エージェントレスでセットアップと実装を行うため、通常数分でVMware vSphere VMおよびホストのパフォーマンスデータを収集・監視できるようになります。


各コンピュートレイヤーの可視化

DPA VM Mapping

クエリ、インスタンス、VM、物理ホストのメトリクスをタイムスライスごとにリアルタイムおよびヒストリカルにマッピングし、仮想化データベースのパフォーマンスをより容易に関連付け、問題をピンポイントで特定できます。また、データベース・メトリクスをVMwareのパフォーマンスやイベント(vMotionやVMの電源オン/オフなど)と一緒に表示し、ハイパーバイザー・ホストや他のVMがデータベース・パフォーマンスに及ぼす潜在的影響を確認することもできます。

VMとホストの構成を確認

Database Performance AnalyzerのVMオプションは、DBAおよびシステム管理者に対して、仮想マシン、ハイパーバイザーホスト、追加のホストVM、VMストレージ、およびホストストレージの構成に関するさらなる洞察を提供します。ハイパーバイザーのソフトウェア・バージョン、ハードウェアのメーカーとモデル、CPUとメモリの種類など、詳細な構成情報を取得できます。

データベースVMのヘルスサマリー

DPAは、データベースメトリクスと、Co-Stop、CPU Ready、Memory BallooningなどのVM固有の追加メトリクスにまたがる、完全なVMおよびデータベースの健全性ダッシュボードを提供するように構築されています。また、バックアップ情報や、セッション数、接続ユーザー数、接続デバイス数などのデータベース接続情報についての洞察を得ることができます。

タグ: , ,

Kubernetes(K8s)環境がサイバー攻撃を受けた時に24時間以内にやるべきこと

 

企業にとって最大の恐怖はサイバー攻撃です。企業がサイバー攻撃を受け、その影響への対処に追われることは、常に新しいものであるように思われています。CIOからDevOps担当者までがある程度のKubernetes環境のセキュリティを確保していますが、攻撃を防げる保証はありませんし、攻撃が発生した場合、企業がダウンタイムやデータ損失を被らないという保証はありません。その上、多くのリーダーは、攻撃発生時、特に発生後24時間の重要な期間に何をすべきなのかさえ、よく分かっていません。

ランサムウェアやデータ流出などの攻撃を受けて何をすべきか、明確なセキュリティ対策書を作成している企業もありますが、まだ作成途中の企業もあります。企業のサイバーセキュリティ対策を考えている方は、次のステップを検討してみてください。

攻撃直後の対応


攻撃が発生した場合、侵害された環境がKubernetesであるかどうかにかかわらず、考慮すべきいくつかの重要なステップがあります。何よりもまず、担当者は適切な当局、利害関係者、リーダに対して警告を発し、侵害に対する認識を高め、メッセージが適切な人々に届けられるようにする必要があります。場合によっては、セキュリティまたはITチームへの連絡で済むこともあれば、リーダシップへの本格的なエスカレーションとなることもあります。企業にはそれぞれ独自の組織階層があり、攻撃の可能性を誰に通知すべきかは変わってきますが、重要なのは、知るべき人が知るべきことを確保することです。

適切な人物に警告を発した後は、侵害の程度を評価する必要があります。ハッキングされたユーザアカウントは一人の従業員にしか影響しないかもしれませんが、大規模な攻撃では、組織全体が危険にさらされる可能性があります。このような侵害の特定プロセスを可能な限り円滑かつ迅速に進めるために、組織は常に追加のリソース活用を検討すべきです。

攻撃を受けてから12時間以内


企業によっては、失われたデータの復旧や復元が可能な場合もありますが、ほとんどの場合、外部からの支援が必要です。最初の12時間以内であれば、何が問題であったかは明らかかもしれませんが、被害の全容を把握するにはまだ時間がかかるかもしれません。外部のコンサルタントは、さまざまな角度から調査を行い、攻撃中に考えもしなかったような危険な領域を特定するのに役立ちます。

アウトソーシングしたことで、セキュリティ・チームは、侵害の根本的な原因を突き止め、悪用された脆弱性に対処することができます。Kubernetesで運用されているということは、クラウドネイティブなアプリケーションで侵害が発生した可能性が高いため、侵害が発生する可能性はより多くなります。セキュリティ専門家は、侵害の特定と是正に取り組む必要があります。エンドユーザが報告しなかった不審なメールやフィッシングメールに出くわしたことはありませんか?これは、プリビレッジ的な管理者アカウントの認証情報侵害の可能性があります。プラットフォーム・エンジニアは、コンテナ・イメージに見つかった脆弱性を見落としていませんでしたか?これは、CI/CDパイプラインでの脆弱性の可能性があります。

侵害の根本原因を特定することは、他のユーザや顧客に影響を与える前に、特定されたインシデントの拡大を阻止する封じ込め段階へとチームを導きます。これには、必要に応じて隔離したり、特権的なアクセスを一時的に減らしたりすることも必要です。

最初の24時間以内


封じ込め計画が経営陣によって承認され、動き出したら、影響を受ける人々に通知することが重要です。信用、顧客、信頼を失うことを恐れて、インシデント(事故)を隠蔽したくなるかもしれません。しかし、顧客が分かるようなセキュリティ・インシデントは、いずれは一般に知られるようになることを考えることが重要です。組織がこれに先手を打たない場合、結果的に誤解される可能性があります。

社内のコミュニケーション・チームにインシデントを直ちに知らせ、必要に応じて社内外のコミュニケーションの草稿を作成するよう依頼してください。非難の声を上げたり、インシデントの詳細を説明したりする必要はなく、組織が適切なレベルのリソースを用いていかに迅速に対応しているかを説明し、現在取っている措置やまだ取る必要のある措置について説明することが必要です。安心感を与え、行動を促すことは、セキュリティ・インシデント発生時に最も貴重な資産となります。既存の関係を強化し、新たな関係者の協力を呼び込むことができるからです。

行動への呼びかけ 最終防衛ラインを確保するために

セキュリティインシデントが発生してから24時間が最も重要ですが、今後の攻撃に対するKubernetesシステムの再構築と準備のために、まだやるべきことが残っています。これには、ノード、アクセス、ネットワーク、コンテナ、およびデータの保護が含まれます。

さらに保護を強化するために、新しいテクノロジーやソフトウェアへの投資も検討することが有益でしょう。手始めとして最適なのは、検知・対応ツールです。監視は可視性を提供し、SIEM および SOAR プラットフォームは、ソフトウェアがノイズをフィルタリングし、発見事項を関連付け、重要なセキュリティ・アラートのみをエスカレーションするための拡張性を提供します。これには、上記のリソースの多くを1つのプラットフォームで提供するクラウドネイティブ・アプリケーション保護プラットフォーム(CNAPP)を組み合わせるとよいでしょう。

将来のサイバー攻撃を防止または検出するための投資の多寡にかかわらず、常に最後の防衛ラインを確保する必要があります。データは多くの敵にとって最大の標的であるため、データの機密性、完全性、可用性を保護することが最も重要です。弾力性のあるデータ保護プラットフォームは、データの不変性によって攻撃に対する保険となり、迅速な回復のための扉を開くことができます。ランサムウェアを完全に防ぐことは不可能に近いですが、嵐を乗り切るためには、準備と対応方法を知っておくことが重要です。特に最初の24時間に備えれば備えるほど、より早く復旧し、本来の業務に戻ることができるのです。

タグ: , ,

AWSが従来からのレガシー・バックアップ戦略に影響するかどうか?

パブリッククラウドの導入で何が変わったのでしょうか?

パブリッククラウドが導入され、非常に高いデータ耐久性と可用性を持つストレージが提供されるようになったことで、極端なデータ保護・保持プランを作成・維持する必要がなくなったことです。例えばAWSのS3ストレージは、99.9999999%のデータ耐久性(99.99%の可用性)と高いセキュリティレベルを誇っています。また、AWS上のデータバックアップの多くは、インクリメンタルに行われるため、コストを大幅に削減することができます。

コストに関して、S3は1GBあたり0.023ドルで保存できるため、重要なデータの保存にかかる費用を大幅に削減できます。AWS Glacierなどのコールドストレージを使えば、さらに価格を下げることができます。この時点でハードウェア・ストレージは太刀打ちできず、さらに、従来はストレージの入手に数週間かかっていたのが、今では数分から数秒ですべてが手に入るようになりました。

例えば、AWSクラウドが、最初に「グランドファーザー・ファーザー・サン(GFS)」と
3-2-1」の2つのバックアップ戦略に具体的にどのような影響を与えたかを考えてみます。

グランドファーザー・ファーザー・サン(GFS)とAWS

このレガシーバックアップ戦略をデータセンターで使うのとAWSで使うのとでは大きな違いがありますが、GFSをパブリッククラウドで使うケースはまだあります。異なるデータ保持サイクルを導入することでコストの一部を取り除くという考え方は、今でも理にかなっており、AWS上でも適用することができます。

例えば、毎日データをS3バケットに送るバックアッププロセスを導入し、そのバケットには40日間バックアップを保存するライフサイクルポリシーを設定します(N2WSを使えば数分で設定できます)。そうすることで、最初の40日間は定期的にバックアップを取り、必要に応じて様々な時点に戻ることができるようになります。

毎週のバックアップでは、同じバケット内の別のサブフォルダにデータを送り、5~6週間データを保持してから期限切れにするライフサイクルポリシーを設定することができます。また、毎月のバックアップは16~18ヶ月間保存することができ、データのライフサイクル・ポリシーにより、実際にデータをコールド・ストレージ用のGlacier層に移動させ、データの長期保存のコストをさらに削減することができます。または、S3ライフサイクルポリシーを利用し、同じバックアップデータをS3 StandardからS3 Infrequent AccessやIntelligent-Tieringのようなものに移動させることも可能です。

言い換えれば、グランドファーザー・ファーザー・サン(GFS)のバックアップ戦略を使用しながら、多くのオプションを検討し、使用するケースに応じて調整することができます。

3-2-1とAWS


グランドファーザー・ファーザー・サン(GFS)のバックアップ戦略は、データ保持プランとして現代でも意味を持ちますが、3-2-1戦略は話が別です。AWSクラウドが提供するものを考えると、データの耐久性について考える理由はほとんどありません。また、データはAWSの3つの異なるAvailability Zone(データセンターと考えてください)内で自動的に複製されるため、すでに異なる場所でデータを保持していることになります。

このレガシーバックアップ戦略は、若干の修正を加えることで現在でも有用であるすることができます。例えば、プライマリデータをS3にバックアップし、高耐久性バックアップとして機能させ、さらにそのデータを他のAWSリージョンに送るクロスリージョンレプリケーションを作成し、ライフサイクルポリシーを使用してAWS Glacierにアーカイブすることができます。この方法では、3つのバージョンのデータを保持し、複数のリージョン(あるいは異なるAWSアカウント)にバックアップを分散させ、コールドストレージのオプションも利用することができます。

レガシーバックアップ戦略とAWS


確かに、この10年で多くのことが変わり、当たり前だったことが時代遅れとなり、風化していることも多いです。しかし、過去の優れたアイデアや原則はまだ残っており、何らかの形で利用することができます。

重要なデータのバックアップに関しては、N2WS Backup & Recoveryのようなサードパーティツールを使用することで、このミッションクリティカルなプロセスを改善することができます。このクラウドネイティブな製品(現在はAWSとAzureをサポート)は、データを安全に保管するだけでなく、さまざまな戦略を活用して保管にかかるコストを大幅に削減することができます。

タグ: , ,

リスクアセスメント: 効果的なビジネスインパクト分析(Business Impact Analysis)のための3つの重要な出発点

リスクのない企業経営はありません。リスクとそれがビジネスに与える潜在的な影響を評価・管理することは、ビジネスリーダの重要な役割です。世界がますますデジタル化する中、IT部門は新しいテクノロジーと改善されたプロセス・慣行の両方を用いて、より多くのリスクを管理し、軽減しなければなりません。重要なITシステムやデータに対するさまざまなリスクは、政治、経済、環境の情勢とともに進化し続けています。

シンプルなリスクアセスメントの定義では、組織が備えるべきリスクを特定することができます。そして、ビジネスインパクト分析により、それぞれのタイプのリスクがビジネスの継続的な能力に対してもたらす潜在的な混乱を予測します。ここでは、ITの観点から、すべてのリーダーがビジネスインパクト分析計画の中で評価し、管理すべき3つの主要なリスク領域について考察したいと思います。

計画外のダウンタイム

現在の常時接続されたビジネス世界では、計画外のダウンタイムは、収益や生産性の低下だけでなく、顧客の信頼や評判の低下という形でビジネスに影響を及ぼします。消費者は多くの選択肢を持っており、あなたのビジネスがダウンした場合、すぐに競合他社に乗り換えてしまう可能性があります。

計画外のダウンタイムの原因は、自然災害からシステム管理者の誤入力、サイバー犯罪者によるシステムの脆弱性の悪用まで、多岐にわたります。このような事象があなたのビジネスに起こる可能性は、あなたの業界、地理的な位置、あなたの準備など、多くの要因に依存します。

次のような質問をすることで、組織におけるダウンタイムのリスクを評価することができます。

●具体的にどのような自然災害が組織・企業に影響を及ぼす可能性があるか?

自然災害があなたのビジネスに物理的な影響を及ぼさなくても、電力、通信、その他のユーティリティなどのサービスが失われ、地域全体に影響を及ぼす可能性があることを心に留めておいてください。

ビジネスに大きな影響を与える自然災害の例としては、以下のようなものがあります。

●地震
●台風/ハリケーン
●洪水
●山火事
●竜巻
●大雪

これらの自然災害は、いずれも地域全体に甚大な被害をもたらす可能性があります。どの災害が企業・組織に最も大きな影響を与えるかを知ることは、リスクを評価し、ビジネスインパクト分析に反映させるために不可欠なステップです。

あなたの組織では、ヒューマンエラーによるシステムへの影響を防止するためのベストプラクティスを実施していますか?

システムの更新やその他の一般的な保守作業は、最初に隔離された環境でテストされないと、しばしば計画外のダウンタイムになることがあります。一見、無害なパッチに見えても、他のシステムとの互換性に問題があり、本番環境全体をダウンさせる可能性があります。すべてのパッチやアップデートを本番環境に導入する前にテストするなどのベストプラクティスを用いることで、予期せぬダウンタイムのリスクを大幅に軽減することができます。

サイバー攻撃時のダウンタイムを減らすために、セキュリティのベストプラクティスを実践していますか?

サイバー攻撃にはさまざまな形態がありますが、ランサムウェアやDDOS(dedicated denial of service)攻撃のように、予定外のダウンタイムを引き起こし、ビジネスに深刻な影響を及ぼす可能性があるものもあります。セキュリティのベストプラクティスに従い、セキュリティとリカバリのソリューションを導入することで、サイバー攻撃のリスクと影響を大幅に軽減することができます。

データ損失

計画外のダウンタイムと同様に、データ損失も災害レベルの出来事による計画外の結果である。ユーザーの偶発的なミス、悪意のあるサイバー攻撃、自然災害のいずれであっても、データの損失は、資産や生産性の損失という点で大きな代償を伴う可能性があります。特に、データやデジタル資産が物理的な資産と同じかそれ以上の価値を持つ多くの企業の場合は、その傾向が顕著です。

ダウンタイムとは異なり、データ損失のリスクは災害の種類にあまり関係しません。むしろ、データ損失を防ぐために既に導入されているデータ保護ソリューションの方がより重要です。災害のシナリオでは、失われるデータはまだ保護されていないすべてのデータ、つまり最後のバックアップ、レプリケーション、スナップショットの後に作成されたすべてのデータであるため、データ損失はしばしば時間で測定されます。しかし、適切なソリューションを導入することで、多くのデータ保護ソリューションで発生する数時間のデータ損失ではなく、わずか数秒のデータ損失で済ませることができるのです。

データ損失のリスクを評価する際には、次のような質問を検討してください。

あなたのデータの価値は?

すべてのデータが同じ価値を持っているわけではありません。あるデータは極めて貴重な知的財産であるかもしれませんし、あるデータはありふれた管理目的であり、簡単に交換できるかもしれません。データはその価値を評価する必要があり、それによってどの程度のデータ保護を行うべきかが決まります。

あなたのデータは物理的にどこにありますか?

データは、さまざまな物理的場所、さまざまな種類のデータストレージに保存されることがあります。データの物理的な場所によって、特定の災害、特に自然災害に対してより脆弱になる可能性があります。データストレージが特定の種類の災害によって物理的に破壊される可能性があり、データのバックアップやレプリカが地理的に十分な遠隔距離に置かれていない場合、それらのバックアップも同じ災害の危険にさらされる可能性があります。データがクラウドに保存されている場合、データが物理的に存在するクラウドデータセンターの物理的な場所と、それらの地理的な地域で起こりうる脅威を確認と理解しておく必要があります。

どの程度のデータが失われる可能性があるのか?

現在のデータ保護戦略を評価し、復旧目標(RPO)を決定することで、災害時にどの程度のデータが失われる可能性があるかを判断します。多くのソリューションは、従来のバックアップ技術に基づいており、6時間から12時間ごとにしかデータを保護できない可能性があります。つまり、このようなソリューションでは、6~12時間分のデータを失う可能性があり、しかも、最後のバックアップから正常にリカバーできることが前提となっています。どの程度のデータが失われる可能性があるのか、またそのデータの価値を知ることは、将来のデータ保護戦略を決定する上で役立ちます。

サイバー攻撃

サイバー攻撃は、ダウンタイムやデータ損失のほか、顧客の信頼失墜や盗まれた顧客データに関する訴訟など、経済的な損害をもたらす可能性があります。あらゆる産業が直面するサイバー攻撃の代表的なものにランサムウェアがあります。ランサムウェアは、予定外のダウンタイムとデータ損失の両方を引き起こし、しばしば数時間から数日間、組織の運営を中断させます。

自然災害とは異なり、サイバー攻撃は常にある脅威であり、世界中で数秒に一回の割合で攻撃が発生しています。これらの攻撃の中には、ITインフラスに対して直接仕掛けられるものもあれば、ユーザを悪用するウェブサイトに潜伏しているものもあります。自然災害とは異なり、サイバー攻撃はセキュリティのベストプラクティスに従うことで防げることが多く、優れたセキュリティソリューションを導入することで迅速に復旧させることができます。

ほとんどのサイバー攻撃は防ぐことができるかもしれませんが、ユーザの不注意な行動ひとつで、ランサムウェアのようなサイバー攻撃を引き起こし、システムに素早く侵入される可能性があります。最近、多くのランサムウェア攻撃がニュースで取り上げられましたが、このような攻撃を受けた組織は、長期間の混乱と多大な金銭的コストを強いられることになります。リスク評価の観点からは、予防と復旧の両方に重点を置く必要があります。サイバー攻撃の可能性は、「もし」ではなく「いつ」と考えるべきです。

サイバー攻撃のリスクを評価するために、以下の質問を使用してください。

どのような種類のサイバー攻撃が、自分の組織を標的にする可能性が最も高いか?

すべての組織は、デジタルサービスやデータの使用方法が異なります。DDOSのようなサイバー攻撃は、大規模なオンラインサービスを提供する組織をターゲットにする可能性があります。データを盗むことを目的としたサイバー攻撃は、クレジットカード情報を含む個人顧客データを保管している小売業者をターゲットにする可能性があります。残念ながら、ランサムウェアの攻撃を受けない組織はありません。このような攻撃は、あらゆる業界のあらゆる種類の企業を標的としているようです。どのような脅威が自社を狙う可能性が高いかを知ることは、予防と復旧の両面から計画を立てるための第一歩です。

現在のサイバーセキュリティ対策は、現在の脅威に対して適切ですか?

現在のサイバーセキュリティ対策を評価し、業界のベストプラクティスに沿っているか、一般的な脅威に対応しているかを確認します。サイバーセキュリティ対策は、適切なテスト、メンテナンス、トレーニングを行わないと、すぐに時代遅れになる可能性があります。

現状のデータ保護・復旧計画は、ランサムウェアの攻撃に対して適切ですか?

ランサムウェアは、データ復旧を含むサイバーセキュリティの状況を一変させました。これまで、データ保護とサイバーセキュリティは別々のソリューションと見なされてきましたが、データ復旧は今やランサムウェアへの耐性を高める最前線となっています。従来のデータ保護やバックアップのソリューションでは、ランサムウェアからの復旧に時間がかかりすぎるため、データ保護戦略を見直す時期に来ているようです。

参考>> ディザスタリカバリー用語集

タグ: ,

Azure Storage種類の選び方と考慮すべきポイント

Azure Storageを検討すべき理由

Azure Storageサービスは、クラウドにおける最新のデータストレージ要件に対応しています。例えば、IaaSモデルを採用している場合は、Azure内のVMで使用されるディスクストレージや、大規模なスケーラブルオブジェクトストレージを必要とするアプリケーションのための柔軟なブロブ・ストレージなどがあります。また、Azureでは、特にレガシーアプリケーションを移行する際にファイル共有サービスを必要とするシナリオに対応するためのファイルサービスや、非同期メッセージング用のストレージ、スケーラブルな構造化データを保存するためのNoSQLテーブルも提供しています。

Azure Storageには、次のような主な機能が搭載されています。

●高可用性: デフォルトでは、常に3つのデータコピーが用意されています。また、データセンターや地域をまたいでデータを複製することで、さらに高い復元力を得ることができます。
●セキュリティ: ストレージに書き込まれるすべてのデータはデフォルトで暗号化され、コントロールプレーンへのアクセスはAzure RBACを使用して厳密に制御されています。
●スケーラビリティ:最大5 PBのストレージを提供し、Azureサポートに連絡することでさらに増やすことができます。このため、大規模な拡張性を必要とするストレージを使用するアプリケーションに適しています。
●マネージドサービス:Azure Storageは、マネージドサービスです。つまり、基盤となるインフラ、ハードウェア、アップデート、メンテナンスなどは、すべてAzureプラットフォームが行います。
●アクセスの容易性:.NET、Python、Java、Node.jsなどの一般的な言語で利用可能なライブラリが用意されており、アプリケーションと簡単に統合することができます。また、HTTP/HTTPSやAzure PowerShellやCLI、REST APIなどのツールを使用して、インターネット経由でサービスにアクセスすることができます。

Azureのストレージタイプとその使用時期

Azureで利用できるストレージタイプは、Azure Blobs、Azure Files、Disk Storage、Azure Tables、Azure Queue Storageです。クラウド導入プロセスの重要なステップは、組織のアプリケーションのユースケースに最も適したAzureストレージタイプを特定することです。そのために、さまざまなAzureストレージタイプとそのユースケースを以下に説明します。

Azure Blobs:

最初のAzureストレージタイプは、「ブロブストレージ」と呼ばれるオブジェクトストレージソリューションで、例えば、写真、テキスト、ビデオ、バイナリデータなど、大量の非構造化データの保存に使用できます。ブロブストレージには、「ブロック」「アペンド」「ページ」の3種類があります。

●ブロックブロブは、主にテキストやバイナリデータの保存に使用されます。データはブロックIDで識別されるブロックとして保存され、個別にアクセスできます。
●Append blobは、アプリケーションのロギングデータの保存など、データブロックを追加する必要がある場合に最適です。新しいデータブロックのみを追加でき、既存のブロックを削除または更新することはできません。
●ページブロブは、Azure内のVMの仮想ハードディスクを格納するために使用されます。512バイトのページで構成されており、ディスクに必要な読み取り/書き込み操作に最適化されています。

データは、Blobfuse、AzCopy、Storage SDK、Import/Exportサービスなどのさまざまなツールを使って、Blobストレージにアップロードすることができます。大規模なデータ転送のために、お客様はAzure Data Boxをリクエストして、Azure Storageとの間でデータをインポート/エクスポートすることもできます。

Blob Storageには、Hot、Cool、Archiveの3種類のアクセス層があります。Hot層は、頻繁にアクセスされるデータに使用され、他の2つの層と比較して、ストレージコストは高いが、アクセスコストは低いです。Cold Tierは、30日以上アクセスされずにストレージに残るデータを対象としています。短期バックアップ、古いログデータ、DRデータなどです。Cold層はHot層よりも安価ですが、ストレージへのアクセスコストが高くなります。Archive階層は、最低でも180日間はアクセスされないデータのための階層で、長期バックアップやアーカイブデータなどが対象となります。他の2つの階層と比較して、ストレージコストは最も安いが、データ検索料金は最も高くなります。

Blob Storageは一般的に、アプリケーションの分散データアクセスに使用され、画像やストリーミングオーディオ/ビデオファイルなどの大容量ファイルを保存します。また、バックアップ、DR、アーカイブデータセットの保存にもよく使われます。また、さまざまなソースからの大規模なログデータをBlob Storageにストリーミングして、分析やビジネスインテリジェンスサービスで利用することもできます。

Azure Files

2つ目のAzureストレージタイプは「ファイルストレージ(File Storage)」で、ファイル共有がAzureによってホストされているマネージドファイル共有サービスです。これらのファイル共有には、オンプレミスのLinux、Windows、macOSマシンや、クラウドのSMB/NFSプロトコルでアクセスすることができます。

ファイル共有は完全に管理されているため、企業は本格的なファイル共有サーバーの導入や管理の手間をかけずに、オンデマンドでファイル共有を活用することができます。Azure Filesは、Azure Storageサービスの一部であるため、障害からデータを保護するように設計されており、複数のアプリケーションやマシンから同じデータにアクセスする必要がある場合、共有データアクセスの要件を満たすことができます。NFS/SMBを介したアクセスに加えて、Azure Filesのデータは、Azure StorageクライアントライブラリやREST APIを使用してプログラム的にアクセスすることができます。

Azure Filesは、オンプレミスのファイルサーバーの代替品を必要で、クラウドに移行するユーザに適したオプションです。また、アプリケーションがアーキテクチャにファイル共有を必要とするリフトアンドシフトの移行シナリオでも役立ちます。Azure Filesの他の使用例としては、アプリケーションの共有ストレージ、ログストレージ、ステートフルコンテナのパーシステントボリュームなどがあります。

Azure Disk Storage

3つ目のAzureストレージタイプは、「ディスクストレージ」と呼ばれます。Azureディスクは、Azure仮想マシンにブロックレベルのストレージを提供します。Azureは、ディスクサイズとタイプを選択するだけで、必要な仮想ハードディスクをプロビジョニングするマネージドディスクサービスを提供します。ディスクストレージは、OSディスク、データディスク、または一時ディスクとしてVMに取り付けることができます。

マネージドディスクは、99.999%のSLAが保証されており、高い可用性を備えています。また、アベイラビリティセットやアベイラビリティゾーンなどの機能と統合することで、データセンターやゾーンレベルの障害からアプリケーションを保護することができます。Azureディスクに保存されたデータは、デフォルトではサーバーサイドの暗号化を使用して保護されています。また、Windows用のBitLockerとLinux用のDM-Cryptを使用したAzure Disk Encryptionを使用して、VMホストレベルでデータを暗号化することもできます。さらに、Azure RBACを使用してディスクへのコントロールプレーンのアクセスを制限し、許可されたユーザのみがアクセスできるようにすることもできます。また、Azure Backupサービスとの統合により、ディスク上のデータを不慮の削除や破損から保護することができます。

Azure Diskには、標準HDD、標準SSD、プレミアムSSD、ウルトラディスクなど、さまざまな利用シーンに応じた種類があります。ウルトラディスクは、データベースやSAP HANAなどのIOインテンシブ/トランザクションヘビーなワークロードに最高のパフォーマンスを提供します。プレミアムSSDはパフォーマンスが重視される本番環境に推奨されますが、標準SSDは使用頻度の低いアプリケーションや開発/テスト環境に使用することができます。標準のHDDディスクは、あらゆる種類の非重要なワークロードに適しています。

Azure Tables

5番目のストレージタイプであるAzure Tablesは、非リレーショナルな構造化データやNoSQLデータ向けのAzure Storageサービスです。これらは、スキーマレスデータのキーアトリビュートストレージを必要とするユースケースに最も適しています。変化するアプリケーションのニーズに柔軟に対応しながら、このような構造化データをTB単位で保存することができます。クラウド上のマネージドSQLデータベースサービスと比較すると、テーブルストレージは構造化データを保存するための安価な代替手段として機能します。

Azure Tablesは構造化データを保存しますが、外部キー、複雑なジョイント、ストアドプロシージャなどの高度なDB機能を必要としないアプリケーションにのみ適しています。迅速なクエリと検索のためにデータを非正規化して保存することができるシナリオに推奨されます。また、拡張性のあるオンデマンドストレージが必要で、LINQクエリやODataプロトコルを使用してデータにアクセスできる場合には、Azure Tablesを使用することができます。

Azure Queues

そして最後に、Azure Queueストレージは、アプリケーションによって生成された大量のメッセージを保存するための非同期メッセージキューイングサービスです。数百万のメッセージを保存することができ、その上限はAzure Storageの容量制限によってのみ決まります。1つのメッセージは最大64KBで、デフォルトのTTLは7日です。また、TTLを設定して、メッセージが失効しないようにすることもできます。このサービスは、インターネット上のHTTP/HTTPSプロトコルでアクセスできます。

Azure Queuesの対象となるユースケースは、非同期処理で、アプリケーションがこのサービスを使って作業のバックログを作成することができます。企業は、異なるコンポーネント間の非同期メッセージングを必要とする、分離されたアプリケーション・アーキテクチャでキューを使用するのが一般的です。

まとめ


Azure Storageは、さまざまな利用シーンに合わせて利用できる、多様なサービスのポートフォリオを提供します。Azure Disks、Files、Blob、Tables、およびQueueは、現代のクラウドアプリケーションの複雑なストレージニーズのほとんどを満たすことができる、機能豊富で汎用性の高いオプションです。このブログで紹介されているこれらのサービスのガイドは、ユースケースに最適なソリューションを特定するためのスタートに役立ちますように希望します。

株式会社クライムが提供するAzure対応ソリューション

タグ: