Zertoがデータベースとアプリケーションの災害対策(DR)にもたらす重要なメリット

災害復旧のためのZertoの紹介

今日のデジタル環境では、重要なデータベースやアプリケーションの継続的な可用性を確保することが最も重要です。 災害復旧(DR)ソリューションのリーディングプロバイダーであるZertoは、データベースやアプリケーションのワークロードの厳しい要件を満たすように設計された、仮想マシン(VM)のレプリケーションとフェイルオーバーを調整する堅牢なプラットフォームを提供しています。

データベースおよびアプリケーションのDRにおけるZertoの重要な利点

  • RPOとRTOをほぼゼロに:Zertoの継続的レプリケーションテクノロジーは、データ損失とダウンタイムを最小限に抑え、ビジネスの中断を数秒以内に回復することを可能にします。
  • アプリケーションを意識したレプリケーション:Zertoはアプリケーションとその基盤となるデータベースの相互依存関係を理解し、複雑なマルチティア環境の一貫したリカバリを保証します。
  • きめ細かいリカバリ:Zertoは個々のVM、ファイル、またはアプリケーションオブジェクトのリカバリを可能にし、柔軟性を提供するとともに、ビジネスオペレーションの中断を最小限に抑えます。
  • 自動化されたオーケストレーション:Zertoは、テスト、フェールオーバー、フェールバックの自動化されたワークフローにより、DRプロセスを簡素化し、人的エラーのリスクを低減し、リカバリを高速化します。
  • マルチクラウドおよびハイブリッドクラウドのサポート:Zertoは、さまざまなクラウドプラットフォームとオンプレミス環境をシームレスに統合し、DR戦略に柔軟性と拡張性を提供します。

データベースおよびアプリケーションのDRにおけるZertoのユースケース

  • ミッションクリティカルなデータベース:Zertoは、Oracle、SQL Server、MySQL、PostgreSQLなどのデータベースの高可用性を確保し、業務への影響を最小限に抑えます。
  • エンタープライズアプリケーション:Zertoは、ERP、CRM、eコマースプラットフォームなどの重要なアプリケーションを保護し、ビジネスの継続性と顧客満足度を確保します。
  • 仮想デスクトップインフラ(VDI):Zertoは、VDI環境の迅速なリカバリを実現し、エンドユーザーの生産性への影響を最小限に抑えます。

Zertoは、特に仮想マシン上で稼働するデータベースやアプリケーションなどの仮想環境におけるディザスタリカバリ(DR)のリーディングソリューションです。Zertoの機能は以下の通りです。

データベースおよびアプリケーション用Zerto VM DRオーケストレーション:

1. 継続的データ保護(CDP)

– リアルタイムレプリケーション:Zertoは、ブロックレベルのデータをリアルタイムでレプリケートします。これにより、データベースやアプリケーションへの変更は継続的にセカンダリサイトにレプリケートされ、データ損失は数秒単位に最小化されます。

ジャーナリング:すべての変更はジャーナルに記録され、最大30日間の保持期間内の任意の時点へのリカバリが可能です。

2. アプリケーションの一貫性を維持したリカバリ

– 仮想プロテクショングループ(VPG):Zertoでは、VPGにVMをグループ化することができます。データベースやマルチティアアプリケーションの場合、これによりすべてのコンポーネントが確実に一貫性を持って復旧され、アプリケーションの一部が異なる時点から取得された場合に発生する可能性のあるデータの破損が防止されます。

3. 自動化およびオーケストレーション

自動フェイルオーバーとフェイルバック:Zertoはフェイルオーバープロセス全体をオーケストレーションします。災害時には、自動的にリカバリサイトにフェイルオーバーし、最小限のダウンタイムでビジネスの継続性を確保します。

事前定義されたリカバリプラン:VMがフェイルする順序と条件を定義するリカバリプランを作成できます。これは、他のサービスよりも先に開始する特定のサービスに依存するアプリケーションにとって非常に重要です。

4. 無停止テスト

フェイルオーバーのテスト:Zertoは、災害復旧計画の無停止テストを可能にします。本番環境に影響を与えることなくDR戦略をテストできるため、信頼性の高い復旧プロセスを確保できます。

5. モビリティとマイグレーション

Zertoは主にDRツールですが、ワークロードのマイグレーションにも使用できます。この機能により、統合、クラウドの採用、または合併や買収などの戦略的なビジネス上の理由により、異なる環境間でデータベースとアプリケーションを移行できます。

6. マルチハイパーバイザーのサポート

ZertoはVMware vSphereやMicrosoft Hyper-Vなど、複数のハイパーバイザーをサポートしており、異なる仮想化プラットフォームが使用されている環境に有益です。

7. クラウド統合

– クラウド災害復旧:Zertoはさまざまなクラウド環境と統合されており、AWS、Azure、Google Cloudなどのクラウドプラットフォームをリカバリーサイトとして使用できます。これにより、オフサイトのDR施設の維持コストを大幅に削減できます。

8. セキュリティとコンプライアンス

データプライバシー:Zertoでは、データレプリケーションとリカバリプロセスをきめ細かく制御できるため、データ保護規制へのコンプライアンスを確実に実現できます。

暗号化:データは転送中と保存中の両方で暗号化でき、セキュリティのレイヤーを追加できます。

ランサムウェア耐性:

Zertoのレプリケーションテクノロジーは、異常なデータ変更を監視することでランサムウェア攻撃を検知し、ジャーナルにより身代金を支払うことなく攻撃前の状態に素早くリカバリできます。

10. 使いやすさ

– シンプルなセットアップ:Zertoは、その導入と管理の容易さで知られています。セットアップには、ソース環境とターゲット環境にZerto Virtual Replication Appliance (VRA)をインストールし、Zerto Virtual Manager (ZVM)でレプリケーションを設定します。

Zertoを災害復旧のオーケストレーションに活用することで、データ整合性と可用性が最重要視されるデータベースやアプリケーションにとって不可欠なRPO(目標復旧時点)とRTO(目標復旧時間)を大幅に短縮することができます。 このソリューションは、ハードウェア障害や自然災害などの従来の災害から保護し、ランサムウェアなどのサイバー脅威に対する強固な防御を提供します。

Zerto for データベースおよびアプリケーション VM DR オーケストレーション

概要

Zertoは、仮想マシン(VM)上で稼働するデータベースおよびアプリケーション向けのエンタープライズクラスのディザスタリカバリ(DR)および事業継続ソリューションを提供します。VM DRオーケストレーション機能により、ダウンタイムとデータ損失を最小限に抑えます。

主な機能

データベースのサポート

  • Oracle
  • Microsoft SQL Server
  • IBM DB2
  • MySQL
  • PostgreSQL

アプリケーションのサポート

  • エンタープライズリソースプランニング(ERP
  • 顧客関係管理(CRM
  • サプライチェーン管理(SCM
  • eコマースプラットフォーム

DRオーケストレーション

  • 自動フェールオーバーおよびフェールバック
  • リアルタイムのレプリケーションおよび同期
  • ポイントインタイムリカバリ
  • カスタマイズ可能なリカバリワークフロー

メリット

  • 最小限のダウンタイム(RTO < 1分
  • ほぼゼロのデータ損失(RPO < 1秒
  • DR管理の簡素化
  • 事業継続性の向上

Zertoの仕組み

  1. レプリケーション:Zertoは仮想マシンをリアルタイムでターゲットサイトにレプリケートします。
  2. オーケストレーション:ZertoはDRワークフローを自動化し、シームレスなフェイルオーバーとフェイルバックを保証します。
  3. モニタリング:ZertoはDRオペレーションのリアルタイムモニタリングとアラート通知を提供します。

ユースケース

  1. データベースDR:重要なデータベースを停止やデータ損失から保護します。
  2. アプリケーションDR:重要なアプリケーションの事業継続性を確保します。
  3. クラウドDR:DR機能をクラウド環境に拡張します。

アーキテクチャ

オンプレミス

  • Zerto Virtual Replication Appliance (VRA)
  • Zerto 管理コンソール

クラウド

  • Zerto Cloud Appliance (ZCA)
  • Zerto Cloud 管理コンソール

統合

  • VMware vSphere
  • Microsoft Hyper-V
  • Amazon Web Services (AWS)
  • Microsoft Azure
  • Google Cloud Platform (GCP)

ROIとTCO

  • ダウンタイムコストの削減
  • データ損失の最小化
  • DR管理の簡素化
  • 事業継続性の向上

ユーザ成功事例

  • 「Zertoのおかげで、RTOを4時間から15分に短縮できました。」 – Fortune 500企業
  • 「Zertoにより、当社の重要なアプリケーションの稼働率を100%にすることができました。」 – グローバル金融機関

結論

Zertoは、VM上で稼働するデータベースおよびアプリケーションに対して強固なDRオーケストレーションを提供し、ダウンタイムとデータ損失を最小限に抑えます。その自動化機能により、DR管理が簡素化され、リアルタイムのレプリケーションと同期により、ビジネスの継続性が確保されます。

総括

Zertoは、包括的なデータベースおよびアプリケーションVMのDRオーケストレーションソリューションを提供し、企業がRPOとRTOをほぼゼロに近づけ、DRプロセスを簡素化し、重要なワークロードの継続的な可用性を確保することを可能にします。アプリケーションを認識するレプリケーション、きめ細かいリカバリ、自動化されたオーケストレーション機能により、Zertoは、耐障害性を強化し、ビジネスオペレーションを保護したい組織にとって強力なツールとなります。

タグ: , , , ,

Google Cloud Storage Target Connector:Gluesyncでオブジェクトストレージ機能を強化

GluesyncのGoogle Cloud Storageターゲットコネクタは、サポートされているソースからのデータをGoogle Cloud Storageバケットに保存する機能を提供します。この統合により、JSON形式の大量データを保存するための柔軟性、拡張性、コスト効率の高いソリューションが実現します。

Google Cloud Storage:拡張可能なオブジェクトストレージソリューション

Google Cloud Storageは、オブジェクトストレージプラットフォームとして機能し、Gluesyncのコネクタシステムを通じて組織が対象とすることができます。この統合により、ネイティブのGoogle Cloud SDKを使用した効率的なデータストレージが可能になり、最適なパフォーマンスと信頼性が確保されます。

Gluesyncとの統合:データの整理と保存

GluesyncのGoogle Cloud Storageとの統合により、Google Cloudのデータストレージに関するベストプラクティスが実装されます。ドキュメントはフォルダに体系的に整理され、ソーススキーマとテーブル名によってグループ化され、主キーによって名前が付けられます。この構造化されたアプローチにより、効率的なデータ管理と検索が実現します。

Google Cloud Storageコネクタの主な機能

GluesyncのGoogle Cloud Storageターゲットコネクタには、以下のコアな技術的機能が含まれています。

  • ネイティブのGoogle Cloud SDK統合:コネクタはGoogle CloudのネイティブSDKを利用し、最適なパフォーマンスを実現します。
  • JSON フォーマットのサポート:データは宛先バケットに JSON フォーマットで保存されます。
  • キースペースのサポート:スキーマとテーブルベースのフォルダのグループ化により、整理されたストレージ構造を実現します。
  • ドキュメントの整理:ファイルは主キーを使用して体系的に命名されます。

Google Cloud Storage をターゲットコネクタとして設定

Google Cloud Storage ターゲットコネクタの設定には特定の前提条件が必要であり、ウェブインターフェースを通じて設定することができます。 主な要件と設定の詳細は以下の通りです。

前提条件

  • Google Cloud Storage バケット
  • 次の権限を持つ構成済みのサービスアカウント:
    • ストレージオブジェクト管理者
    • ストレージオブジェクト作成者
    • ストレージオブジェクト閲覧者
  • サービスアカウント(GCPコンソールで作成)に関連付けられたJSON形式のキー

構成パラメータ

  • データベース名:対象のバケット名。

Google Cloud Storageをターゲットコネクタとして使用する利点

GluesyncのターゲットコネクタとしてGoogle Cloud Storageを使用することで、企業は強固なオブジェクトストレージソリューションを利用できます。コネクタのアーキテクチャは、大量のデータボリュームに対するスケーラビリティを維持しながら、効率的なデータ整理を実現します。

この統合は、柔軟なデータストレージニーズをサポートし、Google Cloudが推奨するベストプラクティスを実装しているため、構造化されたオブジェクトストレージソリューションを必要とする企業に最適です。このコネクタを使用することで、企業はGoogle Cloud Storageのスケーラビリティを活用しながら、整理されたアクセス可能なデータ構造を維持できます。

 

タグ: , , , , ,

メモリおよびCPUのモニタリングによるデータベースオーバーヘッドの削減

Database Performance Analyzer (DPA) を使用すると、CPU (中央処理装置) とメモリの使用を最適化することで、データベースの運用コストを大幅に削減できます。

 Database Performance Analyzer (DPA) は、幅広いデータベースソリューションのデータベースパフォーマンスを監視、分析、最適化するための非常に強力なツールセットを提供します。DPAの使用方法の1つとして、データベース環境におけるCPUとメモリの使用を最適化することが挙げられます。適切に実行すれば、大幅なコスト削減につながります。ここでは、データベース環境を最適化して、最高のパフォーマンスとリソース効率を実現するための6つの簡単なステップを紹介します。

1. データベースのパフォーマンスを監視する

DPAをインストールし、要件に合わせて設定したら、パフォーマンスダッシュボードを使用して、CPU(中央処理装置)やメモリの使用状況など、データベースのパフォーマンスを総合的に把握します。

図1: DPAダッシュボードはデータベースパフォーマンス指標の概要を提供します

2. パフォーマンスのボトルネックを特定する

DPAの待ち時間分析機能を利用して、データベースのボトルネックを特定します。この方法では、データレイヤー全体で最も重大な遅延が発生している箇所を特定できます。

図2: 待ち時間分析は、パフォーマンス問題の根本原因を特定するのに役立ちます。

3. クエリーのパフォーマンスを分析する

個々のクエリーを掘り下げて、特定のパフォーマンス値を分析します。最もリソースを消費するSQLステートメントに注目します。

図3 :詳細なクエリパフォーマンス分析は、クエリの非効率性を理解するのに役立ちます

4. クエリの最適化

分析結果に基づき、以下の手順でクエリを最適化します。

  • インデックスの最適化:クエリパフォーマンスを向上させるためにインデックスを作成または修正します。
  • クエリの調整:DPAの推奨事項に基づいて、効率の悪いクエリを書き直します。
  • 実行計画の確認:変更が最適な実行計画につながることを確認します。

図4 :DPAは、クエリパフォーマンスを向上させるためのインデックス最適化の推奨事項を提供します。

5. リソース使用状況の監視

CPUとメモリの使用状況の傾向を長期間にわたって追跡し、パターンと潜在的な問題を特定します。

  • メトリクス:リソース使用状況のメトリクスを分析し、CPU、メモリ、ディスクIOを把握して、使用率が低いインスタンスを特定します。例えば、データベースインスタンスが高性能インスタンス上で実行されているにもかかわらず、そのリソースのほんの一部しか使用していない場合、縮小の対象となる可能性があります。
  • 監視:データベースのCPU/メモリの使用状況を定期的に監視し、使用率が低いインスタンスを特定します。例えば、過去3か月間の平均CPU使用率が30%未満の場合は、データベースの使用率が低いことを示している可能性があります。
  • 戦略:使用率の低いデータベースを縮小する戦略を実施し、コストを削減します。例えば、データベースインスタンスをより低い構成に変更したり、よりコスト効率の高いデータベースサービスに切り替えることができます。

図5 :リソース使用率の傾向を監視することで、パフォーマンスを事前に管理するのに役立ちます

6. 変更の実施とレビュー

データベース環境に必要な変更を適用し、その影響を継続的に確認します。DPAを使用して結果を監視し、必要に応じてさらに調整します。これらの手順に従うことで、 DPAを効果的に使用してCPUとメモリのコストを削減し、より効率的で費用対効果の高いデータベース環境を実現できます。定期的な監視、詳細な分析、および積極的な最適化は、高いパフォーマンスと効率性を維持する上で重要です。

 

 

 

 

 

 

タグ: , , , , , , , , ,

Google Pub/Sub ターゲットコネクタ:Gluesyncでデータストリーミング機能を強化

Google target Gluesync connector

GluesyncのGoogle Pub/Subターゲットコネクタにより、企業はGoogle Pub/Subを通じてデータをストリーミングすることが可能になり、Gluesyncがサポートするメッセージングプラットフォームのポートフォリオが拡大します。 この統合により、企業はデータソースの複雑性をGluesyncに任せ、最新のアプリケーションスタックの開発に集中することができます。

Google Pub/Sub:クラウドネイティブのメッセージングソリューション

Google Pub/Subは、企業がGluesyncのコネクタシステムを通じてターゲットにできるクラウドネイティブのメッセージングサービスです。この統合により、リレーショナルデータベース、NoSQLデータベース、データレイクなど、さまざまなソースからのデータストリーミングを合理化することができます。

Gluesyncとの統合:より柔軟性と制御性を向上

GluesyncとGoogle Pub/Subの統合は、Googleの公式Java SDKを活用しています。このアーキテクチャにより、効率的かつ柔軟なデータストリーミングが可能になり、書き込み権限を持つ指定のトピックにデータを送信する前に、特定のニーズに合わせてデータをモデル化することができます。

Google Pub/Sub コネクタの主な機能

GluesyncのGoogle Pub/Sub ターゲットコネクタには、以下のコアな技術的機能が含まれています。

  • ビルトインのセキュリティ:認証はGoogle CloudのIAMロールによって処理され、オンラインコンソールから直接カスタマイズ可能なきめ細かいパーミッションレベル
  • 公式のJava SDKとの統合:コネクタはGoogle Pub/Subの公式Java SDKを介して通信を確立
  • 広範な地域サポート:Google Pub/Subが展開されているすべての地域に対応
  • データモデリングの柔軟性:Gluesyncの機能により、指定のトピックにストリーミングする前にカスタムデータモデリングが可能

Google Pub/Subをターゲットコネクタとして設定

Google Pub/Subターゲットコネクタの設定には特定の前提条件が必要であり、ウェブインターフェースから行うことができます。設定の詳細は以下の通りです。

  • プロジェクトID:お客様のGoogleクラウドプロジェクトID
  • ポート:オプション、デフォルトは443
  • サービスエージェント(.json)ファイルパス:サービスエージェントJSONファイルへのパス(デフォルトはNULL)

トピック管理

Google Pub/Subトピックへの変更をプッシュするには、Google Pub/Subコンソール内でトピックを最初に作成する必要があります。

メッセージフォーマット

Gluesyncは、以下の構造のJSONフォーマットでメッセージをカプセル化します。

  • キー:カスタムユーザー定義キー
  • operation: 挿入、更新、削除の操作識別子として「i」、「u」、「d」をサポート
  • 注:削除操作の場合、ドキュメントの本文は空のまま送信され、キーフィールドにはドキュメントキーが入力されたままになります。

コネクタはREST API経由でも設定でき、セットアップや統合方法に柔軟性をもたらします。

Google Pub/Subをターゲットコネクタとして使用するメリット

GluesyncのターゲットコネクタとしてGoogle Pub/Subを使用することで、組織は信頼性の高いデータストリーミング機能を利用できます。Googleの公式Java SDKをベースに構築されたコネクタのアーキテクチャは、Google Cloudの組み込みセキュリティ機能により、安全かつ効率的なデータ転送操作を保証します。

この統合により、Google Pub/Sub が導入されているすべての地域へのストリーミングがサポートされ、グローバルな運用にも適しています。このコネクタを使用することで、Google Cloud の IAM ロールと権限システムによる安全で信頼性の高い接続性を維持しながら、Google Pub/Sub のメッセージング機能を活用することができます。

タグ:

Oracle RAC One Node環境を構成してみました ステップ5 Oracle RAC One nodeデータベースの作成

前回の記事の作業により、Oracle Grid Infrastructureの導入まで完了しました。今回は最後の作業として、Oracle RAC One nodeデータベースの作成まで実施します。

ーーーーーーーーーーーーーーーーーーーーーーーーーー
▽Oracle RAC One node構成関連ブログ
 ステップ1:Oracle Linux環境の導入
 ステップ2:Oracle Grid Infrastructureインストールの準備
 ステップ3:別Oracleノードの構成と共有ディスクの設定

 ステップ4:Oracle Grid Infrastructureの導入
 ステップ5:Oracle RAC One nodeデータベースの作成 ← 今回の記事
ーーーーーーーーーーーーーーーーーーーーーーーーーー

Oracleデータベース用ASMディスクの作成

Ora01マシンに対してvSpher ClientなどからgridユーザでGUIログインし、「asmca」コマンドを実行してASM Configuration Assistant画面を開きます。最初の画面では左側メニューの「Disk Groups」を選択し、[Create」ボタンをクリックします。

 

まずは、Oracleデータ領域用のASMディスクを作成します。今回はそれぞれ下記のようにパラメータを指定した後、「OK」ボタンを押下し作成しました。
Disk Group Name:DATA
Redundancy:External

Allocation Unit Size:4MB
Disk Path:/dev/oracleasm/disks/DATA

  

次に、Oracleリカバリ領域用のASMディスクを作成します。今回はそれぞれ下記のようにパラメータを指定した後、「OK」ボタンを押下し作成しました。
Disk Group Name:RECO
Redundancy:External

Allocation Unit Size:4MB
Disk Path:/dev/oracleasm/disks/RECO

最終的には下記画像のようなASMディスクの構成となりました。

 

Oracleデータベースインストーラの配置

双方のOraマシンにoracleユーザでSSHログインし、下記コマンドよりORACLE_HOMEディレクトリを作成しておきます。

mkdir -p /u01/app/oracle/product/19.0.0/dbhome_1
chgrp oinstall /u01/app/oracle/product/19.0.0/dbhome_1

またクローン作成したOra02マシンのSIDはorcl_2となるので、Ora02マシンで下記viコマンドで環境変数を開き「export ORACLE_SID=orcl_2」に変更します。

vi .bash_profile

umask 022
export LANG=C
export NLS_LANG=American_America.UTF8
xport ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=/u01/app/oracle/product/19.0.0/dbhome_1
export PATH=$ORACLE_HOME/bin:$PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:$LD_LIBRARY_PATH
export ORACLE_SID=orcl_2
export ORACLE_UNQNAME=orcl

 

 

実施後、今度はOra01マシンに対して、あらかじめダウンロードしていたOracleデータベースのインストーラ(LINUX.X64_193000_db_home.zip)を配置します。今回は下記画像のように、WinSCPを使用しoracleユーザでログインして、先ほど作成したORACLE_HOMEディレクトリ(/u01/app/oracle/product/19.0.0/dbhome_1)のパスにインストーラを配置しました。

 

配置後は、再度oracleユーザでSSHログインし、「cd /u01/app/oracle/product/19.0.0/dbhome_1」コマンドでインストーラ配置先のパスに移動した後、「unzip -q LINUX.X64_193000_db_home.zip」コマンドを実行し、解凍しておきます。

cd /u01/app/oracle/product/19.0.0/dbhome_1
unzip -q LINUX.X64_193000_db_home.zip

 

Oracleデータベースインストーラの実行

インストーラを配置したOra01マシンに対してvSpher ClientなどからoracleユーザでGUIログインし、「cd /u01/app/oracle/product/19.0.0/dbhome_1」でインストーラ配置先のパスに移動した後、「./runInstaller」コマンドを実行してOracle Database Installerウィザードを起動します。最初の画面では「Set up Software Only」を選択し、「Next」をクリックします。

cd /u01/app/oracle/product/19.0.0/dbhome_1
./runInstaller

次のステップでは、RAC One Node環境構成のために「Oracle Real Application Clusters Database Isntalation」を選択して、「Next」をクリックします。

次のステップでは、Ora02ノードを選択し、「SSH Connectivity」をクリックして、oracleユーザのパスワードを入力し、「Setup」を実行します。これにより、oracleユーザがsshキーを介した接続が行えるように構成されます。実施完了後、「Next」をクリックします

 

次のステップでは、エディションとして「Enterprise Edition」を選択し、「Next」をクリックします。

 

次のステップでは、Oracle Baseパスの設定を行います。今回は「/u01/app/oracle」を入力し、「Next」をクリックします。

 

次のステップでは、Database Administrator、Operator、Backup & Recovery、Data Guard administrative、Encryption Management administrative、RAC administrative用のグループを指定します。今回はそれぞれ下記のように指定しました。
Database Administrator:dba
Database Operator:oper

Database Backup & Recovery:backupdba
Data Guard administrative:dgdba
Encryption Management administrative:kmdba
RAC administrative:racdba

設定後、「Next」をクリックします。

次のステップでは、構成スクリプトに関する設定を行えます。今回は「Automatically run configuration scripts」のチェックを外したまま、「Next」をクリックします。

次のステップに進むと、インストール実施のための構成チェックが行われます。今回は検証用に作成しているのみですので、DNS関連の問題が出力しておりますが、インストールの実施自体は可能ですので、「Ignore All」にチェックを入れ、「Next」をクリックします。

最後にSummary画面に遷移するので、内容を確認し「Install」をクリックします。

インストールプロセスが開始されます。しばらくすると「Execute Configuration Scripts」画面がポップアップされます。

 

対応として、各OracleノードにrootユーザでSSH接続し「root.sh」をOra01→Ora02の順で実行します。

まずはOra01マシンで「/u01/app/oracle/product/19.0.0/dbhome_1/root.sh」コマンドを実行します。

/u01/app/oracle/product/19.0.0/dbhome_1/root.sh

Ora02マシンでも同「root.sh」コマンドを実行します。

完了後、インストールウィザード画面に戻り、「Execute Configuration Scripts」画面の「OK」ボタンを押下し、インストールを再開させます。インストール終了後「Close」を押下し、インストールウィザードを閉じます。

Oracleデータベースの作成

Ora01マシンに対してvSpher ClientなどからoracleユーザでGUIログインし、「$ORACLE_HOME/bin/dbca」コマンドを実行してOracle Database Configuration Assistantウィザードを起動します。最初の画面では「Create a database」を選択し、「Next」をクリックします。

$ORACLE_HOME/bin/dbca

次のステップでは、詳細な構成を行うため、「Adyanced configuration」を選択し、「Next」をクリックします。

次のステップでは、RAC One Node構成のため、以下項目を設定し「Next」をクリックします。
・Database Type: Once RAC One Node database
・Confuguration Type: Admin Managed
・Select a template: Custom Database

 

次のステップでは、すべてのOracleノードを選択し「Next」をクリックします。

 

次のステップでは、SID名などを指定します。今回は以下項目を設定し「Next」をクリックします。
・Global Database name: orcl.oracle.com
・SID Prefix: orcl
・Service name: oracle
・Create as container database: 有効化

次のステップでは、REDOログと制御ファイルを冗長的に配置するために「Use Following for the database storage attributes」を選択し、「Multiplex redo logs and control files」を押下、ポップアップしたウィザードで「+DATA」と「+RECO」を追加します。
その後「OK」をクリックし「Next」をクリックします。

リカバリ領域の指定のため、「Specify Fast Recovery Area」を有効化します。今回は「Enable archiving」も有効化し「Next」をクリックします。

導入するデータベースコンポーネントを選択します、今回はいずれも選択せず「Next」をクリックします。

次のステップでは、メモリの割り当てといった構成オプションを指定します。今回は「Character sets」タブを選択し言語設定などを下記パラメータに変更しました。それ以外の設定はデフォルトのまま「NEXT」をクリックします。
Default language: japanese
Default territory: japan

 

次のステップでは、データベースの管理オプションを設定します。今回はCVUのチェックを定期的に実施するために「Run Cluster Verification Utility (CVU) checks periodically」のみ有効化し「NEXT」をクリックします。

 

次のステップでは、各データベース管理者ユーザのパスワードを指定します。今回は「Use the same administrative password for all acounts」を選択し、一律でパスワードを設定しました。設定後「Next」をクリックします。

 

次のステップでは、データベース作成オプションを設定します。今回は「Create database」、「Save as a database template」、「Generate database creation scripts」を全て有効化し、「Next」をクリックします。

 

次のステップに進むと、データベース作成実施のための構成チェックが行われます。今回は検証用に作成しているのみですので、DNS関連の問題が出力しておりますが、実施自体は可能ですので、「Ignore All」にチェックを入れ、「Next」をクリックします。

最後に「Summary」画面に遷移するので、内容を確認し「Finish」をクリックします。

 

データベースの作成プロセスが開始されます。今回の環境では完了まで1時間弱かかりました。インストール完了後「Close」ボタンでウィザードを終了させます。

Oracle RAC One Node環境が構成できているかの確認

いずれかのOraマシンにgridユーザでSSHログインし、下記コマンドを実行、各リソースのステータスがSTABLEとなっていることを確認します。また「ora.orcl.db」のServerも確認しておきます。下記画像の場合「ora02」がoracleが稼働しているノードとなります。

crsctl stat res -t

次にいずれかのOraマシンで下記コマンドを実行します。この結果からも現在Oracleが稼働しているノードを確認できます。

srvctl status database -db orcl

 

次にOracleが稼働しているノード(今回の場合は0ra02マシン)にoracleユーザでSSHログインし、下記sqlplusコマンドを実行、Oracleに接続し、下記selectコマンドでインスタンス名を確認します。Oracle RAC One Nodeの場合「SID名_1」か「SID名_2」になっていることが確認できます。

sqlplus / as sysdba
select instance_name from gv$instance;

  

最後にライブフェイルオーバも試してみます。いずれかのOraマシンで下記コマンドを実行します。(今回はora01ノードにライブフェイルオーバするので「-node ora01」と指定しています。)

srvctl relocate database -db orcl -node ora01

ライブフェイルオーバ実行後は、ライブフェイルオーバされたOraマシン側で再度下記コマンドを実行していきます。今回の場合「ora01」ノードでOracleが稼働し、インスタンス名もOra01ノードのものに変更されていることが確認できます。

srvctl status database -db orcl
sqlplus / as sysdba
select instance_name from gv$instance;

 

これでOracle RAC One Node環境の構成が完了しました。最後に弊社取り扱いソフトウェアのSyniti Replicateを使用して、Oracle RAC One Node環境データのレプリケーションを試してみたいと思います。

コメントする -->

🚀 Gluesync が Kubernetes を正式サポート

Gluesyncは、Kubernetesサポートを拡大し、専用の公式ガイドをリリースしました。これにより、ユーザーはKubernetesクラスター上でデータ統合を効果的に展開および管理できるようになります。この拡大には、Google Kubernetes Engine(GKE)とMinikube開発環境の両方に関する詳細なドキュメントが含まれており、クラウドネイティブアーキテクチャに対するGluesyncの取り組みを強化しています。

主な機能と利点

GluesyncのKubernetesサポートにより、企業がデータ統合ワークフローを展開・管理する方法を変えるいくつかのコア機能が導入されます。

  • ネイティブKubernetes互換性:標準的なKubernetesディストリビューションとのシームレスな統合により、開発から本番まで、環境全体にわたって信頼性の高い展開を実現
  • 公式GKEサポート:Google Kubernetes Engine展開のためのエンタープライズ対応構成と専用ドキュメントにより、堅牢なクラウドネイティブ運用を実現
  • Minikube開発環境:ローカルでの開発とテストのシナリオに関する包括的なガイドにより、開発プロセスが効率化されます
  • コンテナベースのアーキテクチャ:Kubernetesの展開用に特別に設計されたコンポーネントを完全にコンテナ化することで、最大限の柔軟性と拡張性が実現します

これらの機能は、現代の企業のニーズを満たす、堅牢で拡張性が高く効率的なデータ統合プラットフォームの基盤となります。

Kubernetes:コンテナオーケストレーションプラットフォーム

Kubernetesは、オープンソースのコンテナオーケストレーションプラットフォームとして機能し、Gluesyncの専用ガイドにより、企業はより簡単に活用できるようになりました。この統合により、コンテナ化された環境におけるデータ統合ワークフローの展開と管理が合理化され、開発と実稼働の両方のシナリオをサポートします。

技術概要

GluesyncのKubernetesアーキテクチャは、そのコアにおいて真のクラウドネイティブの原則を体現しています。このプラットフォームは、需要の増加に応じて水平方向に拡張できるステートレスなアプリケーションコンポーネントで動作します。内蔵の健全性チェックと自己修復機能により堅牢な運用が保証され、リソースを意識したスケジューリングによりインフラストラクチャの利用率が最適化されます。このアーキテクチャはローリングアップデートとロールバックをサポートしており、メンテナンスとアップグレードをシームレスに行うとともに、ダウンタイムを最小限に抑えます。

Gluesyncとの統合:強化されたデプロイ機能

GluesyncのKubernetesとの統合により、ネイティブのコンテナオーケストレーション機能が活用されます。 このアーキテクチャにより、効率的で柔軟なデプロイオプションが可能になり、組織は異なるKubernetesディストリビューション間でデータ統合ワークフローを実行できるようになります。 この統合により、以下の機能がサポートされます。

  • マルチノードデプロイメント
  • 高可用性構成
  • オートスケーリング機能
  • ロードバランシング
  • リソースクォータ管理

デプロイメントパターン

ローカルで開発している場合でも、本番環境にデプロイする場合でも、Gluesyncはお客様のニーズに合ったさまざまなデプロイパターンをサポートしています。開発者は、テストや開発に最適なMinikubeを使用したシングルノードのセットアップから始めることができます。本番環境では、GKEデプロイメントにより、高可用性とエンタープライズグレードの信頼性が実現します。複数のクラスタにまたがるハイブリッドデプロイメントや、分散ノードを使用したエッジコンピューティング構成など、より複雑なシナリオもサポートされています。

KubernetesでのGluesyncの設定

Kubernetes上でのGluesyncの設定は、柔軟性と使いやすさのバランスを考慮した、よく考えられたアプローチに従います。 プロセスはクラスタのセットアップから始まり、管理者は本番環境のデプロイメントにはGKE、開発環境にはMinikubeを選択できます。 ネットワーク構成とストレージのセットアップは、確立されたパターンに従います。 一方、アプリケーションのデプロイメントでは、一貫性と再現性を確保するためにHelmチャートが活用されます。

ベストプラクティスと本番環境への準備

Kubernetes デプロイメントの成功は、確立されたベストプラクティスに従うことに大きく依存しています。適切なリソースの割り当ては最適なパフォーマンスを保証し、戦略的なワークロードの分散はインフラの効率を最大化します。監視とログはシステムの健全性への可視性を提供し、包括的なバックアップ戦略はデータ損失から保護します。これらのプラクティスは、Gluesync の堅牢なアーキテクチャと組み合わさることで、本番環境へのデプロイメントのための信頼性の高い基盤を構築します。

スタートガイド

Kubernetes 上で Gluesync をデプロイメント:

  • デプロイ環境(GKE、Minikube、またはその他のKubernetesディストリビューション)を選択します。
  • 環境固有のセットアップガイドに従います。
  • Helmチャートを構成します。
  • コアサービスをデプロイします。
  • インストールを検証します。
  • 監視とログの構成を行います。

デプロイは、標準的なKubernetesツールと手法で管理でき、セットアップと管理方法に柔軟性をもたらします。ドキュメントには、一般的なシナリオの実用的な例とすぐに使える構成が含まれています。

Kubernetesへのデプロイのメリット

GluesyncのデプロイプラットフォームとしてKubernetesを使用することで、企業は信頼性の高いスケーラビリティと管理機能を得ることができます。コンテナオーケストレーションの原則に基づいて構築され、Kubernetesのネイティブ機能を活用するプラットフォームのアーキテクチャは、安定した効率的な運用を保証します。

この統合は、さまざまなKubernetesディストリビューションを実行している組織をサポートしており、既存のKubernetesユーザーとコンテナオーケストレーションの導入を計画しているユーザーの両方に適しています。このサポートにより、企業は信頼性の高いデータ統合ワークフローを維持しながら、Kubernetesの機能を活用することができます。

タグ: , , , ,

医療機関における安全で信頼性の高いデータベースの重要性

もし患者が重篤な症状を訴えて救急外来に到着した時に、その患者の医療履歴に即座にアクセスすることが不可欠です。医師はすぐに患者の電子カルテを呼び出し、その患者の健康状態の全体像を即座に把握します。安全で信頼性の高いデータベースのおかげで、医師は十分な情報を得た上で迅速に判断を下すことができ、患者の命を救う可能性もあります。

これは、集中管理された信頼性の高いデータベースが、重症患者の治療を行う病院にとって不可欠であることを示す一例に過ぎません。患者情報を保存・管理するデータベースは、医療機関の基幹部分であり、患者データへのアクセスを確保し、正確性と安全性を確保する役割を担っています。

NHSの中心にデータベースを据える

IT環境の他の要素よりもデータベースに重点を置く理由は数多くあります。

最も重要な理由のひとつは、イギリスの国民保健サービスのNHS(National Health Service)では当然のことながら、患者データの保護を目的とした厳格な規制の対象となっているという単純な事実です。その結果、データベースはサイバーセキュリティ規制に準拠するように正しく設計、構築、維持することが極めて重要となります。

さらに、信頼性が高く安全なデータベースは、組織内の説明責任と透明性を促進します。正確で一貫性のある記録を維持することで、NHSは規制要件への準拠を示すだけでなく、患者からの信頼を築くこともできます。データ侵害やその他のセキュリティインシデントが発生した場合、信頼性の高いデータベースは明確な監査証跡を提供し、問題の原因を特定して対処するのに役立ちます。

最後に、人間に関する医療データは、人間の寿命と同じ数十年間は保存され続けなければなりません。ITスタックの他の要素は、その時々の技術やアーキテクチャのベストプラクティスに応じて、出現したり消えたりするかもしれませんが、NHSやその他の医療提供者は、特定の患者に関する記録を非常に長い期間保持する必要があります。この要件だけでも、単純な小売データベースアプリケーションでは必要とされないような、信頼性、安全性、回復力のあるデータベースに、より一層重点が置かれることになります。

信頼性の高いデータベースが病院システムをサポート

信頼性の高いデータベースシステムは、特に大規模なNHSトラストでは、患者が入院した場合に、その患者の病歴がネットワーク内のどの施設でも即座にアクセスできることを保証するのに役立ちます。 広範囲に分散したネットワークにまたがるデータベースの管理は、特にデータの整合性と同期の確保という点で、大きな課題となります。 異なるシステムは断片的な患者データにつながり、患者の病歴を統合的に把握することが難しくなる可能性があります。

効果的なデータベースは、重要なデータや情報が複数の場所に分散して保存されているのではなく、すべてを把握できる単一の情報源を提供します。これにより、医療従事者はいつでもどこでも包括的な患者記録にアクセスすることができます。

患者データへのシームレスなアクセスは、医療の質を向上させ、医療過誤のリスクを低減し、全体的な業務効率を高めるのに役立ちます。高速で可用性が高く信頼性の高いデータベースは、分散型システム内の拠点間の相互運用を成功させるために不可欠です。

高機能データベースの構築

問題は、NHSのリーダーたちがデータベースインフラの品質を向上させるために何ができるかということです。

あまり注目されないかもしれませんが、NHS組織がデータの可用性を維持するためにできる最善の策のひとつは、データベース自体が健全性を保ち、適切に機能していることを確実にすることです。単純なことのように聞こえますが、実際にははるかに難しいことです。

データベースは、内部プロセスや動作を理解するのが難しいブラックボックスとして歴史的に存在してきました。この理解不足により、パフォーマンス、スケーラビリティ、信頼性のいずれかが犠牲となるアーキテクチャの選択を迫られる開発チームが数多く存在します。しかし、最新のデータベース監視ソリューションが状況を変えつつあります。

これらの新しいソリューションにより、問題やバグが発生した場合に、システム内部で何が起こっているのかを実際に確認できるようになります。適切な監視機能を備えた最新のデータベースは、ITスタッフにシステムの健全性を包括的に示すことで、一貫性のある安定した機能性を確保するのに役立ちます。

データベースのパフォーマンスを維持するために観測能力に頼るだけでなく、NHSのような大規模な医療機関では、フェイルセーフのメカニズム、プロセス、冗長性を導入することで、高い可用性を確保する必要があります。重要なデータベースは、プライマリサーバーに障害が発生した場合に、スタンバイ中のセカンダリサーバーにシームレスにフェイルオーバーする完全な冗長性を持つ可用性グループを利用すべきです。さらに、ダウンタイムとデータ損失を最小限に抑えるためには、自動バックアップ手順と頻繁にテストされた災害復旧計画が不可欠です。

信頼性の高いバックアップおよびフェールオーバーシステムがなければ、病院は重要な患者データへのアクセスを失うことになり、患者を危険にさらすことになりかねません。強固なデータベースと効果的なプロセスが整備されていれば、病院のITスタッフは迅速に対応でき、患者データのアクセスを確保することができます。

現在進行中のデジタル変革

明らかに、NHSのデジタル変革は広範囲にわたります。全体として、世界で最も複雑な情報システムの1つであり、その成功は複数の要因に左右されます。NHS南・中央・西部(SCW)は、そのことをよく理解しています。イングランド南部にオフィスを構えるNHS South, Central and West (SCW) は、NHSトラスト、病院、一般開業医に高度な技術サポートと変革サービスを提供しています。 つまり、51,000台以上のエンドポイントデバイス、2,100台のサーバー、1,300台のルーター、800台のファイアウォールを監視しているということです。

顧客のインフラストラクチャの監視は、SCWの業務の中心です。SCWは、開業医の日常業務、患者の来院、プロセスを維持しながら、コア業務時間中にシステムと接続が利用可能であることを保証する必要があります。「私たちはダッシュボードなしでは生きられません」と、SCWのチームリーダーは言います。

そのため、彼のチームは Database Performance Analyzer(以下DPA)に投資しました。これにより、ネットワークパフォーマンスの問題や停止を迅速に検出、診断、解決できるようになりました。「メインのステータスダッシュボードを非常にわかりやすくしました。どのデバイスが停止しており、どのデバイスが稼働しており、どのデバイスが管理対象外に設定されており、どのデバイスにアクセスできないかが表示されます」と彼は言います。

この単一画面による明瞭性は、NHSサービスの運用上の完全性を維持するために不可欠です。例えば、2022年にSCWは、563の一般開業医の診療所の97%と30,017人の一般開業医スタッフがオンラインで患者と相談できるプロジェクトを完了しました。

これにより、一般開業医がより多くの患者を診られるようになりましたが、このようなシステムへの依存度が高まるにつれ、医療従事者が医療データに遠隔アクセスしてバーチャル診察や遠隔医療サービスを行うケースが必然的に増え、ネットワークトラフィックが増加します。同様に、リモートワーカーが増えると、その基盤となるデータベースのセキュリティとパフォーマンスを維持するための追加の作業が必要になります。

NHSのデジタル変革は、ITシステムとデータベースに依存しています。

まとめると、安全で信頼性の高いデータベースは、規制順守をサポートし、分散システムの相互運用性を促進し、患者データへの途切れないアクセスを確保するのに役立ちます。堅牢なデータベースソリューションに投資することで、NHSは患者のプライバシーを保護し、業務効率を改善し、患者の医療成果の向上につなげることができます。リスクが非常に高い業界では、安全で信頼性の高いデータベースの重要性はいくら強調しても足りません。

タグ: , , , ,

AIの成功のためにデータ資産を準備する方法

人工知能(AI)について語るに、ありきたりな表現を使わないようにするのは難しいものです。今日、AIは私たちの身の回りにあふれているように思えます。そして、その文化的影響がどのようなものであれ、急速な進化により、幅広い業界で採用されるようになっています。多くの議論は、機械知能が私たちの生活やビジネスをどのように豊かにできるかに焦点を当てています。しかし、データについてはあまり語られておらず、すべてのAIシステムがその運用にデータに依存していることについてはあまり語られていません。

人工知能におけるデータベースの健全性の重要性

AI主導の経済において、データベースとデータベースの健全性の重要性はいくら強調してもし過ぎることはありません。人間の知能は人間の脳の単一のインスタンスに特定することができますが、人工知能の例で単一のデータベースや単一のテクノロジーにまで遡れるものはほとんどありません。AIシステムに必要なデータの量は膨大です。そのすべてのデータは、オンプレミス、クラウド、またはハイブリッドソリューションのいずれかであるにせよ、どこかに保存されなければなりません。

AIで使用されるデータのストレージソリューションは、膨大な量のデータを処理でき、高いスループットと低いレイテンシを提供できなければなりません。 また、データの耐久性と可用性を確保する必要もあります。 クラウドストレージは、シームレスなデータアクセス、拡張性、柔軟性のおかげで、特にAIのワークロードに適していることが分かっています。 そして何よりも、データベースは可能な限り効率的に動作する必要があります。 パフォーマンスの低いアプリケーションに対する許容度は一般的に低いものです。 パフォーマンスの低いAIに対する許容度はゼロに等しいといえます。

ユーザのデータ資産

ユーザのデータ資産について語る際、私たちはデータを保存するインフラストラクチャについて言及することがあります。より広義では、ユーザのデータ資産には、ユーザのアプリケーションにデータを供給し、ユーザのビジネスの継続的な成功を確保するために、ユーザがデータを取得、処理、保存するアプローチや取り組みが含まれます。AIの導入を検討している企業の多くは、既存のデータベースと企業データをAIと併用します。また、特別に作成されたデータセットを使用する企業も多くあります。

自社でAIの導入を検討している場合、留意すべき重要なポイントがいくつかあります。まず第一に、データの品質です。データの取り扱い方法や保存場所に関わらず、信頼性の高いAIシステムを構築するには、データの質と量が重要となります。データの質が低いと、AIモデルや分析に悪影響を及ぼします。AIが意思決定プロセスに利用される場合、不正確なデータや不完全なデータがあると、予測の欠陥や最適とは言えない洞察につながる可能性があります。

次にデータ管理が挙げられます。これは非常に幅広いトピックですが、要するに、優れたデータ管理とは、データを安全に収集、保存、利用することです。明確なポリシーと基準を設けることで、データの整合性と安全性を確保することができます。

最後に、データベースのパフォーマンスがあります。データがどれほど優れていても、データガバナンスが厳格であっても、データベースが適切に機能していなければ、リスクは深刻なものとなります。クエリの処理、データの取得、トランザクションの実行に遅延が生じると、アプリケーションの速度が低下し、ユーザのフラストレーションが高まり、顧客体験の質が低下します。 システムのクラッシュ、予定外のダウンタイム、アプリケーションの応答性の低下は、収益機会の損失につながる可能性があります。 データベースの非効率的な運用は、運用コストの増加につながります。 データの不整合、エラー、損失はデータの整合性を損ない、企業を法規制順守のリスクにさらす可能性があります。

すべてはデータから始まる

AIシステムでは、入力よりも出力に重点が置かれることが多いため、人工知能とデータベースの関連性が必ずしも明確ではありません。機械学習は、コンピュータサイエンスにおける最も要求の厳しいシステムの要件に合わせて最適化されたデータベースに依存しています。AIに限らず、パフォーマンスの低いデータベースによって引き起こされる問題は数え切れないほどあり、データベースの監視および管理ツールの必要性が明白です。

タグ: , , ,

[Druva] Oracle Data Guard 構成 プラス Standby Database バックアップ

はじめに

Oracle Data GuardとStanby Database(スタンバイデータベース)は、高可用性、データ保護、災害復旧機能の実現を求める組織に堅牢なソリューションを提供します。プライマリ・データベースの同期レプリカを作成することで、Data Guardは重要なデータへのアクセスを中断することなく確保し、不測の事態が発生した場合でもダウンタイムを最小限に抑えます。

DruvaのOracle DTC(Direct To Cloud)は、Data Guard構成に対してシームレスなバックアップおよびリストアソリューションを提供します。このソリューションを使用することで、お客様はバックアップおよびリストア処理をStanby Databaseにオフロードし、プライマリデータベースサーバーの負荷を軽減することができます。

Druvaが主要な課題にどのように対処したか

インテリジェントなデータベース検出

DruvaのOracle DTCソリューションは、データベースの役割に基づいて、サーバー上に存在するスタンバイデータベースをインテリジェントに検出します。スタンバイデータベースに関連する対応するプライマリデータベースは、手動操作を必要とせずに識別され、両者の間にマッピングが作成されます。このマッピングを行うには、プライマリデータベースとスタンバイデータベースの両方にユーザー登録を行い、認証情報を割り当てる必要があります。

Oracle Intelligent Database Discovery Druva

同様に、複数のStanby Databaseを持つ構成の場合、これらのマッピングはDruva Cloudに保存され、上記の画像のアイコンでハイライトされているように、Stanby Databaseを特定するのに役立ちます。

効率的なバックアップ

Druvaエージェントは、新しいログがStanby Databaseに送信されていないかどうかをインテリジェントに識別します。これは、プライマリデータベースとスタンバイデータベースの接続が切断された場合に発生します。新しいログを適用するまで、またはレベル0のバックアップが要求されるまで、ログおよび増分バックアップは実行されません。これにより、帯域幅とサーバーの負荷を節約できます。

データベースの切り替え

災害時にスイッチオーバーが実行される場合、Druvaエージェントは新しいプライマリデータベース(以前はスタンバイ)のバックアップを継続し、各バックアップの前にデータベースの役割を識別します。一部のOracleビューはスタンバイデータベース内で利用できないため、この情報(データベースの役割)はバックアップの実行にも使用されます。

スマートリストア

前述の通り、スタンバイデータベースと関連するプライマリデータベースを検出した後、Stanby Databaseのバックアップを使用して、両方のリストアを簡単に実行できます。プライマリデータベースのリストアを実行するには、Druvaエージェントをサーバーにインストールし、Oracle DTCに登録する必要があります。

エージェントは、どちらのデータベースのデータをリストアする場合でも、同じコントロールファイルのバックアップを使用できるほど賢明です。

Oracle smart restore Druva

 

主な要点

  • Stanby Databaseでバックアップを有効にすることで、リソースを集中的に消費する処理をプライマリデータベースからオフロードすることができます。
  • データが破損または損失した場合、プライマリデータベースまたはStanby Databaseのどちらでも簡単にデータベースを復旧することができます。
  • 切り替えが発生した場合でも、Druvaエージェントはバックアップを継続します。

次のステップ

Druvaの高機能クラウドベースのバックアップおよびリストアソリューションを提供する方法についてさらに詳しく知りたい方は、こちらまでご連絡ください

タグ: , , , , ,

データベースの監視能力の基盤となる5つの評価指標

データベースの監視可能性は、環境内でデータを円滑に移動させるための最善策です。しかし、最新の監視ソリューションがどのようにしてインフラの包括的な全体像を把握するのか、疑問に思ったことがあるでしょう。効果的なデータベース監視の基盤となる5つの主要な指標を確認しましょう。

クエリ実行時間:データベースの脈拍

クエリ実行時間は、データベースパフォーマンス監視の要となるものです。このメトリクスは、データベースがクエリを処理して結果を返すまでに要した時間を測定します。実行時間の増加は、パフォーマンスのボトルネック、非効率的なクエリ、あるいは根本的なアプリケーションの問題を示している可能性があります。このメトリクスを詳細に監視することで、統合データベース監視ソリューションは傾向を特定し、問題を診断し、洞察を提供して、最適なシステム応答性を確保するのに役立ちます。

リソース使用率:パフォーマンスの生命線

リソースの使用状況を把握することは、健全なデータベース環境を維持するために不可欠です。

CPU消費:CPUの使用状況を追跡することで、過剰使用や過少使用を特定でき、リソースの割り当てを事前に調整することが可能になります。

メモリ消費:メモリ使用状況を追跡することで、データベース監視ソリューションは潜在的なボトルネックを特定でき、アプリケーションが効率的に動作するために必要なリソースを確保できるようになります。

ディスクI/O:この指標は、ストレージへのデータの読み込みや書き込みの状況を示し、クエリ応答時間からシステム全体のパフォーマンスにまで影響を与えます。

このようなリソース使用状況のメトリクスへのアクセスは、データベース監視ソリューションがデータベース環境全体の容量を明確に把握するのに役立ちます。これにより、負荷がかかった際に潜在的な問題を軽減するためのタイムリーな介入が可能になります。

ストレージ I/O:データ管理の基幹

ストレージI/Oにより、データベース内のデータのアクセスと保存の状況を把握することができます。 ディスクI/Oのレベルが高い場合は、データベースがリクエストに追いつくことに苦労していることを示唆しています。 読み取り、書き込み、スループットのメトリクスを監視することで、最適なデータフローを維持し、ストレージアーキテクチャに関する意思決定の指針とすることができます。 その結果、SSDの高速化、インデックス戦略の最適化、データパーティショニングの改善が実現します。

接続回数:需要と容量の測定

接続回数を追跡することで、データベースとやりとりするユーザ数やアプリケーションの数を把握することができます。接続回数が多すぎると、データベースが接続数の上限に達した場合にパフォーマンスの低下やダウンタイムにつながる可能性があります。接続回数を監視することで、データベースが問題なく処理できるユーザ数を把握することができます。これらの数値を追跡することで、データベース監視ソリューションはリソースの増強や接続数制限のタイミングを把握することができます。これにより、データベースが安全な範囲内に収まり、繁忙期にも問題なく対応できる状態を維持することができます。

エラー率:問題の特定

データベース監視ツールが追跡できるエラーには、以下のようなさまざまなものがあります。

タイムアウトエラー:クエリタイムアウトの頻度と継続時間

データ整合性エラー:制約違反や不整合

トランザクションエラー:トランザクションステータス、デッドロック、パフォーマンスに関する問題

ロックエラー:データロックの数と期間

レプリケーションエラー:レプリケーションプロセスのステータスと不整合

リソース割り当てエラー:リソース使用量が閾値を超えている

エラー率が高いとアプリケーションのパフォーマンスやユーザーの満足度に影響を及ぼすため、これらのメトリクスへのアクセスは迅速な問題解決の達成に不可欠です。データベース監視ソリューションは、エラー率を活用して特定のクエリやユーザーセッションとの相関関係を分析し、根本原因の分析を可能にします。また、過去の傾向を分析して繰り返し発生する問題を特定し、エラーがアプリケーションに及ぼす影響を評価し、データ主導の意思決定のための自動レポートを生成します。

統合データベース監視の基盤を構築する

IT 専門家は以前からこれらの指標を測定するツールを所有していたことを忘れてはなりません。 本当に画期的なのは、これらの数値を収集し分析するデータベース監視ソリューションの能力です。 従来、データベース管理者は個別のツールを使用してこの情報を取得し、データベース環境で何が起こっているかを把握するために、それらの情報を手動で処理する必要がありました。 その結果、断片的な洞察、遅い問題の特定、そしてしばしばユーザ体験の低下につながりました。

最新のデータベース監視ソリューションでは、ログやトレースなどの他の主要な要因との関連性の中で、メトリクスを取得、評価、解釈します。 処理を高速化し、問題が発生する前に介入することさえ可能にするために、機械学習が活用されることが増えています。 個々のデータポイントを理解することも重要ですが、すべてのメトリクスを統合する監視ソリューションを採用することが、データベース環境の包括的な可視化を得る唯一の方法です。

タグ: , , ,

効果的なデータベース監視のための4つの柱

これは、データベースの可視化において最も重要な4つの要素の分析です。 あなたの組織では、これらをカバーできていますでしょうか?

重要なものを監視

ヒントはタイトルにありました。 データベース環境を深く可視化する第一歩は、最先端のモニタリングソリューションを活用して、以下のような重要な指標を把握することです。

●クエリーの実行時間

●CPU使用率

●メモリ使用率

●ストレージI/O

データベースの健全性とパフォーマンスをリアルタイムで追跡することによってのみ、企業は大きな問題に発展する前に新たな問題を特定することができます。貴社のITチームは、重要な測定値を確実に把握していますか? 把握していない場合、最適なデータベースパフォーマンスと最高クラスのユーザーエクスペリエンスを確保することは困難でしょう。

監視はデータベースの可視性の基盤であるとお忘れなく!!

問題の根本原因を突き止めるための診断の微調整

監視ツールが異常を検知した場合、ダウンタイムに向かう負のスパイラルを食い止めるためには、次に根本原因を突き止める必要があります。今日のほとんどのIT環境と同様に、データベースは相互に接続された多数の要素の影響を受け、問題はさまざまな領域から発生します。実行速度の遅いクエリ、リソースの過負荷、最適化されていないインデックスなどです。

チームにとって最も困るのは、利用可能なツールがアラートを効果的にグループ化したり優先順位付けしたりできないために、通知が過剰になることです。しかし、高度な診断ツールはノイズをフィルタリングし、ITプロフェッショナルが問題の根本原因を迅速に特定するのに役立ちます。

効果的な診断により、チームは表面的な症状に対処するだけでなく、より深い根本的な問題を特定することができます!!

プロセスを最適化してデータベースを将来に備える

適切なツールとプロセスを導入すれば、データベース管理者は、常に問題に対処する消火活動的な作業から脱却し、データベースのパフォーマンスを最適化する作業に専念できるようになります。このホワイトペーパーでは、継続的な耐障害性を実現するためのベストプラクティスとして、以下の項目が挙げられています。

●クエリーのパフォーマンスの微調整

●インデックス戦略の調整

●リソース割り当ての管理

データ量や使用規模が拡大する可能性もあります。しかし、基盤を強化し、継続的な改善の哲学を導入すれば、現在および将来にわたって、どのような要求にも適応できるインフラストラクチャを維持することができます。

最適化が不十分なクエリや非効率的なインデックスは、大規模データベースのパフォーマンスに著しい影響を与え、リソース消費の増加やレスポンスタイムの遅延につながる可能性があります!!

全体像を把握するためにすべてを監視

環境の状態を正しく理解するためには、データベース、インフラストラクチャ、アプリケーションが互いにどのような影響を与えているかを把握する必要があります。トレースやログなどのデータは可視化の基盤として不可欠ですが、システムの状況に影響を与えるすべての要因を検証することが重要です。 クロスプラットフォームの可視化ツールを使用することで、サイロ化されたデータポイントが解放され、組織は環境全体を統合的に把握できるようになります。 これにより、弾力性のあるデータベースを維持し、ビジネスの成功を促進する体制が整います。

クロス環境の可視性により、パフォーマンスのボトルネックを特定し、対処するプロセスが簡素化され、すべての環境のデータベースが最適に動作することが保証されます!!

真のデータベースの可視性を実現したいですか?

これは、そのほんの一部です。データベースの可視性に関する包括的な調査、およびデータベース環境で直面する問題に対する真のソリューションについては、是非お問い合わせください。

タグ: , , , , , , , ,

現実的なMongoDB Realmアプリケーションの移行:オプションと戦略の検討

 

MongoDB Realmアプリケーションの移行に関する現実的な戦略を探ります。代替のモバイルデータベースソリューション、ライブマイグレーションの課題、Gluesyncによるダウンタイムなしのシームレスな移行について考察します。

モバイルアプリ開発のダイナミックな世界では、適応力が鍵となります。最近、MongoDBはモバイルデータベースソリューションであるRealmの段階的廃止を発表し、多くの開発者や組織が代替ソリューションを探しています。この市場の変化は、モバイルアプリ開発者にとって課題と機会の両方をもたらします。市場で利用可能な選択肢を詳しく見ていき、運用中のモバイルアプリをスムーズかつ効率的に移行する方法を探っていきましょう。

変化するモバイルデータベースの状況

オフラインファースト機能とリアルタイム同期機能で知られるMongoDB Realmは、モバイルアプリ開発者にとって人気の選択肢となってきました。 その段階的廃止の発表は、モバイルデータソリューションの将来についての議論を巻き起こしました。 この移行を進めるにあたり、利用可能な代替手段と本番アプリの移行の影響を理解することが重要です。

モバイルデータベースの市場オプション

MongoDB Realmの代替となり得る堅牢なソリューションがいくつか登場しています。

  1. Couchbase Mobile: 強力なオフラインファースト機能、マルチモデルデータストレージ、効率的な同期機能を提供。
  2. Firebase Realtime Database: Googleのインフラストラクチャを基盤として、リアルタイムのデータ同期とオフラインサポートを提供。
  3. SQLite: 軽量でサーバー不要のデータベースエンジンで、アプリケーションに直接組み込むことができる。
  4. Realm Database(MongoDB 製): 段階的に廃止されているものの、短期的に現在の設定を維持したい方には選択肢のひとつです(ただし、DBインフラは不要です)。
  5. Ditto: オフライン優先機能、リアルタイム同期、集中型サーバーを必要としない競合解決機能を提供するピアツーピアデータベースソリューションです(「Big peer」と呼ばれるものとは異なります)。
  6. カスタムソリューション: 特定のニーズに合わせて独自仕様のモバイルデータ同期システムを構築することを選択する企業もあります。

これらのオプションにはそれぞれ独自の機能、メリット、考慮すべき事項があります。
これらのオプションの選択は、アプリケーションの特定の要件、スケーラビリティのニーズ、長期的な技術戦略によって大きく異なります。考慮すべき要素には以下が含まれます。

  • 同期機能とパフォーマンス
  • オフライン機能
  • スケーラビリティとコスト
  • 統合と移行の容易性
  • コミュニティサポートと長期的な実行可能性

MongoDBがRealmの段階的廃止を発表したのと時を同じくして、Dittoとの提携も明らかになりました。[詳細はこちら] それでは、RealmがMongoDB Atlasで以前提供していたものと比較しながら、その特徴をいくつか取り上げてみましょう。

Dittoに注目

Dittoは、必ずしも中央サーバーを必要とせずにデバイス間の直接同期を可能にするピアツーピアアーキテクチャで際立っています。主な特徴は以下の通りです。

  • オフライン優先設計:アプリケーションは完全にオフラインで機能し、接続が回復すると同期します。
  • ピアツーピア同期:デバイス間の直接同期が可能で、ローカルでの共同作業に特に役立ちます。これはRealmユーザーにとって新しい機能です。
  • 競合の解決:同時更新を処理するための自動競合解決機能が組み込まれています。
  • クロスプラットフォームのサポート:iOS、Android、ウェブプラットフォームで動作します。
  • 柔軟な展開:ピアツーピアモード、クライアントサーバーモード、または両者のハイブリッドで展開可能。

Ditto architecture

マーケティング面はさておき、私たちは、間もなく廃止されるプラットフォームから(安全かつスムーズに)移行するためのオプションを検討しているため、ここでは現実的な対応をしたいと考えています。
技術的な提供内容を分析してみましょう。

  • MongoDB用コネクタ:MongoDBと直接統合し、DittoのBig peerにデータを投入するコネクタがまもなく利用可能になる予定であると宣伝されていますが、まだ利用可能にはなっていません。
  • サポート:MongoDBは他の有名なソリューションと同様に、エンタープライズグレードのサポートで知られており、無料のコミュニティオプション(フォーラム、ドキュメントなど)を提供し、多数の有資格システムインテグレーターパートナーを抱えています。しかし、Dittoのこのようなトピックに関する提供はまだ証明されていません。隠そうとするのはやめましょう。この会社はまだ新しく、パートナーもそれほど多くないことは周知の事実です。
  • 真実の主な情報源:Dittoには、MongoDBやCouchbaseなどの他のDBのような真実の主な情報源がありません。私たちは、データ運用タスクの調整を一元化したり、あるいは「真実の唯一の情報源」を持つことに慣れていますが、Dittoは完全に分散されています。

完全な代替品か、それとも代替策か?

MongoDBが、解決策のないままほったらかしにされていたであろう現在のRealmに「逃げ道」を提供したのは良いことですが、個人的には、これは部分的な置き換えであり、完全な解決策ではないと見ています。Dittoが提供するアーキテクチャは、MongoDB realmやCouchbaseなどのソリューションで私たちが慣れ親しんできたサーバープッシュ&エッジプル型デプロイとは本当に異なります。すべてのユースケースに適合するとは限らない完全なエッジ分散パターンへの移行をユーザーに強いる。コネクタはまだプライベートベータ版の段階であり、実稼働環境向けのソリューションとしてさらに作業が必要であることを示している。一方で、開発者やアーキテクトは、今日の課題を解決する真のソリューションを見つけるために急ぐ必要がある。いずれにしてもコードの再構築は避けられず、規模の大小に関わらず アプリケーションの特定の部分は修正が必要となり、ユーザーへのアップデートの展開が必要となります。これは一般的に、ユーザーベースの規模や、データ層がプレゼンテーション層やビジネスロジック層からどの程度分離されているかによって、6ヶ月から最長12ヶ月を要します。
少なくとも次にどの道筋を進むかを計画し始めるには、あまり時間はありません。

ライブマイグレーションの課題

どのソリューションを選択するかに関わらず、本番環境のデータベースを移行するには、大きな課題があります。従来の移行アプローチでは、以下が必要になることがよくあります。

  1. アプリケーションのフリーズ
  2. システムのオフライン化
  3. 移行の実行
  4. 広範なテスト
  5. アプリケーションの再デプロイ

このプロセスは、大幅なダウンタイム、ユーザーのフラストレーション、潜在的なデータ不整合につながる可能性があります。B2Cアプリケーションの場合、ユーザーがアプリケーションを更新するタイミングを開発者が制御できないため、このアプローチは特に問題となります。

Gluesyncの紹介:シームレスなライブマイグレーションのためのソリューション

MOLO17では、異なるモバイルデータベースソリューション間のスムーズな移行を促進するツールの必要性を認識していました。そのため、スムーズで安全かつ高性能なライブマイグレーションを実行するように設計された高度なデータ統合プラットフォームであるGluesyncを開発しました。
Gluesyncはさまざまな移行シナリオに対応できますが、この記事では、異なるモバイルデータベースソリューション間の移行に利用できる例として、MongoDB Realm(Atlasでホスト)からCouchbase Mobile(Capellaまたはオンプレミスでホスト)への移行にGluesyncを適用することに焦点を当てます。

Gluesyncの主な機能:

  1. 双方向の同期:GluesyncはMongoDBとCouchbase間のデータの一貫性をリアルタイムで維持し、MongoDB RealmとCouchbase Mobileの展開から段階的な移行プロセスを可能にします。
  2. ゼロ・ダウンタイム:Gluesyncが2つのプラットフォーム間のデータ転送をバックグラウンドで処理するため、ユーザーはアプリケーションを中断することなく継続して使用できます。
  3. 段階的なユーザー移行: ユーザーがアプリケーションを更新する際に、データや機能を失うことなく、新しい Couchbase Mobile バックエンドにシームレスに移行できます。
  4. データの整合性: 高度な競合解決により、移行プロセス中も両方のプラットフォームでデータの整合性が維持されます。
  5. スケーラビリティ: 大規模な移行に対応するように設計された Gluesync は、大量のデータとユーザーを効率的に管理できます。

Gluesync による移行プロセス

  1. セットアップ: Gluesyncを構成して、MongoDB RealmとCouchbase Mobileインスタンスの両方に接続します。
  2. 初期同期: Gluesyncのスナップショット機能を使用して、Couchbase Mobileデータベースに初期一括データ転送を実行します。
  3. ライブ同期: GluesyncのビルトインCDCエンジン(MongoDBのストリームとCouchbase Eventingを活用)を使用して、移行期間中に両方のデータベースを同期させます。
  4. 段階的なロールアウト:Couchbase Mobile 統合を実装した更新後のアプリケーションをリリースします。ユーザーが更新すると、そのデータはシームレスに新しいバックエンドに移行します。
  5. 監視と検証:Gluesync に内蔵されたツールを使用して、移行の進捗状況を監視し、データの整合性を検証します。
  6. 完了:すべてのユーザーが移行を完了したら、MongoDB Realm インスタンスを安全に廃止できます。

すべては数回のクリックで完了します。Gluesyncのウェブユーザーインターフェースから、裏側でセットアップや設定を行う必要はありません。

MongoDB Realm to Couchbase Mobile via Gluesync

このアプローチが重要な理由

ユーザーの行動が予測できず、アプリケーションの更新を即座に実行できない B2C アプリケーションでは、ライブマイグレーション戦略が不可欠です。Gluesyncのアプローチにより、以下のことが可能になります。

  • データ損失のリスクを最小限に抑える
  • ユーザー体験を中断させない
  • マイグレーションのスケジュールに柔軟性を持たせる
  • 開発チームと運用チームの負担を軽減する

結論

MongoDB Realmが段階的に廃止されるにつれ、Couchbase Mobileなどの代替製品への移行が必要になります。MOLO17のGluesyncを使用すれば、この移行作業はそれほど困難なものではなくなります。当社のプラットフォームは、バックエンドインフラストラクチャをアップグレードしている間も、お客様の運用環境の安定性を維持し、ユーザーにダウンタイムが発生しないことを保証します。

タグ: , ,

データのObservability(観測可能性)についての洞察

「Observability(観測可能性)」は、昨今のIT業界で流行りのキーワードのようですが、実際にはどのような意味で、従来のモニタリングとはどのように異なるのでしょうか。簡単に言えば、観測可能性とは、システムが生成するデータから、そのシステムのパフォーマンスや動作を把握する能力のことです。これは単にメトリクスをモニタリングしたりログを収集したりするだけでなく、それらのメトリクスやログのコンテキストを理解し、それらがシステム全体の健全性とどのように関連しているかを把握することでもあります。言い換えれば、観測性とはシステムデータの収集だけでなく、そのデータを使って何をするかということなのです。

モニタリングと観測性の違い

ソフトウェアエンジニアリングと運用管理の世界では、モニタリングと観測性という2つの用語がしばしば互換的に使用されます。しかし、これらの用語は似ているように聞こえるかもしれませんが、実際には複雑なシステムの管理における異なる側面を指しています。モニタリングと観測性の違いを理解することは、最新のソフトウェアシステムを扱う人にとって非常に重要です。

モニタリングとは、システムのパフォーマンスや動作に関するデータを収集・分析するプロセスを指します。このデータは、パフォーマンスデータを収集するエージェントをシステム上で使用して収集されることが多く、また、ネットワークトラフィックやシステム間のAPIのやり取りを分析したり、スクリプト化された合成トランザクションを実行して、トランザクションの各ステップにおける応答時間やシステムの可用性を測定したり、あるいはリアルユーザーモニタリングを通じて実際のユーザーがアプリケーションやサービスとどのようにやり取りしているかを観察したりすることもあります。モニタリングは潜在的な問題を特定し、問題が発生した場合にはその診断を行うために使用されます。 モニタリングは、システムが円滑に稼働していることを確認し、問題が重大になる前に検出して解決するために重要です。

一方、Observability(観測性)とは、システムの外部出力の調査を通じて、その内部動作を洞察する能力を指します。これには、システムの動作状況やその理由を理解するために使用できるメトリクス、ログ、トレース、その他のデータが含まれます。Observabilityは、分散トレースやログ集約などの専門ツールや技術を使用することで実現されることが多く、複雑な分散システムの管理に不可欠です。

モニタリングとオブザーバビリティにはいくつかの共通点がありますが、ソフトウェアシステムの管理という点では根本的に異なるアプローチです。モニタリングはシステムのパフォーマンスと動作に関するデータの収集に重点を置くのに対し、オブザーバビリティはシステムの外部出力から内部状態に関するより深い洞察を得ることに重点を置きます。モニタリングとオブザーバビリティの両方を組み合わせることで、エンジニアはシステムをより完全に理解し、円滑に稼働していることを確認することができます。

なぜオブザーバビリティが重要なのか?

Observability(可観測性)が重要である理由は、ITチームが問題を迅速に特定し解決できるため、ダウンタイムを削減し、全体的なユーザー体験を向上できるからです。Observability(可観測性)がなければ、システムが特定の動作をする理由を理解することが難しくなり、問題のトラブルシューティングや解決が困難になる可能性があります。システムが複雑化し分散化するにつれ、問題が発生した際にその理解やトラブルシューティングが難しくなるため、Observability(可観測性)の重要性はますます高まっています。

また、Observabilityは、ソフトウェア開発プロセス全体の改善を目指す組織にとっても、貴重なツールとなります。Observabilityを重視したアプローチを採用することで、チームはコード変更の影響をより深く理解し、どの機能を優先すべきか、またリソースをどのように割り当てるべきかについて、より情報に基づいた意思決定を行うことができます。これにより、より迅速で信頼性の高いソフトウェアリリースが可能となり、最終的には開発者とエンドユーザーの両者にとってより良い結果につながります。

Observabilityのメリット

Observabilityには多くの利点があります。例えば、ITチームは自社のシステムをより深く理解し、重大な問題となる前に潜在的な問題を特定することができます。また、ボトルネックやその他の非効率な領域を特定することで、システムのパフォーマンスを向上させることもできます。Observabilityの主な利点の1つは、開発者が問題をより迅速に特定し、診断できることです。システムログやメトリクスを分析することで、開発者は問題が発生している箇所を特定し、修正措置を講じることができます。これは、手作業での調査や試行錯誤を伴うことが多い従来のトラブルシューティングの手法と比較すると、大幅な時間と労力の削減につながります。

また、観測性により、開発者は自社のシステムがリアルタイムでどのように動作しているかをより深く理解できるようになります。これにより、潜在的な問題が重大化する前に特定し、パフォーマンスの最適化や信頼性の向上について、より適切な判断を下すことが可能になります。さらに、観測性により、システム動作とパフォーマンスに関する共通認識が得られるため、チームの連携をより効果的にすることができます。

システムを観測可能にするには?

システムを観測可能にするには、ツールとテクニックの組み合わせが必要です。これには、メトリクスのモニタリング、ログの収集、トレースを使用してシステム内のさまざまなコンポーネントの動作を可視化することが含まれます。また、データのコンテキストを理解することに重点を置き、問題のトラブルシューティングに役立てるという考え方の転換も必要です。

観測可能性の3つの柱

Observabilityの主な柱は、メトリクス、ログ、トレースの3つです。 メトリクスはシステムの概要を、ログは特定のイベントの詳細情報を、そしてトレースはシステム内のリクエストの流れをそれぞれ提供します。 これら3つの柱を組み合わせることで、ITチームはシステムを包括的に把握し、問題を迅速に特定して解決することができます。

Observabilityの課題とは?

観測可能性の課題のひとつは、収集および分析が必要なデータの量です。これは、特に大規模なシステムを扱う場合、ITチームにとって大きな負担となります。もうひとつの課題は、複数の抽象化レイヤーやさまざまなテクノロジーやツールが存在する、現代のIT環境の複雑性です。

現代のIT環境で観測可能性が普及している理由

現代の IT 環境では、その複雑さが増しているため、Observability が普及しつつあります。システムが分散化し、クラウド技術への依存度が高まるにつれ、システムのパフォーマンスや問題の発生箇所を把握することが難しくなっています。Observability は、そうしたシステムを可視化し、重大な問題に発展する前に潜在的な問題を特定する方法を提供します。

システム動作に重点的に注目する Observability は、IT チームに新たな未知の問題を解決するために必要なコンテクストを提供します。システムがどのように動作しているか、また、さまざまなコンポーネントがどのように相互作用しているかを理解することで、IT チームは問題の根本原因を迅速に特定し、ソリューションを実装することができます。

結論

観測性は、現代のITチームにとって不可欠なツールです。システムを観測可能にすることで、チームはシステムに対する理解を深め、問題を迅速に特定して解決し、システムの全体的なパフォーマンスを向上させることができます。あらゆるものに観測性をもたらすには、考え方を変え、データの収集と分析に専念する必要がありますが、その努力に見合うだけのメリットがあります。

コメントする -->

Gluesync用Redisエージェント:ターゲットとしてのRedisディプロイのためのシームレスな統合

Redis Agent for Gluesync が利用可能になりました。これは、データを Redis 環境に統合するための強力なソリューションです。Redis をオンプレミスで使用している場合でも、クラウドで使用している場合でも、あるいはAWS、Azure、Google クラウドRedis クラウドなどのマネージドサービスを使用している場合でも、このエージェントにより、スムーズで効率的なデータレプリケーションを実現できます。

Redis:最新のデータニーズに対応する多用途ソリューション

Redisは、非常に汎用性が高く、広く採用されているインメモリデータベースであり、その優れたパフォーマンスと柔軟性で知られています。キャッシュ、リアルタイム分析、セッション管理など、多くの用途で使用されているRedisは、多くの最新のデータアーキテクチャにおいて重要な役割を果たしています。Gluesync用Redisエージェントは、シームレスなデータ統合を可能にすることで、この機能を強化し、さまざまなデータワークフローのターゲットシステムとしてRedisをより簡単に利用できるようにします。

Gluesyncとの統合:柔軟性と使いやすさ

Redis Agent for Gluesyncは、Redisをターゲットシステムとして統合するプロセスを簡素化します。Redis Lettuceクライアントを活用することで、エージェントはスタンドアロンおよびクラスタ化されたRedisの双方の展開をサポートし、Redisとの安全で信頼性の高い接続を確立します。

Redis Agentの主な機能

Redis Agent for Gluesyncは、データ統合プロセスを合理化する堅牢な機能をいくつか提供しています。

  • 複数のデプロイメントをサポート:エージェントは、オンプレミス、AWS、Google Cloud、Azure、Redis CloudにわたるRedisセットアップで動作します。
  • Lettuceクライアントの統合:高度なJavaベースのRedis Lettuceクライアントを使用して接続を確立し、互換性と信頼性を確保します。
  • クラスタのサポート:エージェントはRedisクラスタへの直接接続をサポートしますが、Gluesyncとの完全なテストは現在も継続中です。
  • リアルタイムのデータレプリケーション:強力なキャッシング、分析、その他のリアルタイムアプリケーション用に、データを効率的にRedisにレプリケートします。

Redis Agentの設定

Gluesync用のRedisエージェントの設定は簡単で、Gluesyncインターフェースから行うことができます。主な手順は以下の通りです。

Redisインスタンスに接続:エージェントはレタスクライアントを使用して、スタンドアロンまたはクラスタ化されたRedisデプロイメントに安全に接続します。

  1. Redis をターゲットとして設定:Gluesync を設定して、その強力なレプリケーション機能を活用し、データを Redis 環境に送信します。
  2. パイプラインを監視および管理:Gluesync のコントロールプレーンを使用して、Redis へのデータフローを追跡し、最適化します。

Gluesync と Redis を使用するメリット

Gluesync 用 Redis エージェントは、データワークフローの最適化を目指す企業に新たな可能性をもたらします。

  • リアルタイムのパフォーマンス:RedisのインメモリアーキテクチャとGluesyncの効率的なレプリケーションを組み合わせることで、低レイテンシのデータ統合を実現します。
  • 幅広い互換性:複数のデプロイタイプをサポートしており、さまざまなインフラストラクチャのセットアップに対応します。
  • スケーラブルな統合:Redisの大規模なワークロードを処理する能力は、Gluesyncのスケーラブルなアーキテクチャによって補完され、データ量が増加してもシームレスなデータフローを実現します。
  • 柔軟な多様なユースケース:キャッシュ、リアルタイム分析、セッション保存など、エージェントは常にRedisが最新のデータで更新されていることを保証します。

一般的な活用ケース

Redisエージェントは、さまざまなシナリオに最適です。

  • リアルタイムのキャッシュ:Redisを最新のデータで更新し、アプリケーションの速度と応答性を向上させます。
  • セッション管理:セッションデータをRedisに複製し、分散システムで高速かつ信頼性の高いアクセスを実現します。
  • 分析:データをRedisにストリームすることで、リアルタイムのダッシュボードと分析を実現
  • ハイブリッドアーキテクチャ:Redisを他のデータベースやシステムと統合し、ハイブリッドデータ環境を実現

Gluesyncを選ぶ理由

Gluesyncは、複雑なデータ同期および複製タスクを簡素化するリアルタイムデータ統合プラットフォームです。Gluesync 2.0のリリースにより、このプラットフォームは拡張性、柔軟性、エージェントサポートを強化しました。Gluesyncは、企業のデータワークフローの合理化を支援します。Redisエージェントは、この機能をさらに拡張し、お客様のデータエコシステムへのRedisの統合を容易にします。

Gluesync用のRedisエージェントは現在利用可能であり、データをRedis環境に統合するための信頼性が高く効率的な方法を提供します。リアルタイムアプリケーションの構築、セッションの管理、分析の実行など、どのような場合でも、このエージェントはRedisへのシームレスなデータフローを保証します。

タグ: , ,

データベース・バックアップのタイプ、ヒント、利用例

データベースのバックアップとは?

データベースのバックアップとは、データ損失を防ぐためにデータベース内のデータのコピーを作成することです。このプロセスにより、元のデータが失われたり破損したりした場合にデータの復旧が可能になります。定期的なバックアップにより、データを特定の時点に復元でき、ハードウェアの故障、データの破損、サイバー攻撃からデータを保護できます。

適切に実施されたバックアップ戦略は、IT環境におけるデータの整合性と事業継続性を維持するために不可欠です。データベースのバックアップには、フルバックアップ、増分バックアップ、差分バックアップなど、さまざまな形態があります。これらのバックアップは、クラウドストレージ、ローカルドライブ、外部デバイスなど、さまざまなメディアに保存することができます。

ダウンタイムを最小限に抑え、組織が重大なデータ損失なく業務を継続できるようにするためには、一貫したバックアップが不可欠です。バックアップの方法と頻度は、ビジネスの優先順位と関連データの重要度に合わせて調整する必要があります。

データベースのバックアップが重要な理由とは?

データベースのバックアップは、偶発的なデータ損失、データ破損、予期せぬ災害に対する保護策となり、業務の継続性を確保します。データベースには重要な情報が保存されていることが多いため、バックアップ計画はデータ復元を可能にし、データの可用性と完全性を維持するために不可欠なリスクを最小限に抑えます。

バックアップは、深刻な業務中断や高額なデータ再作成作業を回避するのに役立ちます。 規制要件では、コンプライアンス目的の定期的なバックアップを含め、データ保護対策を義務付けることがよくあります。 業界によっては、データ保護法を順守する必要があるため、データベースのバックアップが法的または商業的に必要となる場合があります。

データベースバックアップの一般的な使用例

ポイント・イン・タイム・リカバリ(PITR)

ポイント・イン・タイム・リカバリ(PITR)は、データベースを特定の時点の状態に復元するもので、データの破損や誤操作によるデータの改変からの復旧に役立ちます。PITRでは、定期的なバックアップとトランザクションログを使用することで、管理者はデータベースをエラー発生前の状態に巻き戻すことができ、データの整合性を維持することができます。

PITRを導入するには、定期的なデータベースのバックアップに加えて、継続的なログのバックアップを含む、体系的なバックアップ戦略が必要です。このプロセスにより、完全バックアップの間に実行されたすべてのトランザクションも復元できることが保証されます。

災害復旧

災害復旧とは、ハードウェアの故障、サイバー攻撃、自然災害などの大惨事の後にデータを復元することを指します。バックアップ戦略は、システムを復元し、業務を迅速に再開するための安全策となります。このプロセスでは、冗長バックアップシステムやオフサイトストレージを使用して、プライマリデータセンターが被害を受けた場合でもデータの可用性を確保することが多いです。

災害復旧計画には、バックアップの定期的なテストと検証が含まれ、危機的状況下でも確実にバックアップを使用できるようにします。バックアップを復旧目標(RTO:Recovery Time Objective、RPO:Recovery Point Objective)と整合させることで、組織は復旧プロセス中のダウンタイムとデータ損失を最小限に抑えることができます。

データベースの移行

データベースの移行では、データをあるシステムから別のシステムに移行します。これは、アップグレード、クラウドへの移行、またはデータ統合の取り組みの際にしばしば必要となります。 データは、変換や転送のプロセスが行われる前に元の形式で確実に保存され、必要に応じてロールバックが可能です。

データベースのバックアップは、必要に応じて復元できる信頼性の高いデータベースの状態を提供することで、円滑な移行をサポートします。 また、移行後のデータの整合性と完全性を検証し、新しいシステムが意図したデータセットを正確に反映していることを確認します。

アーカイブとコンプライアンス

バックアップは、データのアーカイブや、データ保持および保護に関する業界規制へのコンプライアンスを確保する上で不可欠です。定期的なバックアップにより、企業はデータを長期間にわたって保存することができ、これは法的な義務、財務上の義務、または政策上の義務を満たす上で不可欠です。アーカイブ戦略では、バックアップを活用して、過去のデータを整理、保護、保存します。

アーカイブの必要性は、多くの場合、コスト効率とコンプライアンスのバランスを考慮しながら、企業が採用する保存期間とストレージソリューションを決定します。適切なアーカイブバックアップを維持することで、企業は規制監査に対応し、データに関する法律を遵守していることを証明し、必要に応じて古いデータを確実に取得することができます。

データベースバックアップの種類

物理的データベースバックアップと論理的データベースバックアップ

物理的バックアップでは、データファイル、ログファイル、構成ファイルなど、データベースのデータを保存する物理的なファイルをコピーします。このタイプのバックアップは、データベースを最初から再構築するために必要なすべての内容が含まれているため、規模が大きく複雑なデータベースでよく使用されます。物理的バックアップは通常、特に大規模なデータセットの場合、実行および復元がより迅速に行えます。

論理バックアップは、データベース内の論理データ(テーブル、インデックス、ストアドプロシージャなど)を、多くの場合SQLステートメントの形式で取得します。論理バックアップは、異なるデータベースシステムやバージョンにデータを復元できるため、物理バックアップよりも柔軟性と移植性が高いです。しかし、実行に時間がかかり、特にデータベースが大きい場合は復元にもより長い時間を要します。また、論理バックアップではデータベース固有のメタデータや制約の一部が失われる可能性があり、場合によっては移植性が制限されることがあります(スキーマの違いなど)。

SQLとNoSQLのデータベースバックアップ

SQLデータベースのバックアップは通常、フルバックアップ、増分バックアップ、差分バックアップなどの確立された方法に依存しています。SQLデータベースは構造化されており、多くの場合、厳格なスキーマを持つテーブルにデータを整理するリレーショナルモデルに従っています。SQLデータベースのバックアッププロセスは、多くの場合、トランザクションログと統合され、ポイントインタイムリカバリを可能にすることで、クラッシュや破損が発生した場合でもデータの整合性を確保します。MySQL、PostgreSQL、SQL Serverなどのデータベース管理システム(DBMS)が提供するツールやユーティリティは、SQL環境におけるバックアップとリカバリの作業を効率化します。

MongoDB、Cassandra、DynamoDBなどのNoSQLデータベースは、バックアップに対してより多様なアプローチを採用しています。NoSQLデータベースは柔軟でスキーマレスな設計であることが多く、ドキュメント、キーバリュー、グラフ形式でデータを保存することがあります。 このような構造上の違いにより、NoSQLデータベースのバックアップソリューションは多岐にわたります。 バックアップユーティリティが組み込まれているNoSQLデータベースもあれば、カスタムスクリプトやサードパーティ製ツールが必要な場合もあります。 また、NoSQLシステムは拡張性を考慮して設計されているため、スナップショットの作成や複数のノードにわたるデータの複製など、分散環境をサポートするバックアップ戦略が実装されている場合が多くあります。

データベースのバックアップ方法

フルデータベースバックアップ

フルデータベースバックアップは、特定の時点におけるデータベース全体をキャプチャし、損失が発生した場合にすべてのデータを復元できるようにします。このバックアップにより、追加のデータソースを必要とせずにシステムの完全な復元が可能になります。フルバックアップは、ストレージの容量と処理時間を考慮して、通常はそれほど頻繁にはスケジュールされません。

インクリメンタルデータベースバックアップ

増分データベースバックアップは、完全バックアップまたは増分バックアップに関わらず、前回のバックアップ以降に変更されたデータを記録します。この方法では、変更されたデータのみがコピーされるため、時間とストレージの使用量が少なくて済みます。増分バックアップは、完全バックアップと比較してストレージ容量と帯域幅が少なくて済むため、リソースの最適化に役立ちます。

差分データベースバックアップ

差分データベースバックアップは、最後のフルバックアップ以降の変更を記録します。 あらゆるタイプのバックアップの変更を追跡する増分バックアップとは異なり、差分バックアップは最後のフルバックアップ以降の変更のみを蓄積します。 このアプローチでは、最後のフルバックアップと最新の差分バックアップのみが必要となるため、復元プロセスが簡素化されます。

データベースバックアップの課題

データベースのバックアップには、いくつかの重要な課題があります。

バックアップウィンドウとパフォーマンスへの影響

バックアップウィンドウとパフォーマンスへの影響は、データベースバックアップ戦略における課題です。業務負荷を大幅に中断することなく信頼性の高いバックアップを達成するには、綿密な計画と実行が必要です。この課題は、バックアッププロセスが長時間にわたって行われ、大量のシステムリソースを消費する大規模なデータベースでは、より深刻になります。

ストレージ要件

ストレージ要件は、特に大規模なデータベースや大幅なデータ増加に直面している組織にとって、データベースのバックアップ管理における大きな課題となります。完全なバックアップを頻繁に保存すると、ストレージリソースが急速に消費されるため、データ保護能力を維持しながらコストを管理するための効率的な管理戦略が必要となります。

✅ プロからのヒント:N2Wは、スナップショットを自動的にAWS S3 Glacierのようなコスト効率の高いストレージ層にアーカイブすることで、ストレージを最適化します

リカバリ時間目標(RTO)

RTO(目標復旧時間)は、データ損失事象発生後の許容可能なダウンタイムの長さを定義します。特に迅速な復旧を必要とする重要なシステムでは、RTO目標の達成は困難な場合があります。バックアップ戦略はRTOの期待値に沿ったものでなければならず、復旧手順が効率的でテスト済みであることを保証する必要があります。

データの増加と拡張

企業がデータを蓄積するにつれ、タイムリーで効率的なバックアップの確保はますます複雑になります。このデータ量の増加に伴い、既存のシステムのパフォーマンスに影響を与えることなく、データの保護と復元を確実に実現するために、バックアップアーキテクチャの継続的な評価と適応が求められます。

高度に分散した環境における特別な課題

以下は、クラウドやNoSQLデータベースクラスタの運用など、分散システムにおけるデータベースバックアップに関連する課題の例です。

バックアップの拡張

高度に分散された環境では、ノードの数が非常に多く、データストレージが分散型であるため、バックアップの拡張が課題となります。分散システムの各ノードには、全データの一部分が保存されており、データ保護を確実にするためには、バックアップ戦略がこの分散を考慮していなければなりません。ネットワークに過剰な負荷をかけたり、過剰なリソースを消費することなく、複数のノードにまたがるバックアップを調整することは、特にシステムが拡張される場合には複雑です。

バックアップの頻度

頻繁なバックアップは、障害発生時のデータ損失を最小限に抑えますが、システムパフォーマンスとストレージに大きな負担をかける可能性があります。この課題は、複数のノードがバックアップを実行するために連携する必要がある分散システムではさらに深刻化し、ネットワークの混雑やパフォーマンスの低下につながる可能性があります。

データの整合性

バックアップ処理中にノード間でデータの整合性を維持することは、データが複数の場所に複製または分割されている分散システムにおける重要な課題です。 バックアップでは、データがさまざまなノードで異なる状態であっても、データセット全体の整合性のあるスナップショットを取得する必要があります。 整合性を維持することは、バックアップウィンドウ中にシステムがアクティブにトランザクションを処理している場合には特に困難です。

✅ プロからのヒント:N2Wを使用してデータベース移行中にアプリケーションの一貫性のあるスナップショットを作成すると、正確なロールバックポイントを確保でき、AWSとAzure環境間の移行が簡素化されます。

効果的なデータベースバックアップのためのベストプラクティス

以下は、企業がデータベースバックアップの維持に関する課題を軽減できる方法の一部です。

バックアップ手順の自動化

バックアップ手順を自動化することで、定期的な実施を確実にし、エラーを最小限に抑え、管理上のオーバーヘッドを削減することができます。自動化により、バックアップは手動操作を必要とせずに、一貫したスケジュールとポリシーに従って実行されます。スクリプト作成、バックアップソフトウェア、統合ツールを活用することで、企業はバックアッププロセスを合理化し、信頼性を向上させることができます。

また、自動化により、必要時にバックアップデータへの迅速かつ組織的なアクセスが可能になり、迅速なリカバリが実現します。構成により、さまざまなバックアップ頻度とタイプを指定でき、ビジネス要件とリカバリ目標との整合性を確保できます。

データベースのバックアップを定期的にテストする

データベースのバックアップを定期的にテストすることで、その整合性が検証され、リカバリシナリオにおける実行可能性が確保されます。テストには、バックアップからのデータ復元プロセスのシミュレーションが含まれ、データが完全であること、およびリカバリプロセスが期待通りに機能することを確認します。頻繁にテストを行うことで、バックアップの信頼性に対する信頼が高まり、重大な問題となる前に潜在的な問題が明らかになります。

技術的な検証を超えて、テストプロセスは災害復旧および事業継続計画と整合性を保ち、組織の復旧目標を確実に達成できるようにすべきです。自動テストを組み込むことで、手動の作業をさらに削減し、一貫したバックアップ品質を確保できます。

バックアップの暗号化

バックアップを暗号化することで、データが不正アクセスから保護され、機密性と規制基準への準拠が確保されます。暗号化方式は、保管中および転送中のバックアップデータを保護し、保管中または転送中の機密情報の漏洩を防ぎます。暗号化を実装するには、データを保護するためのアルゴリズムとキーを使用します。

組織は、バックアップソフトウェアに組み込まれた暗号化機能を利用することも、外部の暗号化ツールを適用することもできます。暗号化キーを管理し、安全に保管することは、必要な時にデータを復元するために極めて重要です。

✅ プロからのヒント:N2Wを使用すると、暗号化されたリソースのDRバックアップを異なる地域やアカウントに簡単に実行できます。

冗長およびオフサイトバックアップの実施

冗長化およびオフサイトバックアップは、ストレージの場所を分散させることでデータ保護を強化し、局所的な障害によるリスクを軽減します。複数の場所にコピーを保管することで、物理的な損傷、盗難、自然災害によるデータ損失の可能性を低減します。冗長化により可用性が確保され、オフサイトストレージによりオンプレミスでの障害に対する耐性が得られます。

この戦略では、オフサイトのバックアップを定期的に更新し同期するためのプロトコルを確立し、最新のデータ状態を確実に反映させる必要があります。 組織は、アクセス性とセキュリティの考慮事項のバランスを取りながら、クラウドストレージや第2データセンターを使用してオフサイトのバックアップをホストすることができます。

✅ プロからのヒント:N2Wは、バックアップを自動化し、重要なデータベースのクロスリージョンフェールオーバーを可能にすることで、災害復旧を簡素化し、クラウドネイティブ環境での迅速な復旧を保証します。

バックアップ保持ポリシーの採用

バックアップ保持ポリシーは、データの可用性とストレージコスト、コンプライアンスのニーズをバランスさせながら、バックアップをどのくらいの期間保持するかを定義します。効果的なポリシーは、ビジネス要件、規制要件、およびデータの変更頻度に基づいて保持期間を定めます。期限切れのバックアップを削除するための明確なルールを定めることで、組織はストレージリソースを効率的に管理できます。

保持ポリシーを策定するには、データの重要性、アクセス頻度、法的義務に基づいてデータを分類する必要があります。ポリシーの適用を自動化することで、手動によるエラーを減らし、ガイドラインへの一貫した準拠を保証できます。

バックアップの圧縮と重複排除の活用

バックアップの圧縮と重複排除を活用することで、バックアップファイルのサイズを縮小し、ストレージの効率とコストを最適化することができます。 圧縮アルゴリズムはバックアップデータの容量を縮小し、ストレージ要件を最小限に抑え、ネットワークの転送時間を短縮する可能性もあります。 重複排除はデータの冗長コピーを削除し、ストレージには唯一無二の情報のみを残します。

N2Wによるクラウドでのデータベースバックアップ

データベースのバックアップは、事業継続性、コンプライアンス、および業務の回復力を確保するために不可欠です。データの増加と環境の分散化に伴い、バックアップの管理は困難を極めます。そこで、N2W Backup & Recoveryがお役立ちします。

  • AWSとAzureの自動バックアップ:アカウント、地域、クラウド全体にわたるバックアップを簡単にスケジュールできます。
  • きめ細かなデータベースの復旧:アプリケーションの一貫性を保つスナップショットと60秒ごとのバックアップ間隔を活用して、データベースを正確な状態に復元できます。
  • 災害復旧の自動化:重要なワークロードのシームレスなフェールオーバーとクロスリージョンレプリケーションを実現します。
  • コストの最適化:S3 GlacierやAzureなどの低コストストレージにスナップショットを自動的にアーカイブします。
  • マルチクラウド対応:現在はAWSとAzureをサポートしており、GCPも今後サポート予定です。
タグ: , , , , , ,