このセクションでは、高可用性 SAP HANA 2.0 SPS04 クラスターをデプロイします。この構成では、SAP HANA システムレプリケーションを使用してアクティブなデータベースホストからスタンバイデータベース ホストにデータを複製し、LifeKeeper SAP HANA Recovery Kit を使用して HDB データベース インスタンスの監視、復旧、フェイルオーバーを処理します。
作成される SAP HANA クラスター ノードの詳細を以下に示します。このガイドで説明しているインスタンスのプロビジョニングは、評価でアプリケーションを実行するために 最低限 必要な仕様を示しており、一般的に生産的なワークロードを処理するには十分ではありません。本番環境で VM をプロビジョニングする際のベスト プラクティスについては、SAP およびクラウド プロバイダーが提供するドキュメント(Hardware Requirements for SAP System Hosts など)を参照してください。
デプロイで使用するオペレーティングシステムと構成は、SAP、SIOS、およびお客様のクラウドプロバイダーによってサポートされている必要があります。SAP HANA のさまざまなバージョンでサポートされているオペレーティングシステムを確認するには、SAP の Product Availability Matrix(PAM)を参照してください。
評価デプロイメントのためのクラスターアーキテクチャ
- node-a (プライマリーデータベースホスト)
- Private IP: 10.20.1.10
- vCPU’s: 8
- Memory: 32GB
- SAP HANA 2.0 SPS04 データベース インスタンス HDB00 が SID「SPS」の下にインストールされている
- SAP HANA システムレプリケーションパラメーター:
- Site name: SiteA
- Replication mode: primary
- Operation mode: primary
- LifeKeeper for Linux が Quorum/Witness 機能を有効にしてインストールされ、以下の Recovery Kit がインストールされている
- SAP HANA Recovery Kit
- [AWS] Amazon EC2 Recovery Kit
- [Azure, Google Cloud] Generic Application Recovery Kit for Load Balancer Health Checks (GenLB Recovery Kit)
- node-b (スタンバイデータベースホスト)
- Private IP: 10.20.2.10
- vCPU’s: 8
- Memory: 32GB
- SAP HANA 2.0 SPS04 データベース インスタンス HDB00 が SID「SPS」の下にインストールされている
- SAP HANA システムレプリケーションパラメーター:
- Site name: SiteB
- Replication mode: sync
- Operation mode: logreplay
- LifeKeeper for Linux が Quorum/Witness 機能を有効にしてインストールされ、以下の Recovery Kit がインストールされている:
- SAP HANA Recovery Kit
- [AWS] Amazon EC2 Recovery Kit
- [Azure, Google Cloud] Generic Application Recovery Kit for Load Balancer Health Checks (GenLB Recovery Kit)
- node-c (Quorum/Witness ノード)
- Private IP: 10.20.3.10
- vCPU’s: 1
- Memory: 2GB
- LifeKeeper for Linuxがquorum/witness機能を有効にしてインストールされています
- SAP HANA virtual hostname: sps-hana
クラウド固有のアーキテクチャ図
アマゾン ウェブ サービス(AWS)上の SIOS で保護された SAP HANA クラスター
Microsoft Azure 上の SIOS で保護された SAP HANA クラスター
Google Cloud 上の SIOS で保護された SAP HANA クラスター
前提条件
このガイドを使用するには、次の前提条件がすでに完了している必要があります。
- 3 つの VM インスタンス (node-a、node-b、および node-c) が、このガイドで前述したネットワーク規則を使用して作成されている。ノード間通信と SSH 接続を許可するファイアーウォール ルールが設定されている。詳細については、 ネットワーク コンポーネントの構成とインスタンスの作成 を参照してください。
- 3つの VM インスタンスはすべて、LifeKeeper for Linuxを実行するように設定されている。具体的には、SELinux は無効、ファイアーウォールは無効、各ノードの /etc/hosts ファイルには各ノードのホスト名をそのプライベート IP に解決するためのエントリーが含まれ、root ユーザは各ノードで同じパスワードを持っている。詳細については、 LifeKeeper for Linuxを実行するためのLinuxノードの設定 を参照してください。
- LifeKeeper for Linux が3つのノードすべてにインストールされ、Quorum/Witness 機能が有効になっており、必要なすべての Recovery Kit トがインストールされている。Node-c(Witnessノード)には、LifeKeeper のコアインストール以外の追加のRecovery Kit は不要。各ノードに必要なすべての SIOS ライセンスがインストールされている。詳細については、 LifeKeeper for Linux をインストールする を参照してください。
- LifeKeeper のコミュニケーションパスが、クラスターノードのすべてのペア間で定義されている。なお、この場合、 3つ の双方向通信路(node-a ↔ node-b、node-a ↔ node-c、node-b ↔ node-c))を作成する必要があります。詳細については、 ログインと基本設定タスク を参照してください。
これらの作業をすべて完了すると、LifeKeeper の GUI は以下の画像のようになります。
このトピックへフィードバック