検索クエリーを入力してください
<book_title> を検索 ...
Storage Foundation and High Availability 8.0.2 設定およびアップグレードガイド - Linux
Last Published:
2023-07-18
Product(s):
InfoScale & Storage Foundation (8.0.2)
Platform: Linux
- 第 I 部 SFHA の概要
- 第 II 部 SFHA の設定
- 設定の準備
- データ整合性のための SFHA クラスタ設定の準備
- SFHA の設定
- インストーラを使った Storage Foundation High Availability の設定
- ノード別のセキュアクラスタノードの設定
- SFHA 設定の完了
- システム上のライセンスの確認と更新
- インストーラを使った Storage Foundation High Availability の設定
- データ整合性のための SFHA クラスタの設定
- データ整合性のための SFHA クラスタの手動設定
- 応答ファイルを使用した SFHA 自動設定の実行
- 応答ファイルを使用した自動 I/O フェンシング設定の実行
- 第 III 部 SFHA のアップグレード
- SFHA のアップグレード計画
- SFHA のアップグレードの準備
- Storage Foundation and High Availability のアップグレード
- SFHA のローリングアップグレードの実行
- SFHA の段階的アップグレードの実行
- 応答ファイルを使用した SFHA 自動アップグレードの実行
- アップグレード後のタスクの実行
- VCS Agents for VVR が設定されている場合のアップグレード後のタスク
- セキュアモードで動作するクラスタの LDAP 認証の有効化について
- SFHA のアップグレード計画
- 第 IV 部 インストール後の作業
- 第 V 部 ノードの追加と削除
- 第 VI 部 設定およびアップグレードの参照
- 付録 A. インストールスクリプト
- 付録 B. SFHA サービスとポート
- 付録 C. 設定ファイル
- 付録 D. セキュアシェルまたはリモートシェルの通信用の設定
- 付録 E. CP サーバーベースの I/O フェンシングのためのサンプル SFHA クラスタ設定図
- 付録 F. UDP 上での LLT の設定
- 付録 G. RDMA 上での LLT の使用
- RDMA 上の LLT の設定
- RDMA 上の LLT のトラブルシューティング
2 ノード SFHA クラスタでホストされる CP サーバーの main.cf ファイルの例
次に、CP サーバーが SFHA クラスタでホストされる場合の main.cf の例を示します。
SFHA クラスタでホストされるこの CP サーバーの main.cf では、次の値に注意してください。
クラスタ名: cps1
クラスタ内のノード: cps1、cps2
include "types.cf" include "CFSTypes.cf" include "CVMTypes.cf" include "/opt/VRTScps/bin/Quorum/QuorumTypes.cf" // cluster: cps1 // CP servers: // cps1 // cps2 cluster cps1 ( UserNames = { admin = ajkCjeJgkFkkIskEjh, "cps1.example.com@root@vx" = JK, "cps2.example.com@root@vx" = dl } Administrators = { admin, "cps1.example.com@root@vx", "cps2.example.com@root@vx" } SecureClus = 1 ) system cps1 ( ) system cps2 ( ) group CPSSG ( SystemList = { cps1 = 0, cps2 = 1 } AutoStartList = { cps1, cps2 } ) DiskGroup cpsdg ( DiskGroup = cps_dg ) IP cpsvip1 ( Critical = 0 Device @cps1 = eth0 Device @cps2 = eth0 Address = "10.209.81.88" NetMask = "255.255.252.0" ) IP cpsvip2 ( Critical = 0 Device @cps1 = eth1 Device @cps2 = eth1 Address = "10.209.81.89" NetMask = "255.255.252.0" ) Mount cpsmount ( MountPoint = "/etc/VRTScps/db" BlockDevice = "/dev/vx/dsk/cps_dg/cps_volume" FSType = vxfs FsckOpt = "-y" ) NIC cpsnic1 ( Critical = 0 Device @cps1 = eth0 Device @cps2 = eth0 PingOptimize = 0 NetworkHosts @cps1 = { "10.209.81.10 } ) NIC cpsnic2 ( Critical = 0 Device @cps1 = eth1 Device @cps2 = eth1 PingOptimize = 0 ) Process vxcpserv ( PathName = "/opt/VRTScps/bin/vxcpserv" ) Quorum quorum ( QuorumResources = { cpsvip1, cpsvip2 } ) Volume cpsvol ( Volume = cps_volume DiskGroup = cps_dg ) cpsmount requires cpsvol cpsvip1 requires cpsnic1 cpsvip2 requires cpsnic2 cpsvol requires cpsdg vxcpserv requires cpsmount vxcpserv requires quorum // resource dependency tree // // group CPSSG // { // IP cpsvip1 // { // NIC cpsnic1 // } // IP cpsvip2 // { // NIC cpsnic2 // } // Process vxcpserv // { // Quorum quorum // Mount cpsmount // { // Volume cpsvol // { // DiskGroup cpsdg // } // } // } // }