Storage Foundation Cluster File System High Availability 7.4 管理者ガイド - Linux
- 第 I 部 Storage Foundation Cluster File System High Availability の概要
- Storage Foundation Cluster File System High Availability の概要
- Veritas File System について
- Storage Foundation Cluster File System(SFCFS)について
- Veritas Replicator について
- Dynamic Multi-Pathing の動作
- Veritas Volume Manager の動作
- Veritas File System の動作
- Storage Foundation Cluster File System High Availability の動作方法
- Storage Foundation Cluster File System High Availability アーキテクチャについて
- クラスタファイルシステムでサポートされている Veritas File System 機能について
- 単一ネットワークリンクと信頼性について
- I/O フェンシングについて
- Cluster Volume Manager の動作
- Storage Foundation Cluster File System High Availability の概要
- 第 II 部 ストレージのプロビジョニング
- 新しいストレージのプロビジョニング
- ストレージを設定するための高度な割り当て方法
- 割り当て動作のカスタマイズ
- 特定のレイアウトのボリュームの作成
- VxFS ファイルシステムの作成とマウント
- VxFS ファイルシステムの作成
- VxFS ファイルシステムのマウント
- ファイルシステムサイズの変更
- 空き領域の監視
- エクステント属性
- 第 III 部 DMP を使ったマルチパスの管理
- Dynamic Multi-Pathing の管理
- 新しく追加されたディスクデバイスの検出と設定
- ディスクの検出とディスクアレイの動的な追加について
- デバイス検出層の管理方法
- vxdmpadm ユーティリティを使った DMP の管理
- I/O 統計情報の収集と表示
- I/O ポリシーの指定
- 新しく追加されたディスクデバイスの検出と設定
- デバイスの動的再構成
- デバイスの管理
- イベント監視
- Dynamic Multi-Pathing の管理
- 第 IV 部 Storage Foundation Cluster File System High Availability の管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- CFS の管理
- mount、fsclustadm、fsadm コマンドについて
- CFS プライマリノードで障害が発生した場合
- SFCFSHA のスナップショットについて
- VCS の管理
- CVM の管理
- マスターフェールオーバーへのクラスタノードの優先設定の設定について
- CVM マスターの手動での変更について
- 共有ディスクグループのインポート
- Flexible Storage Sharing の管理
- ODM の管理
- I/O フェンシングの管理について
- vxfentsthdw ユーティリティについて
- vxfenadm ユーティリティについて
- vxfenclearpre ユーティリティについて
- vxfenswap ユーティリティについて
- コーディネーションポイントサーバーの管理について
- ディスクベースとサーバーベースのフェンシング設定間の移行について
- SFCFSHA のグローバルクラスタの管理
- クラスタ化された NFS の使用
- クラスタ化された NFS のしくみ
- クラスタ化された NFS の設定および設定解除
- クラスタ化された NFS の管理
- クラスタ化された NFS の設定例
- Common Internet File System の使用
- クラスタ化された NFS を使用した Oracle の展開
- Oracle データベースへの SFCFSHA ユーティリティの使用
- サイトとリモートミラーの管理
- SFCFSHA を使った iSCSI の管理
- SFCFSHA を使ったデータストアの管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- 第 V 部 I/O パフォーマンスの最適化
- 第 VI 部 Veritas Extension for Oracle Disk Manager
- Veritas Extension for Oracle Disk Manager の使用
- Oracle Disk Manager について
- Oracle Disk Manager と Oracle Managed Files について
- Cached ODM の使用
- Veritas Extension for Oracle Disk Manager の使用
- 第 VII 部 PITC の使用
- PITC 方法の理解
- ボリュームスナップショットの管理
- 従来のサードミラーブレークオフスナップショット
- フルサイズインスタントスナップショット
- インスタントスナップショットの作成
- インスタントスナップの DCO と DCO ボリュームの追加
- インスタントスナップショットの同期の制御
- インスタントスナップショットの作成
- カスケードスナップショット
- バージョン 0 の DCO および DCO ボリュームの追加
- Storage Checkpoint の管理
- FileSnaps の管理
- スナップショットファイルシステムの管理
- 第 VIII 部 Storage Foundation Cluster File System High Availability を使用したストレージの最適化
- 第 IX 部 ストレージ利用率の最大化
- SmartTier によるストレージの階層化
- ボリュームセットの作成と管理
- MVS ファイルシステム
- SmartTier の管理
- ホットリロケーションの管理
- データの重複排除
- ファイルの圧縮
- Cloud Connector を使用したクラウドへのファイルの移行
- 第 X 部 ストレージの管理
- ボリュームとディスクグループの管理
- デフォルトのディスクグループの名前の付け方
- ボリュームまたはディスクの移動
- タスクの監視と制御
- オンライン再レイアウトの実行
- ボリュームへのミラーの追加
- ディスクグループの管理
- プレックスとサブディスクの管理
- Veritas InfoScale Storage 環境の Erasure coding
- ストレージの破棄
- ルータビリティ
- クォータ
- FCL(File Change Log)
- ボリュームとディスクグループの管理
- 第 XI 部 参照
- 付録 A. パス名の逆引きルックアップ
- 付録 B. チューニングパラメータ
- 付録 C. コマンドリファレンス
- 付録 D. スタータデータベースの作成
マスターフェールオーバーへのクラスタノードの優先設定値の設定例
この例では、クラスタ環境に 3 つのタイプのノードが含まれているケースを説明します。最適な候補にCVM (Cluster Volume Manager)がマスターロールをフェールオーバーするように、ノードの各タイプにマスター優先設定を定義できます。
次のプールのように、3 つのタイプのノードを考慮します。
Pool1(Node1、Node2、Node3)
これらのノードは大容量(ストレージとプロセス)で、完全なストレージを表示できます。 I/O を集約的に使用するアプリケーションは、クラスタのこれらのノードで稼働します。
ディスク容量の 30% が失われても、他のプールからのノードではなく、このプールからノードを選択してもかまいません。
Pool2(Node4、Node5)
クラスタには、少数の低容量(ストレージとプロセス)ノードがあります。 内部(社内)アプリケーションは、データに対して後処理を行うためにこれらのノードを使用します。 これらのノードの一部は、スナップショットとバックアップにも使用されます。 次の場合に、このプールからノードを選択できます。
Pool1 に選択するノードがない、または
Pool1 のすべてのノードが、優先設定値を Pool2 からのノードの優先設定値以下に減らす多くのディスクにアクセスできなくなった。
Pool3(Node6、Node7)
これらのノードは、すべてのボリューム上で稼働する必要がないアプリケーションを実行します。 これらのノードでは、ストレージ(限られたストレージ表示)の表示が制限されている場合があります。 CVM はすべてのストレージを表示しないため、このプール内のノードの優先設定値を内部でオフセットします。 これらのノードのいずれかがマスターノードになる可能性を減らすため、負の優先設定値を割り当てることができます。
カスタム優先設定を定義しない場合、ディスクの可用性によっては、CVM は優先設定をオフセットとして設定します。時間 A で、現在のマスターである Node1 がクラスタから切断されたと仮定します。CVM は優先設定を計算し、最も高い接続性がある Node5 を選択します。Node5 が切断された場合、CVM は Node4 を選択します。Pool2 のノードは Pool1 のノードよりも優先されます。
Pool | ノード | 時間 A での CVM オフセット |
---|---|---|
Pool1 | Node1(現在のマスター) | 0 |
Pool1 | Node2 | -30 |
Pool1 | Node3 | -25 |
Pool2 | Node4 | -20 |
Pool2 | Node5 | 0 |
Pool3 | Node6 | -50 |
Pool3 | Node7 | -50 |
この例では、Pool1 のノードにより高い優先設定値を指定し、Pool3 のノードに低い優先設定値を指定しようとしています。次の図に、クラスタ内のノードに設定可能な優先設定値を示します。
クラスタノードの優先設定値を設定するには
- Pool1 の各ノードでは、優先設定を 30 に設定します。
# hares -modify cvm_clus CVMNodePreference \ "node1=30, node2=30, node3=30"
- Pool3 の各ノードでは、優先設定を -50 に設定します。
# hares -modify cvm_clus CVMNodePreference "node6=-50, node7=-50"
前のように優先設定値を指定したら、フェールオーバーの場合には望ましい動作が反映されます。 Node1 が失敗した場合、Pool1 の他のノードはマスターを切り替える可能性が最も高い候補です。Node3 はディスクの 25% を失いましたが、引き続き他のプールのノードよりも優先されます。Node5 は高い接続性がありますが、Pool1 のノードの方が Node5 よりも優先されます。
ノード | 時間 A での CVM オフセット | カスタム優先設定 | 優先設定の合計 |
---|---|---|---|
Node1(現在のマスター) | 0 | 30 | 30 |
Node2 | -29 | 30 | 1 |
Node3 | -25 | 30 | 5 |
Node4 | -20 | 0 | -20 |
Node5 | 0 | 0 | 0 |
Node6 | -50 | -50 | -100 |
Node7 | -50 | -50 | -100 |