Storage Foundation Cluster File System High Availability 7.4 管理者ガイド - Linux
- 第 I 部 Storage Foundation Cluster File System High Availability の概要
- Storage Foundation Cluster File System High Availability の概要
- Veritas File System について
- Storage Foundation Cluster File System(SFCFS)について
- Veritas Replicator について
- Dynamic Multi-Pathing の動作
- Veritas Volume Manager の動作
- Veritas File System の動作
- Storage Foundation Cluster File System High Availability の動作方法
- Storage Foundation Cluster File System High Availability アーキテクチャについて
- クラスタファイルシステムでサポートされている Veritas File System 機能について
- 単一ネットワークリンクと信頼性について
- I/O フェンシングについて
- Cluster Volume Manager の動作
- Storage Foundation Cluster File System High Availability の概要
- 第 II 部 ストレージのプロビジョニング
- 新しいストレージのプロビジョニング
- ストレージを設定するための高度な割り当て方法
- 割り当て動作のカスタマイズ
- 特定のレイアウトのボリュームの作成
- VxFS ファイルシステムの作成とマウント
- VxFS ファイルシステムの作成
- VxFS ファイルシステムのマウント
- ファイルシステムサイズの変更
- 空き領域の監視
- エクステント属性
- 第 III 部 DMP を使ったマルチパスの管理
- Dynamic Multi-Pathing の管理
- 新しく追加されたディスクデバイスの検出と設定
- ディスクの検出とディスクアレイの動的な追加について
- デバイス検出層の管理方法
- vxdmpadm ユーティリティを使った DMP の管理
- I/O 統計情報の収集と表示
- I/O ポリシーの指定
- 新しく追加されたディスクデバイスの検出と設定
- デバイスの動的再構成
- デバイスの管理
- イベント監視
- Dynamic Multi-Pathing の管理
- 第 IV 部 Storage Foundation Cluster File System High Availability の管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- CFS の管理
- mount、fsclustadm、fsadm コマンドについて
- CFS プライマリノードで障害が発生した場合
- SFCFSHA のスナップショットについて
- VCS の管理
- CVM の管理
- マスターフェールオーバーへのクラスタノードの優先設定の設定について
- CVM マスターの手動での変更について
- 共有ディスクグループのインポート
- Flexible Storage Sharing の管理
- ODM の管理
- I/O フェンシングの管理について
- vxfentsthdw ユーティリティについて
- vxfenadm ユーティリティについて
- vxfenclearpre ユーティリティについて
- vxfenswap ユーティリティについて
- コーディネーションポイントサーバーの管理について
- ディスクベースとサーバーベースのフェンシング設定間の移行について
- SFCFSHA のグローバルクラスタの管理
- クラスタ化された NFS の使用
- クラスタ化された NFS のしくみ
- クラスタ化された NFS の設定および設定解除
- クラスタ化された NFS の管理
- クラスタ化された NFS の設定例
- Common Internet File System の使用
- クラスタ化された NFS を使用した Oracle の展開
- Oracle データベースへの SFCFSHA ユーティリティの使用
- サイトとリモートミラーの管理
- SFCFSHA を使った iSCSI の管理
- SFCFSHA を使ったデータストアの管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- 第 V 部 I/O パフォーマンスの最適化
- 第 VI 部 Veritas Extension for Oracle Disk Manager
- Veritas Extension for Oracle Disk Manager の使用
- Oracle Disk Manager について
- Oracle Disk Manager と Oracle Managed Files について
- Cached ODM の使用
- Veritas Extension for Oracle Disk Manager の使用
- 第 VII 部 PITC の使用
- PITC 方法の理解
- ボリュームスナップショットの管理
- 従来のサードミラーブレークオフスナップショット
- フルサイズインスタントスナップショット
- インスタントスナップショットの作成
- インスタントスナップの DCO と DCO ボリュームの追加
- インスタントスナップショットの同期の制御
- インスタントスナップショットの作成
- カスケードスナップショット
- バージョン 0 の DCO および DCO ボリュームの追加
- Storage Checkpoint の管理
- FileSnaps の管理
- スナップショットファイルシステムの管理
- 第 VIII 部 Storage Foundation Cluster File System High Availability を使用したストレージの最適化
- 第 IX 部 ストレージ利用率の最大化
- SmartTier によるストレージの階層化
- ボリュームセットの作成と管理
- MVS ファイルシステム
- SmartTier の管理
- ホットリロケーションの管理
- データの重複排除
- ファイルの圧縮
- Cloud Connector を使用したクラウドへのファイルの移行
- 第 X 部 ストレージの管理
- ボリュームとディスクグループの管理
- デフォルトのディスクグループの名前の付け方
- ボリュームまたはディスクの移動
- タスクの監視と制御
- オンライン再レイアウトの実行
- ボリュームへのミラーの追加
- ディスクグループの管理
- プレックスとサブディスクの管理
- Veritas InfoScale Storage 環境の Erasure coding
- ストレージの破棄
- ルータビリティ
- クォータ
- FCL(File Change Log)
- ボリュームとディスクグループの管理
- 第 XI 部 参照
- 付録 A. パス名の逆引きルックアップ
- 付録 B. チューニングパラメータ
- 付録 C. コマンドリファレンス
- 付録 D. スタータデータベースの作成
グローバル切断ポリシーによって CVM がローカルストレージ切断を処理する方法
ローカルエラーに対する CVM 動作は、切断ポリシーの設定と影響されるプレックスの数によって決まります。
エラーがすべてのノードに影響しない場合、エラーはローカルであるとみなされます。ローカルエラーは 1 つ以上のノードで発生します(すべてのノードではありません)。I/O エラーは、少なくとも 1 つのノードがプレックスにアクセスできる場合は、ローカルであると見なされます。
切断ポリシーがグローバルに設定され、エラーが 1 つ以上のノードのボリュームの 1 つ以上のプレックスに影響する場合、CVM はプレックスを切断します。グローバル切断ポリシーは、CVM がボリュームのプレックス(ミラー)の一貫性を確保することを示します。プレックスの切断により、プレックスのデータはすべてのノードでまったく同じになります。接続が戻ると、CVM はボリュームにプレックスを再接続し、プレックスを再同期します。
図: グローバル切断ポリシーで CVM がローカルで部分的なエラーを処理する方法 に、切断のポリシーがグローバルの場合に CVM がローカルで部分的なエラーを処理する方法を示します。
このポリシーの利点は、ボリュームがすべてのノードの I/O でまだ使用できるという点です。 スレーブノードに読み込みまたは書き込みの I/O エラーがある場合、マスターノードはエラーを修復するために、通常の I/O リカバリ操作を実行します。 必要に応じて、プレックスはクラスタ全体のボリュームから切断されます。 ノードはすべてクラスタ内にとどまり、I/O は引き続き実行されますが、ミラーの冗長性は低くなります。
欠点は、プレックスが切断されたために冗長性が失われた点です。 クラスタの 1つ以上のノードがプレックスへの接続性を失うため、クラスタ全体はそのプレックスにアクセスできなくなります。 この動作は、1 つのノードのローカルエラーが、クラスタのすべてのノードにグローバルな影響を与えることを意味します。
グローバル切断ポリシーでは、プレックスを再接続するオーバーヘッドも必要です。 I/O エラーの原因となった問題が修正されたら、ディスクを再接続しなくてはなりません。データの冗長性を復元する前に、切断されたミラーのリカバリを実行する必要があります。
ミラーボリュームのすべてのプレックスでノードがエラーを検出すると、ローカルノードからボリュームへの I/O は失敗しますが、プレックスは切断されません。この動作により、各プレックスが次々と切断されたり、ボリュームがグローバルに無効になるなどの動作が回避されます。