Storage Foundation Cluster File System High Availability 8.0.2 管理者ガイド - Solaris
- 第 I 部 Storage Foundation Cluster File System High Availability の紹介
- Storage Foundation Cluster File System High Availability の概要
- Veritas File System について
- Dynamic Multi-Pathing の動作
- Veritas Volume Manager の動作
- Veritas File System の動作
- Storage Foundation Cluster File System High Availability の動作
- Storage Foundation Cluster File System High Availability のアーキテクチャについて
- クラスタファイルシステムでサポートされている Veritas File System 機能について
- 単一ネットワークリンクと信頼性について
- I/O フェンシングについて
- Cluster Volume Manager の動作
- Storage Foundation Cluster File System High Availability の概要
- 第 II 部 ストレージのプロビジョン
- 新しいストレージのプロビジョニング
- ストレージの設定のための高度な割り当て方法
- VxFS ファイルシステムの作成とマウント
- VxFS ファイルシステムの作成
- VxFS ファイルシステムのマウント
- ファイルシステムサイズの変更
- 空き領域の監視
- エクステント属性
- 第 III 部 DMP を使ったマルチパスの管理
- Dynamic Multi-Pathing の管理
- 新しく追加されたディスクデバイスの検出と設定
- ディスクの検出とディスクアレイの動的な追加について
- デバイス検出層の管理方法
- vxdmpadm ユーティリティを使った DMP の管理
- I/O 統計情報の収集と表示
- I/O ポリシーの指定
- ZFS ルートプールに対する DMP デバイスの管理
- 新しく追加されたディスクデバイスの検出と設定
- デバイスの動的再構成
- デバイスの管理
- イベント監視
- Dynamic Multi-Pathing の管理
- 第 IV 部 Storage Foundation Cluster File System High Availability の管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- CFS の管理
- mount、fsclustadm、fsadm コマンドについて
- CFS プライマリノードに障害が発生した場合
- SFCFSHA のスナップショットについて
- VCS の管理
- CVM の管理
- マスターフェールオーバーへのクラスタノードの優先設定の設定について
- CVM マスターの手動での変更について
- 共有ディスクグループのインポート
- Flexible Storage Sharing の管理
- ODM の管理
- I/O フェンシングの管理について
- vxfentsthdw ユーティリティについて
- vxfenadm ユーティリティについて
- vxfenclearpre ユーティリティについて
- vxfenswap ユーティリティについて
- コーディネーションポイントサーバーの管理について
- ディスクベースとサーバーベースのフェンシング設定間の移行について
- SFCFSHA のグローバルクラスタの管理
- クラスタ化された NFS の使用
- クラスタ化された NFS のしくみ
- クラスタ化された NFS の設定および設定解除
- NFS 共有ディスクのメジャー番号とマイナー番号の一致
- クラスタ化された NFS の管理
- クラスタ化された NFS の設定例
- Common Internet File System の使用
- クラスタ化された NFS を使用した Oracle の配備
- サイトとリモートミラーの管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- 第 V 部 I/O パフォーマンスの最適化
- 第 VI 部 Veritas Extension for Oracle Disk Manager
- Veritas Extension for Oracle Disk Manager の使用
- Oracle Disk Manager について
- Oracle Disk Manager と Oracle Managed Files について
- Cached ODM の使用
- Veritas Extension for Oracle Disk Manager の使用
- 第 VII 部 PITC (Point-In-Time Copy) の使用
- PITC 方法の理解
- ボリュームスナップショットの管理
- 従来のサードミラーブレークオフスナップショット
- フルサイズインスタントスナップショット
- インスタントスナップショットの作成
- インスタントスナップの DCO と DCO ボリュームの追加
- インスタントスナップショットの同期の制御
- インスタントスナップショットの作成
- カスケードスナップショット
- バージョン 0 の DCO および DCO ボリュームの追加
- Storage Checkpoint の管理
- FileSnaps の管理
- スナップショットファイルシステムの管理
- 第 VIII 部 Storage Foundation Cluster File System High Availability を使用したストレージの最適化
- 第 IX 部 ストレージ利用率の最大化
- SmartTier によるストレージの階層化について
- ボリュームセットの作成と管理
- MVS ファイルシステム
- SmartTier の管理
- ホットリロケーションの管理
- Solaris SPARC 上のデータの重複排除
- ファイルの圧縮
- 第 X 部 ストレージの管理と保護
- ボリュームとディスクグループの管理
- デフォルトのディスクグループの名前の付け方
- ボリュームまたはディスクの移動
- タスクの監視と制御
- オンライン再レイアウトの実行
- ボリュームへのミラーの追加
- ディスクグループの管理
- プレックスとサブディスクの管理
- ストレージの破棄
- ルータビリティ
- クォータ
- FCL (File Change Log)
- ボリュームとディスクグループの管理
- 第 XI 部 参照先
- 付録 A. パス名の逆引きルックアップ
- 付録 B. チューニング可能なパラメータ
- 付録 C. コマンドリファレンス
- 付録 D. スタータデータベースの作成
- 付録 E. 大統領令を遵守したログ記録
ストレージ接続エラーへの Cluster Volume Manager(CVM)の耐性
Cluster Volume Manager(CVM)は共有ストレージモデルを使用します。共有ディスクグループ内のボリュームには、クラスタ内の各ノードから同時に読み書きアクセスを行うことができます。
クラスタ耐性は、1 つ以上のノードが共有ストレージへの接続を失った場合の中断が最小となるクラスタ機能を意味します。CVM は、オンラインディスクグループのストレージ接続の消失を検出すると、状況に応じて適切なエラー処理を実行します。たとえば、状況によって CVM は、ネットワーク上の I/O をリダイレクトする、プレックスを切断する、またはすべてのディスクのボリュームを無効にすることがあります。CVM の動作は、環境に応じた適切な処理を確実に行うようにカスタマイズできます。
CVM 耐性機能はまた新しいノードが共有ディスクグループのすべてのディスクに接続できない場合にもノードがクラスタに結合できるようにします。この動作により、オフライン化されたノードはクラスタに再結合できます。同様に、共有ディスクグループはノードでインポートできます。
メモ:
クラスタ耐性機能は一時エラーの処理を目的としています。できるだけ早く接続をリストアしてください。
CVM は接続エラーに対するクラスタ耐性と耐障害性を次の方法で強化します。
表:
機能 | 説明 | 設定可能かどうか |
---|---|---|
データプレックスの一貫性。 | CVM はデータディスクの接続エラーを管理し、影響を受けていないディスクで I/O が続行できるようにします。
| はい。 切断のポリシーによって制御されます(ローカルまたはグローバル)。 |
アプリケーション I/O の継続 | エラーがすべてのノードに影響しない場合は、CVM はストレージへのアクセスがあるノードに I/O をネットワーク経由でリダイレクトできます。この動作は、一部のノードでストレージ接続性のエラーが起きた場合でもアプリケーション I/O を一部のノードで継続するよう有効化します。 I/O のリダイレクトにより、CVM は 1 つ以上のノードに下位のストレージへのアクセスがある場合に、ボリューム I/O のローカルエラーまたはプレックスの切断の必要性を避けることができます。したがって、ioship ポリシーはディスク切断ポリシーの動作を変更します。 | はい。 ディスクグループに設定されている ioship チューニングパラメータによって制御します。 |
共有ディスクグループ設定の可用性。 | マスターノードは共有ディスクグループ設定の変更を処理するため、CVM はマスターノードに設定のコピーへのアクセスがあることを確認します。 マスターノードが設定のコピーへの接続性を失った場合、CVM は設定のコピーにアクセスできるノードに I/O 要求をネットワーク経由でリダイレクトします。この動作によって、ディスクグループは使用可能な状態のままになります。 この動作はディスク切断ポリシーまたは ioship ポリシーの影響を受けません。 ディスクグループバージョンが 170 より前であると、CVM はディスクグループの障害ポリシー(dgfailpolicy)に従って切断を処理します。 | いいえ。 デフォルトで有効。 |
スナップショットの可用性 | CVM は内部 I/O を開始して Data Change Object(DCO)を更新します。 ノードがこれらのオブジェクトへの接続を失った場合、CVM はアクセスがあるノードに内部 I/O ネットワーク経由でリダイレクトします。 この動作はディスク切断ポリシーまたは ioship ポリシーの影響を受けません。 | いいえ。 デフォルトで有効。 |
クラスタノードと共有ディスクグループの可用性 | CVM は、ノードがすべての共有ストレージにアクセスできない場合にもクラスタノードが結合できるようにします。 同様にノードは、ストレージへのローカルエラーがあっても共有ディスクグループをインポートできます。 この動作はディスク切断ポリシーまたは ioship ポリシーの影響を受けません。 | はい。 storage_connectivity チューニングパラメータで制御します。 |