Storage Foundation Cluster File System High Availability 7.4 管理者ガイド - Linux
- 第 I 部 Storage Foundation Cluster File System High Availability の概要
- Storage Foundation Cluster File System High Availability の概要
- Veritas File System について
- Storage Foundation Cluster File System(SFCFS)について
- Veritas Replicator について
- Dynamic Multi-Pathing の動作
- Veritas Volume Manager の動作
- Veritas File System の動作
- Storage Foundation Cluster File System High Availability の動作方法
- Storage Foundation Cluster File System High Availability アーキテクチャについて
- クラスタファイルシステムでサポートされている Veritas File System 機能について
- 単一ネットワークリンクと信頼性について
- I/O フェンシングについて
- Cluster Volume Manager の動作
- Storage Foundation Cluster File System High Availability の概要
- 第 II 部 ストレージのプロビジョニング
- 新しいストレージのプロビジョニング
- ストレージを設定するための高度な割り当て方法
- 割り当て動作のカスタマイズ
- 特定のレイアウトのボリュームの作成
- VxFS ファイルシステムの作成とマウント
- VxFS ファイルシステムの作成
- VxFS ファイルシステムのマウント
- ファイルシステムサイズの変更
- 空き領域の監視
- エクステント属性
- 第 III 部 DMP を使ったマルチパスの管理
- Dynamic Multi-Pathing の管理
- 新しく追加されたディスクデバイスの検出と設定
- ディスクの検出とディスクアレイの動的な追加について
- デバイス検出層の管理方法
- vxdmpadm ユーティリティを使った DMP の管理
- I/O 統計情報の収集と表示
- I/O ポリシーの指定
- 新しく追加されたディスクデバイスの検出と設定
- デバイスの動的再構成
- デバイスの管理
- イベント監視
- Dynamic Multi-Pathing の管理
- 第 IV 部 Storage Foundation Cluster File System High Availability の管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- CFS の管理
- mount、fsclustadm、fsadm コマンドについて
- CFS プライマリノードで障害が発生した場合
- SFCFSHA のスナップショットについて
- VCS の管理
- CVM の管理
- マスターフェールオーバーへのクラスタノードの優先設定の設定について
- CVM マスターの手動での変更について
- 共有ディスクグループのインポート
- Flexible Storage Sharing の管理
- ODM の管理
- I/O フェンシングの管理について
- vxfentsthdw ユーティリティについて
- vxfenadm ユーティリティについて
- vxfenclearpre ユーティリティについて
- vxfenswap ユーティリティについて
- コーディネーションポイントサーバーの管理について
- ディスクベースとサーバーベースのフェンシング設定間の移行について
- SFCFSHA のグローバルクラスタの管理
- クラスタ化された NFS の使用
- クラスタ化された NFS のしくみ
- クラスタ化された NFS の設定および設定解除
- クラスタ化された NFS の管理
- クラスタ化された NFS の設定例
- Common Internet File System の使用
- クラスタ化された NFS を使用した Oracle の展開
- Oracle データベースへの SFCFSHA ユーティリティの使用
- サイトとリモートミラーの管理
- SFCFSHA を使った iSCSI の管理
- SFCFSHA を使ったデータストアの管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- 第 V 部 I/O パフォーマンスの最適化
- 第 VI 部 Veritas Extension for Oracle Disk Manager
- Veritas Extension for Oracle Disk Manager の使用
- Oracle Disk Manager について
- Oracle Disk Manager と Oracle Managed Files について
- Cached ODM の使用
- Veritas Extension for Oracle Disk Manager の使用
- 第 VII 部 PITC の使用
- PITC 方法の理解
- ボリュームスナップショットの管理
- 従来のサードミラーブレークオフスナップショット
- フルサイズインスタントスナップショット
- インスタントスナップショットの作成
- インスタントスナップの DCO と DCO ボリュームの追加
- インスタントスナップショットの同期の制御
- インスタントスナップショットの作成
- カスケードスナップショット
- バージョン 0 の DCO および DCO ボリュームの追加
- Storage Checkpoint の管理
- FileSnaps の管理
- スナップショットファイルシステムの管理
- 第 VIII 部 Storage Foundation Cluster File System High Availability を使用したストレージの最適化
- 第 IX 部 ストレージ利用率の最大化
- SmartTier によるストレージの階層化
- ボリュームセットの作成と管理
- MVS ファイルシステム
- SmartTier の管理
- ホットリロケーションの管理
- データの重複排除
- ファイルの圧縮
- Cloud Connector を使用したクラウドへのファイルの移行
- 第 X 部 ストレージの管理
- ボリュームとディスクグループの管理
- デフォルトのディスクグループの名前の付け方
- ボリュームまたはディスクの移動
- タスクの監視と制御
- オンライン再レイアウトの実行
- ボリュームへのミラーの追加
- ディスクグループの管理
- プレックスとサブディスクの管理
- Veritas InfoScale Storage 環境の Erasure coding
- ストレージの破棄
- ルータビリティ
- クォータ
- FCL(File Change Log)
- ボリュームとディスクグループの管理
- 第 XI 部 参照
- 付録 A. パス名の逆引きルックアップ
- 付録 B. チューニングパラメータ
- 付録 C. コマンドリファレンス
- 付録 D. スタータデータベースの作成
専有および共有ディスクグループについて
次のタイプのディスクグループが定義されます。
1 つのノードだけに属します。 専用ディスクグループのインポートは、1 つのシステムでのみ行えます。 専用ディスクグループ内の LUN には、物理的には 1 つ以上のシステムからアクセスできますが、アクセスは一度に 1 つのシステムのみに制限されます。 ブートディスクグループ(通常、bootdg という予約済みディスクグループ名がエイリアスとして設定される)は常に、専用ディスクグループです。 | |
すべてのノードで共有できます。共有(またはクラスタ共有)ディスクグループは、すべてのクラスタノードにインポートされます。 共有ディスクグループ内の LUN は、クラスタに参加可能なすべてのシステムから、物理的にアクセスできる必要があります。 |
CVM クラスタでは、大多数のディスクグループが共有されます。 共有ディスクグループ内の LUN は、クラスタ内のすべてのノードからアクセスでき、複数のクラスタノード上のアプリケーションが同じ LUN に同時にアクセスすることもできます。 共有ディスクグループ内のボリュームは、ライセンスキーおよびディスクグループアクティブ化モードによる制約の範囲内で、クラスタ内の複数のノードから同時にアクセスできます。
vxdg コマンドを使って、ディスクグループをクラスタ共有に設定することができます。
ディスクグループを 1 つのノードに対してクラスタ共有としてインポートすると、各ディスクヘッダーにはクラスタ ID が設定されます。各ノードを順次クラスタに参加していくと、ディスクグループをクラスタ共有であると認識しインポートします。 それに対して、専用ディスクグループのディスクヘッダーは個々のノードのホスト名でマーク付けされます。 システム管理者は、共有ディスクのインポートまたはデポートを随時実行できます。この操作は、すべてのノードに対して分散方式で実行されます。
各 LUN は一意のディスク ID でマーク付けされます。マスターノード上で VxVM のクラスタ機能を起動すると、マスターノードはすべての共有ディスクグループを(autoimport 属性セットが設定されていない場合を除き)インポートします。スレーブノードがクラスタへの参加を試みると、マスターノードはインポートされているディスクレコードの一覧をスレーブノードに送信し、スレーブノードはそのすべてにアクセスできるかをチェックします。スレーブノードからアクセスできないディスクがある場合には、クラスタへの参加は中断されます。 一覧内のディスクすべてにアクセスできる場合には、スレーブノードはクラスタに参加し、マスターノードと同じ共有ディスクグループをインポートします。ノードがクラスタから正常に切断されると、そのノードにインポートされていた共有ディスクグループはすべてデポートされますが、それらのディスクグループは残りのノードからはデポートされません。
共有ディスクグループの再設定は、すべてのノードで協調して実行されます。 ディスクグループの設定の変更は、マスターノードによって開始され、すべてのノード上で同時に実行されて、各ノード上の変更は同一になります。これらの変更には原子的な性質があります。これは、この変更がすべてのノード上で同時に発生するか、あるいはまったく発生しないかのどちらかであることを意味します。
クラスタのすべてのメンバーがクラスタ共有ディスクグループに対して同時読み書きアクセス権限を持つかどうかは、アクティブ化モード設定によって異なります。
クラスタ共有ディスクグループに含まれているデータは、クラスタ内のノードが少なくとも 1 つアクティブになっていれば利用できます。あるクラスタノードの障害が、残りのアクティブノードのアクセスに影響を与えることはありません。どのノードからアクセスしても、クラスタ共有ディスクグループの設定は同一に見えます。