検索クエリーを入力してください
<book_title> を検索 ...
Storage Foundation Cluster File System High Availability 7.4.3 管理者ガイド - Linux
Last Published:
2020-12-25
Product(s):
InfoScale & Storage Foundation (7.4.3)
Platform: Linux
- 第 I 部 Storage Foundation Cluster File System High Availability の紹介
- Storage Foundation Cluster File System High Availability の概要
- Veritas File System について
- Storage Foundation Cluster File System(SFCFS)について
- Veritas Replicator について
- Dynamic Multi-Pathing の動作
- Veritas Volume Manager の動作
- Veritas File System の動作
- Storage Foundation Cluster File System High Availability の動作
- Storage Foundation Cluster File System High Availability のアーキテクチャについて
- クラスタファイルシステムでサポートされている Veritas File System 機能について
- 単一ネットワークリンクと信頼性について
- I/O フェンシングについて
- Cluster Volume Manager の動作
- Storage Foundation Cluster File System High Availability の概要
- 第 II 部 ストレージのプロビジョン
- 新しいストレージのプロビジョニング
- ストレージの設定のための高度な割り当て方法
- 割り当て動作のカスタマイズ
- 特定のレイアウトのボリュームの作成
- VxFS ファイルシステムの作成とマウント
- VxFS ファイルシステムの作成
- VxFS ファイルシステムのマウント
- ファイルシステムサイズの変更
- 空き領域の監視
- エクステント属性
- 第 III 部 DMP を使ったマルチパスの管理
- Dynamic Multi-Pathing の管理
- 新しく追加されたディスクデバイスの検出と設定
- ディスクの検出とディスクアレイの動的な追加について
- デバイス検出層の管理方法
- vxdmpadm ユーティリティを使った DMP の管理
- I/O 統計情報の収集と表示
- I/O ポリシーの指定
- 新しく追加されたディスクデバイスの検出と設定
- デバイスの動的再構成
- デバイスの管理
- イベント監視
- Dynamic Multi-Pathing の管理
- 第 IV 部 Storage Foundation Cluster File System High Availability の管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- CFS の管理
- mount、fsclustadm、fsadm コマンドについて
- CFS プライマリノードに障害が発生した場合
- SFCFSHA のスナップショットについて
- VCS の管理
- CVM の管理
- マスターフェールオーバーへのクラスタノードの優先設定の設定について
- CVM マスターの手動での変更について
- 共有ディスクグループのインポート
- Flexible Storage Sharing の管理
- ODM の管理
- I/O フェンシングの管理について
- vxfentsthdw ユーティリティについて
- vxfenadm ユーティリティについて
- vxfenclearpre ユーティリティについて
- vxfenswap ユーティリティについて
- コーディネーションポイントサーバーの管理について
- ディスクベースとサーバーベースのフェンシング設定間の移行について
- SFCFSHA のグローバルクラスタの管理
- クラスタ化された NFS の使用
- クラスタ化された NFS のしくみ
- クラスタ化された NFS の設定および設定解除
- クラスタ化された NFS の管理
- クラスタ化された NFS の設定例
- Common Internet File System の使用
- クラスタ化された NFS を使用した Oracle の展開
- サイトとリモートミラーの管理
- SFCFSHA を使った iSCSI の管理
- SFCFSHA を使ったデータストアの管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- 第 V 部 I/O パフォーマンスの最適化
- 第 VI 部 Veritas Extension for Oracle Disk Manager
- Veritas Extension for Oracle Disk Manager の使用
- Oracle Disk Manager について
- Oracle Disk Manager と Oracle Managed Files について
- Cached ODM の使用
- Veritas Extension for Oracle Disk Manager の使用
- 第 VII 部 PITC (Point-In-Time Copy) の使用
- PITC 方法の理解
- ボリュームスナップショットの管理
- 従来のサードミラーブレークオフスナップショット
- フルサイズインスタントスナップショット
- インスタントスナップショットの作成
- インスタントスナップの DCO と DCO ボリュームの追加
- インスタントスナップショットの同期の制御
- インスタントスナップショットの作成
- カスケードスナップショット
- バージョン 0 の DCO および DCO ボリュームの追加
- Storage Checkpoint の管理
- FileSnaps の管理
- スナップショットファイルシステムの管理
- 第 VIII 部 Storage Foundation Cluster File System High Availability を使用したストレージの最適化
- 第 IX 部 ストレージ利用率の最大化
- SmartTier によるストレージの階層化について
- ボリュームセットの作成と管理
- MVS ファイルシステム
- SmartTier の管理
- ホットリロケーションの管理
- データの重複排除
- ファイルの圧縮
- 第 X 部 ストレージの管理
- ボリュームとディスクグループの管理
- デフォルトのディスクグループの名前の付け方
- ボリュームまたはディスクの移動
- タスクの監視と制御
- オンライン再レイアウトの実行
- ボリュームへのミラーの追加
- ディスクグループの管理
- プレックスとサブディスクの管理
- Veritas InfoScale Storage 環境の Erasure coding
- ストレージの破棄
- ルータビリティ
- クォータ
- FCL (File Change Log)
- ボリュームとディスクグループの管理
- 第 XI 部 参照先
- 付録 A. パス名の逆引きルックアップ
- 付録 B. チューニング可能なパラメータ
- 付録 C. コマンドリファレンス
- 付録 D. スタータデータベースの作成
SAN 環境における負荷分散の適用例
この例では、複数の SAN スイッチを経由した、アクティブ/パッシブデバイスへのプライマリパスが複数ある SAN 環境において、DMP(Dynamic Multi-Pathing)を使って負荷分散を設定する方法について説明します。
vxdisk listコマンドからのこのサンプル出力に示すように、sdmデバイスは 8 つの一次パスを備えています:
# vxdisk list sdq Device: sdq . . . numpaths: 8 sdj state=enabled type=primary sdk state=enabled type=primary sdl state=enabled type=primary sdm state=enabled type=primary sdn state=enabled type=primary sdo state=enabled type=primary sdp state=enabled type=primary sdq state=enabled type=primary
さらに、このデバイスはエンクロージャ ENC0 内にあり、ディスクグループ mydg に属し、単純な連結ボリューム myvol1 を含んでいます。
まず、次のコマンドを入力して、DMP 統計情報の収集を有効にします。
# vxdmpadm iostat start
次に dd コマンドを使って、ボリュームからの入力作業負荷を適用します。
# dd if=/dev/vx/rdsk/mydg/myvol1 of=/dev/null &
デバイスの DMP 統計情報を表示する vxdmpadm iostat コマンドを実行すると、すべての I/O が 1 つのパス sdq に対して行われていることがわかります。
# vxdmpadm iostat show dmpnodename=sdq interval=5 count=2 . . . cpu usage = 11294us per cpu memory = 32768b OPERATIONS KBYTES AVG TIME(ms) PATHNAME READS WRITES READS WRITES READS WRITES sdj 0 0 0 0 0.00 0.00 sdk 0 0 0 0 0.00 0.00 sdl 0 0 0 0 0.00 0.00 sdm 0 0 0 0 0.00 0.00 sdn 0 0 0 0 0.00 0.00 sdo 0 0 0 0 0.00 0.00 sdp 0 0 0 0 0.00 0.00 sdq 10986 0 5493 0 0.41 0.00
次の vxdmpadm コマンドを使って、このデバイスを含むエンクロージャの I/O ポリシーを表示します。
# vxdmpadm getattr enclosure ENC0 iopolicy ENCLR_NAME DEFAULT CURRENT ============================================ ENC0 MinimumQ Single-Active
この出力から、このエンクロージャのポリシーが singleactive に設定されており、その結果、すべての I/O が 1 つのパスで行われていることがわかります。
I/O 負荷を複数のプライマリパスに分散するために、次のようにポリシーを round-robin に設定します。
# vxdmpadm setattr enclosure ENC0 iopolicy=round-robin # vxdmpadm getattr enclosure ENC0 iopolicy ENCLR_NAME DEFAULT CURRENT ============================================ ENC0 MinimumQ Round-Robin
次に DMP 統計情報をリセットします。
# vxdmpadm iostat reset
作業負荷をかけたままの状態にして、I/O ポリシーを複数のプライマリパスへの負荷分散に変更した効果を確認することができます。
# vxdmpadm iostat show dmpnodename=sdq interval=5 count=2 . . . cpu usage = 14403us per cpu memory = 32768b OPERATIONS KBYTES AVG TIME(ms) PATHNAME READS WRITES READS WRITES READS WRITES sdj 2041 0 1021 0 0.39 0.00 sdk 1894 0 947 0 0.39 0.00 sdl 2008 0 1004 0 0.39 0.00 sdm 2054 0 1027 0 0.40 0.00 sdn 2171 0 1086 0 0.39 0.00 sdo 2095 0 1048 0 0.39 0.00 sdp 2073 0 1036 0 0.39 0.00 sdq 2042 0 1021 0 0.39 0.00
次のコマンドを入力すると、エンクロージャを single active I/O ポリシーに戻すことができます。
# vxdmpadm setattr enclosure ENC0 iopolicy=singleactive