検索クエリーを入力してください
<book_title> を検索 ...
Storage Foundation Cluster File System High Availability 7.4 管理者ガイド - Linux
Last Published:
2018-07-05
Product(s):
InfoScale & Storage Foundation (7.4)
Platform: Linux
- 第 I 部 Storage Foundation Cluster File System High Availability の概要
- Storage Foundation Cluster File System High Availability の概要
- Veritas File System について
- Storage Foundation Cluster File System(SFCFS)について
- Veritas Replicator について
- Dynamic Multi-Pathing の動作
- Veritas Volume Manager の動作
- Veritas File System の動作
- Storage Foundation Cluster File System High Availability の動作方法
- Storage Foundation Cluster File System High Availability アーキテクチャについて
- クラスタファイルシステムでサポートされている Veritas File System 機能について
- 単一ネットワークリンクと信頼性について
- I/O フェンシングについて
- Cluster Volume Manager の動作
- Storage Foundation Cluster File System High Availability の概要
- 第 II 部 ストレージのプロビジョニング
- 新しいストレージのプロビジョニング
- ストレージを設定するための高度な割り当て方法
- 割り当て動作のカスタマイズ
- 特定のレイアウトのボリュームの作成
- VxFS ファイルシステムの作成とマウント
- VxFS ファイルシステムの作成
- VxFS ファイルシステムのマウント
- ファイルシステムサイズの変更
- 空き領域の監視
- エクステント属性
- 第 III 部 DMP を使ったマルチパスの管理
- Dynamic Multi-Pathing の管理
- 新しく追加されたディスクデバイスの検出と設定
- ディスクの検出とディスクアレイの動的な追加について
- デバイス検出層の管理方法
- vxdmpadm ユーティリティを使った DMP の管理
- I/O 統計情報の収集と表示
- I/O ポリシーの指定
- 新しく追加されたディスクデバイスの検出と設定
- デバイスの動的再構成
- デバイスの管理
- イベント監視
- Dynamic Multi-Pathing の管理
- 第 IV 部 Storage Foundation Cluster File System High Availability の管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- CFS の管理
- mount、fsclustadm、fsadm コマンドについて
- CFS プライマリノードで障害が発生した場合
- SFCFSHA のスナップショットについて
- VCS の管理
- CVM の管理
- マスターフェールオーバーへのクラスタノードの優先設定の設定について
- CVM マスターの手動での変更について
- 共有ディスクグループのインポート
- Flexible Storage Sharing の管理
- ODM の管理
- I/O フェンシングの管理について
- vxfentsthdw ユーティリティについて
- vxfenadm ユーティリティについて
- vxfenclearpre ユーティリティについて
- vxfenswap ユーティリティについて
- コーディネーションポイントサーバーの管理について
- ディスクベースとサーバーベースのフェンシング設定間の移行について
- SFCFSHA のグローバルクラスタの管理
- クラスタ化された NFS の使用
- クラスタ化された NFS のしくみ
- クラスタ化された NFS の設定および設定解除
- クラスタ化された NFS の管理
- クラスタ化された NFS の設定例
- Common Internet File System の使用
- クラスタ化された NFS を使用した Oracle の展開
- Oracle データベースへの SFCFSHA ユーティリティの使用
- サイトとリモートミラーの管理
- SFCFSHA を使った iSCSI の管理
- SFCFSHA を使ったデータストアの管理
- Storage Foundation Cluster File System High Availability とそのコンポーネントの管理
- 第 V 部 I/O パフォーマンスの最適化
- 第 VI 部 Veritas Extension for Oracle Disk Manager
- Veritas Extension for Oracle Disk Manager の使用
- Oracle Disk Manager について
- Oracle Disk Manager と Oracle Managed Files について
- Cached ODM の使用
- Veritas Extension for Oracle Disk Manager の使用
- 第 VII 部 PITC の使用
- PITC 方法の理解
- ボリュームスナップショットの管理
- 従来のサードミラーブレークオフスナップショット
- フルサイズインスタントスナップショット
- インスタントスナップショットの作成
- インスタントスナップの DCO と DCO ボリュームの追加
- インスタントスナップショットの同期の制御
- インスタントスナップショットの作成
- カスケードスナップショット
- バージョン 0 の DCO および DCO ボリュームの追加
- Storage Checkpoint の管理
- FileSnaps の管理
- スナップショットファイルシステムの管理
- 第 VIII 部 Storage Foundation Cluster File System High Availability を使用したストレージの最適化
- 第 IX 部 ストレージ利用率の最大化
- SmartTier によるストレージの階層化
- ボリュームセットの作成と管理
- MVS ファイルシステム
- SmartTier の管理
- ホットリロケーションの管理
- データの重複排除
- ファイルの圧縮
- Cloud Connector を使用したクラウドへのファイルの移行
- 第 X 部 ストレージの管理
- ボリュームとディスクグループの管理
- デフォルトのディスクグループの名前の付け方
- ボリュームまたはディスクの移動
- タスクの監視と制御
- オンライン再レイアウトの実行
- ボリュームへのミラーの追加
- ディスクグループの管理
- プレックスとサブディスクの管理
- Veritas InfoScale Storage 環境の Erasure coding
- ストレージの破棄
- ルータビリティ
- クォータ
- FCL(File Change Log)
- ボリュームとディスクグループの管理
- 第 XI 部 参照
- 付録 A. パス名の逆引きルックアップ
- 付録 B. チューニングパラメータ
- 付録 C. コマンドリファレンス
- 付録 D. スタータデータベースの作成
vxfentsthdw -m オプションを使った、共有ディスクのテスト
共有ディスクをテストする手順を確認します。デフォルトでは、ユーティリティは -m オプションを使います。
この手順では、/dev/sdx ディスクを使います。
ユーティリティが、ディスクが準備が整っていることを表すメッセージを表示しない場合、検証は失敗しました。検証が失敗している場合、ディスクアレイの設定が不適切な可能性があります。不良ディスクも不適切な設定の原因となる場合があります。
失敗の原因が不良ディスクである場合、そのディスクを取り除いて交換します。 vxfentsthdw ユーティリティは、ディスクが I/O フェンシング用として使用できることを、次のようなメッセージで示します。
The disk /dev/sdx is ready to be configured for I/O Fencing on node sys1
メモ:
A/P アレイの場合、アクティブな有効パスでのみ vxfentsthdw コマンドを実行してください。
vxfentsthdw スクリプトを使ってディスクをテストするには
- システム間の通信が適切に機能していることを確認します。
- 1 つのノードからユーティリティを開始します。
# vxfentsthdw [-n]
- テストを実行するとディスクのデータが上書きされることを示す説明と警告を確認したら、処理の続行を確認して、ノード名を入力します。
******** WARNING!!!!!!!! ******** THIS UTILITY WILL DESTROY THE DATA ON THE DISK!! Do you still want to continue : [y/n] (default: n) y Enter the first node of the cluster: sys1 Enter the second node of the cluster: sys2
確認するディスク名を入力します。各ノードで、ディスクは同じ名前で認識されている場合があります。
Enter the disk name to be checked for SCSI-3 PGR on node sys1 in the format: for dmp: /dev/vx/rdmp/sdx for raw: /dev/sdx Make sure it's the same disk as seen by nodes sys1 and sys2 /dev/sdr Enter the disk name to be checked for SCSI-3 PGR on node sys2 in the format: for dmp: /dev/vx/rdmp/sdx for raw: /dev/sdx Make sure it's the same disk as seen by nodes sys1 and sys2 /dev/sdr
ディスクのシリアル番号が同じでない場合、テストは停止します。
- ユーティリティが検査を実行してその活動が報告されたら、出力を確認します。
- 各ノードのディスクが I/O フェンシングを実行できる状態であれば、ユーティリティは正常終了を報告します。
ALL tests on the disk /dev/sdx have PASSED The disk is now ready to be configured for I/O Fencing on node sys1 ... Removing test keys and temporary files, if any ... . .
- 検証するディスクごとに vxfentsthdw ユーティリティを実行します。