Veritas Access インストールガイド
- Veritas Access の概要
- Veritas Access のライセンス
- システム要件
- Veritas Access をインストールする準備
- VMware ESXi での Veritas Access インストール用の仮想マシンの配備
- クラスタのインストールと設定
- クラスタの各ノードでのオペレーティングシステムのインストール
- ターゲットクラスタノードでの Veritas Access のインストール
- NIC、結合、および VLAN デバイスの管理について
- VLAN のタグ付けについて
- 応答ファイルを使用した Veritas Access のインストールと設定の自動化
- クラスタのノードの表示と追加
- Veritas Access のアップグレードとオペレーティングシステム
- ローリングアップグレードを使用した Veritas Access のアップグレード
- Veritas Access のアンインストール
- 付録 A. インストールの参考情報
- 付録 B. 通信用のセキュアシェルの設定
- 付録 C. Veritas Access の手動配備
クラスタへのノードの追加
クラスタにノードを追加する前に、ノードにオペレーティングシステムをインストールする必要があります。
ディスクベースのフェンシングを使用する場合は、I/O フェンシングを正常に設定するための前提条件として、新しく追加するノードでコーディネータディスクが表示されている必要があります。コーディネータディスクを使用しないと、I/O フェンシングは適切にロードされず、ノードはクラスタメンバーシップを取得できません。
マジョリティベースのフェンシングを使用する場合は、新しく追加するノードに共有ディスクがなくてもかまいません。
新しいノードを追加して、一部の一意の PCI ID を取り除く場合は、各クラスタノードで取り除く一意の PCI ID を /opt/VRTSsnas/conf/net_exclusion_dev.conf
ファイルに手動で追加します。例:
[root@bob_01 ~]# cat /opt/VRTSsnas/conf/net_exclusion_dev.conf 0000:42:00.0 0000:42:00.1
メモ:
ライトバックキャッシュは、ノードが 2 台あるクラスタでのみサポートされるため、ノードが 2 台あるクラスタにノードを追加するとキャッシュが読み取り専用に変わります。
新しく追加するノードは InfiniBand NIC と同じ構成である必要があります。???を参照してください。
クラスタに FSS プールを設定していて、プールのノードグループにノードが存在しない場合、新しく追加するノードは FSS ノードグループに追加されます。インストーラにより FSS プールに新しいノードのローカルデータディスクが追加されます。
クラスタに新しいノードを追加するには
- master または system-admin アカウントを使用して Veritas Access にログインします。
- CLISH で、Cluster コマンドを入力して Cluster> モードにします。
- クラスタに新しいノードを追加するには、次のように入力します。
Cluster> add node1ip, node2ip.....
node1ip, node2ip,.... は、SSH 接続用の追加ノードの IP アドレスリストです。
次のことに注意する必要があります。
ノードの IP は保持され、必要な追加分は物理 IP の (未使用) プールから割り当てられます。
新しいノードの物理 IP アドレスは、設定されているパブリック IP の開始アドレスから検出した使用可能な IP アドレスです。
仮想 IP は新しいノードに合わせて調整されますが、追加の仮想 IP は割り当てられません。
ノードを追加したら手順 6 に進んで新しい仮想 IP アドレスをクラスタに追加します。
新しいノードにアクセスできる IP アドレスの指定が必要です。
新しいノードにアクセス可能な IP アドレスは、パブリックネットワーク上のアドレスにする必要があります。この IP アドレスは、パブリックネットワークのゲートウェイに正常に ping できる必要があります。
例:
Cluster> add 192.168.30.10
メモ:
ライトバックキャッシュが有効な場合、ノードが 2 台あるクラスタにノードを追加することはできません。ノードを追加する場合は、追加前にキャッシュモードを読み取りに変更します。
- 元のクラスタにキャッシュが存在する場合は、CFS のマウント時に新しいノードでキャッシュを作成する SSD ディスクの選択を求めるメッセージが表示されます。
1) emc_clariion1_242 2) emc_clariion1_243 b) Back to previous menu Choose disks separate by spaces to create cache on 192.168.30.11 [1-2,b,q] 1 Create cache on snas_02 .....................Done
- クラスタノードで FSS プールを作成していて、新しいノードに 2 つ以上のローカルデータディスクがある場合は、FSS プールに追加するディスクの選択を求めるメッセージが表示されます。ストライプボリュームレイアウトの場合は 2 つ以上のディスクを選択します。選択するディスクの合計サイズは、FSS プールの容量以上にする必要があります。
Following storage pools need to add disk from the new node: 1) fsspool1 2) fsspool2 3) Skip this step Choose a pool to add disks [1-3,q] 1 1) emc_clariion0_1570 (5.000 GB) 2) installres_03_sdc (5.000 GB) 3) installres_03_sde (5.000 GB) 4) sdd (5.000 GB) b) Back to previous menu
Choose at least 2 local disks with minimum capacity of 10 GB [1-4,b,q] 2 4 Format disk installres_03_sdc,sdd ................................ Done The disk name changed to installres_03_sdc,installres_03_sdd Add disk installres_03_sdc,installres_03_sdd to storage pool fsspool1 Done
- 必要に応じて、クラスタに仮想 IP アドレスを追加します。ノードを追加しても、クラスタに新しい仮想 IP アドレスやサービスグループは追加されません。
仮想 IP アドレスを追加するには、ネットワークモードで次のコマンドを使用します。
Network> ip addr add ipaddr virtual
例:
Network> ip addr add 192.168.30.14 255.255.252.0 virtual
ACCESS ip addr SUCCESS V-288-1031 ip addr add successful.
クラスタにノードを追加するときに問題が発生した場合 (たとえば、ノードが一時的にネットワークから切断された場合) は、次の操作を実行して問題を解決します。
ノードを回復するには次の操作を実行します。
ノードの電源を切る
Cluster> del nodename コマンドを使用してクラスタからノードを削除する
ノードの電源を入れる
Cluster> add nodeip コマンドを使用してクラスタにノードを追加する