Veritas InfoScale™ 8.0.2 仮想化ガイド - Linux

Last Published:
Product(s): InfoScale & Storage Foundation (8.0.2)
Platform: Linux
  1. 第 I 部 Linux 仮想化で使う Veritas InfoScale Solutions の概要
    1. サポート対象の製品と技術の概要
      1.  
        Veritas InfoScale 製品の仮想化ガイドの概要
      2. Linux 仮想化環境の Veritas InfoScale Solutions のサポートについて
        1.  
          Linux 仮想化環境の SmartIO について
        2.  
          SmartPool 機能について
      3. KVM (カーネルベースの仮想マシン)技術について
        1.  
          カーネルベースの仮想マシンの用語
        2.  
          VirtIO ディスクドライブ
      4. RHEV 環境について
        1.  
          RHEV の用語
      5.  
        Veritas InfoScale 製品が対応する仮想化の使用例
      6.  
        仮想から仮想(ゲスト内部)へのクラスタ化とフェールオーバーについて
  2. 第 II 部 基本 KVM 環境の実装
    1. 基本 KVM のスタートガイド
      1.  
        KVM (カーネルベースの仮想マシン)ホストの作成および起動
      2.  
        RHEL ベースの KVM のインストールと使用法
      3.  
        KVM (カーネルベースの仮想マシン) ゲストの設定
      4.  
        Veritas InfoScale Solutions での KVM の設定について
      5. カーネルベースの仮想マシン環境の Veritas InfoScale Solutions 設定オプション
        1.  
          KVM ゲスト仮想化マシンの Dynamic Multi-Pathing
        2.  
          KVM ホストでの Dynamic Multi-Pathing
        3.  
          仮想化ゲストマシンでの Storage Foundation
        4.  
          KVM ゲストでの I/O フェンシングの有効化
        5.  
          KVM ホストでの Storage Foundation Cluster File System High Availability
        6.  
          KVM ホストとゲスト仮想マシンの Dynamic Multi-Pathing
        7.  
          KVM ホストの Dynamic Multi-Pathing と KVM ゲスト仮想マシンの Storage Foundation HA
        8.  
          KVM ホストでの Cluster Server
        9.  
          ゲストでの Cluster Server
        10.  
          複数の仮想マシンゲストと物理コンピュータにわたるクラスタ内の Cluster Server
      6.  
        カーネルベースの仮想マシン環境での Veritas InfoScale Solutions のインストール
      7. KVM(カーネルベースの仮想マシン)環境の Cluster Server のインストールと設定
        1.  
          VCS(Cluster Server)の仮想マシン(VM)ゲストの管理方法
    2. KVM リソースの設定
      1.  
        カーネルベースの仮想マシンリソースについて
      2. ストレージの設定
        1.  
          KVM 環境での一貫したストレージマッピング
        2. ゲストへのデバイスのマッピング
          1.  
            DMP メタデバイスのマッピング
          2.  
            複数の KVM ホストにわたって一貫した命名
          3.  
            パスを使ったデバイスのマッピング
          4.  
            ボリュームを使ったデバイスのマッピング
          5.  
            virtio-scsi インターフェースを使用したデバイスのマッピング
        3.  
          デバイスのサイズ変更
      3. ネットワークの設定
        1. ブリッジネットワークの設定
          1.  
            ホストネットワークの設定
          2.  
            ゲストネットワークの設定
        2.  
          複数の物理コンピュータ(PM-PM)にわたる VCS クラスタのネットワーク設定
        3.  
          標準ブリッジの設定
        4.  
          VM-VM クラスタのネットワーク設定
  3. 第 III 部 Linux 仮想化実装の使用例
    1. アプリケーションの可視性とデバイス検出
      1.  
        Veritas InfoScale Operations Manager を使ったストレージからアプリケーションへの可視性の使用について
      2.  
        Veritas InfoScale Operations Manager でのカーネルベースの仮想マシン(KVM)の仮想化検出
      3.  
        Veritas InfoScale Operations Manager の Red Hat Enterprise Virtualization(RHEV)仮想化の検出について
      4.  
        Microsoft Hyper-V 仮想化の検出について
      5.  
        Microsoft Hyper-V での仮想マシンの検出
      6.  
        Microsoft Hyper-V でのストレージマッピングの検出
    2. サーバー統合
      1.  
        サーバー統合
      2.  
        単純な作業負荷に対するサーバー統合の実装
    3. 物理から仮想への移行
      1.  
        物理から仮想への移行
      2.  
        物理から仮想への移行(P2V)を実装する方法
    4. 簡素化した管理
      1.  
        簡素化した管理
      2. ゲスト仮想マシンのストレージのプロビジョニング
        1.  
          Veritas Volume Manager ボリュームを VM ゲストのデータディスクにするプロビジョニング
        2.  
          Veritas Volume Manager ボリュームをゲスト仮想マシンのブートディスクにするプロビジョニング
      3. ブートイメージの管理
        1.  
          ブートディスクグループの作成
        2.  
          ゴールデンイメージの作成と設定
        3.  
          ゴールデンイメージを使った仮想マシンの迅速なプロビジョニング
        4.  
          領域最適化スナップショットによるストレージの節約
    5. Cluster Server を使用するアプリケーションの可用性
      1.  
        アプリケーション可用性オプションについて
      2.  
        KVM 環境アーキテクチャの Cluster Server の概略
      3.  
        仮想マシンに高可用性を提供するホストの VCS とアプリケーションに高可用性を提供するゲストの ApplicationHA
      4.  
        仮想から仮想へのクラスタ化とフェールオーバー
      5.  
        仮想から仮想へのクラスタ化のための I/O フェンシングサポート
      6.  
        仮想から物理へのクラスタ化とフェールオーバー
      7.  
        仮想化環境での InfoScale クラスタの回復力の向上に関する推奨事項
    6. 仮想マシンの可用性
      1.  
        仮想マシンの可用性オプションについて
      2.  
        リソースとして仮想マシンを監視するホストの VCS
      3.  
        仮想マシン可用性のための仮想化環境の検証
    7. ライブ移行を使った仮想マシンの可用性
      1.  
        ライブ移行について
      2.  
        ライブ移行の必要条件
      3.  
        Flexible Shared Storage により RHEV 環境での SAN 投資を削減
      4. Flexible Storage Sharing について
        1.  
          Flexible Storage Sharing の使用例
        2.  
          Flexible Storage Sharing の制限事項
      5.  
        Storage Foundation コンポーネントを仮想マシンのバックエンドストレージとして設定します。
      6.  
        仮想マシンの可用性を得るためのライブ移行の実装
    8. Red Hat Enterprise Virtualization 環境での仮想から仮想へのクラスタ化
      1.  
        RHEV(Red Hat Enterprise Virtualization)の仮想から仮想のクラスタ化に向けた Cluster Server のインストールと設定
      2.  
        RHEV 環境での VCS のストレージ設定
    9. Microsoft Hyper-V 環境での仮想から仮想へのクラスタ化
      1.  
        Cluster Server with Microsoft Hyper-V 仮想から仮想のクラスタ化による Symantec Cluster Server のインストールと設定
    10. OVM (Oracle Virtual Machine) 環境での仮想から仮想へのクラスタ化
      1.  
        OVM(Oracle Virtual Machine)の仮想から仮想へのクラスタ化に向けた Cluster Server のインストールと設定
      2.  
        OVM(Oracle Virtual Machine)での VCS サポートのストレージ設定
    11. Red Hat Enterprise 仮想化環境での仮想化マシンに対するディザスタリカバリ
      1.  
        Red Hat Enterprise Virtualization 仮想マシンに対するディザスタリカバリについて
      2.  
        RHEV 環境での DR の要件
      3. Volume Replicator(VVR)と Veritas File Replicator(VFR)を使用するボリュームとファイルシステムの障害回復
        1.  
          アレイベースのレプリケーションソリューションよりも VVR を選択する理由
      4.  
        Storage Foundation コンポーネントをバックエンドストレージとして設定する
      5.  
        DR サイト間のレプリケーションのために VCS GCO オプションで VVR および VFR を設定します
      6.  
        Cluster Server(VCS)を使った RHEV(Red Hat Enterprise Virtualization)仮想マシンでのディザスタリカバリの設定
    12. 多層型ビジネスサービスのサポート
      1.  
        での Virtual Business Service について
      2.  
        Virtual Business Service の設定例
      3. Veritas Operations Manager の Virtual Business Services を使って管理される多層型アプリケーションのリカバリ
        1.  
          Virtual Business Services のサービスグループ管理
    13. InfoScale Enterprise を使用した Docker コンテナの管理
      1.  
        InfoScale Enterprise 製品による Docker コンテナの管理について
      2. Docker、Docker Daemon、および Docker Container 用の Cluster Server エージェントについて
        1.  
          サポート対象ソフトウェア
        2.  
          エージェントが高可用性を実現するしくみ Veritas
        3.  
          マニュアル参照
      3. Docker コンテナのストレージ容量の管理
        1.  
          VxFS (Veritas File System) から Docker インフラストラクチャへのストレージのプロビジョニング
        2. Docker コンテナのデータボリュームのプロビジョニング
          1.  
            VxFS (Veritas File System) 上のストレージをコンテナのデータボリュームとしてプロビジョニングする
          2.  
            VxVM のボリュームをコンテナのデータボリュームとしてプロビジョニングする
          3.  
            データボリュームコンテナの作成
        3. Docker Container のストレージの自動プロビジョニング
          1.  
            Veritas InfoScale Docker ボリュームプラグインのインストール
          2.  
            ディスクグループの設定
          3.  
            ストレージを自動的に接続して Docker Container を作成する
          4.  
            サービスの品質サポートを使用して騒々しい近隣の問題を回避
          5.  
            スナップショット作成用のプロビジョニング
          6.  
            Docker 1.12 Swarm モードを使用した Veritas ボリュームプラグインの設定
        4.  
          コンテナのストレージを管理するための InfoScale Enterprise の機能の使用について
      4. Docker コンテナのオフライン移行
        1.  
          Docker コンテナの移行
        2.  
          Docker Daemon と Docker Container の移行
      5. Docker 環境におけるボリュームとファイルシステムのディザスタリカバリ
        1.  
          ディザスタリカバリ用の Docker コンテナの設定
      6.  
        Docker コンテナの管理時の制限事項
  4. 第 IV 部 参照先
    1. 付録 A. トラブルシューティング
      1.  
        仮想マシンのライブ移行のトラブルシューティング
      2.  
        Red Hat Enterprise Virtualization(RHEV)環境でのライブ移行のストレージ接続
      3.  
        Red Hat Enterprise Virtualization(RHEV)仮想マシンのディザスタリカバリ(DR)のトラブルシューティング
      4.  
        KVMGuest リソースが、ホストへのストレージ接続が失われてもオンライン状態のままになる
      5.  
        仮想マシンが実行されているホストのネットワーク接続が失われると、VCS が仮想マシンのフェールオーバーを開始する
      6.  
        RHEV 環境で、間違ったブート順序により仮想マシンの起動に失敗する
      7.  
        RHEV 環境で、仮想マシンが wait_for_launch 状態でハングアップして起動に失敗する
      8.  
        DROpts 属性が設定されていない場合、VCS が別の RHEV クラスタのホストの仮想マシンの起動に失敗する
      9.  
        仮想マシンが RHEV 環境で接続されているネットワークカードの検出に失敗する
      10.  
        hares -modify コマンドの -add オプションまたは -delete オプションを使って RHEVMInfo 属性のいずれかのキーを更新すると、KVMGuest エージェントの動作が未定義になる
      11.  
        RHEV 環境: VM が動作しているノードがパニックに陥るか強制的にシャットダウンされる場合、VCS は別のノードで VM を開始できない
    2. 付録 B. 設定例
      1. KVM 環境での設定例
        1.  
          設定例 1: ネーティブ LVM ボリュームをゲストイメージの格納に使用
        2.  
          設定例 2: VxVM ボリュームをゲストイメージの格納に使用
        3.  
          設定例 3: CVM-CFS をゲストイメージの格納に使用
      2.  
        RHEV(Red Hat Enterprise Virtualization)環境の設定例
    3. 付録 C. 他の情報参照場所
      1.  
        InfoScale のマニュアル
      2.  
        Linux の仮想化マニュアル
      3.  
        サービスとサポート
      4.  
        Veritas SORT (Services and Operations Readiness Tools) について

物理から仮想への移行(P2V)を実装する方法

物理サーバーから仮想化ゲストにデータを移行すると、LUN は、最初にホストへと物理的に接続された後、ホストからのゲストへと KVM でマップされます。

この使用事例はサーバー統合の場合に非常に類似しており、手順はほとんど同じです。 物理から仮想への移行は、サーバー統合を実現するために使うプロセスです。

この使用例では、KVM ゲストの KVM ホストと Storage Foundation に Storage Foundation HA または Storage Foundation Cluster File System HA が必要です。 セットアップ情報:

カーネルベースの仮想マシン環境での Veritas InfoScale Solutions のインストールを参照してください。

以下の 3 つのオプションがあります。

  • Veritas InfoScale Solutions 製品を物理サーバーと仮想ホストの両方にインストールしている場合は、マッピングが必要な LUN を簡単に識別できます。 LUN を仮想ホストに接続したら、ディスクグループ内でマッピングが必要なデバイスを識別するために「vxdisk -o alldgs list」を使うことができます。

  • Veritas InfoScale Solutions 製品を仮想ホストにインストールしておらず、物理サーバーが Linux システムの場合には、マッピングが必要なデバイスは物理サーバーのデバイス ID を使って識別できます。

  • Veritas InfoScale Solutions 製品を物理サーバーにのみインストールし、RHEV の SF 管理ユーティリティ vxrhevadm を RHEV-M コンピュータにインストールしている場合は、ゲストの DMP デバイスマッピングを正確に識別できます。 ただし、ボリュームとファイルシステムのマップの場合にホストのデバイスマッピングを正確に識別するには、ヒューリスティックを実行します。

ホストとゲストに Storage Foundation をインストールしている場合に物理から仮想への移行を実装するには(KVM のみ)

  1. マッピングが必要なデバイスの Linux デバイス ID を見つけます。
    # vxdg list diskgroup
  2. ディスクグループの各ディスクに対して、次のコマンドを実行します。
    # vxdmpadm getsubpaths dmpnodename=device
    # ls -al /dev/disk/by-id/* | grep subpath

Storage Foundation がホストにインストールされていない場合は、物理サーバーを廃止する前に、デバイスのシリアル番号を使用して、マップを必要とする LUN を識別します。 LUN は永続的な「by-path」デバイスリンクを使用しているゲストにマップできます。

Storage Foundation をホストにインストールしていない場合に物理から仮想への移行を実装するには(KVM のみ)

  1. 物理サーバーで、KVM ホストにマップする必要のある LUN を udevadm コマンドを使って識別します。
  2. 仮想化ホストに LUN をマップします。

    udev データベースを使用して、マップされる必要のあるホストのデバイスを識別できます。

    # udevadm info --export-db | grep '/dev/disk/by-path' | \
    																	cut -d' ' -f4 
    
    /dev/disk/by-path/pci-0000:05:00.0-fc-0x5006016239a01884-lun-1
    /dev/disk/by-path/pci-0000:05:00.0-fc-0x5006016239a01884-lun-2

    ゲストに LUN をマップします。 この例では複数のパスがあるため、4 つのすべてのパスに対する一貫性のあるデバイスマッピングを確保するように、パスシンボリックリンクを使用できます。

    # virsh attach-disk guest1 \
    /dev/disk/by-path/pci-0000:05:00.0-fc-0x5006016239a01884-lun-1 \
          vdb
    # virsh attach-disk guest1 \
    /dev/disk/by-path/pci-0000:05:00.0-fc-0x5006016239a01884-lun-2 \
          vdc
  3. デバイスがゲストに正しくマップされることを確認します。 設定変更は、ゲストを再定義することによって永続的にすることができます。
    # virsh dumpxml guest1 > /tmp/guest1.xml
    # virsh define /tmp/guest1.xm

ゲストとホストに Storage Foundation をインストールしている場合に物理から仮想への移行を実装するには(KVM のみ)

  1. 仮想化ホストに LUN をマップします。
  2. 仮想化ホストで、マップを必要とするデバイスを識別します。 たとえば、ディスクグループ data_dg のあるデバイスは guest1 にマップされます。
    # vxdisk -o alldgs list |grep data_dg
    3pardata0_1  auto:cdsdisk    -            (data_dg)    online
    3pardata0_2  auto:cdsdisk    -            (data_dg)    online
  3. ゲストにデバイスをマップします。
    # virsh attach-disk guest1 /dev/vx/dmp/3pardata0_1 vdb
    Disk attached successfully
    
    # virsh attach-disk guest1 /dev/vx/dmp/3pardata0_2 vdc
    Disk attached successfully
    
  4. ゲストで、すべてのデバイスが正しくマップされることと、ディスクグループが利用可能であることを確認します。
    # vxdisk scandisks
    # vxdisk -o alldgs list |grep data_dg
    3pardata0_1  auto:cdsdisk    -            (data_dg)    online
    3pardata0_2  auto:cdsdisk    -            (data_dg)    online
    
  5. 仮想化ホストでゲストを再定義して、マップを永続的にします。
    # virsh dumpxml guest1 > /tmp/guest1.xml
    # virsh define /tmp/guest1.xml

ゲストと、RHEV の SF 管理ユーティリティ、vxrhevadm のみに Storage Foundation がある場合に物理から仮想への移行(P2V)を実装するには、RHEV Manager 上で次の手順を実行します。

  1. 仮想化ホストに LUN をマップします。
  2. 仮想化ホストで、マップを必要とするデバイスを識別します。 たとえば、ディスクグループ data_dg のあるデバイスは guest1 にマップされます。
    # vxdisk list -guest1 <data_dg> DMP nodes
    # vxprint  -guest1 <data_dg> -v, volume
    # vxfs,  file created on vxfs filesystem  
  3. それぞれの仮想マシンに各エンティティを接続します。
    # ./vxrhevadm -p <password> -n <VM name> -d <dmpnode> attach
    Attached a dmp node to the specified virtual machine
    
    #  ./vxrhevadm -p <password> -n <VM name> -v <volume> attach
    Attached a volume device to the specified virtual machine
    
    # ./vxrhevadm  -p <password> -n <VM name> -f <file>:raw attach
    Attached a file system  device to the specified virtual machine
    
  4. ゲスト仮想マシンの電源を入れて SCSI ディスクがゲスト仮想マシンで利用可能であることを確認します。

    メモ:

    /var/log/vdsm/vdsm.log で参照できる XML ダンプには、デバイスのマップに関するヒントが記録されています。 DMP ノードの場合は、ホストで永続的な命名を有効にしてゲストのデバイスマッピングを識別できるようにします。 ボリュームとファイルシステムのマップの場合は、ヒューリスティックを実行してゲストのデバイスマッピングを識別します。

新しい仮想マシンを設定する場合に、Veritas Volume Manager ボリュームをブートデバイスとして使うには、次の手順を実行します。

  1. Linux の仮想化マニュアルが推奨する手順に従って、VM ゲストをインストールしてブートします。

    ブートデバイスに管理対象ストレージまたは既存ストレージを選択するように求められた場合は、VxVM ストレージボリュームブロックデバイスへの絶対パスを使用します(たとえば、/dev/vx/dsk/boot_dg/bootdisk-vol)。

  2. virt-install ユーティリティを使う場合は、--disk パラメータとともに VxVM ボリュームブロックデバイスへの絶対パスを入力します(たとえば、--disk path=/dev/vx/dsk/boot_dg/bootdisk-vol)。

新しい仮想マシンを設定するときに、Storage Foundation コンポーネントをブートデバイスとして使うには

  1. Linux の仮想化マニュアルが推奨する手順に従って、VM ゲストをインストールしてブートします。

    ブートデバイスに管理対象ストレージまたは既存のストレージを選択するように求められた場合は、VxVM ストレージボリュームブロックデバイス、ファイルシステムデバイス、DMP ノードのいずれかの絶対パスを使います。

    例: /dev/vx/dsk/boot_dg/bootdisk-vol

    同様に、/dev/vx/dsk/boot_dg/bootdisk-file または /dev/vx/dsk/boot_dg/bootdisk-dmpnode

  2. 仮想マシンの RHEV Manager の拡張設定でブートオプションを選択して適切な ISO イメージを接続します。
  3. ブートオプションとして DMP ノード、ボリュームブロックデバイス、ファイルシステムデバイスのいずれかを接続します。

    # /opt/VRTSrhevm/bin/vxrhevadm -p \

    <rhevm-password> -n <vmname> -d <dmpnode-path> attach

    # /opt/VRTSrhevm/bin/vxrhevadm -p \

    <rhevm-password> -n <vmname> -v <volume-path> attach

    # /opt/VRTSrhevm/bin/vxrhevadm -p \

    <rhevm-password> -n <vmname> -f <file-path:raw> | <file-path:qcow2> attach

  4. ゲスト仮想マシンを開始して ISO からブートします。
  5. SCSI デバイスとして表示される SF エンティティに OS をインストールします。 SCSI デバイス自体にブートローダーをインストールします。
  6. ゲストの仮想マシンの電源を切ります。
  7. ゲスト仮想マシンの設定で、ハードディスクからブートするホストを設定します。
  8. 設定した SF コンポーネントから予約するゲストの電源を入れます。