NetBackup IT Analytics Data Collector インストールおよび構成ガイド
- 第 I 部 はじめに
- はじめに
- Data Collector をインストールおよび構成する
- Data Collector ソフトウェアのインストール
- SSL の構成
- 第 II 部 データ保護
- Veritas Backup Exec 用の構成
- Cohesity DataProtect 用の構成
- Commvault Simpana 用の構成
- Commvault データベースへの TCP/IP アクセスを開く
- CommServe サーバーでの読み取り専用ユーザーの設定
- EMC Avamar 用の構成
- EMC Data Domain バックアップ用の構成
- Dell EMC NetWorker Backup & Recovery 用の構成
- 汎用バックアップデータのインポート
- 汎用バックアップ用の構成
- HP Data Protector 用の構成
- アーキテクチャの概要 (HP Data Protector)
- Cell Manager (HP Data Protector) でのデータコレクタサーバーの構成
- IBM Spectrum Protect (TSM) 用の構成
- アーキテクチャの概要 (IBM Spectrum Protect - TSM)
- IBM Spectrum Protect (TSM) の情報のインポート
- NAKIVO Backup & Replication 用の構成
- Oracle Recovery Manager (RMAN) 用の構成
- Rubrik Cloud Data Management 用の構成
- Veeam Backup & Replication 用の構成
- 第 III 部 ストレージ (容量)
- 計算リソース用の構成
- Dell EMC Elastic Cloud Storage (ECS) 用の構成
- Dell EMC Unity 用の構成
- EMC Data Domain Storage 用の構成
- EMC Isilon 用の構成
- EMC Symmetrix 用の構成
- EMC VNX Celerra 用の構成
- EMC VNX CLARiiON 用の構成
- EMC VPLEX 用の構成
- EMC XtremIO 用の構成
- FUJITSU ETERNUS Data Collector 用の構成
- Hitachi Block 用の構成
- Hitachi Content Platform (HCP) 用の構成
- Hitachi Content Platform システム管理コンソール
- Hitachi Content Platform テナント管理コンソール
- Hitachi NAS 用の構成
- Hitachi Vantara All-Flash および Hybrid Flash Storage 用の構成
- ホストインベントリの構成
- ホストアクセス権限、sudo コマンド、ポート、WMI プロキシの必要条件
- ホストインベントリに入力するためのホスト検出ポリシーの構成
- ホスト接続の検証
- ホストインベントリ検索とホストインベントリのエクスポート
- ホストの精査の構成および編集
- 精査設定の伝播: 精査のコピー、精査の貼り付け
- HP 3PAR 用の構成
- HP EVA 用の構成
- HPE Nimble Storage 用の構成
- HPE StoreOnce 用の構成
- IBM Enterprise 用の構成
- IBM COS 用の構成
- IBM SVC 用の構成
- IBM XIV 用の構成
- Microsoft Windows Server 用の構成
- NetApp-7 用の構成
- NetApp StorageGRID 用の構成
- NetApp Cluster 用の構成
- NetApp E シリーズ用の構成
- NEC HYDRAstor 用の構成
- Pure Storage FlashArray 用の構成
- 第 IV 部 計算 (仮想化とホスト収集)
- 第 V 部 クラウド
- Amazon Web Services (AWS) 用の構成
- Google Cloud Platform 用の構成
- OpenStack Ceilometer 用の構成
- OpenStack Swift 用の構成
- Microsoft Azure 用の構成
- 第 VI 部 ファブリック
- 第 VII 部 File Analytics
- File Analytics 用の構成
- File Analytics エクスポートフォルダのサイズとフォルダの深さ
- 第 VIII 部 データ収集の検証とトラブルシューティング
- データ収集の検証
- Data Collector のトラブルシューティング
- ホストリソース: 標準 SSH を使用したホスト接続の確認
- ホストリソース: ホストリソース設定ファイルの生成
- SSH のパラメータの構成
- Data Collector のアンインストール
- 付録 A. ファイアウォールの構成: デフォルトのポート
- 付録 B. 履歴イベントのロード
- Veritas NetBackup イベントのロード
- 付録 C. ポリシーとレポートスケジュールのための CRON 式
- 付録 D. メッセージリレーサーバーの証明書を生成するためのメンテナンスシナリオ
請求データアクセスの役割
次の処理では以下を実行できます。
請求データアクセスの役割
IAM サービスアカウントユーザーの作成
請求アカウントアクセスの有効化
請求エクスポートの有効化
役割の請求データテーブルにアクセスするには、ユーザーがマスター APTARE プロジェクト内に存在する必要があります。通常、個々のプロジェクトの管理者ユーザーには、請求データレコードにアクセスできる役割を作成する権限は付与されません。
APTARE コネクタプロジェクトを選択します。
[IAM と管理 (IAM & ADMIN)]、[役割 (Roles)]の順に選択します。
[役割の作成 (CREATE ROLE)]を選択します。
タイトルと説明を指定します。
[一般的な可用性 (General Availability)]を選択します。
[権限の追加 (Add Permissions)]をクリックします。
bigquery を[役割で権限をフィルタ処理 (Filter permission by role)]フィールドで指定して、次の権限を見つけて追加します。
bigquery.datasets.get
bigquery.jobs.create
bigquery.tables.get
bigquery.tables.getData
bigquery.tables.list
コネクタから GCP にアクセスするために使用するアカウントを作成します。
以前に作成した APTARE コネクタプロジェクトを選択します。
[IAM と管理 (IAM & Admin)]、[サービスアカウント (Service Accounts)]の順に移動します。
[サービスアカウントの作成 (CREATE SERVICE ACCOUNT)]を選択します。
必要な詳細を指定し、[作成 (CREATE)]をクリックします。
[APTARE コネクタ読み取り専用 (Aptare Connector Read Only)]を選択します。
[別の役割の追加 (ADD ANOTHER ROLE)]をクリックし、[APTARE 請求読み取り専用 (Aptare Billing Read Only)]を選択します。
[続行 (CONTINUE)]をクリックします。
[キーの作成 (CREATE KEY)]をクリックし、デフォルトの JSON 形式を選択します。
.JSON ファイルがダウンロードされます。
[閉じる (CLOSE)]をクリックします。
利用可能な請求アカウントを一覧表示するには、サービスアカウントにアクセス権が必要です。
[請求 (Billing)]、[請求アカウントの管理 (Manage Billing Accounts)]の順に移動します。
右側の権限パネルを表示する、請求アカウントの横にあるボックスを選択します。
[メンバーの追加 (Add Members)]をクリックします。
サービスユーザーアカウントの電子メールアドレスを指定します。
[請求アカウントビューア (Billing Account Viewer)]の役割を選択します。
[保存 (Save)]をクリックします。
請求データを収集するには、BigData テーブルを使用して「APTARE コレクタプロジェクト」に請求アカウントをエクスポートする必要があります。
請求エクスポートオプションを有効にする手順を次に示します。
(ビッグデータ) BigQuery への移動
リソースの下で [aptare-connector]を選択します。
右側のパネルで [データセットの作成 (Create Dataset)]を選択します。
タイトルを指定し、[データセットの作成 (Create Dataset)]をクリックします。
メインメニューから、[請求 (Billing)]を選択します。
プロジェクトを請求アカウントにリンクします。
メニュー項目から [請求エクスポート (Billing Export)]を選択します。
[BIGQUERY]エクスポートオプションを選択します。
プロジェクトとデータセットを選択します。
[保存 (SAVE)]をクリックします