Aide NetBackup IT Analytics
- Section I. Présentation de NetBackup IT Analytics
- Section II. Nouveautés
- Section III. Configurations certifiées
- Introduction
- Serveurs de portail et de base de données
- Configurations du serveur Data Collector
- Configurations Capacity Manager
- Collecte des données de performances des baies/LUN
- Mesures de performances des baies EMC Isilon
- Mesures de performances du mode cluster NetApp
- Mesures de performances améliorées EMC Symmetrix
- Conditions préalables liées aux privilèges d'accès aux hôtes, commandes sudo, ports et proxy WMI
- Configurations cloud
- Configurations Virtualization Manager
- Configurations File Analytics
- Configurations Fabric Manager
- Configurations Backup Manager
- Configurations ServiceNow
- Exigences du port TCP interne
- Section IV. Utilisateur final
- Familiarisation avec le portail
- À propos de l'onglet Admin
- Exploration de votre inventaire
- Utilisation de la barre d'outils Hiérarchie pour organiser vos données
- Affichage des objets
- Utilisation d'attributs pour organiser vos données
- Épingler des rapports : enregistrement des rapports avec des objets d'inventaire
- Assigner des attributs dans la vue Liste d'inventaire
- Prise en main des rapports
- À propos des badges
- Génération et maintenance des rapports
- Sélectionner la portée du rapport
- Regrouper des hôtes par attribut
- Recherche d'hôtes dans le sélecteur de portée du rapport
- Paramètres avancés du sélecteur de portée Backup Manager
- Paramètres du sélecteur de portée des rapports de solution
- Unités de mesure dans les rapports
- Personnalisation de la logique de filtre du rapport
- Tri des colonnes dans les rapports
- Convertir un rapport sous forme de tableau en graphique
- Distribution, partage, planification et alerte
- Planification de rapports et de tableaux de bord exportés
- Organisation des rapports
- Utilisation du concepteur de modèles dynamiques
- Démarrage rapide du concepteur de modèles dynamiques
- Conversion en un modèle homogène et spécifique au produit
- Configuration des fonctions de modèle dynamique
- Création de champs à l'aide du générateur de champs
- Composant du sélecteur de portée - Filtre personnalisé
- Configuration d'un modèle dynamique de graphique à barres
- Étapes de la création d'un modèle dynamique de graphique à barres
- Configuration d'un modèle dynamique de graphique en aires/en aires empilées
- Graphiques linéaires des statistiques de performances
- Exigences relatives aux champs du graphique linéaire
- Un objet par graphique linéaire, une ou plusieurs statistiques par graphique
- Plusieurs objets par graphique linéaire, une statistique par graphique
- Exemple de modèle dynamique de graphique à barres empilées
- Création d'un graphique sparkline dans un modèle dynamique de tableau
- Ajout ou modification de méthodes
- Valider et enregistrer une méthode
- Utilisation du concepteur de modèles SQL
- Configuration des composants du sélecteur de portée des modèles SQL
- Exemples de requêtes SQL
- Formatage des nombres, de la taille, de la date et de l'heure
- Alignement, agrégation, type de barre et couleur de type de barre
- Fonctions en pipeline pour la création de requêtes de rapports
- APTlistOfDates
- aptStringConcat
- getServerAttributeValue
- getObjectAttributeValue
- getChildServerGroupContextById
- getServerGroupContextById
- secsToHoursMinSecs
- APTgetTapeDriveStatusName
- getFullPathname
- listJobSummaryAfterRestart
- listJobSummaryAfterRestartNBW
- listJobSummaryAfterRestart pour les travaux de sauvegarde NetWorker
- listOfBackupWindowDates
- listChargebackCatByVOLSDetail
- listChargebackCatByNcVolDetail
- listChargebackCatByFSDetail (pour HNAS)
- listChargebackCatByFSDetail (pour EMC Isilon)
- listChargebackByLUNSummary
- listChargebackByLUNDetail
- listChargebackCatByLUNSummary
- listChargebackCatByLUNDetail
- Configuration des alertes
- Ajout/Modification d'une politique d'alerte
- À propos de l'utilisation de SNMP
- Gestion des hôtes, des serveurs de sauvegarde et des groupes d'hôtes
- Serveurs principaux NetBackup
- Gestion des attributs et des objets
- Attribution d'accès au portail et de privilèges d'utilisateur
- Définition/réinitialisation des mots de passe
- Gestion des pages d'accueil des groupes d'utilisateurs (administrateur)
- Configuration des planifications principales et des fenêtres de sauvegarde
- Ajout, modification et déplacement de politiques
- Ajout/modification d'une politique de seuil
- Types de politique de rétrofacturation de la capacité
- Administration des solutions
- Configuration des règles d'optimisation du stockage
- Gestion et surveillance de la collecte de données
- À propos des tâches de collecte de données
- Ajout/Modification d'instances Data Collector
- Examen des collecteurs et de l'état de la collecte
- Mise à niveau des collecteurs de données
- Utilisation de la collecte de données d'hôtes Capacity Manager
- Conditions d'accès aux hôtes
- Gérer les informations d'authentification
- Configuration des politiques de découverte d'hôtes à des fins de remplissage de la vue Découverte et collecte d'hôtes
- Validation de la connectivité des hôtes
- Recherche et exportation dans Découverte et collecte d'hôtes
- Propagation des paramètres de sonde : copier ou coller les sondes
- Politiques de découverte pour Veritas NetBackup
- À propos des types de découverte
- Affichage et gestion des notifications système
- Personnalisation avec des paramètres avancés
- Paramètres avancés de contrôle d'accès
- Paramètres avancés généraux de collecte de données
- Paramètres avancés de collecte de données du cloud
- Paramètres avancés de découverte et de collecte d'hôtes
- Paramètres Backup Manager avancés
- Paramètres Capacity Manager avancés
- Paramètres File Analytics avancés
- Paramètres Virtualization Manager avancés
- Gestion de l'environnement de votre Portail
- Dossier racine et domaines
- Gestion de la fiche d'évaluation de ransomware
- Utilitaire pour ajouter des questions et réponses en bloc dans la Fiche d'évaluation du ransomware
- Analyse des fichiers
- Dépannage du portail
- Récupération des fichiers journaux
- Débogage
- Remplacement des attributs hérités
- Comprendre la mise en cache des données de rapports
- Familiarisation avec le portail
- Section V. Référence du rapport
- Introduction à NetBackup IT Analytics
- Rapports d'alerte
- Rapports sur les ransomwares
- Rapports de la solution d'atténuation des risques
- Rapports d'atténuation des risques
- Rapports de la solution d'optimisation du stockage
- Rapports d'administration système
- Présentation du travail Oracle
- Rapports Capacity Manager
- Rapports de capacité des applications
- Rapports d'utilisation et de capacité de la baie
- Capacité et utilisation des baies (données génériques)
- Capacité et utilisation des baies (vue IBM SVC)
- Capacité et utilisation des baies (vue IBM XIV)
- Capacité et utilisation des baies (vue NetApp)
- Capacité et utilisation des baies (cluster NetApp)
- Détails du système de stockage NetApp
- Capacité et utilisation des baies (OpenStack Swift)
- Résumé des sites de baies IBM
- Détails des baies IBM
- Résumé de l'utilisation des unités LUN
- Détails des agrégats NetApp
- Détails des agrégats en mode Cluster NetApp
- Détails des Plex NetApp
- Détails des volumes NetApp
- Détails des volumes en mode Cluster NetApp
- Résumé des locataires NetApp StorageGrid
- Rapports de capacité disponible/récupérable
- Rapports de capacité à risque
- Rapports de pré-paiement de la capacité
- Rapports d'utilisation et de capacité des hôtes
- Rapports SnapMirror
- Rapports SnapVault
- Détails de SnapVault
- Rapports de prévision de capacité
- Rapports de performances du stockage
- Contrôle de mission pour l'analyse des performances
- Rapports de provisionnement dynamique
- Utilisation du pool de provisionnement dynamique Hitachi
- Rapports File Analytics
- Rapports Virtualization Manager
- Présentation du magasin de données
- Détails des serveurs de machines virtuelles
- Résumé des snapshots de machines virtuelles
- Détails des machines virtuelles
- Résumé d'utilisation du stockage de données
- Détail du magasin de données
- Rapports Fabric Manager
- Tableau de bord des chemins d'hôtes vers stockage
- Rapports de gestion Backup Manager
- Résumé du journal d'erreurs
- Rapport sur la durée des travaux
- Rapport Résumé des travaux Veeam Backup & Replication (homogène)
- Rapport des détails des travaux Veeam et RMAN
- Ajout d'une note à une tâche
- Rapport Résumé du volume de travaux
- Économies de déduplication MSDP avec NetBackup
- Rapports d'administration de sauvegarde
- Détails de l'hôte
- Tableau de bord des pools de stockage IBM Spectrum Protect (TSM)
- Histogramme des travaux
- Fichiers EEB sur le serveur principal, le serveur de médias et les rapports clients
- Rapports de gestion des médias de sauvegarde
- Tableau de détail des médias de bandes TSM
- Rapports sur les contrats de niveau de services (SLA) de sauvegarde
- Détermination et amélioration des performances d'heure de début de la sauvegarde
- Détermination et amélioration des performances de réussite de sauvegarde
- Détermination et amélioration des performances de durée de sauvegarde
- Rapports d'utilisation du stockage de sauvegarde
- Rapports de prévision Backup Manager
- Rapports de facturation et d'utilisation de la sauvegarde
- Détermination des pré-paiements des supports
- Détermination des pré-paiements de sauvegarde
- Rapports des politiques de sauvegarde
- Détails des spécifications de sauvegarde HP Data Protector
- Rapports cloud publics
- Rapports AWS
- Rapports Microsoft Azure
- Section VI. Installation et configuration de l'exportateur NetBackup IT Analytics
- Introduction et présentation de l'installation
- Installation et gestion de l'exportateur sur un hôte Linux
- Installation et gestion de l'exportateur sur un hôte Windows
- Configuration de l'exportateurNetBackup IT Analytics
- Annexe A. Dépannage
- Section VII. Dépannage et installation du Data Collector
- Installation du logiciel Data Collector
- Validation de collecte de données
- Désinstallation du Data Collector
- Démarrage manuel du Data Collector
- Dépannage du Data Collector
- Ressources hôtes : vérification de la connectivité de l'hôte à l'aide de la version standard de SSH
- Ressources hôtes : génération de fichiers de configuration des ressources hôtes
- Configuration des paramètres pour SSH
- Expressions CRON pour les planifications de politiques et de rapports
- Mise en cluster des instances du Data Collector avec VCS et Veritas NetBackup (RHEL 7)
- Mise en cluster des instances du Data Collector avec VCS et Veritas NetBackup (Windows)
- Installer et configurer NetBackup IT Analytics Data Collector dans un environnement MSCS
- Scénarios de maintenance pour la génération de certificats pour le serveur de transmission de messages
- Installation du logiciel Data Collector
- Section VIII. Installation et configuration du Data Collector pour Cohesity NetBackup
- Introduction
- Configuration d'un Data CollectorNetBackup IT Analytics distribué sur un serveur principal NetBackup
- Configuration du Data Collector sur un serveur principal NetBackup version 10.4 ou ultérieure non configuré en cluster
- Configuration du Data Collector sur un serveur principal NetBackup 10.1.1, 10.2, 10.2.01, 10.3 ou 10.3.0.1 non configuré en cluster
- Configuration de la politique Veritas NetBackup Data Collector
- Configuration de File Analytics dans la politique du collecteur de données NetBackup
- Installation du logiciel Data Collector
- Configuration SSL
- Data Collector centralisé pour NetBackup : conditions préalables, installation et configuration
- Étape 1 : choisir le système d'exploitation et remplir les conditions préalables
- Étape 5 : SSH/WMI
- Mise à niveau d'un Data Collector en local
- Mise en cluster des instances du Data Collector avec VCS et Veritas NetBackup (RHEL)
- Mise en cluster des instances du Data Collector avec VCS et Veritas NetBackup (Windows)
- Installer et configurer NetBackup IT Analytics Data Collector dans un environnement MSCS
- Migration de la politique du Data Collector
- Configuration de préinstallation pour Veritas NetBackup Appliance
- Configuration de préinstallation pour Veritas Flex Appliance
- Dépannage du Data Collector
- Ressources hôtes : vérification de la connectivité de l'hôte à l'aide de la version standard de SSH
- Ressources hôtes : génération de fichiers de configuration des ressources hôtes
- Configuration des paramètres pour SSH
- Annexe B. Configuration des appliances
- Annexe C. Configuration du pare-feu : ports par défaut
- Annexe D. Expressions CRON pour les planifications de politiques et de rapports
- Annexe E. Scénarios de maintenance pour la génération de certificats pour le serveur de transmission de messages
- Section IX. Guide d'installation et de configuration du fournisseur du Data Collector
- Introduction
- Installer et configurer un Data Collector
- Étape 1 : choisir le système d'exploitation et remplir les conditions préalables
- Installation du logiciel Data Collector
- Configuration SSL
- Section X. Protection des données
- Configuration pour Veritas Backup Exec
- Configuration pour Cohesity DataProtect
- Configuration pour Commvault Simpana
- Ouverture de l'accès TCP/IP à la base de données Commvault
- Configuration d'un utilisateur en lecture seule sur le serveur CommServe
- Configuration pour EMC Avamar
- Importation des informations relatives aux serveurs EMC Avamar
- Configuration pour EMC Data Domain backup
- Configuration pour Dell EMC NetWorker Backup & Recovery
- Importation de données de sauvegarde génériques
- Configuration pour la sauvegarde générique
- Spécification du format CSV
- Configuration pour HP Data Protector
- Présentation de l'architecture (HP Data Protector)
- Configuration du serveur de collecteur de données dans le gestionnaire de cellules (HP Data Protector)
- Configuration pour IBM Spectrum Protect (TSM)
- Présentation de l'architecture (IBM Spectrum Protect TSM)
- Importation d'informations IBM Spectrum Protect (TSM)
- Configuration pour NAKIVO Backup & Replication
- Configuration pour Oracle Recovery Manager (RMAN)
- Configuration pour la gestion de données cloud Rubrik
- Configuration pour Veeam Backup & Replication
- Annexe F. Chargement des événements historiques
- Chargement des événements Veritas NetBackup
- Configuration pour Veritas Backup Exec
- Section XI. Stockage (capacité)
- Configuration pour les ressources de calcul
- Configuration pour le stockage Dell EMC Elastic Cloud (ECS)
- Configuration pour Dell EMC Unity
- Configuration pour EMC data domain storage
- Configuration pour EMC Isilon
- Configuration pour EMC Symmetrix
- Configuration pour EMC VNX Celerra
- Configuration pour EMC VNX CLARiiON
- Configuration pour EMC VPLEX
- Configuration pour EMC XtremIO
- Configuration pour FUJITSU ETERNUS Data Collector
- Configuration pour Hitachi Block
- Configuration d'un utilisateur du gestionnaire de périphériques Hitachi
- Configuration pour Hitachi Content Platform (HCP)
- Console de gestion du système Hitachi Content Platform
- Console de gestion des locataires Hitachi Content Platform
- Configuration pour Hitachi NAS
- Conditions préalables à la configuration de HNAS
- Configuration pour le stockage Hitachi Vantara All-Flash et Hybrid Flash
- Configuration pour l'inventaire d'hôtes
- Conditions requises liées aux privilèges d'accès aux hôtes, commandes sudo, ports et proxy WMI
- Configuration des politiques de découverte d'hôtes pour remplir l'inventaire d'hôtes
- Validation de la connectivité des hôtes
- Recherche dans l'inventaire d'hôtes et exportation de cet inventaire
- Configuration et modification des sondes d'hôtes
- Propagation des paramètres de sonde : copie et collage de sondes
- Configuration pour HP 3PAR
- Configuration pour HP EVA
- Configuration pour HPE Nimble Storage
- Configuration pour HPE StoreOnce
- Configuration pour IBM Enterprise
- Configuration pour IBM COS
- Configuration pour IBM SVC
- Configuration pour IBM XIV
- Configuration pour Microsoft Windows Server
- Configuration pour NetApp-7
- Configurations de collecteur de données spécifiques à NetApp-7
- Configuration pour NetApp StorageGRID
- Configuration pour NetApp Cluster
- Configuration pour NetApp E-Series
- Configuration pour NEC HYDRAstor
- Configuration pour Pure Storage FlashArray
- Section XII. Calcul (virtualisation et collecte d'hôtes)
- Configuration pour VMware
- Configuration pour IBM VIO
- Configuration pour Microsoft Hyper-V
- Section XIII. Cloud
- Configuration pour Amazon Web Services (AWS)
- Privilèges utilisateur obligatoires pour les sondes
- Association de comptes AWS pour la collecte de données de facturation consolidées
- Configuration pour Google Cloud Platform
- Configuration pour OpenStack Ceilometer
- Configuration pour OpenStack Swift
- Configuration pour Microsoft Azure
- Configuration pour Amazon Web Services (AWS)
- Section XIV. Fabric
- Configuration pour le commutateur Brocade
- Configuration pour le commutateur Cisco
- Configuration pour l'alias de zone Brocade
- Configuration pour l'alias de zone Cisco
- Configuration pour le commutateur Brocade
- Section XV. File Analytics
- Configuration pour File Analytics
- Sonde File Analytics de découverte et de collecte d'hôtes
- Ajout d'une politique de collecteur de données File Analytics
- Taille du dossier d'exportation et profondeur de dossier de File Analytics
- Configuration pour File Analytics
- Section XVI. Validation de collecte des données et dépannage
- Validation de collecte de données
- Utilisation de la collecte de données à la demande
- Dépannage du Data Collector
- Ressources hôtes : vérification de la connectivité de l'hôte à l'aide de la version standard de SSH
- Ressources hôtes : génération de fichiers de configuration des ressources hôtes
- Configuration des paramètres pour SSH
- Désinstallation du Data Collector
- Validation de collecte de données
- Section XVII. Administration système
- Préparation des mises à jour
- Sauvegarde et restauration de données
- Surveillance de NetBackup IT Analytics
- Accès aux rapports NetBackup IT Analytics avec l'API REST
- Définition de la capacité estimée de bande de NetBackup
- Automatisation de la gestion des groupes d'hôtes
- Catégorisation des systèmes d'exploitation des hôtes par plate-forme et version
- Chargement des relations entre les hôtes et le groupe d'hôtes
- Automatisation des utilitaires NetBackup
- Planification des utilitaires pour une exécution automatique
- Gestion des attributs
- Importation de données de sauvegarde génériques
- Remplacements des travaux de sauvegarde
- Gestion de la collecte de données d'hôtes
- Configuration du système dans le portail
- Paramètres personnalisés
- Personnalisation de la planification du profil de performances
- Authentification LDAP et SSO pour l'accès au portail
- Présentation
- Configuration de l'authentification unique (SSO)
- Modification des mots de passe des utilisateurs de la base de données Oracle
- Intégration avec CyberArk
- Réglage NetBackup IT Analytics
- Définition des mesures de rapport
- Utilisation des fichiers journaux
- Fichiers journaux du portail et du collecteur de données - Limitation de la journalisation
- Conventions de désignation des fichiers journaux du collecteur de données
- Fichiers journaux du portail
- Alerte d'interruption SNMP
- Configuration du certificat SSL
- Configuration des hôtes virtuels pour le portail et/ou la collecte de données SSL
- Keystore sur le serveur de portail
- Propriétés du portail : personnalisations du format et du portail
- Périodes de conservation des données pour les objets de base de données SDK
- Agrégation de données
- Dépannage
- Annexe G. Authentification de l'utilisateur par proxy basée sur Kerberos dans Oracle
- Annexe H. Configurer la base de données Oracle avec le protocole TLS activé sur le Portail et le Récepteur de données NetBackup IT Analytics
- Annexe I. NetBackup IT Analytics pour NetBackup sur Kubernetes et les appliances
- Section XVIII. Gestion des licences
- Installation de licence et directives
- Présentation de la licence
- Vérification de la configuration de licence actuelle
- Storage Suite
- Protection Suite
- Backup Manager
- Backup Manager
- Complete Suite
- Gestion des licences
- Configuration de la politique du collecteur de données pour exclure l'objet
- Gestion des licences à partir de la ligne de commande
- Dépannage
- Installation de licence et directives
- Section XIX. Rapports et opérations d'inventaire
- Utilisation des rapports de la page de vue d'ensemble
- Utilisation du menu Action dans la vue Inventaire
- Présentation des baies de stockage
- Présentation du serveur principal de sauvegarde
- Présentation du magasin de données de machines virtuelles
- Vue d'ensemble du groupe de magasins de données de machines virtuelles
- Présentation des hôtes et du groupe d'hôtes
- Présentation des invités de machines virtuelles
- Présentation du groupe de serveurs de machines virtuelles
- Rapports et tableaux de bord
- Section XX. Transition OpsCenter
Étapes manuelles d'importation/exportation de base de données à l'aide de Data Pump
Suivez les étapes pour exécuter Data Pump dans un environnement Linux
- Connectez-vous au serveur de base de données Linux et basculez vers l'utilisateur aptare.
- Assurez-vous que le fichier
opt/aptare/database/tools/expdp_scdb.par
est détenu par l'utilisateur aptare et dispose des 755 autorisations. - Assurez-vous que l'écouteur et les services Oracle sont en cours d'exécution.
- Exécutez les commandes suivantes :
su - aptare source <INSTALL_PATH>/aptare/bin/aptare_env.sh sqlplus / as sysdba alter session set container=scdb;
Remarque :
La commande alter session set container=scdb; est requise pour une base de données de conteneurs. Ignorez-la dans tout environnement autre que CDB.
CREATE OR REPLACE DIRECTORY datapump_dir AS '/tmp';
Dans le cas d'un dossier préféré comme
new_directory_path
:CREATE OR REPLACE DIRECTORY datapump_dir AS '/new_directory_path';
- Exportez la base de données en exécutant la commande suivante :
/opt/aptare/oracle/bin/expdp parfile=/opt/aptare/database/tools/expdp_scdb.par
- Vous pouvez également choisir d'ignorer le fichier
par
et d'inclure les paramètres directement dans la commande expdp. En d'autres termes, la commande ci-dessus peut être remplacée par la commande suivante qui peut également être exécutée par l'utilisateur APTARE./opt/aptare/oracle/bin/expdp system/aptaresoftware@//localhost:1521/scdb FULL=Y directory=datapump_dir dumpfile=aptare_scdb.exp logfile=export_scdb.log CONTENT=ALL flashback_time=systimestamp
Une fois cette opération réussie, le fichier d'exportation Data Pump
aptare_scdb.exp
est enregistré sur le serveur de base de données Linux, dans le répertoire/tmp
.Si vous avez spécifié un répertoire préféré,
aptare_scdb.exp
est enregistré dans cet emplacement (par exemple,/new_directory_path
). - Cette étape est requise uniquement si la base de données est exportée depuis NetBackup IT Analytics 10.5 ou version ultérieure. Exécutez la commande cp /opt/aptare/datarcvrconf/aptare.ks /tmp pour copier le fichier aptare.ks dans le dossier /tmp
Suivez les étapes d'importation de Data Pump dans un environnement Linux
- Placez le fichier d'exportation
aptar_scdb.exp
créé lors de l'exportation de Data Pump dans le répertoire/tmp
.Si vous avez un répertoire préféré différent (par exemple,
/new_directory_path
), placezaptare_scdb.exp
dans celui-ci (/new_directory_path
). - Assurez-vous que le fichier
aptare_scdb.exp
appartient à l'utilisateur aptare et dispose des autorisations 755. - Assurez-vous que les fichiers
/opt/aptare/Database/Tools/unlock_portal_linux.sql
et/opt/aptare/database/tools/impdp_scdb.par
appartiennent à l'utilisateur APTARE et disposent des autorisations 755. - En tant qu'utilisateur racine, arrêtez tous les services Oracle et APTARE en exécutant la commande suivante : /opt/aptare/bin/aptare stop pour l'utilisateur racine.
- En tant qu'utilisateur racine, démarrez les services Oracle en exécutant la commande suivante : /opt/aptare/bin/oracle start
- Assurez-vous que l'écouteur Oracle est en cours d'exécution. Exécution de la vérification d'utilisateur APTARE pour connaître l'état de l'écouteur au moyen de la commande suivante : lsnrctl status
- Exécutez les commandes suivantes :
su - aptare source <INSTALL_PATH>/aptare/bin/aptare_env.sh sqlplus / as sysdba alter session set container=scdb;
Remarque :
La commande alter session set container=scdb; est requise pour une base de données de conteneurs. Ignorez-la dans tout environnement autre que CDB.
drop user aptare_ro cascade;
drop user portal cascade;
CREATE OR REPLACE DIRECTORY datapump_dir AS '/tmp';
Dans le cas d'un dossier préféré comme
new_directory_path
:CREATE OR REPLACE DIRECTORY datapump_dir AS '/new_directory_path';
- Exécutez la commande suivante en tant qu'utilisateur APTARE
/opt/aptare/oracle/bin/impdp parfile=/opt/aptare/database/tools/impdp_scdb.par
- Vous pouvez également choisir d'ignorer le fichier par et d'inclure les paramètres directement dans la commande expdp. En d'autres termes, la commande ci-dessus peut être remplacée par la commande suivante qui peut également être exécutée par l'utilisateur APTARE.
/opt/aptare/oracle/bin/impdp system/aptaresoftware@//localhost:1521/scdb schemas=portal,aptare_ro directory=datapump_dir dumpfile=aptare_scdb.exp logfile=import_scdb.log
- Lorsque l'importation se termine dans un environnement non-CDB, supprimez la première commande 'alter session set container = scdb;' du fichier unlock_portal_linux.sql et exécutez la commande suivante en tant qu'utilisateur APTARE.
Remarque :
La suppression de la commande 'alter session set container = scdb;' est requise uniquement dans un environnement non-CDB et aucune modification de cette commande n'est requise s'il s'agit d'une base de données de conteneurs.
sqlplus / as sysdba @/opt/aptare/database/tools/unlock_portal_linux.sql
- Après avoir quitté sqlplus, exécutez la commande suivante en tant qu'utilisateur APTARE
sqlplus portal/portal@//localhost:1521/scdb @/opt/aptare/database/tools/validate_sp.sql
Accédez au répertoire
/tmp
et consultez le fichierimport_scdb.log
.Si vous avez spécifié un répertoire préféré, recherchez
import_scdb.log
dans celui-ci.Recherchez dans le fichier journal les avertissements de compilation relatifs aux packages : apt_v_solution_history_log, cmv_adaptor_pkg, avm_common_pkg, sdk_common_pkg, server_group_package, load_package, common_package, util. Ces avertissements de compilation sont gérés directement par le script et aucune action n'est requise de la part de l'utilisateur.
Remarque :
Si vous importez une base de données à partir de la version 10.4, mettez le portail à niveau après l'importation vers une build 10.5.
Cette étape est requise uniquement si la base de données est exportée depuis NetBackup IT Analytics 10.5 ou version ultérieure. Exécutez les commandes suivantes pour copier le fichier
aptare.ks
dans le dossierdatarcvrconf
.cp /tmp/aptare.ks /opt/aptare/datarcvrconf/ chown aptare:tomcat /opt/aptare/datarcvrconf/ chmod 664 /opt/aptare/datarcvrconf/aptare.ks
Exécutez updateUser.sh pour modifier le mot de passe du compte d'application. Par exemple, pour modifier le mot de passe pour l'utilisateur d'application admin123, exécutez :updateUser.sh admin123 newPassword
Redémarrez tous les services Oracle et APTARE en exécutant /opt/aptare/bin/aptare restart en tant qu'utilisateur racine.
Connectez-vous au portail Application à l'aide du compte d'application.
Suivez les étapes d'exportation de Data Pump sous Windows
- Connectez-vous au serveur de base de données Windows.
- Assurez-vous que l'écouteur Oracle TNS et les services Oracle sont en cours d'exécution.
- Assurez-vous que l'utilisateur APTARE a accès au fichier c:\opt\oracle\database\tools\expdp_scdb_win.par
Exécutez les commandes suivantes :
sqlplus system/aptaresoftware@//localhost:1521/scdb
create or replace directory datapump_dir as 'c:\opt\oracle\logs';
Exit
- Après avoir quitté sqlplus, exécutez la commande suivante : c:\opt\oracle\bin\expdp parfile=c:\opt\oracle\database\tools\expdp_scdb_win.par
- Vous pouvez également choisir d'ignorer le fichier par et d'inclure les paramètres dans la commande expdp directement. En d'autres termes, la commande ci-dessus peut être remplacée par la commande suivante : c:\opt\oracle\bin\expdp system/aptaresoftware@//localhost:1521/scdb FULL=Y DIRECTORY=datapump_dir LOGFILE=export_scdb.log DUMPFILE=aptare_scdb.exp CONTENT=ALL FLASHBACK_TIME=systimestamp
- Une fois l'opération réussie, le fichier d'exportation de Data Pump, aptare_scdb.exp, est enregistré dans le répertoire C:\opt\oracle\logs du serveur de base de données Windows.
- Copiez le fichier c:\opt\datarcvrconf\aptare.ks dans le dossier c:\opt\oracle\logs.
Remarque :
cette étape est requise uniquement si la base de données est exportée depuis NetBackup IT Analytics 10.5 ou version ultérieure.
Suivez les étapes d'importation de Data Pump sous Windows
- Connectez-vous au serveur de base de données Windows.
- L'utilisateur APTARE dispose déjà d'un accès aux fichiers d'importation c:\opt\oracle\database\tools\ unlock_portal_win. SQL et c:\opt\oracle\database\tools\ impdp_scdb_win. pair. Si l'utilisateur Oracle ne dispose pas des privilèges de lecture et d'exécution sur ces fichiers, assurez-vous de disposer des privilèges avant de lancer l'importation.
- Placez le fichier d'exportation aptare_scdb.exp dans le répertoire c:\opt\oracle\logs
- Si le nom du fichier d'exportation est en majuscules, mettez-le en minuscules. Par exemple, remplacez le nom « APTARE_SCDB.EXP » par « aptare_scdb.exp »
- Arrêtez tous les services Oracle et APTARE à l'aide de stopAllServices dans l'onglet des services de Windows.
- Démarrez OracleServicescdb depuis l'onglet des services de Windows et assurez-vous que l'écouteur Oracle TNS est en cours d'exécution.
Exécutez les commandes suivantes :
Sqlplus / as sysdba
Modifier le conteneur de l'ensemble de sessions = SCDB ; (Notez que cette commande est incluse uniquement pour une base de données de conteneurs, sinon basculer vers la base de données de conteneurs n'est pas requis)
DROP USER aptare_ro CASCADE;
DROP USER portal CASCADE;
CREATE OR REPLACE DIRECTORY datapump_dir AS 'c:\opt\oracle\logs';
EXIT;
- Après avoir quitté sqlplus, exécutez la commande suivante :
c:\opt\oracle\bin\impdp parfile=c:\opt\oracle\database\tools\impdp_scdb_win.par
- Vous pouvez également choisir d'ignorer le fichier par et d'inclure les paramètres directement dans la commande expdp. En d'autres termes, la commande ci-dessus peut être remplacée par la commande suivante : c:\opt\oracle\bin\impdp "sys/*@//localhost:1521/scdb as sysdba" SCHEMAS=portal,aptare_ro DIRECTORY=datapump_dir LOGFILE=import_scdb.log DUMPFILE=aptare_scdb.exp
- Une fois l'importation terminée, exécutez la commande suivante : sqlplus "sys/*@//localhost:1521/scdb as sysdba" @c:\opt\oracle\database\tools\unlock_portal_win.sql
- Après avoir quitté sqlplus, exécutez la commande suivante : sqlplus portal/portal@//localhost:1521/scdb @c:\opt\oracle\database\tools\validate_sp.sql
Pour consulter les journaux d'importation, accédez à
c:\opt\aptare\oracle\logs
et ouvrez le fichierimport_scdb.log
.Recherchez dans le fichier journal les avertissements de compilation relatifs aux packages : apt_v_solution_history_log, cmv_adaptor_pkg, avm_common_pkg, sdk_common_pkg, server_group_package, load_package, common_package, util. Ces avertissements de compilation sont gérés directement par le script et aucune action n'est requise de la part de l'utilisateur.
Remarque :
Si vous importez une base de données à partir de la version 10.4, mettez le portail à niveau après l'importation vers une build 10.5
Copiez le fichier enregistré
c:\opt\oracle\logs\aptare.ks
dans le dossierc:\opt\datarcvrconf\
. Assurez-vous que le fichier appartient à un utilisateur NetBackup IT Analytics disposant d'un droit d'accès en lecture et en écriture approprié pour le fichier copié.Remarque :
cette étape est requise uniquement si la base de données est exportée depuis NetBackup IT Analytics 10.5 ou version ultérieure.
Une fois le processus d'importation terminé correctement, exécutez StopAllservices depuis l'onglet des services de Windows.
Exécutez startAllServices à l'aide de l'onglet des services Windows.
Exécutez
updateUser.bat
à partir du répertoire des utilitaires pour modifier le mot de passe du compte d'application. Par exemple, pour modifier le mot de passe pour l'utilisateur d'application admin123, exécutez :updateUser.bat admin123 newPasswordConnectez-vous au portail Application à l'aide du compte d'application.