Guide de l'administrateur Veritas NetBackup™ for Hadoop
- Introduction
- Vérifiez les conditions requises et les recommandations pour le plug-in Hadoop for NetBackup
- Configuration de NetBackup for Hadoop
- Gestion des hôtes de sauvegarde
- Configuration du plug-in Hadoop en utilisant le fichier de configuration Hadoop
- Configuration de la communication entre les clusters NetBackup et Hadoop compatibles SSL (HTTPS)
- Configuration des politiques NetBackup pour le plug-in Hadoop
- Sauvegardes et restaurations de Hadoop
- Dépannage
- Résolution des problèmes de sauvegarde des données Hadoop
- Résolution des problèmes de restauration des données Hadoop
Configuration de NetBackup pour un cluster Hadoop hautement disponible
Pour protéger un cluster Hadoop hautement disponible quand vous configurez NetBackup pour un cluster Hadoop :
Spécifiez l'un des NameNodes (principal) comme client dans la politique BigData.
Spécifiez le même NameNode (principal et de basculement) comme serveur d'application lorsque vous exécutez la commande tpconfig.
Créez un fichier
hadoop.conf
, mettez-le à jour avec les informations des NameNodes (principal et de basculement) et copiez-le vers tous les hôtes de sauvegarde. Le fichier dehadoop.conf
est au format JSON.Le nom d'hôte et le port du NameNode doivent être identiques à ceux que vous avez définis avec le paramètre d'adresse http dans le fichier
core-site.xml
du cluster Hadoop.Le nom d'utilisateur du NameNode principal et de celui du NameNode de basculement doivent être identiques.
Ne laissez pas de paramètres vides pour que le travail de sauvegarde aboutisse.
Pour mettre à jour le fichier hadoop.conf pour un cluster Hadoop hautement disponible
- Mettez à jour le fichier
hadoop.conf
avec les paramètres suivants :{ "application_servers": { "hostname_of_primary_namenode1": { "failover_namenodes": [ { "hostname": "hostname_of_failover_namenode1", "port": port_of_failover_namenode1 } ], "port":port_of_primary_namenode1 } } }
- Si vous disposez de plusieurs clusters Hadoop, utilisez le même fichier
hadoop.conf
pour mettre à jour les informations. Par exemple,{ "application_servers": { "hostname_of_primary_namenode1": { "failover_namenodes": [ { "hostname": "hostname_of_failover_namenode1", "port": port_of_failover_namenode1 } ], "port"::port_of_primary_namenode1 }, "hostname_of_primary_namenode2": { "failover_namenodes": [ { "hostname": "hostname_of_failover_namenode2", "port": port_of_failover_namenode2 } ], "port":port_of_primary_namenode2 } } }
- Copiez ce fichier vers l'emplacement suivant sur tous les hôtes de sauvegarde :
/usr/openv/var/global/