Guide de l'administrateur Veritas NetBackup™ for Hadoop
- Introduction
- Vérifiez les conditions requises et les recommandations pour le plug-in Hadoop for NetBackup
- Configuration de NetBackup for Hadoop
- Gestion des hôtes de sauvegarde
- Configuration du plug-in Hadoop en utilisant le fichier de configuration Hadoop
- Configuration de la communication entre les clusters NetBackup et Hadoop compatibles SSL (HTTPS)
- Configuration des politiques NetBackup pour le plug-in Hadoop
- Sauvegardes et restaurations de Hadoop
- Dépannage
- Résolution des problèmes de sauvegarde des données Hadoop
- Résolution des problèmes de restauration des données Hadoop
Terminologie de NetBackup for Hadoop
Le tableau suivant définit les termes que vous rencontrerez lors de l'utilisation de NetBackup pour protéger le cluster Hadoop.
Tableau : Terminologie NetBackup
Terminologie | Définition |
---|---|
Travail composé | Le travail de sauvegarde pour les données Hadoop est un travail composé.
|
Travail de découverte | Quand un travail de sauvegarde est exécuté, un travail de découverte est d'abord créé. Le travail de découverte communique avec le NameNode et recueille des informations du bloc à sauvegarder et les DataNodes associés. À la fin de la découverte, le travail remplit un fichier de découverte de charge de travail que NetBackup utilise pour répartir la charge de travail entre les hôtes de sauvegarde. |
Travail enfant | Pour la sauvegarde, un travail enfant distinct est créé pour chaque hôte de sauvegarde pour transférer les données vers le média de stockage. Un travail enfant peut transférer des blocs de données à partir de plusieurs DataNodes. |
Fichier de découverte de charge de travail | Pendant la découverte, lorsque l'hôte de sauvegarde communique avec le NameNode, un fichier de découverte de charge de travail est créé. Ce fichier contient des informations sur les blocs de données à sauvegarder et les DataNodes associés. |
Fichier de distribution de charge de travail | Une fois la découverte terminée, NetBackup crée un fichier de distribution de charge de travail pour chaque hôte de sauvegarde. Ces fichiers contiennent des informations des données qui sont transférées par l'hôte de sauvegarde correspondant. |
Flux parallèles | La structure de flux parallèle NetBackup permet de sauvegarder les blocs de données de plusieurs DataNodes en utilisant simultanément plusieurs hôtes de sauvegarde. |
Hôte de sauvegarde | L'hôte de sauvegarde fait office de client de proxy. Toutes les opérations de sauvegarde et de restauration sont exécutées via l'hôte de sauvegarde. Vous pouvez configurer des serveurs de médias, des clients ou un serveur maître comme hôte de sauvegarde. L'hôte de sauvegarde est également utilisé comme client de destination pendant les restaurations. |
Politique BigData | La politique BigData est introduite pour :
|
Serveur d'application | Namenode est nommé "Serveur d'application" dans NetBackup. |
NameNode principal | Dans un scénario de haute disponibilité, vous devez spécifier un NameNode avec la politique BigData et avec la commande tpconfig. Ce NameNode est nommé "NameNode principal". |
NameNode de basculement | Dans un scénario de haute disponibilité, les NameNodes autres que le NameNode principal mis à jour dans le fichier |
Tableau : Terminologie Hadoop
Terminologie | Définition |
---|---|
NameNode | Un NameNode est également utilisé comme client source pendant les restaurations. |
DataNode | Un DataNode est responsable du stockage des données dans Hadoop. |
Répertoires prenant en charge les snapshots | Des snapshots peuvent être créés sur n'importe quel répertoire lorsque les snapshots sont activés sur le répertoire.
|