Guide de l'administrateur Veritas NetBackup™ for Hadoop

Last Published:
Product(s): NetBackup (9.1)
  1. Introduction
    1.  
      Protection des données Hadoop à l'aide de NetBackup
    2.  
      Sauvegarde des données Hadoop
    3.  
      Restauration des données Hadoop
    4.  
      Terminologie de NetBackup for Hadoop
    5.  
      Limitations
  2. Vérifiez les conditions requises et les recommandations pour le plug-in Hadoop for NetBackup
    1.  
      À propos du déploiement du plug-in Hadoop
    2. Conditions requises pour le plug-in Hadoop
      1.  
        Compatibilité des systèmes d'exploitation et des plates-formes
      2.  
        Configuration requise pour le client et le serveur NetBackup
      3.  
        Licence pour le plug-in Hadoop for NetBackup
    3.  
      Préparation du cluster Hadoop
    4.  
      Meilleures pratiques de déploiement du plug-in Hadoop
  3. Configuration de NetBackup for Hadoop
    1.  
      À propos de la configuration de NetBackup for Hadoop
    2. Gestion des hôtes de sauvegarde
      1.  
        Inclusion d'un client NetBackup dans la liste autorisée du serveur principal NetBackup
      2.  
        Configurer une appliance NetBackup comme hôte de sauvegarde
    3.  
      Ajout des informations d'authentification Hadoop dans NetBackup
    4. Configuration du plug-in Hadoop en utilisant le fichier de configuration Hadoop
      1.  
        Configuration de NetBackup pour un cluster Hadoop hautement disponible
      2.  
        Configuration d'un port personnalisé pour le cluster Hadoop
      3.  
        Définition du nombre de threads pour les hôtes de sauvegarde
      4. Configuration de la communication entre les clusters NetBackup et Hadoop compatibles SSL (HTTPS)
        1.  
          ECA_TRUST_STORE_PATH pour les serveurs et les clients NetBackup
        2.  
          ECA_CRL_PATH pour les serveurs et les clients NetBackup
        3.  
          HADOOP_SECURE_CONNECT_ENABLED pour les serveurs et les clients
        4.  
          HADOOP_CRL_CHECK pour les serveurs et les clients NetBackup
        5.  
          Exemples de valeurs pour les paramètres dans le fichier bp.conf
    5.  
      Configuration pour un cluster Hadoop qui utilise Kerberos
    6. Configuration des politiques NetBackup pour le plug-in Hadoop
      1. Création d'une politique de sauvegarde BigData
        1. Création d'une politique BigData à l'aide de la console d'administration de NetBackup
          1.  
            Utilisation de l'Assistant Configuration de politique pour créer une politique BigData pour les clusters de Hadoop
          2.  
            Utilisation de l'utilitaire NetBackup Policies pour créer une politique BigData pour les clusters Hadoop
        2.  
          Utilisation de l'interface de ligne de commande (CLI) NetBackup pour créer une politique BigData pour les clusters Hadoop
    7.  
      Reprise après incident d'un cluster Hadoop
  4. Sauvegardes et restaurations de Hadoop
    1. À propos de la sauvegarde d'un cluster Hadoop
      1.  
        Prérequis pour exécuter des opérations de sauvegarde et de restauration pour un cluster Hadoop avec l'authentification Kerberos
      2.  
        Pratiques d'excellence de sauvegarde d'un cluster Hadoop
      3.  
        Sauvegarde d'un cluster Hadoop
    2. À propos de la restauration d'un cluster Hadoop
      1.  
        Pratiques d'excellence de restauration d'un cluster Hadoop
      2. Restauration des données Hadoop dans le même cluster Hadoop
        1.  
          Utilisation de l'Assistant de restauration pour restaurer les données Hadoop sur le même cluster Hadoop
        2.  
          Utilisation de la commande bprestore pour restaurer les données Hadoop dans le même cluster Hadoop
      3.  
        Restauration des données Hadoop sur un autre cluster Hadoop
  5. Dépannage
    1.  
      À propos de la résolution des problèmes NetBackup for Hadoop
    2.  
      À propos de la consignation du débogage NetBackup for Hadoop
    3. Résolution des problèmes de sauvegarde des données Hadoop
      1.  
        L'opération de sauvegarde échoue avec l'erreur 6609
      2.  
        L'opération de sauvegarde a échoué avec l'erreur 6618
      3.  
        L'opération de sauvegarde échoue avec l'erreur 6647
      4.  
        Les attributs étendus (xattrs) et les listes de contrôle d'accès (LCA) ne sont pas sauvegardés ou restaurés pour Hadoop
      5.  
        L'opération de sauvegarde échoue avec l'erreur 6654
      6.  
        L'opération de sauvegarde échoue avec l'erreur 8857
      7.  
        L'opération de sauvegarde échoue avec l'erreur 6617
      8.  
        L'opération de sauvegarde échoue avec l'erreur 6616
      9.  
        Les fichiers de configuration et de certificats de NetBackup ne sont pas conservés après le redémarrage de l'appliance NetBackup basée sur les conteneurs
      10.  
        Impossible d'afficher les images de sauvegarde incrémentielle lors de la restauration, alors que les images sont visibles dans la sélection de l'image de sauvegarde
      11.  
        L'un des travaux de sauvegarde enfant est mis en file d'attente
    4. Résolution des problèmes de restauration des données Hadoop
      1.  
        Échec de la restauration avec le code d'erreur 2850
      2.  
        Le travail de restauration NetBackup pour Hadoop s'exécute partiellement
      3.  
        Les attributs étendus (xattrs) et les listes de contrôle d'accès (LCA) ne sont pas sauvegardés ou restaurés pour Hadoop
      4.  
        L'opération de restauration échoue quand les fichiers de plug-in Hadoop manquent sur l'hôte de sauvegarde
      5.  
        La restauration échoue avec l'erreur bpbrm 54932
      6.  
        L'opération de restauration échoue avec l'erreur bpbrm 21296
      7.  
        Le fichier de configuration n'est pas récupéré après une reprise après incident
  6.  
    Index

Terminologie de NetBackup for Hadoop

Le tableau suivant définit les termes que vous rencontrerez lors de l'utilisation de NetBackup pour protéger le cluster Hadoop.

Tableau : Terminologie NetBackup

Terminologie

Définition

Travail composé

Le travail de sauvegarde pour les données Hadoop est un travail composé.

  • Le travail de sauvegarde exécute un travail de découverte pour obtenir des informations des données à sauvegarder.

  • Des travaux enfants sont créés pour chaque hôte de sauvegarde qui transfère les données.

  • Une fois la sauvegarde terminée, le travail nettoie les snapshots sur le NameNode, puis est marqué comme étant terminé.

Travail de découverte

Quand un travail de sauvegarde est exécuté, un travail de découverte est d'abord créé. Le travail de découverte communique avec le NameNode et recueille des informations du bloc à sauvegarder et les DataNodes associés. À la fin de la découverte, le travail remplit un fichier de découverte de charge de travail que NetBackup utilise pour répartir la charge de travail entre les hôtes de sauvegarde.

Travail enfant

Pour la sauvegarde, un travail enfant distinct est créé pour chaque hôte de sauvegarde pour transférer les données vers le média de stockage. Un travail enfant peut transférer des blocs de données à partir de plusieurs DataNodes.

Fichier de découverte de charge de travail

Pendant la découverte, lorsque l'hôte de sauvegarde communique avec le NameNode, un fichier de découverte de charge de travail est créé. Ce fichier contient des informations sur les blocs de données à sauvegarder et les DataNodes associés.

Fichier de distribution de charge de travail

Une fois la découverte terminée, NetBackup crée un fichier de distribution de charge de travail pour chaque hôte de sauvegarde. Ces fichiers contiennent des informations des données qui sont transférées par l'hôte de sauvegarde correspondant.

Flux parallèles

La structure de flux parallèle NetBackup permet de sauvegarder les blocs de données de plusieurs DataNodes en utilisant simultanément plusieurs hôtes de sauvegarde.

Hôte de sauvegarde

L'hôte de sauvegarde fait office de client de proxy. Toutes les opérations de sauvegarde et de restauration sont exécutées via l'hôte de sauvegarde.

Vous pouvez configurer des serveurs de médias, des clients ou un serveur maître comme hôte de sauvegarde.

L'hôte de sauvegarde est également utilisé comme client de destination pendant les restaurations.

Politique BigData

La politique BigData est introduite pour :

  • Spécifier le type d'application.

  • Autoriser la sauvegarde des environnements distribués multinœuds

  • Associer les hôtes de sauvegarde.

  • Distribuer la charge de travail.

Serveur d'application

Namenode est nommé "Serveur d'application" dans NetBackup.

NameNode principal

Dans un scénario de haute disponibilité, vous devez spécifier un NameNode avec la politique BigData et avec la commande tpconfig. Ce NameNode est nommé "NameNode principal".

NameNode de basculement

Dans un scénario de haute disponibilité, les NameNodes autres que le NameNode principal mis à jour dans le fichier hadoop.conf sont nommés "NameNodes de basculement".

Tableau : Terminologie Hadoop

Terminologie

Définition

NameNode

Un NameNode est également utilisé comme client source pendant les restaurations.

DataNode

Un DataNode est responsable du stockage des données dans Hadoop.

Répertoires prenant en charge les snapshots

Des snapshots peuvent être créés sur n'importe quel répertoire lorsque les snapshots sont activés sur le répertoire.

  • Chaque répertoire prenant en charge les snapshots peut prendre en charge jusqu'à 65 536 snapshots simultanés. Il n'existe aucune limite sur le nombre de répertoires prenant en charge les snapshots.

  • Les administrateurs peuvent définir n'importe quel répertoire comme répertoire prenant en charge les snapshots.

  • Notez qu'un tel répertoire ne peut être ni supprimé, ni renommé tant que tous les snapshots ne sont pas supprimés.

  • Un répertoire ne peut pas prendre en charge les snapshots si l'un de ses ancêtres ou descendants possède déjà cette caractéristique.