Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Dans ce guide de démarrage rapide, vous allez apprendre à utiliser Apache HBase Shell pour créer une table HBase, insérer des données, puis interroger la table.
Si vous n’avez pas d’abonnement Azure, créez un compte gratuit avant de commencer.
Prerequisites
Un cluster Apache HBase. Consultez Créer un cluster pour créer un cluster HDInsight. Veillez à choisir le type de cluster HBase .
Un client SSH. Pour plus d’informations, consultez Se connecter à HDInsight (Apache Hadoop) à l’aide de SSH.
Créer une table et manipuler des données
Pour la plupart des personnes, les données s’affichent au format tabulaire :
Dans HBase (une implémentation de Cloud BigTable), les mêmes données ressemblent à ceci :
Vous pouvez utiliser SSH pour vous connecter à des clusters HBase, puis utiliser Apache HBase Shell pour créer des tables HBase, insérer des données et interroger des données.
Utilisez
sshla commande pour vous connecter à votre cluster HBase. Modifiez la commande ci-dessous en remplaçantCLUSTERNAMEpar le nom de votre cluster, puis entrez la commande :ssh sshuser@CLUSTERNAME-ssh.azurehdinsight.netUtilisez
hbase shellla commande pour démarrer l’interpréteur de commandes interactif HBase. Entrez la commande suivante dans votre connexion SSH :hbase shellUtilisez
createla commande pour créer une table HBase avec des familles à deux colonnes. Entrez la commande suivante :create 'Contacts', 'Personal', 'Office'Utilisez
listla commande pour répertorier toutes les tables dans HBase. Entrez la commande suivante :listUtilisez
putla commande pour insérer des valeurs à une colonne spécifiée dans une ligne spécifiée dans une table particulière. Entrez la commande suivante :put 'Contacts', '1000', 'Personal:Name', 'John Dole' put 'Contacts', '1000', 'Personal:Phone', '1-425-000-0001' put 'Contacts', '1000', 'Office:Phone', '1-425-000-0002' put 'Contacts', '1000', 'Office:Address', '1111 San Gabriel Dr.'Utilisez la commande
scanpour analyser et retourner les données du tableauContacts. Entrez la commande suivante :scan 'Contacts'Utilisez
getla commande pour extraire le contenu d’une ligne. Entrez la commande suivante :get 'Contacts', '1000'Vous voyez des résultats similaires comme l’utilisation de la
scancommande, car il n’y a qu’une seule ligne.Utilisez
deletela commande pour supprimer une valeur de cellule dans un tableau. Entrez la commande suivante :delete 'Contacts', '1000', 'Office:Address'Utilisez la commande
disablepour désactiver la table. Entrez la commande suivante :disable 'Contacts'Utilisez
dropla commande pour supprimer une table à partir de HBase. Entrez la commande suivante :drop 'Contacts'Utilisez
exitla commande pour arrêter l’interpréteur de commandes interactif HBase. Entrez la commande suivante :exit
Pour plus d’informations sur le schéma de table HBase, consultez Présentation de la conception de schéma Apache HBase. Pour plus de commandes HBase, consultez le guide de référence d’Apache HBase.
Nettoyer les ressources
Après avoir suivi ce guide de démarrage rapide, vous souhaiterez peut-être supprimer le cluster. Avec HDInsight, vos données sont stockées dans stockage Azure. Vous pouvez donc supprimer en toute sécurité un cluster lorsqu’il n’est pas utilisé. Vous êtes également facturé pour un cluster HDInsight, même s’il n’est pas utilisé. Étant donné que les frais pour le cluster sont plusieurs fois plus nombreux que les frais de stockage, il est économique de supprimer des clusters lorsqu’ils ne sont pas utilisés.
Pour supprimer un cluster, consultez Supprimer un cluster HDInsight à l’aide de votre navigateur, de PowerShell ou d’Azure CLI.
Étapes suivantes
Dans ce guide de démarrage rapide, vous avez appris à utiliser Apache HBase Shell pour créer une table HBase, insérer des données, puis interroger la table. Pour en savoir plus sur les données stockées dans HBase, l’article suivant vous montre comment exécuter des requêtes avec Apache Spark.