Partager via


Configurer un cluster Big Data SQL Server - Pré CU9

S’applique à : SQL Server 2019 (15.x)

Important

Les clusters Big Data Microsoft SQL Server 2019 sont mis hors service. La prise en charge des clusters Big Data SQL Server 2019 a pris fin le 28 février 2025. Pour plus d’informations, consultez le billet de blog d’annonce et les options Big Data sur la plateforme Microsoft SQL Server.

Dans les clusters Big Data SQL Server 2019 publie cu8 et versions antérieures, vous pouvez configurer les paramètres du cluster Big Data au moment du déploiement via le fichier de déploiement bdc.json . L’instance maître SQL Server peut être configurée après le déploiement uniquement à l’aide de mssql-conf.

Note

Avant la version cu9 et la prise en charge des clusters compatibles avec la configuration, les clusters Big Data peuvent être configurés uniquement au moment du déploiement, à l’exception de l’instance maître SQL Server , qui peut être configuré après le déploiement uniquement à l’aide de mssql-conf. Pour obtenir des instructions sur la configuration d’une version CU9 et ultérieure, consultez Configurer un cluster Big Data SQL Server.

Configuration Scopes

La configuration des clusters Big Data pré-CU9 a deux niveaux d’étendue : serviceet resource. La hiérarchie des paramètres suit également dans cet ordre, de la plus haute à la plus basse. Les composants BDC prennent la valeur du paramètre défini à l’étendue la plus basse. Si le paramètre n’est pas défini à une étendue donnée, il hérite de la valeur de sa portée parente supérieure.

Par exemple, vous pouvez définir le nombre par défaut de cœurs que le pilote Spark utilisera dans le pool de stockage et Sparkhead les ressources. Il existe deux méthodes pour le faire :

  • Spécifier une valeur de cœurs par défaut dans l’étendue du Spark service
  • Spécifier une valeur de cœurs par défaut à l’étendue de storage-0 la sparkhead ressource

Dans le premier scénario, toutes les ressources à portée inférieure du service Spark (pool de stockage et Sparkhead) héritent du nombre par défaut de cœurs de la valeur par défaut du service Spark.

Dans le deuxième scénario, chaque ressource utilise la valeur définie à son étendue respective.

Si le nombre par défaut de cœurs est configuré à la fois au niveau du service et de l’étendue des ressources, la valeur délimitée par la ressource remplace la valeur délimitée par le service, car il s’agit de l’étendue configurée par l’utilisateur le plus bas pour le paramètre donné.

Pour plus d’informations sur la configuration, consultez les articles appropriés :

Configurer l’instance maître SQL Server

Configurez l’instance maître des clusters Big Data SQL Server.

Les paramètres de configuration du serveur ne peuvent pas être configurés pour l’instance maître SQL Server au moment du déploiement. Cet article décrit une solution de contournement temporaire sur la façon de configurer des paramètres tels que l’édition SQL Server, activer ou désactiver SQL Server Agent, activer des indicateurs de trace spécifiques ou activer/désactiver les commentaires des clients.

Pour modifier l’un de ces paramètres, procédez comme suit :

  1. Créez un fichier mssql-custom.conf personnalisé qui comprend les paramètres ciblés. L’exemple suivant active SQL Agent, la télémétrie, définit un PID pour Enterprise Edition et active l’indicateur de trace 1204.

    [sqlagent]
    enabled=true
    
    [telemetry]
    customerfeedback=true
    userRequestedLocalAuditDirectory = /tmp/audit
    
    [DEFAULT]
    pid = Enterprise
    
    [traceflag]
    traceflag0 = 1204
    
  2. Copiez le fichier mssql-custom.conf dans /var/opt/mssql dans le conteneur mssql-server du pod master-0. Remplacez <namespaceName> par le nom du cluster Big Data.

    kubectl cp mssql-custom.conf master-0:/var/opt/mssql/mssql-custom.conf -c mssql-server -n <namespaceName>
    
  3. Redémarrez l’instance SQL Server. Remplacez <namespaceName> par le nom du cluster Big Data.

    kubectl exec -it master-0  -c mssql-server -n <namespaceName> -- /bin/bash
    supervisorctl restart mssql-server
    exit
    

Important

Si l’instance maître SQL Server est dans une configuration de groupes de disponibilité, copiez le fichier mssql-custom.conf dans toutes les pods master. Notez que chaque redémarrage entraîne un basculement. Vous devez donc vous assurer que vous minutez cette activité pendant les périodes d’arrêt.

Known limitations

  • Les étapes ci-dessus nécessitent des autorisations d’administrateur de cluster Kubernetes
  • Vous ne pouvez pas modifier le classement du serveur pour l’instance maître SQL Server du cluster Big Data après le déploiement.

Configurer Apache Spark et Apache Hadoop

Pour configurer Apache Spark et Apache Hadoop dans les clusters Big Data, vous devez modifier le profil de cluster au moment du déploiement.

Un cluster Big Data comporte quatre catégories de configuration :

  • sql
  • hdfs
  • spark
  • gateway

sql, , hdfssparksql , sont des services. Chaque service est mappé à la même catégorie de configuration nommée. Toutes les configurations de passerelle vont à la catégorie gateway.

Par exemple, toutes les configurations du service hdfs appartiennent à la catégorie hdfs. Notez que toutes les configurations Hadoop (core-site), HDFS et Zookeeper appartiennent à la catégorie hdfs; toutes les configurations Livy, Spark, Yarn, Hive, Metastore appartiennent à la catégorie spark.

Les configurations prises en charge répertorient les propriétés Apache Spark &Hadoop que vous pouvez configurer lorsque vous déployez un cluster Big Data SQL Server.

Les sections suivantes répertorient les propriétés que vous ne pouvez pas modifier dans un cluster :

Next steps

Configurer un cluster Big Data SQL Server