共用方式為


設定 SQL Server 巨量數據叢集 - CU9 前版本

適用於:SQL Server 2019 (15.x)

Important

MICROSOFT SQL Server 2019 巨量數據叢集已淘汰。 SQL Server 2019 巨量數據叢集的支援已於 2025 年 2 月 28 日結束。 如需詳細資訊,請參閱 Microsoft SQL Server 平臺上的公告部落格文章和巨量數據選項。

在 SQL Server 2019 巨量資料叢集發行 CU8 和更早版本中,您可以透過部署檔案在部署 bdc.json 期間設定巨量數據叢集設定。 SQL Server 主要實例只能使用 mssql-conf 在部署後設定。

Note

在 CU9 版本和支援已啟用組態的叢集之前,巨量數據叢集只能在部署時設定,但 SQL Server 主要實例除外,但只能使用 mssql-conf 在部署後設定。 如需設定 CU9 和更新版本的指示,請參閱 設定 SQL Server 巨量數據叢集

Configuration Scopes

巨量資料叢集設定前 CU9 有兩個範圍層級: service、 和 resource。 設定的階層也會依循此順序,從最高到最低。 BDC 元件會採用在最低範圍定義的設定值。 如果未在指定的範圍定義設定,則會從其較高的父範圍繼承值。

例如,您可能想要定義 Spark 驅動程式在存放集 Sparkhead 區和資源中使用的預設核心數目。 您可以透過兩種方式來執行此動作:

  • 在服務範圍指定 Spark 預設核心值
  • 在和 storage-0 資源範圍指定預設核心值sparkhead

在第一個案例中,Spark 服務的所有較低範圍資源(儲存集 Sparkhead區和 )都會從Spark服務預設值 繼承 預設的核心數目。

在第二個案例中,每個資源都會使用在其個別範圍定義的值。

如果服務和資源範圍都設定了預設的核心數目,則資源範圍值將會覆寫服務範圍值,因為這是指定設定 的最低使用者 設定範圍。

如需組態的特定資訊,請參閱適當的文章:

設定 SQL Server 主要實例

設定 SQL Server 巨量數據叢集的主要實例。

伺服器組態設定無法在部署時間針對 SQL Server 主要實例進行設定。 本文說明如何設定 SQL Server 版本、啟用或停用 SQL Server Agent、啟用特定追蹤旗標或啟用/停用客戶意見反應等設定的暫時因應措施。

若要變更上述任何設定,請遵循下列步驟:

  1. 建立包含目標設定的自定義 mssql-custom.conf 檔案。 下列範例會啟用 SQL Agent、遙測、設定 Enterprise Edition 的 PID,並啟用追蹤旗標 1204.

    [sqlagent]
    enabled=true
    
    [telemetry]
    customerfeedback=true
    userRequestedLocalAuditDirectory = /tmp/audit
    
    [DEFAULT]
    pid = Enterprise
    
    [traceflag]
    traceflag0 = 1204
    
  2. 將檔案 mssql-custom.conf 複製到 Pod /var/opt/mssql 中的容器 mssql-servermaster-0。 將 <namespaceName> 替換為巨量資料叢集名稱。

    kubectl cp mssql-custom.conf master-0:/var/opt/mssql/mssql-custom.conf -c mssql-server -n <namespaceName>
    
  3. 重新啟動 SQL Server 實例。 將 <namespaceName> 替換為巨量資料叢集名稱。

    kubectl exec -it master-0  -c mssql-server -n <namespaceName> -- /bin/bash
    supervisorctl restart mssql-server
    exit
    

Important

如果 SQL Server 主執行個體配置為可用性群組,請在所有 mssql-custom.conf Pod 中複製 master 檔案。 請注意,每次重新啟動都會造成故障轉移,因此您必須確定您在停機期間會計時此活動。

Known limitations

  • 上述步驟需要 Kubernetes 叢集管理員許可權
  • 您無法在部署後變更巨量數據叢集 SQL Server 主要實例的伺服器定序。

設定 Apache Spark 和 Apache Hadoop

若要在巨量數據叢集中設定 Apache Spark 和 Apache Hadoop,您必須在部署時修改叢集配置檔。

巨量資料叢集有四個組態類別:

  • sql
  • hdfs
  • spark
  • gateway

sqlhdfssparksql 是服務。 每個服務都對應到相同名稱的組態類別。 所有閘道組態都會移至類別 gateway

例如,服務 hdfs 中的所有組態都屬於 類別 hdfs。 請注意,所有 Hadoop (核心網站)、HDFS 和 Zookeeper 設定都屬於類別 hdfs;所有 Livy、Spark、Yarn、Hive、中繼存放區設定都屬於類別 spark

支援的組態 會列出您可以在部署 SQL Server 巨量數據叢集時設定的 Apache Spark 和 Hadoop 屬性。

下列各節 列出您無法在 叢集中修改的屬性:

Next steps

設定 SQL Server 巨量數據叢集