適用於:SQL Server 2019 (15.x)
Important
MICROSOFT SQL Server 2019 巨量數據叢集已淘汰。 SQL Server 2019 巨量數據叢集的支援已於 2025 年 2 月 28 日結束。 如需詳細資訊,請參閱 Microsoft SQL Server 平臺上的公告部落格文章和巨量數據選項。
在 SQL Server 2019 巨量資料叢集發行 CU8 和更早版本中,您可以透過部署檔案在部署 bdc.json 期間設定巨量數據叢集設定。 SQL Server 主要實例只能使用 mssql-conf 在部署後設定。
Note
在 CU9 版本和支援已啟用組態的叢集之前,巨量數據叢集只能在部署時設定,但 SQL Server 主要實例除外,但只能使用 mssql-conf 在部署後設定。 如需設定 CU9 和更新版本的指示,請參閱 設定 SQL Server 巨量數據叢集。
Configuration Scopes
巨量資料叢集設定前 CU9 有兩個範圍層級: service、 和 resource。 設定的階層也會依循此順序,從最高到最低。 BDC 元件會採用在最低範圍定義的設定值。 如果未在指定的範圍定義設定,則會從其較高的父範圍繼承值。
例如,您可能想要定義 Spark 驅動程式在存放集 Sparkhead 區和資源中使用的預設核心數目。 您可以透過兩種方式來執行此動作:
- 在服務範圍指定
Spark預設核心值 - 在和
storage-0資源範圍指定預設核心值sparkhead
在第一個案例中,Spark 服務的所有較低範圍資源(儲存集 Sparkhead區和 )都會從Spark服務預設值 繼承 預設的核心數目。
在第二個案例中,每個資源都會使用在其個別範圍定義的值。
如果服務和資源範圍都設定了預設的核心數目,則資源範圍值將會覆寫服務範圍值,因為這是指定設定 的最低使用者 設定範圍。
如需組態的特定資訊,請參閱適當的文章:
設定 SQL Server 主要實例
設定 SQL Server 巨量數據叢集的主要實例。
伺服器組態設定無法在部署時間針對 SQL Server 主要實例進行設定。 本文說明如何設定 SQL Server 版本、啟用或停用 SQL Server Agent、啟用特定追蹤旗標或啟用/停用客戶意見反應等設定的暫時因應措施。
若要變更上述任何設定,請遵循下列步驟:
建立包含目標設定的自定義
mssql-custom.conf檔案。 下列範例會啟用 SQL Agent、遙測、設定 Enterprise Edition 的 PID,並啟用追蹤旗標 1204.[sqlagent] enabled=true [telemetry] customerfeedback=true userRequestedLocalAuditDirectory = /tmp/audit [DEFAULT] pid = Enterprise [traceflag] traceflag0 = 1204將檔案
mssql-custom.conf複製到 Pod/var/opt/mssql中的容器mssql-server的master-0。 將<namespaceName>替換為巨量資料叢集名稱。kubectl cp mssql-custom.conf master-0:/var/opt/mssql/mssql-custom.conf -c mssql-server -n <namespaceName>重新啟動 SQL Server 實例。 將
<namespaceName>替換為巨量資料叢集名稱。kubectl exec -it master-0 -c mssql-server -n <namespaceName> -- /bin/bash supervisorctl restart mssql-server exit
Important
如果 SQL Server 主執行個體配置為可用性群組,請在所有 mssql-custom.conf Pod 中複製 master 檔案。 請注意,每次重新啟動都會造成故障轉移,因此您必須確定您在停機期間會計時此活動。
Known limitations
- 上述步驟需要 Kubernetes 叢集管理員許可權
- 您無法在部署後變更巨量數據叢集 SQL Server 主要實例的伺服器定序。
設定 Apache Spark 和 Apache Hadoop
若要在巨量數據叢集中設定 Apache Spark 和 Apache Hadoop,您必須在部署時修改叢集配置檔。
巨量資料叢集有四個組態類別:
sqlhdfssparkgateway
sql、hdfs、 sparksql 是服務。 每個服務都對應到相同名稱的組態類別。 所有閘道組態都會移至類別 gateway。
例如,服務 hdfs 中的所有組態都屬於 類別 hdfs。 請注意,所有 Hadoop (核心網站)、HDFS 和 Zookeeper 設定都屬於類別 hdfs;所有 Livy、Spark、Yarn、Hive、中繼存放區設定都屬於類別 spark。
支援的組態 會列出您可以在部署 SQL Server 巨量數據叢集時設定的 Apache Spark 和 Hadoop 屬性。
下列各節 列出您無法在 叢集中修改的屬性: