Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Delta Lake rezerwuje właściwości tabeli Delta zaczynające się od delta. Te właściwości mogą mieć określone znaczenie i wpływać na zachowania po ustawieniu tych właściwości.
Uwaga
Wszystkie operacje ustawiające lub aktualizujące właściwości tabeli powodują konflikt z innymi współbieżnymi operacjami zapisu, co powoduje ich niepowodzenie. Usługa Databricks zaleca modyfikowanie właściwości tabeli tylko wtedy, gdy w tabeli nie ma żadnych operacji zapisu współbieżnego.
W jaki sposób właściwości tabeli i właściwości sparkSession współdziałają?
Właściwości tabeli Delta są ustawiane dla każdej tabeli. Jeśli właściwość jest ustawiona w tabeli, jest to ustawienie, które następuje domyślnie.
Niektóre właściwości tabeli mają skojarzone konfiguracje sparkSession, które zawsze mają pierwszeństwo przed właściwościami tabeli. Niektóre przykłady obejmują konfiguracje spark.databricks.delta.autoCompact.enabled i spark.databricks.delta.optimizeWrite.enabled, które włączają automatyczne kompaktowanie i zoptymalizowane zapisy na poziomie sparkSession, a nie na poziomie tabeli. Usługa Databricks zaleca używanie konfiguracji w zakresie tabeli dla większości obciążeń.
Dla każdej właściwości tabeli Delta można ustawić domyślną wartość dla nowych tabel, wykorzystując konfigurację SparkSession, co pozwala zastąpić wbudowaną domyślną wartość. To ustawienie dotyczy tylko nowych tabel i nie zastępuje właściwości ustawionych w istniejących tabelach. Prefiks używany w usłudze SparkSession różni się od konfiguracji używanych we właściwościach tabeli, jak pokazano w poniższej tabeli:
| Delta Lake konferencja | SparkSession conf |
|---|---|
delta.<conf> |
spark.databricks.delta.properties.defaults.<conf> |
Aby na przykład ustawić właściwość delta.appendOnly = true dla wszystkich nowych tabel usługi Delta Lake utworzonych w sesji, ustaw następujące ustawienia:
SET spark.databricks.delta.properties.defaults.appendOnly = true
Aby zmodyfikować właściwości tabeli istniejących tabel, użyj SET TBLPROPERTIES.
Właściwości tabeli delty
Dostępne właściwości tabeli delty obejmują następujące elementy:
| Nieruchomość |
|---|
delta.appendOnlytrue, aby ta tabela Delty była tylko do dopisywania. W przypadku dołączania nie można usunąć istniejących rekordów i nie można zaktualizować istniejących wartości.Zobacz właściwości Tabeli Delty. Typ danych: BooleanDomyślnie: false |
delta.autoOptimize.autoCompactauto dla Delta Lake, aby automatycznie zoptymalizować układ plików w tej tabeli Delta.Zobacz Automatyczne kompaktowanie Delta Lake w usłudze Azure Databricks. Typ danych: BooleanUstawienie domyślne: (brak) |
delta.autoOptimize.optimizeWritetrue dla Delta Lake, aby automatycznie zoptymalizować układ plików dla tej tabeli Delta podczas zapisu.Zobacz Zoptymalizowane zapisy dla Delta Lake na Azure Databricks. Typ danych: BooleanUstawienie domyślne: (brak) |
delta.checkpoint.writeStatsAsJsontrue, aby usługa Delta Lake zapisywała statystyki plików w punktach kontrolnych w formacie JSON dla kolumny stats.Typ danych: BooleanDomyślnie: false |
delta.checkpoint.writeStatsAsStructtrue umożliwia Delta Lake zapisywanie statystyk plików w formacie struktury w punktach kontrolnych dla kolumny stats_parsed oraz zapisywanie wartości partycji jako struktury dla partitionValues_parsed.Typ danych: BooleanDomyślnie: true |
delta.checkpointPolicyclassic dla punktów kontrolnych klasycznego Delta Lake.
v2 dla punktów kontrolnych w wersji 2.Zobacz Zgodność tabel z klastrowaniem płynnym. Typ danych: StringDomyślnie: classic |
delta.columnMapping.modeOkreśla, czy mapowanie kolumn jest włączone dla kolumn tabeli delty i odpowiadających im kolumn Parquet, które używają różnych nazw. Zobacz Zmień nazwy i usuń kolumny poprzez mapowanie kolumn w Delta Lake. Uwaga: Włączenie delta.columnMapping.mode automatycznie włączadelta.randomizeFilePrefixes.Typ danych: DeltaColumnMappingModeDomyślnie: none |
delta.dataSkippingNumIndexedColsLiczba kolumn dla usługi Delta Lake do zbierania statystyk dotyczących pomijania danych. Wartość -1 oznacza zbieranie statystyk dla wszystkich kolumn.Zobacz Pomijanie danych w Delta Lake. Typ danych: IntDomyślnie: 32 |
delta.dataSkippingStatsColumnsLista nazw kolumn oddzielonych przecinkami, na których usługa Delta Lake zbiera statystyki w celu ulepszenia funkcji omijania danych. Ta właściwość ma pierwszeństwo przed delta.dataSkippingNumIndexedCols.Zobacz Pomijanie danych w Delta Lake. Typ danych: StringUstawienie domyślne: (brak) |
delta.deletedFileRetentionDurationNajkrótszy czas, przez jaki Delta Lake przechowuje logicznie usunięte pliki danych przed ich fizycznym usunięciem. To zapobiega awariom w przestarzałych czytnikach po kompaktacjach lub nadpisywaniu partycji. Ta wartość powinna być wystarczająco duża, aby upewnić się, że:
Zobacz Konfigurowanie przechowywania danych dla zapytań dotyczących podróży w czasie. Typ danych: CalendarIntervalDomyślnie: interval 1 week |
delta.enableChangeDataFeedtrue aby włączyć strumień danych o zmianach.Zobacz Włącz przepływ danych zmian. Typ danych: BooleanDomyślnie: false |
delta.enableDeletionVectorstrue aby włączyć wektory usuwania i predykcyjne operacje wejścia/wyjścia na potrzeby aktualizacji.Zobacz Co to są wektory usuwania?. Typ danych: BooleanUstawienie domyślne: zależy od ustawień administratora obszaru roboczego i wersji środowiska Databricks Runtime. Zobacz Automatyczne włączanie wektorów usuwania |
delta.enableTypeWideningtrue aby włączyć rozszerzanie typu.Sprawdź Rozszerzanie typu. Typ danych: BooleanDomyślnie: false |
delta.isolationLevelStopień, w jakim transakcja musi być odizolowana od modyfikacji wprowadzonych przez transakcje współbieżne. Prawidłowe wartości to Serializable i WriteSerializable.Zobacz Poziomy izolacji i konflikty zapisu w usłudze Azure Databricks. Typ danych: StringDomyślnie: WriteSerializable |
delta.logRetentionDurationJak długo jest przechowywana historia tabeli delty. VACUUM operacje zastępują ten ustalony próg przechowywania.Za każdym razem, gdy punkt kontrolny jest zapisywany, usługa Delta Lake automatycznie czyści wpisy dziennika starsze niż interwał przechowywania. Jeśli ustawisz tę właściwość na wystarczająco dużą wartość, wiele wpisów dziennika zostanie zachowanych. Nie powinno to mieć wpływu na wydajność, ponieważ operacje na logu odbywają się w czasie stałym. Operacje na danych historii są równoległe, ale w miarę wzrostu rozmiaru logu staną się droższe. Zobacz Konfigurowanie przechowywania danych dla zapytań dotyczących podróży w czasie. Typ danych: CalendarIntervalDomyślnie: interval 30 days |
delta.minReaderVersionMinimalna wymagana wersja czytnika protokołów dla czytnika, który umożliwia odczytywanie z tej tabeli delty. Usługa Databricks nie zaleca ręcznego konfigurowania tej właściwości. Zobacz kompatybilność funkcji Delta Lake i protokoły. Typ danych: IntDomyślnie: 1 |
delta.minWriterVersionMinimalna wymagana wersja składnika zapisu protokołu dla modułu, który pozwala na zapis do tej Tabeli Delta. Usługa Databricks nie zaleca ręcznego konfigurowania tej właściwości. Zobacz kompatybilność funkcji Delta Lake i protokoły. Typ danych: IntDomyślnie: 2 |
delta.randomizeFilePrefixestrue dla usługi Delta Lake w celu wygenerowania losowego prefiksu dla ścieżki pliku zamiast informacji o partycji.Typ danych: BooleanDomyślnie: false |
delta.randomPrefixLengthGdy delta.randomizeFilePrefixes jest ustawiona na true, liczba znaków generowanych przez usługę Delta Lake dla losowych prefiksów.Typ danych: IntDomyślnie: 2 |
delta.setTransactionRetentionDurationNajkrótszy czas, przez jaki nowe migawki będą zachowywać identyfikatory transakcji (na przykład SetTransactions). Gdy nowa migawka widzi identyfikator transakcji starszy lub równy czasowi trwania określonemu przez tę właściwość, migawka uważa, że wygasła i ignoruje ją. Identyfikator SetTransaction jest używany do zapewnienia, że zapisy są idempotentne. Aby uzyskać szczegółowe informacje, sprawdź zapisy w tabeli idempotentnej w foreachBatch.Typ danych: CalendarIntervalUstawienie domyślne: (brak) |
delta.targetFileSizeRozmiar pliku docelowego w bajtach lub wyższej jednostce do optymalizacji plików. Na przykład 104857600 (bajty) lub 100mb.Zobacz Konfigurowanie usługi Delta Lake w celu kontrolowania rozmiaru pliku danych. Typ danych: StringUstawienie domyślne: (brak) |
delta.tuneFileSizesForRewritestrue zawsze używać mniejszych rozmiarów plików dla wszystkich operacji optymalizacji układu danych w tabeli delty.false aby nigdy nie dostroić się do mniejszych rozmiarów plików, czyli zapobiec aktywowaniu automatycznego wykrywania.Zobacz Konfigurowanie usługi Delta Lake w celu kontrolowania rozmiaru pliku danych. Typ danych: BooleanUstawienie domyślne: (brak) |
delta.parquet.compression.codec (Dostępne w środowisku Databricks Runtime 16.0 lub nowszym).Kodek kompresji dla tabeli Delta. ZSTD aby użyć kompresji Zstandard (Zstd) w tabeli Delta.SNAPPY aby użyć kompresji Snappy w tabeli Delta.
Typ danych: StringDomyślnie: ZSTD |