Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Komprimiert den Eingabesatz von H3-Zell-IDs so gut wie möglich. Unterstützt Spark Connect.
Die entsprechende Databricks SQL-Funktion finden Sie unter h3_compact Funktion.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.h3_compact(col=<col>)
Die Parameter
| Parameter | Typ | Description |
|---|---|---|
col |
pyspark.sql.Column oder str |
Ein Array von H3-Zell-IDs, dargestellt als Spalte oder Zeichenfolge zum Komprimieren. |
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([([599686042433355775, 599686030622195711, 599686044580839423,
... 599686038138388479, 599686043507097599, 599686015589810175, 599686014516068351,
... 599686034917163007, 599686029548453887, 599686032769679359, 599686198125920255,
... 599686040285872127, 599686041359613951, 599686039212130303, 599686023106002943,
... 599686027400970239, 599686013442326527, 599686012368584703, 599686018811035647],)],
... ['h3l_array'])
df.select(dbf.h3_compact('h3l_array').alias('result')).collect()
[Row(result=[599686030622195711, 599686015589810175, 599686014516068351, 599686034917163007, 599686029548453887, 599686032769679359, 599686198125920255, 599686023106002943, 599686027400970239, 599686013442326527, 599686012368584703, 599686018811035647, 595182446027210751])]